Informatyka dla gimnazjum/Czym są komputery?
Czym właściwie jest komputer? Urządzeniem do grania w różne gry, słuchania ulubionej muzyki lub przeglądania witryn internetowych? Tak, ale należy brać pod uwagę pierwotny cel stworzenia komputera; ludzie chcieli stworzyć maszynę, wykonującą obliczenia matematyczne. Już w starożytności ludzie posługiwali się przyrządami wspomagającymi liczenie (np. abakusem). Prototypy dzisiejszych komputerów były kiedyś kalkulatorami, mającymi znaczne rozmiary. Początki tych urządzeń sięgają lat 30. i 40. XX wieku. Pierwszy komputer został skonstruowany przez amerykańskiego uczonego, J. von Neumanna, w celu przyspieszenia prac nad tworzeniem bomby atomowej. Maszyna Neumanna miała jedno proste zadanie - wyliczać skomplikowane równania matematyczne, na potrzeby tzw. "tablic balistycznych". Miała znaczne rozmiary, niemniej jednak została bardzo sprytnie zaprojektowana. Urządzenie mogło być później wykorzystane do rozwiązania różnych innych problemów. Tak powstała Maszyna von Neumanna - model, na którym projektanci komputerów wzorują się nawet dzisiaj. Zaskakujące jest to, że w 1945 r. ówczesny prezes firmy International Business Machines (IBM), znanej firmy komputerowej, stwierdził, że na świecie wystarczy jedynie około 5 komputerów!
Czytając ten tekst, nasuwa się jedno pytanie: jak wyglądał ówczesny komputer? Omówmy to zagadnienie na przykładzie maszyny ENIAC (ang. Electronic Numerical Integrator and Calculator), najsłynniejszego z pierwszych komputerów. ENIAC nie wykorzystywał jeszcze wielu pomysłów von Neumanna, które narodziły się dopiero, kiedy pomagał przy jego budowie. Posiadał ponad 18 tysięcy lamp elektronowych, ważył kilka ton i był dosyć nieporęczny, bo zajmował cały budynek. Pomimo swej pozornej ociężałości, potrafił dodać aż kilka liczb na sekundę, choć proste mnożenie zajmowało mu 1-2 sekundy. Z czasem powstawały maszyny coraz szybsze, coraz pojemniejsze i, przede wszystkim, coraz mniejsze. W ciągu następnych kilku dekad komputerów powoli przybywało, równocześnie zmieniało się ich przeznaczenie.
Przełomowym momentem w historii komputera było wprowadzenie do użytku mikroprocesora. Dokonała tego w roku 1971 amerykańska firma Integrated Elecronics (dzisiaj szerzej znana jako Intel). Pozwoliło to na "upakowanie" sporej ilości układów elektronicznych na niewielkiej płytce. Pierwszym modelem mikroprocesora był model 4004 - 4-bitowy, przeznaczony dla kalkulatorów. Szybko powstał model 8008 - już 8-bitowy, nadający się do użytku w komputerach osobistych i niedługo po nim 8086 - założyciel "rodu" x86. Komputery stały się na tyle tanie, by coraz więcej ludzi mogło nabyć je do własnego użytku. Procesor 8086 stał się sercem popularnego domowego komputera IBM PC/XT (Personal Computer/eXtended Technology - komputer osobisty, rozszerzona technologia). Później przyszła kolej na procesor 80286 (czyli komputery PC/AT - ang. Advanced Technology - zaawansowana technologia). Dalej wszystko potoczyło się szybko - nowoczesny 80386, 486, Pentium, Pentium II, Pentium III, Pentium 4. Według prawa Moore'a (Moore był jednym z pierwszych szefów Intela), moc procesorów miała się podwajać co półtora roku. I, co zaskakujące, przez wiele lat podwajała się, podwaja się nadal i, kto wie, jak długo ten szaleńczy wzrost będzie trwał. W każdym razie łatwo obliczyć jak szybkie będą komputery za kilka lat.
Dzisiejsze procesory komputerowe zbudowane są z tranzystorów, a każdy ma wielkość kilkudziesięciu milimetrów. Nie oznacza to jednak, że komputery mają tylko i wyłącznie niewielkie rozmiary, istnieją bowiem superkomputery, wielkości kilku szaf, przystosowane do wielkich ilości obliczeń.
Ważną rzeczą jest uświadomienie sobie, że pod zasłoną kolorowych gier, programów graficznych i pięknie udekorowanych komputerowych "biurek", nadal kryje się maszyna licząca. Szybkość pierwszych komputerów oceniano na kilka operacji na sekundę (operacji w sensie dodania dwóch liczb, odejmowania itp.). Szybkość dzisiejszych mierzy się w milionach operacji na sekundę, a bywa tak, że jest ona niewystarczająca. Komputery muszą być coraz szybsze, by sprostać coraz większej ilości przetwarzanych przez nie informacji.