Historia informatyki

Informatyka, dziedzina nauki nieustająco się rozwijająca, mająca coraz większy wpływ na nasze życie zarówno zawodowe jak i prywatne. W poniższym artykule spróbujemy prześledzić jej losy od czasów przed naszą erą, do czasów powstania komputera w rozumieniu jakie znamy obecnie.
Czasy prehistoryczne – w X wieku p.n.e. do obliczania wyników stosowano układy kamieni. Później nawlekanie kamieni na pręty doprowadziło do stworzenia pierwszego liczydła zwanego abakusem. W wiekach średnich ukształtowało się japońskie liczydło soroban.
Wieki średnie – Muhammad al-Chorezmi w IX wieku opisał pozycyjny system kodowania dziesiętnego i sztukę liczenia w tym systemie. Stanowiło to początek sztuki wykonywania obliczeń pisanych. Działali wtedy algorytmiści – zwolennicy obliczeń pisanych, kalkulatorzy – wykonujący obliczenia na kamykach oraz abacysci – posługujący się liczydłami.
Wiek XVII – Wiliam Oughtred stworzył w roku 1622 koncepcję i prototyp suwaka logarytmicznego, służącego po dziś dzień do wykonywania wielu obliczeń. Gottfried Wilhelm von Leibnitz (1646-1716), jeden z twórców rachunku różniczkowego, zaczął stosować system dwójkowy (binarny) do zapisu liczb. Był również twórcą maszyny liczącej. Kolejnymi znaczącymi postaciami byli Blaise Pascal (1623-1662) i Wilhelm Schickard (1592-1635) jako konstruktorzy maszyn liczących: Pascal dwudziałaniowej, Schickard czterodziałaniowej, przy czym nie były to jeszcze jednak urządzenia w pełni automatyczne.
Wiek XVIII – Charles Babbage (1791-1871) był najwybitniejszym twórcą mechanicznych maszyn liczących przed erą elektroniczną. Jego produkt po ustawieniu początkowych parametrów nie wymagał żadnych ingerencji użytkownika poza kręceniem korbą. Marzeniem Babbage’a było stworzenie maszyny analitycznej. Tworząc jej projekt naszkicował wiele pomysłów zrealizowanych dopiero we współczesnych komputerach.
Wiek XX – Ada Augusta, hrabina Loevace, córka Byrona, zafascynowana niezrealizowanym projektem maszyny analitycznej, zajęła się sporządzaniem opisów jej działania w konkretnych zadaniach, czyli pisaniem programów. Alan Turing (1912-1954) w 1936 opisał tok myślenia prowadzący od obliczeń wykonywanych ręcznie do obliczeń wykonywanych przez prostą maszynę. Postacią o której nie można nie wspomnieć to John von Neumann (1912-1957), postać numer jeden w historii współczesnej informatyki. To właśnie on, zaproponował architekturę komputera wykorzystywaną do dziś, znaną jako architektura von neumannowska. Jej podstawowe elementy to:

  • pamięć złożona z elementów przyjmujących stany 0 1;
  • arytmometr zdolny wykonywać działania arytmetyczne i logiczne;
  • blok odpowiedzialny za sterowanie;
  • urządzenia wprowadzania danych i wyprowadzania wyników.

Architektura neumannowska opisuje również program, jako zbiór reguł (poleceń, przepisów), według których mają się odbywać obliczenia. Kolejne rozkazy pobierane są sekwencyjnie przez jednostkę sterującą, rozpoznawane a następnie wykonywane. Program podczas swego działania może zmienić zawartość dowolnego obszaru pamięci. Tak właśnie rodzi się maszyna, której celem działania jest przejście w takt zegara od początkowego stanu pamięci do stanu końcowego zawierającego wynik. Od tego momentu rozpoczyna się historia urządzenia nazywanego komputer, którego angielska nazwa computer pochodzi od czasownika „to computer” – obliczać.