Die Geschichte der Informatik

In der Antike entstanden für das Zählen und Rechnen Hilfsmittel in Form von Steinchen Perlen und Holzstücken, die auf einer mit Leitlinien versehenen Fläche hin und her geschoben werden konnten. Der heute noch im asiatischen Raum Anwendung findende ABAKUS war die erste Rechenmaschine der Antike.

 

Im Jahre 1623 stellte Wilhelm SCHICKARD die erste mechanische Rechenmaschine vor. Über ein Zahnradgetriebe konnten die Grundrechnungsarten durchgeführt werden, auch ein Speicher stand zur Verfügung.

 

Blaise PASCAL stellte im Jahre 1642 eine ähnlich geartete Rechenmaschine vor. Er erkannte schon damals, dass Maschinen den menschlichen Geist von immer wiederkehrenden Arbeiten entlasten können.

Gottfried Wilhelm LEIBNIZ (1646 - 1716) entwickelte 1674 eine ähnliche Rechenmaschine. Im Jahre 1679 erkannte er, dass Zahlen nicht nur im Dezimalsystem, sondern auch im Binärsystem dargestellt werden können und die Eignung des Binärsystems zur technischen Durchführung von Rechnungen. Die Aussagenlogik wurde von DE MORGAN (1806 - 1870) und BOOLE (1815 - 1864) auf der Grundlage binärer Schritte in der Folge erarbeitet.

1725 erbaute Basile BOUCHON einen lochstreifengesteuerten Webstuhl.

1774 verwendete Philipp Matthäus HAHN die erste zuverlässige mechanische Rechenmaschine.

1801 gelang Joseph Maria JACQUARD eine Verbesserung und auch die Vermarktung der durch Lochstreifen gesteuerten Webstühle.

Ab 1818 ging die Leibniz´sche Rechenmaschine in Serienfertigung

Im Jahre 1833 führte Charles BABBAGE die erste programmgesteuerte Rechenmaschine vor. Seine Analytical Engine bestand aus Zahlenspeicher, Rechenwerk, Steuereinheit und Programmspeicher. Diese Maschine war aber nie voll funktionstüchtig.

Für die elfte Volkszählung in den USA, die im Jahre 1890 stattfand, entwickelte Herman HOLLERITH (1860 - 1929) einen elektromechanisch funktionierenden Lochkartenapparat. 1896 gründete Hollerith eine Gesellschaft, aus der 1924 die „International Business Machine Corporation“ (IBM) wurde.

 

Z3

1936 fertigte Konrad ZUSE den ersten Computer der Welt, den Z1, der im Zweiten Weltkrieg zerstört wurde. Ein Plansteuerwerk verfolgte einen Rechenplan, dessen Grundlagen die logischen Funktionen UND, ODER und NICHT waren. Ein duales Rechenwerk führte Rechenoperationen im dualen Zahlensystem aus, das Speicherwerk hatte die Funktion des heutigen Arbeitsspeichers. Ein Ein- und Ausgabewerk besorgte die Umwandlung vom Dezimalsystem in das Binärsystem und retour. Der Z1 wurde über einen 8-Bit-Code gelochten 35-mm-Filmstreifen gesteuert. Seine Speicherkapazität bestand in 64 Zahlen zu je 24 Bit. Das Gerät war kurbelbetrieben. Die Kurbel wurde von Hand oder mittels eines Elektromotors angetrieben. Die erste Weiterentwicklung, der Z2 (1941) enthielt mechanische Schaltglieder im Speicher, das Rechenwerk jedoch bereits elektromagnetische Schaltglieder (Relais). Der Z3 stellte die erste funktionsfähige programmgesteuerte Rechenmaschine dar. Im Rechenwerk befanden sich 600 Relais, 2000 Relais benötigte das Speicherwerk. Fest installierte Arbeitsabläufe wurden durch Tastendruck abrufbar gemacht. Eine Multiplikation dauerte etwa 4 Sekunden.

Ab 1943 wurde in England der Rechenautomat COLOSSUS für die Entschlüsselung der deutschen militärischen Geheimcodes verwendet.

Im Jahre 1944 ging in den USA der von Howard Hathaway AIKEN konstruierte Rechner MARK I in Betrieb. Er wies elektromechanische Schaltwerke auf, war 15 m lang und 2,5 m hoch und bestand aus 700 000 Einzelteilen, darunter etwa 3000 Kugellagern und 80 km Kupferdraht. Für die Multiplikation von zwei zehnstelligen Zahlen benötigte diese Rechenmaschine 6 Sekunden.

1945 war das Entstehungsjahr der Programmiersprache. In einer Abhandlung über den „Plankalkül“ beschrieb Konrad Zuse die erste algorithmische Programmiersprache.

Der im Jahre 1946 gebaute ENIAC (Elektronical Numerical Integrator and Computer), war die erste auf elektronischer Basis arbeitende Rechenmaschine. ENIAC gilt als der Urgroßvater aller Computer. Er bestand aus 18 000 Elektronenröhren und benötigte eine Leistung von 150 kW. Weiters benötigte diese Maschine eine Grundfläche von 140 m² bei einer Masse von 30 Tonnen. Die Dateneingabe erfolgte mittels Lochkarten, die Arbeitsprogramme waren erstmals als Informationen codiert im Automaten gespeichert. Der ENIAC rechnete etwa zweitausendmal schneller als MARK I. Konstruiert wurde diese Rechenmaschine von John Presper ECKERT und John William MAUCHLY.

1951 lieferten die Bell Laboratories den ersten mit Transistoren bestückten Rechner TRADIC (Transistor Digital Computer) an die Luftwaffe der USA. Dies war der Anfang vom Ende der ersten Computergeneration, die Elektronenröhren verwendete.

Die ersten Transistoren entwickelten John BARDEEN, Walter BRATTAIN und William SHOCKELY in den Bell Laboratories. Dies war der erste Schritt zur späteren integrierten Schaltung.

1956 stellte Heinz ZEMANEK das „Mailüfterl“ vor. Der erste volltransistorisierte Rechenautomat der Welt stammt aus Österreich.

Im Jahre 1958 stellte die Firma SIEMENS den ersten vollautomatischen Rechner vor, dessen Schalter ausnahmslos aus Transistoren bestanden. Die Verbindung zwischen den einzelnen Bauelementen erfolgte durch Kabel, die in Kabelbäumen gebündelt waren.

1958 baute auch Jack St. Claire KILBY in einem Germaniumkristall vier Transistoren und Widerstände ein (Flip-Flop). Damit war der erste IC (Integrierte Schaltkreis) der Geschichte entstanden.

1968 stellte IBM erste Speicherchips mit einer Kapazität von 64 Bit vor. Als es gelungen war, mehrere Transistoren und deren elektrische Verbindungen auf einem einzigen Siliziumplättchen (einem Monolithen) als eine konstruktive Einheit (integriert) herzustellen, war dies die Geburtsstunde der integrierten Schaltung, der monolithischen Integration und damit der dritten Generation der Computer.

Minituiarisierung bei Erhöhung der Integrationsdichte (Anzahl der Transistoren je Chip) und kürzere Schaltzeiten sind die Ziele der Mikroelektronik, die die Computer der vierten Generation charakterisiert.

Die unmittelbaren Folgen der rasant zunehmenden Integrationsdichte (Verdoppelung alle 2 bis 3 Jahre) sind in der wachsenden Leistungsfähigkeit der ICs bei gleichzeitig sinkendem Preis je Transistorfunktion zu sehen. Dadurch kann die Mikroelektronik auch dort eingesetzt werden, wo früher die traditionelle „Elektronik“ noch nicht leistungsfähig, klein und wirtschaftlich genug war. Der Einzug der Mikroelektronik in Taschenrechnern und Uhren ist ein Beispiel für den technologischen und wirtschaftlichen Durchbruch. Die computergestützte numerische Werkzeugmaschinensteuerung, meist abgekürzt CNC (Computer Numerical Control), und der Großcomputer demonstrieren das Leistungsvermögen der modernen Mikroelektronik.

Mit den Computern der fünften Generation werden Expertensysteme angestrebt, die mit Hilfe von gespeichertem Wissen Aufgaben innerhalb eines Spezialgebietes selbständig lösen können. Der Mensch-Maschine-Dialog in der Umgangssprache ist heute schon keine Utopie mehr.

Bei der Informationstechnik bzw. Informationselektronik geht es nicht um energetische Prozesse, sondern um die Darstellung, Verarbeitung, Speicherung und Übertragung von Informationen mit Hilfe elektrischer Signale. Die elektrischen Impulse sind hier Informationsträger, ähnlich wie die Schallwellen Informationsträger des gesprochenen Wortes sind. Unter Mikroelektronik versteht man hier stets Informationselektronik. Die Mikroelektronik ist also eine Technologie zur Informationsverarbeitung, wie sie uns etwa in der Ablaufsteuerung des mechanischen Uhrwerks oder in der Steuerung von Verbrennungsmotoren vertraut ist. Sie eröffnet neue, kaum vorstellbare Möglichkeiten, da es in der gesamten Menschheitsgeschichte keine auch nur annähernd vergleichbare Technologie gegeben hat.

zurück