Informatik


Ein Streifzug durch die Geschichte der Informatik

Der Aufbruch in die digitale Epoche von der Rechen-Uhr zum Computer

Die Idee, das menschliche Gehirn zu entlasten, indem Maschinen zur Lösung bestimmter Probleme eingesetzt werden, wird seit Jarhunderten mit ungewöhnlich großer intellektueller Vitalität verfolgt. Sie zieht sich wie ein roter Faden durch die Geschichte der Rechenautomaten, von der Rechenuhr bis zum Computer und damit zur im laufe der Jahre erschaffenen Wissenschaft Informatik. Um die Evolution dieser technischen Seite der modernen Informatik geht es nachfolgend.

 

Erste Schritte: Mechanisches Rechnen

Im 17. Jahrhundert wurde die erste Rechen-Uhr erfunden. Sie funktionierte noch streng mechanisch und legte den Grundstein für zahlreiche, weitaus komplexere Entwicklungen, wie die Pascaline. Anfang des 18. Jahrhunderts formulierte der Wissenschaftler Leibniz erste Gedanken über die Zweckmäßigkeit von binären Zahlen  den Nullen und Einsen. Damit wurde der Weg für die weitere Entwicklung der Informatik geebnet. 

Von der Lochkarte zur Analytical Engine

Die nächste Epoche der Rechner-Technologie wurde durch die Erfindung einer Lochkarte zur Erleichterung von Arbeitsprozessen wesentlich vorangetrieben. Es ergaben sich Erkenntnisse der Kontrollierbarkeit, Variabilität und sprachlichen Steuerbarkeit, der Programmierung einer Maschine. Die ersten Rechner, die alle möglichen komplexen Rechenvorgänge selbstständig, Ende des 19. Jahrhunderts auch elektro-mechanisch, durchführen konnten wurden entwickelt.

Die Zeit der digitalen Rechenautomaten

Mitte der 30er wurde von Konrad Zuse das binäre Prinzip wieder aufgegriffen und schließlich die ersten programmgesteuerten und vollautomatischen Rechner entwickelt. Die Verschmelzung von Radartechnik, kryptographische Verschlüsselungstechnik und die Erfahrungen mit Analogrechnern führte im 20. Jahrhundert zur Geburt des elektronischen Rechners, Computer genannt.

Durch Effizienzsteigerung zur Informatik heute

Anfang des 20. Jahrhunderts wurden die ersten Mikroprozessoren erfunden. Die Möglichkeiten, immer mehr Daten auf physikalisch immer kleinerem Platz unterzubringen stiegen bis heute enorm an. Dadurch ergaben sich völlig neue Fragen und Konzepte für die Anwendung und das Wesen von Information sowie bahnbrechender Entwicklungen in der Programmierung. Mit der immer größer werdenden Komplexität wurde schließlich die Wissenschaft Informatik begründet. 

Ein weiterer Durchbruch in der Miniaturisierung gelang 1971, als das amerikanische Unternehmen Intel einen Silizium-Halbleiterbaustein vorstellte, der aus 2.300 Transistoren bestand und kleiner war als ein Fingernagel. Der Mikro-prozessor war erfunden. Die rasche Miniaturisierung bei gleich bleibender oder gar zunehmender Rechenleistung veranlasste den Gründer von Intel, Gordon Moore, 1965 zu einer Vorhersage: Alle zwei Jahre werde sich die Anzahl der Transistoren auf einem Mikropozessor verdoppeln. Diese Vorhersage hat sich in den vergangenen 40 Jahren bestätigt. Die Zahl der Transistoren auf einem Chip wächst sogar noch etwas schneller an. Inzwischen befinden sich auf einem Mikroprozessor etwa eine Milliarde Transistoren.
Die großen technischen Fortschritte im Bereich der Hardware gaben in den 1960er Jahren Anlass zu einer von vielen Forschern geteilten Aufbruchsstimmung im Hinblick auf die neuen und revolutionären Möglichkeiten der Computertechnik. Notwendig waren neue Konzepte dafür, wie Menschen mit dem elektronischen Gehirn kommunizieren könnten. Auch musste grundsätzlich über fundamentale Fragen nachgedacht werden: Was ist das Wesen von Information? Wie kann eine Mensch-Computer-Kommunikation umgesetzt werden? Wie lassen sich Computer programmieren? Ist die jahrhundertealte Vision von den selbständig denkenden Maschinen jetzt realisierbar?
Theoretiker wie Alan Turing (1912-1954) wiesen schon 1936 die Mächtigkeit von Rechnermodellen nach und formalisierten den Algorithmusbegriff. Nachrichtentechniker wie Claude E. Shannon (1916-2001) widmeten sich der Informationstheorie. Wissenschaftler wie John McCarthy (*1927), Niklaus Wirth (*1934) oder Edsger Wybe Dijkstra (1930-2002) analysierten das Problem, wie Computer präzise, konsistent und trotzdem flexibel durch Programmiersprachen zu steuern und wie deren Syntax und Semantik zu beschreiben wären. In kurzer Zeit wurden viele neue Konzepte zum Aufstellen von Algorithmen neue Computersprachen und eine Fülle von Software und Vernetzungen entwickelt. Mit der immer komplexer werdenden Software wandelte sich das Bild des Computers vom Rechenknecht zum universellen Assistenten für geistige Tätigkeiten. Dies begründete zugleich die neue Wissenschaft Informatik.
Auch grundsätzlichere Fragen mussten von den Pionieren der Informatik beantwortet werden: Was sind die Voraussetzungen für die Möglichkeit, dass Menschen den Ergebnissen eines Computers vertrauen können? Inwieweit können natürliche Sprachen Vorbild für künstliche Sprachen sein? Sollte die Architektur eines Computers an die Funktionsweise des menschlichen Gehirns angelehnt sein? Sind menschliche Denkweisen und hochkomplexe Programme in irgendeiner Weise vergleichbar? Viele dieser Fragen sind bis heute ungeklärt. Und anders als bei anderen technischen Errungenschaften beschränken sie sich nicht nur auf die materielle Welt, sondern berühren den Kern des menschlichen Wesens: sein Vermögen zu logischem Denken und rationaler Überlegung. Das Charakteristische des Menschen ist sein zielgerichteter Umgang mit Wissen und Information. Diese Einmaligkeit haben Erfinder wie Schickard, Leibniz, Zuse usw. zu ihrem Untersuchungsgebiet erklärt und so faszinierende Meilensteine für die heutige Wissenschaft der Informations- und Wissensverarbeitung, für die Informatik geliefert.

 Quelle: Informatikjahr