Informatik ist mehr als 0 und 1
19. Januar 2006Das Wort "Informatik" an sich ist eine Kombination aus Information und Automatik: Es geht um das Darstellen, Speichern, Verarbeiten und Übertragen von Informationen. Zum ersten Mal taucht der Begriff 1957 in der Veröffentlichung "Informatik: Automatische Informationsverarbeitung" auf. Autor war der Deutsche Karl Steinbuch (1917-2005). Heute ist die Informatik eine "Kooperationspartnerin für jede Wissenschaft - nicht nur als 'Werkzeug', sondern auch als Methode zur intellektuellen Analyse und Modellbildung", sagt Wilfried Brauer, Professor für Informatik an der Universität Hamburg.
Zwei Zustände: An / Aus
Die Wissenschaft hat vier Grunddisziplinen: theoretische, praktische, technische und angewandte Informatik. Die Grundlagen schafft die theoretische Informatik. Schwerpunkte sind unter anderem Theorien der Berechenbarkeit von Problemen, Kryptographie oder Komplexitätstheorien. In der praktischen Informatik geht es um Dinge, wie Programmiersprachen, Betriebssysteme und Künstliche Intelligenz.
Technische Informatiker schaffen Hardware. Dazu gehört der logischen Entwurf von Rechnern, Geräten und Schaltungen. Doch ohne Software ist jede Hardware nutzlos. "Für die Entwicklung der Informationstechnik war die Software genau so wichtig wie die Hardware", sagt Brauer. Denn der Computer verrichtet seine Arbeit nur scheinbar automatisch: "Die Darstellung der Welt auf Basis von Nullen und Einsen hat völlig neue Möglichkeiten zur Informationsverarbeitung geschaffen", erinnert sich Matthias Jarke, Präsident der Gesellschaft für Informatik.
Ein zentraler Begriff in der Informatik sind Algorithmen - Vorschriften, die so präzise sein müssen, dass eine elektrische oder mechanische Maschine sie Schritt für Schritt abarbeiten kann. Ein Beispiel für einen alltäglichen Algorithmus ist ein Kochrezept. Befolgt der Koch jeden Punkt in der richtigen Reihenfolge, gelingt das Essen.
Lange Denk-Geschichte
Drei Disziplinen haben die Entwicklung der Informatik besonders geprägt: die Mathematik, die Mechanik und später die Elektronik. Große Bedeutung kommt dem deutschen Universalgelehrten Gottfried Wilhelm Leibniz (1646-1716) zu. "Er entdeckte die Bedeutung des Dualsystems und das Rechnen in diesem", erklärt Brauer. Dadurch entstand die Idee, ein binäres Zahlensystem als Basis einer Rechenmaschine zu nutzen - lange vor dem Bau des ersten Computers.
Ein Mathematiker erwies sich im 19. Jahrhundert als Computerpionier: Der Engländer Charles Babbage entwarf das Konzept des ersten Computers. Seine "Analytical Engine" (Analytische Maschine) enthielt bereits alle Elemente eines modernen Computers: eine zentrale Recheneinheit, einen Speicher und die Möglichkeit, Variablen und Zahlen einzugeben. Babbage schaffte es allerdings nicht, seine Maschine zu bauen.
Was ist ein echter "Bug"?
Den ersten programmierbaren Computer konstruierte der Deutsche Konrad Zuse 1941: Das war der berühmte "Z3". Er entwarf die so genannte Schaltalgebra, deren Grundlage das Binärsystem ist. Um sie elektrisch umzusetzen, braucht es zwei Zustände: Null und Eins. Sprich: Strom an und Strom aus. Die Schaltarbeit erledigten Telefonrelais.
Es folgten Computer so groß wie Einbauküchen - die aber kein Mensch zu Hause haben wollte. In Forschung und Industrie fanden sie zunehmend Anklang. Damals entstand auch der Begriff des "Bug" (engl. Käfer) für eine Fehlfunktion des Rechners. Denn in den großen Anlagen passierte es, dass ein echter Käfer das System per Kurzschluss lahm legte. "Personal Computer", die man zu Hause hinstellen kann, gibt es erst seit Anfang der 1980er Jahre. Heute bestimmt die Informatik weite Teile des Alltags: von der computergesteuerten Waschmaschine bis zum Geldautomaten. (arn)
Das siebte deutsche Wissenschaftsjahr, ausgerufen vom Bundesministerium für Bildung und Forschung, widmet sich 2006 der Informatik. Ziel ist es, den Menschen die Bedeutung der Informatik näher zu bringen und auch Berührungsängste abzubauen.