Informatik
Welche Erfindungen der letzten 80 Jahre haben unsere Gesellschaft am stärksten geprägt? Mit Sicherheit die Atombombe und die friedliche Nutzung der Kernenergie zur Stromerzeugung. Dann die Entwicklung der V2 Rakete, ohne welche es den rasanten Wettlauf der Raumfahrt bis hin zum Mond niemals gegeben hätte. Es folgte die revolutionäre Erfindung des Transistors. Mikrowelle, Laser, nicht zu vergessen die Entdeckung der Genetik und dem tieferen Verständnis unserer DNA. Aber keine dieser Erfindungen ist in unserem Alltag so sichtbar wie die des Computers. Denn in der zweiten Hälfte des 20. Jahrhunderts hat sich mit der Informatik eine komplett neue Wissenschaft in unser Lebensverständnis gedrängt. Auf physikalischen wie mathematischen Grundlagen aufbauend ist die Informationstechnik das alles überragende Werkzeug unserer Generation. Bereits während des zweiten Weltkriegs zeichnete sich die zukünftige Bedeutung des maschinellen Rechnens ab. Doch die ersten turingmächtigen Maschinen waren unhandlich, teuer und schwer zu bedienen. Dies änderte sich erst 1971 mit der Entwicklung der ersten Mikroprozessoren. Von da an war der Siegeszug des Computers gesichert. Damit trotz rascher Verbreitung der Geräte weltweit die Institutionen kommunizieren und Informationen über weite Distanzen austauschen konnten, regelten fortan einheitliche Standards, die sogenannten RFCs, die Kommunikation mithilfe verschiedener Protokollsysteme. Mit den Beginnen von TCP/IP war das Internet geboren. Ende der 70er kamen die ersten Personal Computer auf den Markt, also Rechenmaschinen, die jeder Mensch für einen bezahlbaren Preis kaufen und mit wenig Grundwissen bedienen konnte. Innerhalb eines Jahrzehnts war der Platzverbrauch eines Computers von ganzen Räumen auf eine kleine Tischplatte geschrumpft. Und mit dem ersten iPod 2001 wanderte dieselbe Rechenpower in eine gewöhnliche Hosentasche. Dabei ist aber das Grundkonzept des Rechnens fast gleich geblieben. Interessanterweise sind sogar viele Algorithmen lange vor den ersten Computern geschrieben worden. Man muss also nicht zwangsläufig programmieren können oder einen leistungsstarken PC besitzen, um sich mit Informatik auseinanderzusetzen.
Kaum ein Wort verbindet man heute so stark mit Informatik und künstlicher Intelligenz wie das Wort Algorithmus. Algorithmen beherrschen die Welt. Das klingt dystopischer als es in der Realität ist. Denn ein Algorithmus ist keinesfalls ein denkendes Wesen oder die Seele einer Maschine. Ein Algorithmus ist nicht nicht viel mehr als ein Kochrezept. Man rührt Zutaten nach bestimmten Anweisungen zusammen, bearbeitet sie mithilfe verschiedener Werkzeuge und erhält schließlich ein Ergebnis. Das Wichtige dabei: Das Rezept wurde zuvor von einem Menschen nach bestimmten Maßgaben entworfen. Sie können sich mit Papier und Stift hinsetzen und sich ebenfalls ein Rezept ausdenken. Und genauso können Sie ohne Weiteres auch einen Algorithmus aufschreiben. Viele Algorithmen haben wir im Kopf wie zum Öffnen einer Tür oder zum Binden einer Schleife. Intuitiv fragen wir die Gegebenheiten ab: Ist die Tür verschlossen? Sind die Schnürsenkel richtig eingefädelt? Es folgt eine strikte Abfolge von einzelnen Handgriffen in der richtigen Reihenfolge. Nur wenn wir alles richtig machen, erhalten wir am Ende das erwünschte Ergebnis.
Einen Algorithmus zu entwerfen ist nicht schwer. Der wesentliche Unterschied zwischen einem Computerprogramm und einem Kochrezept liegt darin, dass der Computer keinen Verstand besitzt. Eine geringe Ungenauigkeit der Anweisung kann unvorhersehbare Folgen haben. Dazu kommt, dass Computer längst nicht so fehlerfrei rechnen, wie viele meinen. Wir bemerken nur selten Fehler, da sie in der Regel direkt vom System abgefangen werden. Zu jedem Softwaresystem gehört also ein Fehlermanagement. Und auch das muss von einem Menschen geschrieben werden.
Zu guter Letzt möchten jedoch die wenigsten Menschen tiefere Einblicke in ihre technischen Geräte haben. Alles soll wie von Zauberhand automatisch passieren. Die Schere zwischen Bedienbarkeit und Komplexität der Entwicklung geht immer weiter auseinander. Mittlerweile ist das Feld der Informatik so groß geworden, dass kein einzelner Mensch mehr jeden Ablauf in einem Computer nachvollziehen kann. Das bedeutet aber nicht, dass sich die Algorithmen von selbst entwickeln.
keine