Vor 200 Jahren wurde der Grundstein für den Computer gelegt
Der Elektrotechniker Prof. Dr.-Ing. Dietmar Tutsch erinnert an Charles Babbage, dessen bahnbrechende Idee einer Analytischen Maschine in Vergessenheit geriet
Der Computer ist heute gesellschaftlich nicht mehr wegzudenken. Aber die Vorarbeiten dazu begannen tatsächlich schon vor 200 Jahren. Charles Babbage, Mathematiker, Philosoph und Erfinder, schuf Anfang der 1820er Jahre das erste Berechnungskonzept für einen Computer. Der Elektrotechniker Dietmar Tutsch hat sich mit Babbage beschäftigt, dessen bahnbrechende Erfindung trotzdem in Vergessenheit geriet.
„Charles Babbage war ein englischer Wissenschaftler und ein Multitalent“, sagt Tutsch, „bekannt wurde er als Vordenker, denn er schuf die Vorlage, nach der man einen Computer konstruieren konnte.“ Obwohl die Maschine nie realisiert wurde, erhielt er dennoch für dieses Berechnungs-Konzept vor genau 200 Jahren, im Jahr 1824, die Goldmedaille der Royal Astronomical Society.
1822 entwickelte Babbage die Differenzmaschine
Als Vorläufer der Analytischen Maschine entwickelte Babbage 1822 zunächst die sogenannte Differenzmaschine. „Diese Maschine diente der Auswertung von mathematischen Polynomfunktionen, d.h. genauer, der Berechnung ihrer Funktionswerte. Polynomfunktionen verwendet man vereinfachend zur Annäherung beziehungsweise als Ersatz für komplexere Funktionen. Diese Funktionen werden dann häufig in mathematischen Nachschlagewerken als Tabellen dargestellt, so dass man sie dann dort direkt ablesen kann“, erklärt der Fachmann. Babbage baute also eine Maschine, die genau diese Tabellen berechnet hat und zur damaligen Zeit natürlich rein mechanisch funktionierte.
Das Konzept der Analytischen Maschine
1837 folgte dann der Entwurf der Analytischen Maschine (Analytical Engine). Dazu Tutsch: „Im Prinzip war das eine Weiterentwicklung dieser Differenzmaschine hin zu einer mechanischen Rechenmaschine für allgemeinere Berechnungen mittels Algorithmen. Das war absolut neu! Bis dahin hatte man immer ein Schritt-für-Schritt-Vorgehen angewandt, also eine Berechnung nach der anderen, ohne dass während der Berechnung Einfluss genommen werden konnte oder Entscheidungen getroffen wurden.“ Nach diesem Prinzip funktionierten z.B. auch automatische Webstuhl-Steuerungen, weiß Tutsch, wie sie auch in Wuppertal in der Textilindustrie eingesetzt wurden. „Das Neue daran war nun, dass man Sprünge in der Ausführung hatte. So konnten bspw., abhängig von einem vorherigen Ergebnis, Berechnungen übersprungen, also weggelassen werden, oder man konnte an eine vorherige Berechnungsstelle zurückspringen, um vielleicht mehrfach das Gleiche aber mit geänderten Zahlenwerten zu machen. Diese Sprünge in verschiedenen Formen sind heutzutage Kern eines jeden Computerprogramms.“ Da die Maschine nie gebaut wurde, könne man zum Aussehen nur Mutmaßungen anstellen, erzählt er, wobei man sicher von vielen genau geschliffenen Einzelteilen, wie z. B. Zahnrädern und Spindeln ausgehen müsse.
Ada Lovelace – die erste Programmiererin der Welt
Mitverantwortlich für den späteren Erfolg seines Berechnungskonzepts war die Tochter des romantischen Dichters Lord Byron, Ada Lovelace. Die heute als erste Programmiererin der Welt bekannte Wissenschaftlerin steuerte die genaue Funktionsbeschreibung der Maschine bei. „Ada Lovelace erkannte den Mehrwert dieser Analytischen Maschine, diese Algorithmen, wodurch viel mehr als nur Berechnungen gemacht werden konnten. Sie entwarf eine genaue Beschreibung der Analytischen Maschine, einschließlich eines Programmalgorithmusses zur Berechnung von Bernoulli-Zahlen (Die Bernoulli-Zahlen gehören zu den wichtigsten Konstanten der Mathematik, Anm. d. Red.).“ Das müsse man für die damalige Zeit besonders hervorheben, betont Tutsch, dass sie diese Erfindung als Frau in der damaligen Zeit machen und realisieren konnte. Nach ihr sei die Programmiersprache Ada benannt, die in Echtzeitsystemen verwendet werde, also Computersysteme, in denen zeitliche Bedingungen zu erfüllen seien.
Zweifel wissenschaftlicher Fachleute verhinderten die Finanzierung
Auf Empfehlung der British Association for the Advancement of Science wurde die Analytische Maschine letzten Endes nicht gebaut. Da die Maschine aus vielen einzeln angefertigten Teilen bestanden hätte, zweifelten Fachleute seinerzeit an der Genauigkeit. „Eine Kostenschätzung war dadurch nicht möglich“, sagt Tutsch, „daher wurden vom Bau abgeraten und keine Finanzierung zur Verfügung gestellt.“
Babbage der Erfinder
Nun könnte man meinen, dass sich Babbage frustriert zurückgezogen hätte, doch dem war nicht der Fall, denn auf diversen anderen Gebieten hat er entscheidende Vorarbeit geleistet. Heute weiß man, dass er der erste Wissenschaftler war, der die Vigenére-Chiffre entzifferte, eine aus dem 16. Jhd. stammende Verschlüsselungsmethode für Textnachrichten, die er jedoch zeitlebens nicht veröffentlichte. „Und da sind noch einige andere Dinge zu nennen“, weiß Tutsch. „Im Eisenbahnbereich war er viel unterwegs und untersuchte Spurbreiten von Bahnen. Er erfand den sogenannten Kuhfänger an der Front von Lokomotiven oder den Prüfstandswagon für Lokomotiven, mit denen die Leistung von Lokomotiven gemessen wird. In der Medizin hat er den Augenspiegel erfunden, parallel zu Hermann von Helmholtz, dessen Variante man heute meist verwendet. Er war viel mit Statistiken und Tabellen auch von alltäglichen Ereignissen beschäftigt.“
Auch Wissenschaft vergisst
Das Gesamtkonzept der Analytischen Maschine geriet in Vergessenheit, bestätigt Tutsch, und selbst Computer-Pioniere wie Zuse, Aiken, Eckert und Mauchly seien teils erst nach ihren Erfindungen auf Babbage gestoßen. „Über die Ursache kann man nur spekulieren“, sagt er. „Damals war es so, dass eine Literaturrecherche recht mühsam war. Es gab kein Internet oder Suchmaschinen. Das geschah alles über spezielle Bücher mit Indexverzeichnissen, in denen man nach den richtigen Schlüsselwörtern suchen musste. Da übersieht man schnell einmal etwas oder verwendet schlicht das falsche Schlüsselwort. Daher sind die Veröffentlichungen von Charles Babbage oder Ada Lovelace schlicht und einfach nicht gefunden worden.“
Adäquate Rechenmaschinen erreichten erst 1960 die Genauigkeit der Analytischen Maschine
Ca. 140 Jahre nach Babbages Berechnungskonzept erreichten Rechenmaschinen die Genauigkeit der Analytischen Maschine, doch der eigentliche Beginn des Computerzeitalters habe nicht so sehr mit der Rechengenauigkeit zu tun, erklärt der Wissenschaftler, sondern mehr mit der Zuverlässigkeit und den Kosten dieser Maschinen. An dieser Stelle sei der Übergang von mechanischen zu elektrischen Computerkomponenten und die Erfindung des Transistors entscheidend. „Mechanische Fertigungstoleranzen und -probleme haben zu einem Umdenken in Richtung elektrotechnische Realisierung eines Computers in 1940er Jahren geführt. Elektronenröhren, mit denen diese aufgebaut waren, fielen aber zu schnell und häufig aus.“ Tutsch nennt ein berühmtes Beispiel: „Der ENIAC (erster elektronischer Universalrechner, Anm. d. Red.) von 1945 hatte 18000 Elektronenröhren. Bei durchschnittlich 1000 Stunden Lebensdauer fiel also alle 3,3 Minuten eine der Röhren aus. Man konnte also durchschnittlich 3,3 Minuten lang rechnen. Und dann musste man die ausgefallenen Röhren in dem hausgroßen Computer erst einmal finden, um sie zu ersetzen. Der ENIAC gehörte zur sogenannten ersten Generation von Computern. Die zweite Generation entstand um 1955 mit Transistoren, die dritte Generation um 1965 mit Integrierten Schaltkreisen (ICs), wo man ganz viele Transistoren in ein Bauelement unterbringen konnte und die vierte Generation Anfang der 1980er Jahre mit Mikroprozessoren aus hochintegrierten Schaltkreisen.“
Von der Pionierarbeit Babbages ins digitale Zeitalter
Die schon vor 200 Jahren erkannten Algorithmen, mit denen eine Maschine viel mehr leisten kann, als reine Berechnungen, sind heute fester Bestandteil technischer Prozesse. Dietmar Tutsch leitet an der Bergischen Universität den Lehrstuhl für Automatisierungstechnik / Informatik in der Fakultät für Elektrotechnik, Informationstechnik und Medientechnik und sagt: „Wir am Lehrstuhl verwenden Computer zum einen, um Produktionsprozesse in der Industrie zu automatisieren, zum anderen, um sogenannte eingebettete Systeme zu realisieren. Das sind technische Produkte, die durch einen kleinen, für den Endanwender meist unsichtbaren Computer gesteuert werden, z.B. eine Waschmaschine, ein Kaffeevollautomat, eine Heizung oder viele Dinge im Auto, wie die Airbags oder das ABS. Die algorithmische Verarbeitung der Daten ist dabei zentral.“ Wenn z.B. der Sensor an der vorderen Stoßstange des Autos einen Aufprall melde, werde automatisch der Airbag aktiviert. Und dies geschehe genau zum richtigen Zeitpunkt, sodass er genau dann voll entfaltet ist, bevor der Kopf auf das Lenkrad aufschlage. „Selbst die datengetriebenen Verfahren der KI benötigen die algorithmische Verarbeitung, z.B. um den Aufbau und das Lernen eines Neuronalen Netzes zu beschreiben und zu simulieren.“
Seit 2010 gibt es nun tatsächlich Pläne, die Maschine Babbages doch noch zu bauen. „Ja“, sagt Tutsch abschließend, „denn es gibt noch viele Unwägbarkeiten. Man will die Maschine Babbages vollständig verstehen. Viele Details sind tatsächlich noch unklar bzw. umstritten.“ So besinnt sich die Wissenschaft im 21. Jahrhundert auch immer wieder auf historische Vorbilder, um mit deren Erkenntnissen die Zukunft zu gestalten.
Uwe Blass
Prof. Dr.-Ing. Dietmar Tutsch leitet den Lehrstuhl für Automatisierungstechnik / Informatik in der Fakultät für Elektrotechnik, Informationstechnik und Medientechnik an der Bergischen Universität.