Think Analogue!

Vergangenheit, Gegenwart und Zukunft des Analogcomputers

In der von der Medienwissenschaft der Berliner Humboldt-Universität inaugurierten Methode der Medienarchäologie stehen besonders Technologien im Fokus, die Alternativen, Brücken oder Schwundstufen heutiger Medien bilde(te)n. Der Analogcomputer ist gleich in mehrfacher Hinsicht für diesen Blickwinkel interessant und wurde deshalb auf einem Workshop vom 11. bis 13. April von Vertretern verschiedener Disziplinen diskutiert.

Analogcomputer hatten ihre Blütezeit von den 1930er- bis in die frühen 1970er-Jahre. Von den ersten mechanischen Analogrechnern bis hin zu frei programmierbaren elektronischen Computern namhafter Hersteller wie Telefunken, Hitachi oder Dornier bestachen sie auf mehreren Gebieten was die Berechnung komplizierter mathematischer Funktionen angeht. Mit dem Geschwindigkeitszuwachs der Digitalcomputer und der durch die Mikroprozessorerfindung rapide fallenden Kosten endete die „analoge Ära“ jedoch. Dass Analogcomputer oder gar Analogelektronik damit aus der Welt verschwunden ist, wäre jedoch ein Irrglaube. Es sind aber nicht allein bloß verklärt-nostalgische Zuschreibungen wie „analog klingt wärmer“, die auch heute noch die Vorteile dieser Technologie unterstreichen.

Auf dem Workshop kamen Mathematiker, Informatiker, Digitalelektroniker, Künstler und nicht zuletzt Medienwissenschaftler zusammen, um die Frage nach der Aktualität des Analogen vor dem Hintergrund einer oft „problematisch gewordenen Digitalität“ zu diskutieren. Der Workshop gliederte sich dazu in drei Teile: Am ersten Abend zeigten die Künstler, was mit analoger Rechentechnik kreativ gestaltet wurde und wird. Am zweiten Tag wurden in neun Vorträgen die oben genannten multidisziplinären Perspektiven vorgestellt und diskutiert. Und am dritten Tag fand ein „Hands on“-Workshop statt, auf dem die Teilnehmer die Programmierung eines Analogcomputers erlernen und durchführen konnten.

Für die Simulation von Schwingungsphänomenen lassen sich Analogrechner und -computer besonders eindrucksvoll einsetzen. Die Popularität modularer Synthesizer (die mit ihren Oszillatoren sozusagen eine „Spezialanwendung“ analogen Rechnens darstellen) von den Moogs der frühen 60er-Jahre bis zu Synthesizern der Gegenwart verdeutlicht dies eindrucksvoll. Insbesondere die Möglichkeit der Hands-on-Klangsteuerung in Echtzeit führt deutlich vor Augen (und Ohren) worin der wesentliche Vorteil des Analogcomputers lange Zeit bestand: in der Unverzüglichkeit der Verrechnung von Eingangsspannungen zu Ausgangsspannungen.

Hans Kulk

Der holländische Künstler Hans Kulk führte dieses Prinzip mithilfe transistorisierter und Röhren-Analogcomputer vor, die er in seinem Studio zum Komponieren nutzt. Die Geräte selbst konnte er aufgrund ihrer Größe natürlich nicht mit nach Berlin bringen, verdeutlichte jedoch anhand von Tonbeispielen und Schaltplänen, auf welche Weise er seine Musik programmiert.

Rhythmogramm

Dass Rhythmus nicht allein ein akustisches Phänomen ist, sondern auch visualisiert werden kann, hatte eine kürzlich an der Humboldt-Medienwissenschaft abgeschlossene Dissertation über „Algoryhtmen“ theoretisch vorgeführt. Sichtbar wurde dies auch noch einmal auf dem Workshop, wo Benjamin Heidersberger zusammen mit Bernd Rodrian zunächst die mittels komplizierter Aufbauten erstellten „Rhytmogramme“ seines Vaters Heinrich Heidersberger vorstellte, um danach dann mit einem in den 1970er-Jahren gebauten Spezial-Analogcomputer über ein Oszilloskop elektronische Ryhtmogramme auf eine Leinwand zu zaubern: Die als Lissajous-Figuren bekannten Schwingungsgraphen konnte er dabei instantan durch Drehen an Koeffizienten-Potentiometern ändern, so dass sich auf der Leinwand eindrucksvolle Bewegungen und Verwandlungen zeigten.

Wie nah die Medientheorie der Berliner Humboldt-Universität der Musik steht bzw. ihre Wurzeln in der Geschichte derselben sucht, zeigte eine Podiumsdiskussion über den vom kürzlich verstorbenen Medien- und Kulturwissenschaftler Friedrich Kittler in den 1970er-Jahren gebauten modularen Synthesizer. Das Gerät, das leider nicht mehr funktioniert, wurde eigens aus dem Kittler-Archiv in Marbach ausgeliehen und einer „Anatomie“ im Stile neuzeitlicher Medizin unterzogen. Videoaufnahmen dieses in Kürze veröffentlichten Kunstprojektes fanden ihre Vorabaufführung auf dem Workshop und boten einen ersten Anlass zur Diskussion zwischen Praktikern und Theoretikern.

Ihre Rechengeschwindigkeit hatte die elektronischen Analogcomputer in den 1930er-Jahren zur wichtigen Technologie vor allem auf dem militärischen Sektor werden lassen. Die Geräte von Helmut Hölzer fanden Eingang in die V2/A4-Raketen, mit der die Nazis ihren Terror-Krieg gegen die britische Zivil-Bevölkerung führten. Diese Raketen mussten nicht mehr ferngesteuert werden (das ging auf die Distanz ohnehin nicht), sondern konnten sich über die eingebauten Analogschaltungen selbst auf Kurs halten. Gegen Ende des Krieges wurden auch auf alliierter Seite Analogcomputer zunehmend wichtiger, um zum Beispiel Trajektorien für Boden-Luft-Geschütze zu berechnen, die durch menschliche Heuristik längst nicht mehr geschätzt werden konnten.

Martin Pape

Diese „Zeitlosigkeit“, mit der die Berechnung im Analogcomputer vonstatten geht, und die erst sehr viel später durch die Digitalcomputer eingeholt wurde (wenngleich diese immer noch Rechenzeit benötigen – und sei sie auch noch so kurz), war der medientheoretische Anlass des Workshops, der die Frage aufwarf, ob dieser Aspekt im heutigen Denken über Technologien auch noch wichtig sein könnte. Wolfgang Ernst, der die Veranstaltung federführend geleitet hat, wies in seinem Vortrag auf genau diese Momente hin und stellte dabei heraus, inwiefern die Andersartigkeit des Analogen auch aktuelle und neue Perspektiven bietet.

Der Analogcomputer weist auf eine ebenso reichhaltige und stolze Tradition wie der Digitalcomputer zurück. Ein Besuch bei Bernd Ulmann im Analogcomputer-Museum, das es nicht nur im Internet gibt, sondern mit den funktionierenden Geräten in der Nähe von Frankfurt am Main zu finden ist, stellt dies eindrucksvoll unter Beweis. Ulmann, der in Frankfurt Informatik lehrt und den Workshop mit initiiert hatte, berichtete aus dieser Geschichte und stellte besondere Geräte vor. Der Berliner Informatiker Frank Winkler nahm sich des „Herzstücks“ des Analogcomputers – dem Operationsverstärker – an und beleuchtete dessen ganz eigene Historie. Die spezifische Mathematik des Analogen, die sich von der Diskretheit digitaler Mathematik unterscheiden lässt, stellte der Berliner Mathematiker Martin Pape vor.

Wolfgang Ernst

Neben solch systematisch und historisch fundamentalen Beiträgen waren es aber vor allem Anwendungsfragen für Analogrechentechnik der Gegenwart, die dem Workshop-Thema folgten und der Grundannahme einer „Zukunft des Analogen“ Rechnung trugen. So stellte Horst Völz eine diskutable Möglichkeit „diskret(isiert)er Analogtechnologie“ anhand der Digitalisierung vor: Anstatt einzelne analoge Signale mit zwar beliebiger Genauigkeit aber stetig wachsendem Speicherbedarfs abzutasten, schlug er eine Funktionsermittlung vor, bei der nur noch die Teilfunktionen einer Signalverlaufs-Kurve gespeichert werden und später nur wieder zum ursprünglichen Graphen zusammengesetzt werden müssen.

Horst Völz

Analogcomputer heißen auch deshalb Analogcomputer, weil sie in ihrem Inneren Analogien abbilden: Die Berechnung einer Differenzialgleichung aus der Physik (etwa einer von verschiedenen Faktoren beeinflussten Wurfparabel) geschieht über eine elektrische Analogie, bei der die Spannungsgrößen über einen Zeitverlauf so von bestimmten (Widerständen usw.) Faktoren beeinflusst werden, wie ein Wurfgeschoss über einen proportionalen Zeitverlauf (durch Reibung usw.) beeinfluss wird. Diese Art physiknahen Rechnens ist bereits bei mechanischen Analogrechnern die zentrale Eigenschaft gewesen. Vannevar Bushs Differential Analyser war in den frühen 1930er-Jahren eines der engagiertes Projekte dieser Art. Wie mechanische und elektronische Anlagen jenseits dessen physikalische Modelle abbilden, war das Thema des Vortrags von Oswald Berthold.

Manfred Hild

Dass solche Berechnungen nicht immer Zahlen zutage fördern, sondern eben auch direkt in Verhalten bzw. Steuerung einfließen, war schon bei Hölzers V2-Aggregat entscheidend. Einen sehr elaborierten und neuen Ansatz für die Robotik stellte Manfred Hild vor, der in der Technischen Informatik der Humboldt-Universität an dem Myon-Roboter-Projekt leitend mitarbeitet. Sich von der typischen Sensor-Computer-Reaktions-Steuerung entfernend zeigte Hild verschiedene Möglichkeiten der autonomen Robotik mithilfe analoger Verfahren. Dabei kommt es vor allem darauf an, dass sich Bewegungszustände auf konstruktive Weise „aufschaukeln“, so dass bei der Roboter-Bewegung Hindernisse besser überwunden werden können.

Die technische Informatik nutzt hier (Hild zeigte dies sehr anschaulich an Filmaufnahmen sterbender Tiere) Modelle aus der belebten Natur. Etwas schonender ging mit dieser der Kölner Experimental-Informatiker Georg Trogemann um: Er führte verschiedene analoge Systeme und Lebewesen vor, die sich für Optimierungsprozesse nutzen lassen. Das Beispiel der Schleimpilze, die zu einem optimalen Verkehrswegeplan „wachsen“, war dabei das bekannteste Modell aus der Biologie.

Mein eigener Beitrag zum Workshop handelte nicht von Analog-, sondern von Digitalcomputern – allerdings in Verbindung mit analogen Eingabemedien. Am Beispiel der Computerspiel-Steuerung sprach ich das Problem an, dass der menschliche Körper eigentlich nur sehr schlecht zum Computerspielen geeignet ist. Physiologische Schäden, die durch digitale Eingabegeräte entstehen, scheinen dies zu belegen. Wechselt man hingegen zu analogen Controllern, sieht die Sache schon ein wenig besser aus (auch wenn die Probleme nicht ganz verschwinden). Zudem scheint die Analogsteuerung auch besser (eben „analoger“) mit so manchem Spielinhalt zu korrespondieren, so dass diese Art der Steuerung oft natürlich und intuitiver wirkt.

Tennis or Two

Im Rahmen des Workshops habe ich das zusammen mit Studenten nachgebaute frühe Computerspiel „Tennis for Two“ vorgestellt. Dieses war im vergangenen halben Jahr auf dem Analogcomputer Telefunken RA742 entstanden und konnte in den Workshop-Pausen von den Teilnehmern gespielt werden. Daneben war die diskret aufgebaute Lösung aus dem Jahr 2009 zu sehen, die Canan Hastik von der Hochschule Darmstadt für das MEGA entworfen hatte.

MEDA 42

Diese beiden Spiel-Implementierungen führten den Workshop-Besuchern vor, wie „analog programmiert“ wird. Selbst Hand anlegen konnten sie am letzten Tag, an welchem Bernd Ulmann auf zwei der institutseigenen Analogcomputer (MEDA 42 und Telefunken RAT700) zuvor aufgestellte Differenzial- und Integralgleichungen „steckte“, welche Probleme darstellten, wie sie typischerweise mit Analogcomputern bearbeitet wurden: Eine Masse-Feder-Dämpfungs-Schaltung (also eine Schaltung mit gedämpften Schwingungen) und ein Räuber-Beute-Modell (bei dem zwei Wachstums-Gleichungen miteinander gekoppelt wurden). Wie nah sich Physik, Mathematik und analoge Elektronik stehen, ist den Teilnehmern spätestens hier klar geworden. Wer dies (und damit die Aktualität des Analogcomputers) nachempfinden möchte, kann sich etwa den neuen Einplatinen-Analogcomputer der Firma Texas Instruments LabKit Pro anschauen.

Kommentare lesen (43 Beiträge)
Anzeige