Menü
4W

Was wurde. Was war. Was wird. (Millennium Edition)

vorlesen Drucken Kommentare lesen 60 Beiträge

Ein neues Jahr steht bevor, und so möchte die Wochenschau von Hal Faber zwar wie immer den Blick für die Details schärfen, aber den Charakter als Wochenschau kurzfristig einmal verlassen: Tausend Jahre Computerei, das war was. Aber auch ein kleiner, wenn auch notwendigerweise unvollständiger Eindruck vom vergangenen Jahr soll nicht fehlen.

Was wurde. (Millenium Edition)

"Träumen Sie vom absturzfreien PC?", fragt mich der Windows-Berater aus dem Fachverlag für Computerwissen und beruhigt mich: "Meist genügen einige gezielte Handgriffe, damit Sie die größten Fehler beseitigen". In drei Minuten machen die Computerwisser den PC 300 Prozent schneller und so absturzsicher, dass er in "alle Ewigkeit laufen kann". Ha! Ein tausendjähriges absturzfreies Windows, knorzig wie eine Eiche, das wirft natürlich die Frage auf, ob da nicht ein Alb auf der Menschheit lastet. Morgen betreten wir ein neues Jahr, begrüßen Y2K erneut oder jetzt erst recht mit "the same procedure as every year" und lassen wehmütig Y1K Erinnerung passieren (your mileage may vary). Die ersten tausend Jahre der Computerei, in denen gezielte Handgriffe noch unbekannt waren, Abstürze aber an der Tagesordnung.

Ob Y2K oder Y1K: Jetzt aber doch. Weil ich mich schon immer der Genauigkeit zutiefst verpflichtet gefühlt habe, will ich zum Anfang doch eine der überflüssigsten Diskussionen des nun fast vergangenen Jahres noch einmal wiederaufleben lassen. Deshalb gestatte ich mir, bevor es in medias res geht, auf die "wahre Jahrtausendfeier" in Staffelstein hinzuweisen. (Die älteren Leser fühlen sich bei dieser Formulierung möglicherweise an den "Wahren Heino" erinnert, aber ich versichere hiermit, dass es sich keinesfalls um einen satirischen Ansatz handelt). In einem Fachwerkhaus kam hier 1492 der "Rechenmeister" Adam Riese zur Welt und unter Berufung auf dieses Ereignis feiert die Gemeinde am 31. Dezember 2000 die Jahrtausendwende – das Ereignis soll allerdings schon seit Wochen ausverkauft sein.

Noch etwas früher als der sprichwörtliche Adam Riese werkelte der römische Abt Dionysius Exiguus, der 525 im Auftrag des Papstes Johannes I. Tafeln zur Berechnung des Osterfestes zu erstellen hatte. Und nun ist er angeblich Schuld an dem ganzen Kuddelmuddel. Er setzte sich mit seiner Ansicht durch, die Zeitrechnung beginne mit der Geburt Christi. Allerdings kannte Dionysius den genauen Zeitpunkt der Geburt Jesu nicht, und "rekonstruierte" die Zeitrechnung aus der Bibel. So glaubte er, das Jahr 247 der Ära des Diokletian mit dem Jahr 531 nach der Geburt Jesu gleichsetzen zu können. Das Geburtsjahr Jesu war demnach das Jahr 1 n. Chr., und das Jahr davor war das Jahr 1 v. Chr. Die Zahl Null als mathematische Größe war zu jener Zeit nur in den arabischen Ländern gebräuchlich. Das änderte sich aber schnell – und so war der Weg frei für absturzsichere Computer, Visionen vom Jahr 2001 und natürlich die Wochenschau.

Wobei sich allerdings weder die Menschen noch die Computer an die Zeitrechnung gehalten haben, die man die christliche nennt. Das neue Jahrtausend wurde von beiden bereits vor einem Jahr gefeiert, Mensch wie Computer nach eigener absturzartiger Weise. Die Unzeitlichkeit hat gewissermaßen Tradition: Als Y1K begann, steckte man in Europa noch im Mittelalter, das bekanntlich keine Computer brauchte, sondern eine göttliche Ordnung. Der Beginn unserer Neuzeit verspätete sich geringfügig, gelehrte Menschen setzen ihn im Jahre 1348 an, als die schwarze Pest durch Europa zog und der Mensch sich keinen göttlichen Reim mehr darauf machen konnte. Den Computer hatte der Mensch aber bereits zur Hand, er wurde kurz vor diesem Datum erfunden. Die logischen Drehscheiben und allgemeinen Permutationstafeln der Ars Magna des Raimundus Lullus sind der erste Universalcomputer, sie sollten in einer logisch strengen Kombinatorik alle gültigen und wahren Aussagen über Gott in allen Religionen darstellen können – und die anderen von der christlichen Logik überzeugen. Mit dem ersten Computer kam ganz ohne Microsoft auch die Systemkonkurrenz auf die Welt. Immerhin: Als Cobol-Programm ist die Ars Magna noch heute ablauffähig. Ein erklärter Bewunderer von Raimundus Lullus ist Pico von Mirandola, der seinen Gott zur radikalen Schlussfolgerung treibt, der den Menschen empfiehlt: "Ich habe dich mitten in die Welt gesetzt, damit du umso leichter zu erblicken vermögest, was darin ist. Weder zum himmlischen noch zum irdischen, weder zum sterblichen noch zum unsterblichen Wesen habe ich dich geschaffen, sodass du als dein eigener Bildhauer dir selber deine Züge meißeln kannst."

Wie man selber meißelnd loslegen kann, zeigte 500 Jahre nach Lullus der Jesuit Athanasius Kircher, der eine "lullistische" Kombinatorik konstruierte, die ohne einen Rosettastein auf Grund der schieren Logik die ägyptischen Hieroglyphen entziffern sollte. Mit seiner Ars Magna Sciendie lieferte Kircher nicht nur reichlich Grundstoff für die Illuminaten, sondern wurde als erster Hacker ein großes Vorbild für alle Codebrecher und von Alan Turing zum Urahn erklärt. Natürlich gibt es Einwände, dass Kirchers "Rechentechnik" niemals das Ägyptische entziffert habe, doch war das Kunstägyptisch eine semantisch komplette Sprache. Sein Schüler Caspar Schott veröffentlichte 1665 mit der Technik die erste funktionierende Steganografie-Anleitung und noch der Marconi-Code des Leutnant Macbeth orientierte sich an der Universalsprache von Kircher. Ohne den guten Athanasius gäbe es vielleicht nicht so beschauliche Shows voller Grooves wie den "Familientag Kryptografie" am Heinz Nixdorf Museums-Forum, das zum 4. Feburar 2001 eigentlich in die Abteilung "Was wird" gehört.

Übergehen wir humorlose Zeitgenossen wie den Knackfrisch-Typ Leibniz, der mit seiner Lullkül-Rechenmaschine auf der Suche nach einer vernünftigen Sprache auf das Binärsystem stieß und damit ein für alle Mal für Unordnung sorgte: "Wenn die Zahlen auf ihre einfachsten Prinzipien wie 0 und 1 reduziert werden, dann herrscht überall eine wunderbare Ordnung." Übergehen wir auch Charles Babbage, der nicht minder humorlos den Pferdekot in London berechnete oder die Zahl der Menschen, die seinerzeit minütlich geboren wurden. Kommen wir zur First Lady, Augusta Ada Byron, Lady King, Countess of Lovelace, der für die Forderung, dass Gottes Schöpfung maschinenlesbar sein muss, der ewige Ruhm im Heiseticker sicher ist. Oder aber gebührt dieser Ruhm nicht eher Hans Rechsteiner? Der Schweizer Superingenieur hatte 1847 eine Ente konstruiert, die die berühmte Maschinenente von Jaques Vaucanson (1738) oder den Schwan von Maillard (1733) rundweg in die Tonne treten konnte. Die Ente von Rechsteiner schwamm nicht nur lebensecht im Wasser herum, pickte Körner und verdaute sie ebenso lebensecht in einem Mini-Chemielaboratorium. Nein, das Modell von Rechensteiner litt an Verdauungsbeschwerden und Unterleibskrämpfen und stank gotterbärmlich. "Der Mensch hat die Schöpfung besiegt. Wir möchten dem Künstler-Erfinder die Freude ausdrücken, die seine Vorführung uns bereitet hat." Der Laudator, dem die Gentechnik noch unbekannt war, sprach vor leerem Haus. Das Publikum war draußen am Kotzen.

Ada Lovelace war einen Schritt weiter als der Schweizer Entenfreund. Sie brachte das Dilemma um die Vögel und Maschinen prägnant auf dem Punkt, als sie die Erfindungen von Charles Babbage kommentierte: "Wenn die analytische Maschine erst einmal konstruiert sein wird, wird sich die Schwierigkeit (Bewegungen und Prozesse darzustellen) auf die Herstellung von Lochkarten reduzieren." Nicht die mechanische Reproduktion eines Tieres wird wichtig sein, sondern die Steuerung des Modells, sei es eine Sprechpuppe im Stil von E.T.A. Hoffmannns Olimpia oder eben Ananova. Software drives Hardware, dieser Satz hatte beim Universalcomputer gefehlt, bis Ada Lovelace kam. Zum Dank wurde bekanntermaßen eine ziemlich unerquickliche Programmmierumgebung nach Ada benamst. Und zum Undank rücken nun die Biografen an, die hinter Ada Lovelace nur das Treiben der Babbage-Söhne vermuten.

Nach Ada Lovelace setzte sich ein Kryptograf im Jahre 1949 an den Schreibtisch. Er schrieb einen Aufsatz, der 1951 gedruckt wurde und sich damit auf das Jahr 2001 bezog: "In 50 Jahren wird es möglich sein, Computer so zu programmieren, [...] dass sie das Imitationsspiel so gut beherrschen, dass ein durschnittlicher Fragesteller nicht mehr als eine 70-prozentige Chance hat, nach fünf Minuten Fragen die richtige Entscheidung zu treffen." Als Alan Turing diesen Satz schrieb, waren Computer monströse Apparaturen, die ballistische Berechnungen und dergleichen durchführten. In Deutschland tauchte dieser Aufsatz 1967 in einem Kursbuch auf. Dieser Turing-Test beschäftigt bis heute viele illustre Geister, die sich mit jedem Detail vom Testaufbau bis zum Wesen der Sprache auseinander setzten. Vom chinesischen Raum des Sprachphilosophen Searle bis zum umgedrehten Turing des KI-Forschers Minsky, bei dem außerirdische Maschinen den Menschen erkennen müssen, hat der Test viele Varianten erfahren. Einen der schönsten Kommentare zu Turing ließ sich der Engländer C.P. Snow einfallen, der den Begriff der "Zwei Kulturen" (Philosophie und Technik) prägte: "Im Jahr 2000 wird ein Philosoph sich nicht mehr mit einem Biologen oder Physiker unterhalten können, außer vielleicht beim Bäcker."

Was in Turings Universalmaschine noch weitgehend Theorie blieb, blinzelte dann im Jahr 1975 vorsichtig in die noch weitgehend uninteressierte Welt. In diesem Jahr konzipierte David Bunnell eine Anzeige unter dem Titel: "Created by Man. Operated by future, to answer all questions". Der Spaß kostete 439 Dollar. Dafür kam ein Satz Elektronik ins Haus, aus dem schlussendlich der erste Personal Computer entstand, der Altair 8800. Kaum war er auf dem Markt, da wurde er vielfach kopiert. Als Spezialist für solche Kopien entwickelte Tim Paterson ein viel beachtetes Talent. Als der Newcomer Apple mit einem gänzlich anderen Computer in der Szene erschien, hatte Paterson in kürzester Zeit eine SoftCard fertig, die Hardware wie Software "emulierte" und in jedem anderen Computer eingebaut werden sollte. Das Betriebssytem dazu nannte er SCP-DOS und verkaufte es mitsamt der Karte als Q-DOS an Bill Gates und dessen Firma Microsoft.

Was war. (Nicht-Millennium-Ausgabe)

*** So sind also 1000 Jahre wie im Flug vergangen, keine Probleme gibt es mehr mit der Null, außer, dass manche sie immer noch für nicht sehr vertrauenswürdig halten. Heutzutage hantieren die meisten aber natürlich völlig souverän mit Nullen, Einsen und der Zeitrechnung. So souverän, dass wir Anfang des Jahres sogar den gefürchteten Jahr-2000-Fehler gebannt haben und die USA – das Mutterland des Internet-Zeitalters – tatsächlich nach mehreren Wochen einen Präsidenten ermitteln konnten. Immerhin, die Amis sind zäh, und die Idee, die legendären Wahlmaschinen im Internet zu versteigern, beweist eine gewisse Größe.

Im selben Monat Dezember, am 9. nämlich, wer hätte das gedacht, wurde im Jahr 1909 übrigens Grace Hopper geboren, die das ominöse Cobol erfand, und bestimmt bessere Wahlmaschinen gebaut hätte. Ebenso wohl wie die schon erwähnte Ada Lady King, die nur einen Tag später, dafür 94 Jahre früher das Licht der Welt erblickte.

*** Als Highlight des Jahres hatte sich allerdings schon vor der US-Wahl der Microsoft-Prozess erwiesen. Was keiner wirklich je erwartet hatte, wurde tatsächlich real: Bill "resistance is futile" Gates musste eine derbe Schlappe einstecken, als sein Konzern wirklich verknackt wurde. Verändert hat sich dadurch allerdings zunächst einmal nix. Der Tanz geht weiter und weiter und weiter und vielleicht ereilt ja auch dieser Prozess das Schicksal des Anti-Trust-Verfahrens gegen IBM, das nach zehn Jahren ohne Ergebnis eingestellt wurde. Die Häretiker von der Linux-Bewegung üben derweil den Umgang mit Marketing-Pol-Pots, das Zählen größerer Geldbeträge und das Lesen von Kleingedrucktem.

Und wer weiß – vielleicht dreht sich Konrad Zuse, der den ersten programmgesteuerten und frei programmierbaren Computer baute, heute noch im Grab um, wenn er sieht, was Leute wie Gates aus der Weiterentwicklung seiner Erfindung gemacht haben. Vielleicht aber findet er es ja auch gut, fragen kann man ihn nicht mehr. Geboren wurde er jedenfalls in eben so einem sonnigen Juni wie dem, in dem Microsoft seine bislang größte Niederlage einstecken musste – allerdings 90 Jahre früher.

*** Die Kollegen von Need to Know haben da eine ganz eigene Auffassung, was denn in diesem Jahr war. Unter dem bombastischen Titel "Review of the Year 2000" kommentieren sie dann doch recht lapidar: "It was shit. Give us another one." Das mögen auch die Bobos so sehen, die ihre Aktienkurse so ins Bodenlose stürzen sahen, dass selbst die Weihnachtspartys ausfielen. Dafür zeigt sich, dass die vielen ausländischen IT-Spezialisten, die seit der CeBIT im Auftrag des Bundeskanzlers so eifrig angelockt werden, nicht unter den Arbeitslosen aus den Pleite gegangenen Dot.Coms zu finden sind – sonst hätte sich in den letzten zwei Monaten das Gejammer der EDV-Branche, sie finde einfach keine anständigen Leute, doch etwas stiller gestalten müssen. Aber das wird uns wohl genauso ins nächste Jahr begleiten wie die Bobos, die Dot.Coms in die Landschaft setzen und anschließend in die Pleite führen und die steigenden wie fallenden Aktienkurs, mit denen sich all die weisen Analysten blamieren. Wer erinnert sich schon noch an das Frühjahr, als alles wie gebannt auf den Nemax starrte und jedermann wie jederfrau der felsenfesten Überzeugen war, es sei nur noch eine Frage von Tagen, wenn nicht von Stunden, dass er über die Marke von 10.000 Punkten klettere und den guten alten Dax endgültig in den Staub trete ... Asche zu Asche, Staub zu Staub eben.

Mancher, dem sich die irreale Welt der Börsen als die reale phänomenologisch zu verdichten schien, hätte möglicherweise gut daran getan, sich einen Schmöker zu Gemüte zu führen, den ein gewisser Georg Simmel vor rund 100 Jahren zu Ende führte. Seine "Philosophie des Geldes" hätte sie möglicherweise nicht nur über die Macht – die kannten sie schon –, sondern auch über die Erscheinungsformen des Geldes aufgeklärt. Da fällt das Geldzählen leichter, auch wenn man es allzu schnell verbrennt, wie inzwischen wohl auch einige Linux-Firmen.

*** Ob wir nun vor dem echten Jahrtausendwechsel stehen, oder ob wir ganz penetrant und beruhigt schon Anfang des Jahres das neue Millennium begrüßten, oder ob uns diese Erbsenzählerei völlig egal ist: Mit einem müssen wir jedenfalls nicht mehr rechnen, und das sind die Untergangsszenarien auf Grund irgendwelcher Y2k-Bugs (heutzutage müssten sie natürlich Y2K.001-Bug heißen). Schade eigentlich, es war doch eine lustige Zeit, all die unbedarften Weltuntergangspropheten vom computerisierten Atomkrieg fabulieren zu hören. Immerhin, es ist nix Schwerwiegendes passiert, von einigen netten (und für die entsprechenden Firmen peinlichen) Ausrutscher auf Webseiten und ähnlichem abgesehen. Manche halten das den angestrengten Bemühungen zu Gute, all die vielen Fehler in den alten Cobol-Programmen zu finden. Mag sein. Jedenfalls haben sich einige Leute eine goldene Nase mit dem Y2K-Bug verdient – so manche Dot.Com müsste eigentlich vor Neid erblassen angesichts dieses erfolgreichen Geschäftsmodells.

Solche Geschäftsmodelle funktionierten sicherlich nicht, würden alle Programmier zu aufmerksamen Studium der bislang existierenden Bände von [i]The Art of Computer Programming verdonnert. Deren Autor Donald E. Knuth, übrigens in einem dieser Januare geboren, von denen derjenige des Jahres 2000 einigen Y2K-Abzockern ein so genüssliches Leben ermöglichte, plant jedenfalls recht weit voraus. 1968, 1969 und 1973 erschienen die ersten drei Bände seines Werks – und erstaunte Leser finden darin leicht versteckt Verweise mit Seitenzahl auf die folgenden Bände vier und fünf, auf die wir nun schon sehnsüchtig gut 30 Jahre warten. Aber Knuth, der am 10. Januar 1938 zum ersten Mal neugierig in die Welt blickte, ist in gewisser Weise entschuldigt: Um sein Buch richtig setzen zu können, musste er zwischendurch noch schnell T[subE[/sub]X] erfinden – und sich um seine Familie kümmern.[/i]

*** Aber dieses Jahr war lang und ich bin es langsam müde: Gut, dass ein neues kommt, nichts im alten war so entscheidend, dass es im neuen nicht schlimmer oder besser kommen könnte. Es wird neue E-Mail-Würmer und Viren geben, neue Flatrate-Anbieter, die Pleite gehen oder auch nicht, noch mehr Milliarden-Kredite für die Telecom-Firmen, mehr Dot.Com-Pleiten und neue Bobo-Ideen, neuer Streit, wer eigentlich für all das Zeug, das es im Internet so gibt, wie viel bezahlen soll – und was da all der welt- und menschheitsbewegenden Angelegenheiten mehr wäre. Eines jedenfalls feierte dieses Jahr fröhliche Urständ , wie es dies nicht einmal zu den seligen Zeiten von OS/2 gab, und dürfte auch im neuen Jahr von Höhepunkt zu Höhepunkt schreiten: Das Proselyten-Machen unter den EDV-Freaks. Kaum eine Firma, Software oder eine Technik, die sich nicht eines eigenen, eifrigen Fan-Clubs erfreuen darf. Wer verfolgt sie nicht leicht amüsiert bis schwer genervt, die Religionskriege zwischen Linux-Adepten und Microsoft-Jüngern: "Es ist ein einförmiges Ding um das Menschengeschlecht. Die meisten verarbeiten den größten Teil der Zeit, um zu leben, und das bisschen, das ihnen von Freiheit übrig bleibt, ängstigt sie so, dass sie alle Mittel aufsuchen, um es los zu werden." Was kann man nicht alles inzwischen heranziehen, um die Freiheit aufzugeben, einfach das zu benutzen, was einem nützt – da dürfen selbst Chipsätze als Sandale herhalten, die man vor sich herträgt. Stritt man früher um den richtigen Weg zum Leben oder zur Freiheit oder wenigstens um den richtigen Weg zum Denken, reicht heute 0 und 1: "In einer irrsinnigen Welt vernünftig sein wollen, ist schon wieder ein Irrsinn für sich."

Was wird. (Wird was?)

Was ist 2001 anderes als die Odyssee im Weltraum, im opulenten Replay von CNN? Was ist mit den nächsten 300, 500, 800 Jahren? Der bei der Geburt in die Fontanelle eingepflanzte Chip kann doch nicht alles sein? Was ist mit Moores Law? In seinem Buch "Homo S@piens" entwickelt Ray Kurzweil den Fahrplan, in dem die Menschen nach und nach Ersatzorgane bekommen, bis sie vollends Maschinen sind, ganz ohne Homo: "The Age of Spiritual Machines" heißt das Original. In diesem Buch plaudert der Autor mit einer Molly Bloom über die großen Themen: Was ist der Sinn des Lebens, was ist Zeit? Etwas anders als im Ulysses erfährt diese Molly eine Verwandlung. Am Ende – wir schreiben das Jahr 2099 – ist Molly ein Computerprogramm in einer Megamaschine, mit schlechten Träumen, für die Kurzweil einen Antidepressions-Algorithmus entwickeln will. Doch was kommt danach? Längst befinden sich unter den Heiseticker-Lesern Maschinen, die darauf antworten können: "Ich habe dich in die Welt gesetzt..."

So bleibt nur, allen Ticker-Lesern, ob Maschine oder nicht, ob mit Chip-Fontanellen oder Müsli-Tretern, ob Homo S@piens, Homo Sapiens oder Homo Faber, einen guten Rutsch und ein schönes neues Jahr zu wünschen – mögen alle Ihre Hoffnungen sich erfüllen, wie vielleicht auch meine: Halten Sie dem Heise-Ticker, der meiner kleinen Kolumne so viel Platz einräumt, die Treue. Auf ein Jahr 2001 mit wöchentlicher Wochenschau – ob die geneigten Leser dies nun als Drohung oder als Versprechen auffassen. (Hal Faber) / (jk)