PC-Geschichte(n)

15 Jahre c´t und die Bits und Bytes der Computerwelt

@ctmagazin | Kommentar

Die Zahl 15 ist nicht gerade eine typische Jubiläumszahl, um die man viel Wirbel machen sollte. Aber immerhin gibt sie doch Anlaß, mal zurück bis ins Anfangsjahr der c't 1983 zu blicken, um einige ausgewählte Entwicklungen und Fehlentwicklungen, Gründe und Abgründe aufs Korn zu nehmen.

Viele Jubiläen hat c't in den letzten 15 Jahren gefeiert, Jubiläen von Meilen- und manchmal auch Kieselsteinen der Computergeschichte. Diesen guten Brauch will ich hier fortsetzen. Um dabei nicht ins uferlose abzugleiten, beschränke ich mich auf eine willkürliche Auswahl solcher Steine, die mindestens schon zehn Jahre auf dem Buckel haben. Linux beispielsweise, mit seinen neun Jahren, muß halt noch ein Jährchen warten. Eigentlich müßte das Internet dazugehören, das schon länger existiert und gerade jetzt ein besonderes Jubiläum feiert: 10 Jahre Internet-Wurm (ein Stückchen Software, das zwei Tage lang das gesamte Netz lahmlegte). Doch für uns begann die Internet-Ära erst mit der Konstituierung der deutschen Verwaltungsstelle DE-NIC um 1991 herum.

Kein geringerer als Bill Gates hielt 1989 die Laudatio in c't, um den 25. Geburtstag von BASIC zu feiern [1]. Hat sich doch Billy, lange bevor er mit Betriebssystemen in Berührung kam, seine ersten Sporen mit BASIC-Interpretern verdient. Kernaussage seines Artikels: BASIC hat viele Progammiersprachen überlebt und wird auch in Zukunft aktuell bleiben, ja `BASIC könnte uns alle überleben´. Und so ist es: Visual Basic ist weiterhin ein wichtiges Element in Microsofts Lieferprogramm, und die modernen Office-Programme haben Visual Basic for Applications als Makrosprache. Bill Gates hat Ende der siebziger Jahre das M-BASIC noch persönlich mitgeschaffen, das ins ROM der ersten PCs eingebrannt wurde. Damals quetschte er es in 8 KByte und äußerte weitsichtig (1981): `Nie wird man mehr als 640 KByte RAM benötigen ...´. Wie sagte doch James Bond: Sag niemals nie!

Später hat Microsoft dann das `Allerwelts-BASIC´ (GW-BASIC, GW steht übrigens für Gee Whiz, das heißt Mensch Meier ...), dann Quick-BASIC und schließlich Visual Basic hervorgebracht.

Das Verhandeln mit IBM über BASIC war für Gates der größte Glücksfall. Es hatte sich nämlich Gary Kildall, Chef von Digital Research und mit dem Betriebssystem CP/M der damalige Software-Krösus der Branche, mit IBM überworfen. Angeblich ließ er IBM-Manager stundenlang warten, während er mit seinem Privat-Jet Runden über ihren Köpfen drehte. Richtig ist zumindest, daß Kildall nicht da war, als die IBM-Manager ihn in seinem Büro besuchen wollten und seine Frau sich weigerte, irgendwelche NDAs (Geheimhaltungserklärungen) zu unterzeichnen. Außerdem wollten die Kildalls lieber in Urlaub fahren, und so platzte der Deal mit IBM.

Billy war jedoch zur Stelle: Zufällig hatte er von einem externen Programmierer namens Tim Paterson ein Angebot für ein 8086/88-Disketten-Betriebssystem namens `QDOS´ in der Tasche (steht für Quick´n Dirty Operating System). Kurz entschlossen griff er zu, kaufte es für 50 000 Dollar, engagierte Paterson und lizenzierte MSDOS 1.0 an IBM - das hat sich gelohnt.

MSDOS 1.0 bot im wesentlichen nur ein paar von CP/M geerbte Funktionen sowie ein wenig Speicherverwaltung. 1983 schob Microsoft die Version 2.0 nach, die sich an Unix orientierte, Unterverzeichnisse bot und mit Festplatten umgehen konnte. Mit MSDOS 2.11, das zusätzlich Landesunterstützung aufwies, hatte man dann schon ein halbwegs brauchbares Gerüst. Irgendwie tunnelte später sogar der Sourcecode von MSDOS 2.11 zu uns in die Redaktion durch, so daß wir die Programmierkunst von Microsoft bewundern konnten (oje ...). Doch IBM wollte MSDOS 2.11 gar nicht haben. In der Folgezeit bei den diversen Versionen 3 bis 6 kam es immer wieder zu Unterschieden zwischen IBMs PCDOS und Microsofts MSDOS. So gut verstanden sich die beiden Partner offenbar nicht.

Um Apple nicht nachzustehen und den Konkurrenten Visicorp, Quarterdeck, Digital Research und auch Lizenzpartner IBM zuvorzukommen, kündigte Bill Gates schon 1983 eine grafische Benutzeroberfläche an: Windows 1.0, und zwar lang bevor es fertig war. Und mehr noch, Gates verkündete: `Ende 1984 wird Windows auf mehr als 90 Prozent aller MS-DOS-Rechner im Einsatz sein.´ Das hat er bis Ende 1998 immer noch nicht geschafft. IBM glaubte eh nicht daran, sondern vertrieb VisiOn von Visicorp und bastelte an einer eigenen Lösung namens Topview. Und tatsächlich, 1984 verging, ohne daß irgendwas von Windows zu sehen war - schon gar nicht 90 Prozent Marktanteil. Auch 1985 verstrich, schon machte der Begriff Vaporware die Runde.

Schließlich wurde es November, und dann erschien es doch noch: Windows 1.03. Es benötigte fünf statt wie ursprünglich geplant eine Diskette, war unerträglich langsam, und Software existierte so gut wie gar keine. Außerdem stahl Atari mit dem 520 ST samt grafischer Oberfläche GEM Microsoft glatt die Schau.

Und dann regte sich noch die Firma Apple, die Windows ab der Version 2 (ab November 1987) als unrechtmäßigen `Look-and-Feel´-Clone von MacOS betrachtete und Microsoft mit Klagen überhäufte. Bis auf fünf Milliarden Dollar schraubte man den Klagewert bis 1992 hoch, da inzwischen Windows 3.0 und 3.1 existent und sehr erfolgreich waren - doch es wurde nichts daraus. Aus Mitleid erhielt Apple immerhin im letzten Jahr 150 Millionen Dollar von Microsoft, als es dem Rechnerhersteller aus Cupertino gar nicht gutging.

OS/2, laut IBM das Betriebssystem der neunziger Jahre, wurde bislang schon tausendmal totgesagt, hat sich dennoch wacker gehalten, vor allem als Server-Betriebssystem in Banken und Versicherungen. Und hier scheint unter dem Warp-5-Server `Aurora´ offenbar weiterhin die Sonne. Unter den c't-Lesern gibt es auch noch einen kleinen, aber harten unverdrossenen Kern von OS/2-Anwendern, wie die jüngste Auswertung unseres Heise-Webservers ergab: 1,6 Prozent OS/2.

Cartoon
Vergrößern
Ohne das 'eine' (Windows) käme man mit dem 'anderen' (OS/2) nur selten ans Ziel

Ursprünglich war OS/2 ja eine gemeinsame Entwicklung von IBM und Microsoft (1987). Die beiden kriegten sich aber bald wieder heftig `in die Wolle´. Microsoft wollte ein einfaches Windows für den Hausgebrauch sowie ein anspruchsvolles OS für Server und kommerzielle und wissenschaftliche Anwendungen. Doch zu hoch hinaus wollte IBM keinesfalls, um den wesentlich teureren hauseigenen Minicomputern wie AS/400 nicht zu viel Konkurrenz zu bescheren. Und so ging es 1990 hin und her: Wir trennen uns, wir bleiben zusammen, Windows kommt zu OS/2, nein, es kommt nicht.

Das Wallstreet Journal meldete am 21. Januar 1991, Microsoft wolle OS/2 sterben lassen. Tags drauf widerrief dies Steve Balmer von Microsoft in einem Strategie-Seminar (in dem so gut wie jede Firma von Belang vertreten war - außer IBM), er sprach vielmehr schon von einem sogenannten NT-Kernel (New Technology) als Bestandteil des nächsten Betriebssystems OS/2 3.0, auch Advanced Windows genannt, das als Basis für DOS, Windows, OS/2 und Posix dienen sollte. Nur verstanden hat das zu dem Zeitpunkt noch keiner - auch der anwesende c't-Redakteur Dieter Brors nicht [2]. Pech gehabt, hätte er doch als erster schon mal über NT berichten können.

Ein paar Monate später gingen die Wege von Microsoft und IBM endgültig auseinander. Man einigte sich, die jeweiligen Quellcodes des anderen noch ein Jahr benutzen zu dürfen. IBM brachte OS/2 2.0, das Windows-3.1-Programme ausführen konnte. Wunderbar, nur an echter OS/2-Software herrschte großer Mangel. In einem wirklich denkwürdigen Editorial [3] brachte der Kollege Grell es metaphorisch auf den Punkt: das `andere´ [Fahrzeug], das zwar viel schöner zu fahren ist - nur für das `die Straßen zu schmal, die Brücken nicht tragfähig genug und die Tunnel zu niedrig´ sind.

Doch nun genug der Software, schließlich feierten wir den 20ten und später auch den 25ten Geburtstag des Mikroprozessors. Die Laudatio zum 20ten hielt Frederico Faggin [4], der in seinem Beitrag vor allem nachwies, daß es nicht sein damaliger Chef bei Intel, Ted Hoff war, dem die Erfinderehre gebührt, sondern einzig und allein ihm. Dumm nur, daß das US Patent Office einem ganz anderen, nämlich Gary W. Boone, damals bei Texas Instruments, das Recht zugeprochen hat, sich als Erfinder des Mikroprozessors preisen lassen zu können. Intel will das bis heute nicht wahrhaben und wird nicht müde, sich immerfort und wider besseren Wissens diesen Lorbeerkranz selbst anzuheften. Immerhin kann man der Firma Intel aber zugestehen, daß sie den ersten funktionierenden Mikroprozessor entwickelt hat.

Zwischenzeitlich gab es übrigens noch einen Erfinder namens Gilbert P. Hyatt, eine Art `Daniel Düsentrieb´, der ebenfalls diese Ehre für sich beanspruchte und der erst vor knapp zwei Jahren endgültig gerichtlich abgewiesen wurde. Und man glaubt es kaum, inzwischen tauchen am Horizont noch weitere Kämpen auf, die meinen, Anspruch auf den Titel zu haben.

Obiger Faggin hat Intel noch den 8080-Prozessor beschert, bevor er sich selbständig machte und mit seiner Firma Zilog den Z80-Prozessor herausbrachte. Ähnlich wie der 6502 von Rockwell war der Z80-Prozessor bereits 1976 auf dem Markt, erreichte seinen Höhepunkt aber erst 1983/84 - just als die c't auf den Plan kam. Der 6502 hatte sich bis dahin im Apple I, II, III, Atari 400/800 und Commodore PET und CBM bewährt, der Z80 in diversen CP/M-Maschinen und insbesondere auch in der Z80-Karte für den Apple. Übrigens bot auch Microsoft - wer weiß das noch - damals eine Z80-Karte für den Apple an ...

Am 1. Februar 1982 stellte Intel den 80286-Prozessor vor, ein waschechter 16-Bitter mit einer erheblich erweiterten Architektur (Protected Mode). Drei Jahre später folgte der 386, wieder mit einer weitreichenden Erweiterung, diesmal auf 32 Bit; schließlich kamen 486, Pentium, Pentium Pro, die nur schneller waren, aber nichts grundsätzlich Neues boten. Erst mit MMX baute Intel die Architekur etwas aus.

Motorola, der Hauptkonkurrent von Intel, hatte bereits 1979 dem 68000-Prozessor (der hieß so, weil er aus 68000 Transistoren bestand) 32bittige Register spendiert, allerdings mit 16bittigem Bus. So entsprach er in etwa Intels 386SX, der erst neun Jahre später das Licht der Welt erblickte, was für ein Vorsprung! Der 1984 vorgestellte 68020 hatte dann 32-Bit-Daten- und Adreßpfade. Seine Nachfolger 68030 und 68040 verfügten analog zu Intels 486ern über integrierte Caches und so weiter. Der wichtigste Termin war aber der Oktober 1991. Da schloß man sich mit Apple und IBM zum PowerPC-Triumvirat zusammmen, das uns diverse PPC-Prozessoren bescherte (601, 603, 604, 750, 620) und seit neuestem auch den 64Bitter Power3.

Anfang der achtiger Jahre kamen zahllose Homecomputer auf den Markt: Commodore VC20 und C64, Sinclair ZX81, Oric Atmos, Tandy TRS80 und wie die Systemchen jener Zeit alle hießen. Bestückt mit 8 bis maximal 64 KByte und mit Prozessortakten zwischen 1 und 4 MHz konnten sie eine rasch wachsende Anzahl von Einsteigern begeistern.

Das wohl mutigste Design jener Tage hieß Jupiter Ace. Statt mit schnödem BASIC mußte sich der Benutzer bei diesem 400 DM preiswerten Gerät `die Sprache der vierten Computer-Generation´ zu eigen machen, nämlich Forth. Nichts gegen Forth, doch waren die Anfänger damit offenbar völlig überfordert: Jupiter Ace ging sang- und klanglos unter. Demgegenüber konnte sich der häufig belächelte ZX81 behaupten, ja er lebt noch heute. Selbst im Zeitalter von Pentium-II tagen noch Fan-Clubs, die dem kleinen Rechner mit Folientastatur alle mögliche Peripherie verfügbar gemacht haben. Die Faszination des ZX81 und C64 kommt nicht von ungefähr, kann man bei ihnen doch noch jedes einzelne Bit verstehen und die Funktion nachvollziehen. Auch Laptops waren damals schon en vogue, Laptops, die sich selbst heute nicht verstecken müßten. So konnte man beim Tandy 100 (in Europa von Olivetti als M10 vermarktet) den Rechner mitten bei der Texteingabe ausschalten und dann einige Tage später genau dort weitermachen, wo man aufgehört hatte - eine Eigenschaft, die heutzutage mit viel ACPI-Brimborium beworben wird und immer noch oft nicht funktioniert.

Begleitet von c't kamen im Laufe der Zeit diverse weitere Computer hinzu, man denke an ZX-Spectrum, Schneider-CPC und -Joyce, Dragon, Oric Atmos, Atari ST, Commodore Amiga, Acorn und so weiter. Auch die Unterhaltungsindustrie um Sony, Philips und Co. versuchte sich an einem Homecomputer namens MSX, scheiterte jedoch kläglich.

Schon allein preislich oberhalb dieser Homecomputer-Klasse war Apples Macintosh angesiedelt, der bald 14 Jahre alt wird. Ihm hat unser langjährige Mac-Experte Carsten Meyer einen sehr persönlichen Kasten gewidmet.

Aus dem Homecomputer-Ensemble ragte der Atari 520 ST heraus, der PC-Schreck. Jack Tramiel, der legendäre Commodore-Gründer und Atari-Chef, sorgte für den Überraschungs-Coup im Herbst 1985 in Las Vegas, ein Komplettsystem mit für damalige Zeit ungewöhnlichen Leistungsdaten: (intern) 32bittige 68000-CPU mit 8 MHz, hochauflösender Schwarzweiß-Monitor (640 x 400), Floppy, Maus, und das für `nur´ 3000 DM. Für einen gleichwertigen PC hätte man das Doppelte berappen müssen. Vor allem überzeugte der Atari-Monitor, mit dem man endlich flimmerfrei Texte bearbeiten konnte. Und schließlich bot Atari auch GEM, eine funktionierende grafische Benutzeroberfläche, noch vor der ersten (nahezu untauglichen) Windows-Version. Ich kann mich noch an die Deutschland-Premiere erinnern, an Tramiels Worte: `We work seven days, and we love it ...´

Gut acht Jahre lang konnte sich Atari mit dieser Einstellung behaupten, dann ging der Firma die Luft aus. Zwar schob sie den 1024ST, den STe, TT und den Falcon nach, mit schnelleren Prozessoren bis zum 68030 - doch an den Erfolg des ersten ST konnte keiner mehr anknüpfen. Vielleicht waren die Entwickler ja übermüdet. Und so versandete die Firma regelrecht: 1994 machte die deutsche Niederlassung zu und kaum noch einer bekam mit, daß 1996 der Festplattenhersteller JTS die Atari-Reste übernahm. Bis heute hält aber eine treue Fan-Gemeinde dem Atari ST die Stange.


Vergrößern
Der IBM PC, Inbegriff heutiger Homecomputer - sieht man mal von den Spielkonsolen ab -, schwebte zu der damaligen Zeit noch in anderen Regionen. 1983 mußte man etwa 6000 DM für das gute Stück berappen. Der Nachfolger AT, der im November 84 auf den Markt kam, hatte einen Einstandpreis von 15 000 DM (inklusive 512 KByte Hauptspeicher und 20 MByte Festplatte). Zum Verglich, Sir Sinclair, der rührige Schöpfer des ZX81, konnte da schon einen 32-Bitter (Sinclair QL mit 68008-Prozessor) zum Preis von 2000 DM bieten.

IBM hatte den PC vor allem als Konkurrenz zum Apple II gedacht. Aus gediegener IBM-Sicht sollte es eher eine Spielkonsole sein (mit Joystick!), und sie beauftragten die Entwickler, mit wenig Aufwand `mal eben schnell´ etwas zusammenstoppeln, das Apple-like mit billigen Steckkarten versehen war. Mitentwickler David J. Bradley berichtete in c't [5] über die Entstehungsgeschichte dieses halbherzig zusammengezimmerten Produktes, das nichtsdestotrotz zur wohl bedeutendsten Entwicklung der letzten 20 Jahre heranreifte: Provisorien halten bekanntlich am längsten.

Ein großes Konzept hatten die PC-Entwickler also nicht, sie bauten einfach das ein, was gerade im Labor so herumlag. Viel Zeit und eine längere Lernphase standen sowieso nicht zur Verfügung. Und so nahm man bewährte Bausteine, weitgehend aus der 8-Bit-Welt, verzichtete aus Spargründen auf einen 16-Bit-Bus (der 8088-Prozessor ist ein 16-Bit-Prozessor mit einem 8-Bit-Bus) und gestaltete einen preiswerten Steckkarten-Anschluß, der später unter dem Namen ISA-Bus (Industrie Standard Architektur) Karriere machte. Das Bus-Layout wurde auch mehr nach den zufälligen Gegebenheiten der vorhandenen Leiterbahnen als nach landläufigen Bus-Kriterien konzipiert. Unglücklich gewählte Polaritäten, etwa der Interrupt-Leitungen, unsaubere Timings, schlechte Entkopplung und andere Unwägbarkeiten waren seine negativen Begleiterscheinungen: eben hingestoppelt.

Wie man all das etwas anders hätte machen können, bewies zwei Jahre später c't-Autor Kurt Werner mit einem 8086-Computer (c't86) zum Selbstbau [6].

Die IBM-Entwickler scherten sich auch nicht um irgendwelche Vorgaben der Prozessorhersteller - das hatte man schließlich bei IBM nicht nötig. Um einige Bytes zu sparen, benutzte man die von Intel reservierten Interrupts 0 bis 1Fh für eigene Zwecke. Während Microsoft sich ordentlich daran hielt (MSDOS fing bei Interrupt 20h an), belegte IBM munter die eigentlich für den Prozessor reservierten Interrupts für Hardware-Unterbrechungsanforderungen (Tastatur, Timer etc.) und BIOS-Einsprünge. Logische Folge: spätere Intel-Prozessoren kollidierten mit dieser Belegung, und die Programmierer hatten alle Mühe herauszufinden, ob etwa ein INT 0Dh ein Interrupt der seriellen Schnittstelle, ein Protected-Mode-Fehler oder ein BIOS-Einsprung sein sollte.

Der offizielle Geburtstag des IBM-PC war dann der 12. August 1981. Er wurde ausgerechnet vom Mitbewerber Apple mit einer ganzseitigen Begrüßungsanzeige im Wall Street Journal gefeiert: `Willkommen IBM, ernsthaft´. Nun ja, 10 Jahre später war es dann wirklich soweit, als IBM, Apple und Motorola den PowerPC-Bund schlossen.

Der IBM PC hatte aber auch viele positive Aspekte. So huldigte man damals noch dem guten IBM-Brauch, alles bis ins kleinste Detail zu dokumentieren. Im Technical Reference Manual wurden nebst Beschreibung sämtliche Schaltpläne und das komplette BIOS veröffentlicht. Das war die Initialzündung für eine Unzahl von Clonern, darunter Compaq, die dank dieser Starthilfe in kürzester Zeit wie Pilze aus dem Boden schossen.

Vor fast genau 15 Jahren versuchte sich IBM auch mit einem preiswerten, abgespeckten Junior-PC (669 Dollar), der erste PC, über den c't ausführlicher berichtete [7]. Bestückt mit externem Trafo, Kassetten-Recorder und, man höre und staune, drahtloser Infrarot-Tastatur (das gab´s also auch schon lange). Damals kommentierte Kollege Grell: `Der Junior ist (noch) nicht CP/M-fähig (Anm: gemeint war CP/M-86) und vor allem - er ist noch nicht da.´ Er wurde auch nie CP/M-fähig und kam auch nie, jedenfalls nicht nach Europa!

Der PC-Nachfolger IBM AT räumte keinesfalls mit den vielfältigen PC-Absurditäten auf, etwa mit dem unglückseligen DMA-Controller, der nur über 64 KByte laufen konnte und zusätzlich sogenannte DMA-Pages benötigte, oder mit dem arg rudimentären 16bittigen Timer.

Cartoon
Vergrößern
Wer Kannäle baut, sollte auch an Brücken denken, das hatte IBM beim Mikrokanal glatt vergessen

Nein, die Kompatibilität war inzwischen heilig, obwohl man das - wie später die PS/2-Systeme zeigten - auch anders hätte lösen können. So verdoppelte man nur die Zahl der Interrupt- und DMA-Kanäle, vergrößerte den ISA-Bus auf 16 Bit und spendierte dem System einen Tastatur-Controller. Im Herzen des AT wirbelte nun ein echter 16-Bit-Prozessor mit 6 oder 8 MHz, sogar mit getrennten Adreß- und Datenpfaden und einem Adreßbereich von 16 MByte. Doch hier überstrapazierten die AT-Entwickler gar die heilige Kuh der Kompatibilität und bauten das berüchtigte A20-Gate ein, die aus meiner Sicht skurrilste Fehlentscheidung der vergangenen 15 Jahre. Auf vielfachen Leserwunsch habe ich dem von mir so heftig bekämpften A20-Gate einen eigenen Kasten gewidmet.

Auch mit dem erweiterten 16-Bit-Bus hatte IBM kein glückliches Händchen. Um etwa den Mischbetrieb von 8- und 16-Bit-Steckkarten konfliktfrei hinzubekommen, hätte ein Signal gar negative Laufzeiten erreichen müssen ([8]). Okay, IBM ist Spitze in der Grundlagenforschung - Nobelpreise für das Rastertunnelmikroskop oder die keramische Supraleitung bei höherer Temperatur beweisen es. Aber die Tachionen-Leitung (überlichtschnelle Teilchen, die negativ in der Zeit laufen) ist selbst ihnen noch nicht gelungen.

Die späteren PCs, sei es mit 386-, 486-, Pentium-, oder Pentium-II-Prozessor, haben an dem Grundkonzept des AT-03 kaum noch was geändert. Sie bekamen ein neues Bussystem hinzu (EISA, VESA-Local Bus, Microchannel, PCI und neuerdings AGP) und breitere Adreß-/ Datenpfade, und zumeist noch einen Cache.

IBMs gleichzeitig mit OS/2 vorgestellte PS/2-Rechner sind anders als die Software wieder gänzlich in der Versenkung verschwunden. Dabei sollte PS/2 doch IBMs großer Wurf werden. Das, was Intel heute vehement fordert, nämlich endlich Abschied von ISA zu nehmen, hatte IBM schon 1987 vollzogen. Zum ersten Mal trat IBM ernsthaft an den PC heran, spendierte ihm einen richtigen, ordentlich designten Bus, moderne DMA- und Interrupt-Controller, Watchdog-Timer und, und, und ... nur die Brücken zum Bestehenden hat man vergessen. `Wer Kanäle baut, sollte auch an Brücken denken´ - so lautete der Kernsatz meines schönen Editorials [9] im November 1988. Zu jener Zeit scharte sich nämlich der Rest der PC-Welt um Compaq, um einen Konkurrenzbus namens EISA ins Leben zu rufen. Und so verlor IBM schnell an Akzeptanz, an Marktanteilen und an Einfluß auf das PC-Geschehen.

Ich bleibe dabei: hätte IBM den PS/2-Modellen noch zwei AT-Slots spendiert und wäre mit der Lizenzierung etwas großzügiger gewesen - die PC-Geschichte wäre anders verlaufen und Big Blue nie in die große Krise der 90er Jahre hineingestrudelt. Aber auf mich hört ja keiner ... (as)

[1] Bill Gates, Zum Geburtstag von BASIC, c't 11/89, S. 64

[2] Dieter Brors, Turbolenzen um OS/2, c't 10/91, S. 28

[3] Detlef Grell, Editorial: Das andere, c't 11/96, S. 3

[4] Federico Faggin, Happy Birthday, c't 5/92

[5] David J.Bradley, Wie alles einmal anfing ... Die Geburt des IBM PC, c't 10/90, S. 34

[6] Kurt Werner, Der c't86-Computer, c't 1...3/84

[7] Detlef Grell, Mama Blue´s Junior, c't 2/84, S. 20

[8] Andreas Stiller, Die Busspezifikation des PC/AT gemäß IEEE P996, c't 11/91, S. 337

[9] Andreas Stiller, Editorial, c't 11/88, S. 3


Nein, nicht die A20 von Lübeck nach Rostock ist gemeint (wiewohl die auch auf viel Widerstand stößt), sondern mein Lieblingsgegner im PC: das A20-Gate. Kaum zu glauben, auch AMD-K7 und Merced werden es noch haben. Seit beinah nun 15 Jahren strampele ich mich gegen diese Ausgeburt ab - ohne Erfolg. Was ist das nun, dieses komische Gebilde?

Der IBM-PC hatte nur einen Adreßraum von 1 MByte (Adreßbits A0...A19). Wegen seiner Segmentierung konnte man logisch jedoch 64 KByte mehr adressieren, genauer gesagt bis zu FFFFh:FFFFh= 10FFFFh. Statt bei solchen Adressen ordentlich mit einem Fehler (Adreßüberlauf) abzubrechen, fing der Prozessor einfach wieder klaglos bei 0 an (ein sogenannter Umlauf oder Wrap around). Das wäre nicht weiter schlimm gewesen, hätten nicht `pfiffige´ Microsoft-Programmierer dieses Feature in einer so gut wie nie gebrauchten DOS-Funktion (INT 30h) mißbraucht.

Als dann die IBM-Entwickler den IBM-AT schufen, meinten sie, auf den Microsoft-Irrweg Rücksicht nehmen zu müssen. Der 286-Prozessor des AT verwaltete nunmehr 16 MByte, ein Umlauf an der 1-MByte-Grenze fand demnach nicht statt. Um ihn nachträglich zu simulieren, bauten die IBM-Entwickler eine Schaltung ein, die die A20-Leitung fest auf Null fixieren konnte - das A20-Gate war geboren. Zur Umschaltung des Gates benutzten sie einen sehr umständlichen und langsamen Weg über den Tastatur-Controller - und das Dümmste: sie versäumten es, den aktuellen Stand des Gates auslesbar zu machen oder zumindest irgendwo abzuspeichern.

Viele Jahre später kam Microsoft mit MSDOS 4 auf die Idee, den knappen DOS-Raum durch eine HMA (Higher Memory Area) zu erweitern, eben durch jenes 64-KByte-Segment, das man noch in der 8088-Betriebsart (Real Mode) zusätzlich erreichen konnte. Nur mußte DOS jetzt bei jedem Aufruf erst einmal den Stand des A20-Gates ergründen. Dazu verglich es die ersten acht Bytes an den Adressen 0 und 1M, die bei blockiertem A20 identisch sein sollten - toll, und die Performance freute sich.

Wenn man ältere c't-Software (frühere ctcm- oder ctmem-Versionen) benutzt und dann Windows 95b hochfahren will, bleibt der Rechner stehen; Grund: die c't-Software schaltet das Gate rücksichtslos frei - was Windows bis zu 95a akzepiert, 95b jedoch nicht.

Schlimm erwischte es auch die Prozessor-Designer. Zum einen kostete das blöde Gate wertvolle Nanosekunden, die insgesamt das Design verlangsamten. Als dann die Prozessoren mit integrierten Caches und spekulativen Möglichkeiten ausgestattet wurden, mußte der Prozessor unbedingt auswerten, wie das A20-Gate aktuell steht, um nicht mit den Adressen durcheinanderzukommen. Upgrade-Prozessoren mit Cache, wie etwa die von Cyrix, hatten ihre liebe Not damit, denn ohne ein A20-Mask-Signal mußten sie Teile des Caches abschalten.

Diverse Bugs in den Prozessoren rund um das A20-Gate (siehe Intels Specification Upgrades) zeugen davon, daß das A20-Handling nicht eben einfach ist. Auch die modernen Pentium- und Pentium-II-Prozessoren haben ihre Probleme mit dem A20-Steinzeitrelikt, zum Beispiel beim SMM. Wenn der Prozessor in den Suspend-Modus geht, während der Tastatur-Controller gerade das dumme Gate umschaltet - dann war´s das.

Was meinen Sie, welches Gefühl mich wohl beschleicht, wenn ich am Frankfurter Flughafen beim Gate A20 einchecken soll ...


Braunschweig, Holwedestraße, anno 1983: Auf einem verstaubten Dachboden, genauer gesagt dem Nebenraum ihrer Eineinhalbzimmer-Mansarde, lagern die Studenten Carsten Frank und Uwe Walter einige selbstimportierte Monochrom-Monitore, Platinen, Netzteile und Computergehäuse. Ihre Kleinanzeige im Lokalblatt hat mich neugierig gemacht: `Kompatible´ Rechner soll man dort, wenn man einige Restarbeiten selbst erledigt, für weniger als 1000 DM erhalten. Unter einem `Kompatiblen´ versteht man selbstverständlich einen Rechner, der zum 1977 erschienenen Apple II kompatibel ist; an einen PC oder gar einen Macintosh ist noch nicht im entferntesten zu denken. Um dem jungen Unternehmen einen ordentlichen Anschub zu geben, kaufe ich ein 6502-Motherboard, wie üblich ohne AppleSoft-BASIC-ROMs, und ein Diskettenlaufwerk. Ob ich nicht Lust hätte, nach den Vorlesungen auch ein paar Mark dazuzuverdienen? Ich lehne dankend ab - die Geschäftsidee überzeugt mich nicht so recht.

Erste Zweifel ob der ausgeschlagenen Karriere beschlichen mich schon ein Jahr später, als die junge Zweimann-Firma mit dem Drachenkopf-Logo drei beheizte Kellerräume bezog, keine zwanzig Meter von der beliebten Studi-Kneipe `Bullerbü´ entfernt. Egal - ich hatte Größeres vor. Für mein Projekt, den richtungsweisenden `Klangcomputer´ [1], war mir ein echter Apple II zu schade; das kostbare Original in der Fachhochschule mit 64 KByte RAM, Integer-BASIC auf der 16-KByte-`Language-Card´, Z80-Karte für CP/M-Betrieb und zwei Erphi-720K-Laufwerken, die allein schon über 2000 DM kosteten, durfte man nur nach Voranmeldung benutzen. So wurde der Apple-II-`Kompatible´ mein ständiges Arbeitsgerät.

Gefördert vom wirtschaftlichen Mißerfolg meiner dBase-Fakturierung `Human Organized ReSale Tool´ (HORST) für PCs, blieb es bis 1988 auch dabei. Erst in jenem denkwürdigen Jahr kam ein Mac SE auf meinen Tisch - als ich bei c't einstieg und man mir den aufrechten Schuhkarton zum Preis von zwanzig Paaren Budapester Handarbeit (7000 DM) präsentierte: `Hier, mach mal was damit.´ Eine Suche nach `Macintosh´ in unserem Gesamt-Inhaltsverzeichnis listet inzwischen gut 400 Artikel auf. Offenbar zu wenig, denn selbst enge Freunde kaufen sich allen guten Ratschlägen und Vergleichstests zum Trotz immer noch PCs.

Was hatte man nicht alles an Wunderdingen von diesem Rechner gehört, von dem erste Prototypen bereits mit dem Erscheinen der ersten c't vom Band liefen. Der legendäre `1984´-Werbespot, produziert von Ridley Scott. 32-Bit-CPU, 8 MHz, 128 KByte RAM und hochauflösende (512 x 384) Grafik. Textverarbeitung und Malprogramm im Lieferumfang, zu bedienen mit einem exotischen Eingabegerät namens `Maus´ ... Trotz Weitsicht seines Visionärs (O-Ton Steve Jobs: `Mehr braucht kein Mensch, und Aufschrauben kommt nicht in Frage!´) mußte man ihn sehr schnell auf 512 KByte erweitern, wenn man mehr als drei Seiten Text verfassen wollte. Immerhin war das Gerät der c't-Redaktion eine aktuell-Meldung wert, und sogar das erste integrierte Mac-Software-Paket Lotus Jazz wurde bereits 1985 `kurz vorgestellt´ (heute kennt man nur noch die deutsche Antwort darauf: Ragtime). Zwei Jahre später kam der Mac II und mit ihm das Buzzword DTP auf einen c't-Titel. Davon träumte ich als Redakteur allerdings noch: Der SE mit seinem 9-Zoll-Schirm mußte zur Texterfassung reichen - was nicht ganz einfach war, denn die Setzerei verlangte WordStar-Dateien auf PC- oder CP/M-Disketten.

Bis 1989 wurden c't-Artikel übrigens traditionell mit Satzfahnen auf Wachspapier zusammengeklebt, die dann mit einer Repro-Kamera verfilmt wurden. Man lieferte den rohen Text auf Diskette an die außerhäusige Setzerei und erhielt Tage später (!) belichtete Satzfahnen, also einzelne Textspalten auf Fotopapier, zurück. Die zerschnipselte unsere Grafik-Abteilung dann so lange, bis der Platz zwischen den Bildern angemessen ausgefüllt war. Selbst Rechtschreibfehler und falsch gesetzte Kommas mußten per Skalpell korrigiert werden, und wehe, einer der mühsam nachträglich eingeklebten Buchstaben fiel auf dem Weg zur Kamera um ...

1989 bekam unsere Grafik ihre ersten Macs - zwei oder drei SEs mit zusätzlichem Portrait-Monitor, einen IIsi, Quark XPress 2.11 und als Schluß- und Proof-rechner einen Mac II (19 000 DM) mit unvorstellbaren 16 MByte RAM (4800 DM) und 80-MByte-Festplatte (2700 DM) zusätzlich. Vorsichtshalber wurde erst einmal nur die Hälfte der c't-Bögen per DTP gesetzt, was der Fachmann heute noch am leicht unterschiedlichen Satzspiegel erkennt: die Satzfahnen-Times ist etwas fetter. Nach sechs Wochen war auch der letzte Schneid-Klebe-Grafiker vom Mac-DTP überzeugt.

Den alten IIsi aus der Grafik-Abteilung habe ich vor zwei Jahren nach einem kapitalen Netzteilschaden günstig erwerben können. Seitdem dient er als Gleisbildstellwerk und zur Blockstellensteuerung meiner Modellbahn (siehe www.heise.de/ct/Redaktion/cm/). Ihm unterliegen 78 Weichen, 24 Licht- und 17 Flügelsignale, 32 Lokomotiven und Triebfahrzeuge; er sorgt sich nebenbei um die Beleuchtung einer Kleinstadt, überwacht acht Blockabschnitte und 56 weitere Stromkreise. Die 40-MByte-Platte, einst von Quark XPress und MS Word okkupiert, ist zu großen Teilen verwaist, und mit 5 MByte RAM ist er schon sehr großzügig ausgestattet. Müßig zu erwähnen, daß er bei seiner verantwortungsvollen Tätigkeit noch nie abgestürzt ist und sein System 6.07 gerade mal 12 Sekunden zum Booten benötigt. Das Ding hat halt doch eine Seele, und die neue Aufgabe scheint ihm zu liegen. Wie schrieb ich doch dereinst [2]: `Seinen Mac kann man ewig hassen oder lieben, ein No-name-PC wird einem immer gleichgültig sein.´ (cm)

[1] Carsten Meyer, Zurück zur Natur, Mit dem Apple auf Klangfang, c't 12/84, S. 42

[2] Carsten Meyer, Raus aus der Ecke, Der Mac als Alternative zum PC, c't 12/95, S. 186

P.S.: Frank & Walter meldeten im letzten Jahr einen Umsatz von 1,1 Milliarden DM.

Anzeige