Highlights 97

Spekulativer CeBIT-Rundgang

Wissen | Hintergrund

Das Jahr 1996 stand ganz und gar im Banne des Internet, das fast auf allen Gebieten der Computerei für Bewegung und Erneuerung sorgte. Zwar bestimmt es auch heuer noch viele Zielrichtungen, aber es ist mittlerweile akzeptiert und fast überall integriert - es ist da, es wird genutzt, der Hype legt sich. Oder doch nicht?

Die CeBIT wird zeigen, was vorbei und was angesagt ist. Das größte Tribunal der Computertechnik hat bislang immer sehr treffsicher vorgeführt, ob die im Vorjahr als Trends avisierten Entwicklungen tatsächlich welche waren. Doch so wichtig die CeBIT als Prüfstein für Flops und Tops ist, viel spannender ist natürlich, was sie an Neuem verheißt.

Mit dem Office 97 gab Microsoft den Startschuß zur zweiten Generation der 32-Bit-Pakete für Windows 95 ab, und die Mitbewerber folgen: Lotus Smartsuite, Corel Office, StarOffice - alle werden dieses Jahr deutlich renoviert in den Markt geschickt. Keine Frage, daß auf allen Paketen das Etikett `Internet´ prangt. Daneben finden sich immer mehr Experten und Assistenten, die den Anwender spielerisch auf höhere Produktivität trainieren sollen. Endlich ist also genügend neue Software da, die einen P200 gut auslastet und die Festplatte reichlich befüllt.

Zu diesem Zweck hat Microsoft allerdings noch einen anderen Trumpf im Ärmel, nämlich Windows 97. Überdies wird gemunkelt, daß Microsoft diesmal auch das zu Windows 97 passende Versions-Lifting von NT zeitgleich herausbringen will. Ob man allerdings das große Update für Windows 95 bereits in Vorversionen auf der CeBIT zeigen wird, ist noch ungewiß. Erste Eindrücke dazu können Sie aber auf jeden Fall im anschließenden Artikel gewinnen, der sich mit den Neuerungen bei PC-Betriebssystemen befaßt.

Auch die Hardwarewelt hat ihr 97er Schlagwort, nämlich den PC 97. Das ist allerdings kein Rechner, den Sie auf der CeBIT sehen werden, sondern zunächst noch ein rund 400seitiges Konzeptpapier. Was vielleicht am meisten verblüfft - nicht Intel entwirft hier die Zukunft, sondern Microsoft. Und zwar geht es klipp und klar darum, wie der PC demnächst aussehen muß, um optimal zu künftigen Microsoft-Betriebssystemen zu passen (Seite 238).

Auf jeden Fall mal ein erfrischender Ansatz - ich kann mir gut vorstellen, daß Microsofts Programmierer gern ein paar PC-Design-Altlasten von der Schulter haben wollen, die das Betriebsverhalten stören oder um die man aufwendig herumprogrammieren muß. Es käme in der Tat allen Anwendern zugute, wenn zum Beispiel Peripherie, die Interrupts zu lange blockiert (IDE-Blockmode) oder einem präemptiven Multitasking-Betriebssystem ein Taktraster aufzwingt (etwa Floppy-Streamer) zukünftig vermieden werden kann.

Natürlich ist auch Intel weiterhin ein fleißiger Innovator, der den Fortschritt des PC maßgeblich vorantreibt. Nach der Etablierung des PCI-Bus widmet sich Intel nun der Einführung des Accelerated Graphics Port (AGP). Auch wenn `Port´ nicht direkt auf einen Bus hindeutet, handelt es sich letztlich doch um einen solchen, nämlich zum beschleunigten Zugriff auf Grafikspeicher (Seite 260).

Aber in erster Linie ist Intel ein Chip-Hersteller. So wird man auf der CeBIT sicherlich viel Trubel um den PentiumPro-Nachfolger PentiumII (ehemals Klamath) Klamath machen, der unter anderem die Segnungen des MMX-Befehlssatzes der neuen Pentium-Chips nun auch in die PentiumPro-Linie trägt [1]. In der Schwemme der MMX-Logos wird aber vermutlich die wichtigste Frage völlig untergehen: Welche wichtigen Applikationen kann und wird MMX denn nun maßgeblich beschleunigen? Möglicherweise überspielt Intel diese Frage aber, indem man das Publikum bereits an der jüngst in San Francisco auf der ISCC vorgestellten 400-MHz-Version des Pentium II schnuppern läßt. Daneben steht noch ein einfacher MMX-Pentium mit 300-MHz zu erwarten.

Auch bei Intels neuem TTX-Chipsatz für P5-Prozessoren (Seite 356) liegen die Fortschritte mehr im Detail. Neben verbessertem SDRAM-Support ist hier vor allem die neue Schnittstelle am EIDE-Port zu nennen: Aus Ultra-DMA/33 soll nun der SCSI-Welt ein ebenbürtiger Rivale erwachsen (Seite 364). Und in der Tat, die maximal 33 MByte/s Transferrate kann derzeit nur Ultra-Wide-SCSI mit 40 MByte/s übertrumpfen. Allerdings gibt es bis heute noch keine EIDE-Platte, die die Datentransferrate von PIO-Mode 3 (13,3 MByte/s) geschweige denn 4 (16,6 MByte/s) ausnutzt, aber in drei Jahren werden wir für Ultra-DMA/33 sicherlich dankbar sein. Auch SCSI-Platten reichen heute noch nicht in diese Sphären, aber anders als bei EIDE kann man von der höheren Bandbreite wenigstens beim Anschluß mehrerer Platten profitieren.

Doch auch andere Chip-Hersteller werden sich dieses Jahr mit neuen Produkten in Szene setzen können. Allen voran sei Firma AMD genannt, die mit ihrem K5-PR166 eine preisgünstige Alternative zu Intels Pentium im unteren Leistungsbereich bietet; vielleicht hat man ja zur CeBIT schon eine PR200-Version in petto. Und wenn nicht, hat auf jeden Fall der K6, mit dem AMD jetzt in der Prozessor-Oberliga mitspielen will, das Potential für etwas Furore. Inwieweit daraus Intels PentiumPro eine ernsthafte Bedrohung erwächst, erfahren Sie ab Seite 264. Eher verhalten gibt sich derzeit Cyrix, deren M2 als Kampfansage an den PentiumPro weiter auf sich warten läßt.

Auf einem Nebenschauplatz versuchen die Hersteller sogenannter Multimedia-Prozessoren mit Spezial-Chips - durchaus erfolgreich - am Image der Intelschen MMX-Zusätze zu kratzen (Seite 256). Wo Intel die gesamte Rechenleistung, die in einem PC benötigt wird, im Hauptprozessor bündeln will, präferieren die Kontrahenten dezentrale und spezialisierte Intelligenz - im Hinblick auf MPEG-Decoder tragen die Zusatzprozessoren jedoch bisher eindeutig den Sieg davon.

Richtig Kontra geben will aber die PowerPC-Fraktion. Aus ihrem Lager sind noch in diesem Jahr die `schnellsten Desktop-Prozessoren der Welt´ zu erwarten. In Zusammenarbeit mit Apple entwickelt die kleine Chip-Schmiede Exponential derzeit den expX704, der statt nur in CMOS- zur Hälfte in Bipolar-Technik gefertigt ist. Laut Hersteller soll die 533-MHz-Version noch in diesem Sommer auf den Markt kommen; ein 450-MHz-Prototyp wurde bereits im Januar auf der MacWorld Expo in San Francisco gezeigt (c't berichtete). Exponential und Apple versprechen, daß sich die schnellen Prozessoren dank des upgrade-freundlichen Prozessorkartendesigns auch in bisherige Power-Macintosh-Modelle einbauen lassen. Allerdings begrenzt deren Bustakt von 50 MHz (beziehungsweise von 60 MHz des `Tanzania´-Boards von Motorola) die mögliche Performance.

Für die etwas fernere Zukunft hat sich Exponential noch mehr vorgenommen: Neben einer weiteren Erhöhung der Taktfrequenz durch Verkleinern des Substrats sind mit dem Nachfolger expX2 ein größerer integrierter Cache (bislang 2 × 2 KByte L1-`BLASTCache´ plus 32 KByte L2-Cache) sowie ein höherer Bustakt als 66 MHz fällig. Mit dem expX3 will man sich an einem integrierten L3-Cache und Taktfrequenzen nahe der GHz-Schwelle versuchen; Exponential sieht physikalische Grenzen erst bei sage und schreibe 26 GHz - was natürlich noch Zukunftsmusik ist.

Seit Deutschland nun - von höchster Stelle zuerkannt - das Gütesiegel `Freizeitpark´ trägt, muß sich auch der Computer-Anwender neu orientieren. Die naheliegendste Freizeitaktivität bilden Computerspiele. Obwohl sie auf den ersten Blick eigentlich nichts auf einer hochnoblen Fachveranstaltung wie der CeBIT zu suchen haben, kann man keinesfalls auf sie verzichten. Sind es doch die Spielehersteller, die den PC-Fortschritt zur Zeit ganz maßgeblich prägen. Die Hardwareressourcen, die State-of-the-Art-Spiele verschlingen, liegen weit jenseits dessen, was man zur Bewältigung von Standardaufgaben wie Textverarbeitung oder Tabellenkalkulation am Arbeitsplatz braucht.

Weniger als einen 200-MHz-Pentium mit MMX und 32 MByte RAM sollte Papa heute nicht nach Hause bringen, will er Krokodilstränen beim Nachwuchs vermeiden. Ferner gehört eine 3D-Grafikkarte ins Gebinde, und als Krönung empfiehlt sich die neueste Kreation, nämlich eine 3D-Sound-Karte (Seite 162). Bisher konnte man auf 3D-Grafikkarten für Spiele keine hochwertigen CAD-Anwendungen betreiben, und umgekehrt taugten die teuren CAD-Spezialisten nicht zum Spielen. Mit der Diamond Fire GL 1000 (Seite 204) existiert nun ein Kompromiß im Bereich von 1000 DM, der beides in passabler Qualität erlaubt. Wenn bei dieser neuen Gattung Grafikkarten die Preise noch deutlich sinken, dürfte ihr die Zukunft gehören.

Daneben erschließt die heute zu Gebote stehende PC-Leistung noch etliche andere Gebiete, die früher extrem teures Spezial-Equipment erforderten. Zunächst ist da die Sound-Bearbeitung zu nennen, deren mannigfaltige Facetten wir in den voranstehenden Artikeln beleuchtet haben. Um sich hier hobbymäßig zu betätigen, bedarf es kaum mehr als eines P5-Prozessors mit 133 MHz und einer durchschnittlichen Sound-Karte. Viel Auftrieb hat diese neue PC-Anwendung durch die immer preiswerteren CD-Brenner bekommen; die selbstgemachte CD ist das ideale Medium, um die Resultate heimischer Studiokunst dem Bekanntenkreis zu Gehör zu bringen.

Mit der digitalen Fotografie beginnt gerade eine weitere Technologie, den PC zu erobern. Bis sie allerdings Spiegelreflex-Kamera, Dia-Projektor und Leinwand vollends verdrängt, werden noch einige Jahre ins Land gehen. Doch der Trend ist unverkennbar. Fast monatlich kommt eine weitere Digitalkamera auf den Markt, die wieder neue Maßstäbe hinsichtlich Bildqualität und Auflösung setzt [2].

Auch bei den Farbdruckern ist mit dem neuen Epson Stylus Color 600 bereits ein Punkt erreicht, der in Qualität und Preis pro Bild so dicht ans normale Fotolabor heranreicht, daß dieses Verfahren für den Hobby-Anwender bereits eine ernsthafte Alternative darstellt. Und solange es nur darum geht, Fotomaterial für Veröffentlichungen im WWW zusammenzutragen, reicht selbst dem Profi schon die Digitalkamera für unter 2000 DM. Nicht zu vergessen die schon lange existierenden Profi-Werkzeuge zur digitalen Bildbearbeitung - mit heute erschwinglichen 64 MByte RAM geht auch dem Amateur Retusche, Weichzeichnen oder Kontrastaufhellen durchaus zügig von der Hand.

Lediglich digitaler Video-Schnitt gelingt heute noch nicht mit einem standardmäßig ausgerüsteten PC und erfordert Extra-Equipment. Zudem sind nicht nur schnelle Festplatten mit großer Kapazität nötig, sondern auch jede Menge Speichermedien zum Wechseln, um komplette Filme in digitaler Form zu konservieren. Doch auch hier darf man auf die nahe Zukunft gespannt sein. Digitale Video-Kameras und -Recorder sind zwar noch sehr teuer, aber spätestens mit der wiederbeschreibbaren DVD (siehe weiter unten) dürfte hier der große Durchbruch anstehen. Möglicherweise hat die CeBIT hier sogar schon mehr an Neuigkeiten zu bieten, als bisher an die Öffentlichkeit drang.

Ein weiteres neues Betätigungsfeld, das womöglich auch bald seinen Rang als Profi-Domäne verlieren könnte, ist das Online-Publishing. Wer weitergehende Ambitionen als das Befüllen der eigenen Homepage im Web verspürt, kann sich auf der CeBIT in Halle 8 auf den Stand der Technik bringen - wo übrigens auch der digitalen Fotografie erstmals ein eigenes Zentrum errichtet werden soll.

Vor allem Apple ist wieder im Aufwind, und das nicht nur wegen der superschnellen PowerPC-Prozessoren. Mit der Betriebssystemschmiede Next unterm eigenen Dach hat Apple jetzt auch attraktive Zukunftsaussichten im Software-Bereich zu vermitteln. Bis aus dem MacOS-NextStep-Konglomerat aber ein fertiges Produkt entsteht, wird noch viel Zeit vergehen: Erst im Sommer 1998 soll die `Rhapsody Unified Release´ auf den Markt gelangen. Lediglich Entwickler und `Early Adopters´ kommen schon vorher in den Genuß von Betaversionen.

Die Entwicklung des normalen MacOS wird parallel zu Rhapsody weitergeführt, hier stehen planmäßig nach `Harmony´ alias System 7.6 (in Deutsch voraussichtlich erst kurz nach der CeBIT) noch `Tempo´ alias System 7.7 an (in USA im Sommer, hierzulande voraussichtlich wieder drei Monate später). Ende 97 folgen dann `Allegro´ mit Copland-Outfit und Mitte 98 `Sonata´. Das MacOS soll bis dahin die Standardausstattung der Macintosh-Rechner bleiben; danach will Apple für eine Übergangszeit beide Betriebssysteme mitliefern.

Vor diesem recht komplizierten Systemfahrplan darf man gespannt sein, wie sich Be mit seinem BeOS für den Mac präsentiert und ob sich daraus eine Konkurrenz zu den von Apple favorisierten Betriebssystemen entwickeln kann.

Auf der CeBIT wird sich auch erweisen müssen, wie es denn nun um IBMs OS/2 bestellt ist. Seit Windows 95 ist sein großer Vorteil dahin, neben der `besseren´ nativen OS/2-Software auch beliebige Windows-Programme sicherer als im Originalumfeld ausführen zu können. Die Lage ist verworren: Auf der einen Seite häufen sich die Horrormeldungen, daß immer mehr Firmen den Software-Support für OS/2 einstellen oder zumindest sehr halbherzig fortführen - seien es die Hersteller von Grafikkarten oder von SCSI-Adaptern. Auf der anderen Seite sind erst jetzt einige der langersehnten Applikationen (etwa Datenbanken für Enduser) in immer größerer Vielfalt auf den Markt gekommen.

Mit der seit Warp 4 integrierten Spracheingabe hat OS/2 nun sogar eine echte Killerapplikation an Bord - es ist allemal billiger, ein komplettes OS/2 mit integrierter Spracheingabe zu benutzen als eine externe Lösung für Windows hinzuzukaufen. Momentan aber ist die Situation regelrecht schizophren: Selbst Microsoft hat mittlerweile akzeptiert, daß IBM mit der Spracheingabe eine technische Vorgabe gemacht hat, die in alle künftigen Betriebssysteme Einzug halten muß. Aber die Spracheingabe kam mit Warp 4 zu spät, um die Anwender in Scharen zu OS/2 zu holen, zumal diese Option auch längst nicht für jeden einen Kaufanreiz darstellt. So hat IBM zwar vorgemacht, daß und wie es geht - aber haben wollen die Anwender diese Applikation unter Windows. Mit dem aktuellen Stand bei Spracheingabesystemen setzen sich zwei eigene Artikel ab Seite 284 auseinander.

IBMs eigene Haltung zu OS/2 ist schwer zu deuten. Zwar hat man technologisch mit Java, OpenDoc und Spracheingabe ordentlich was vorgelegt, aber die `Körpersprache´ weckt Zweifel daran, ob IBM noch selbst voll hinter seinem Produkt steht. So fehlt beispielsweise immer noch eine vollwertige, native OS/2-Version der Lotus Smartsuite, die es schon seit zwei Jahren geben sollte - eigentlich sogar noch vor der Übernahme von Lotus durch IBM.

Ebenso ist es mehr als irritierend, daß IBM in letzter Zeit seine gesamten Applikations-Server nur noch für Windows NT bewirbt, statt den technisch durchaus attraktiven Warp Server zu featuren. In mir keimt der Verdacht, daß sich hier eine `große Koalition´ anbahnt. IBM hat - nicht zuletzt aus der eigenen Historie als weltgrößter Mainframe-Hersteller - jede Menge Know-how, Infrastruktur und Ressourcen, um auch große Lösungen zu entwickeln, beim Kunden zu installieren und zu warten.

Im Massengeschäft mit direktem Kontakt zum Enduser hat sich IBM erstmals bei OS/2 versucht. Die PCs hat man die Händler in eigener Verantwortung teuer verkaufen und supporten lassen, doch bei OS/2 funktionierte das nicht mehr: Wovon hätte ein Händler beim Verkauf eines 200-DM-Produktes Support à la IBM finanzieren sollen? Umgekehrt wird niemand bestreiten wollen, daß Microsoft das Endkundengeschäft weltmeisterlich beherrscht. Doch seine Erfahrungen bei Großinstallationen sammelt Microsoft gerade erst jetzt.

Kein EDV-Verantwortlicher mit blaugefärbter Unterwäsche würde daher Windows-NT-Server ins Haus lassen - es sei denn, IBM installiert und wartet sie. Daraus können IBM und Microsoft gleichermaßen Vorteile ziehen: MS kann NT mit IBM im Rücken besser gegen Unix und Netware in Szene setzen. Für IBM war OS/2 letztlich ein teurer Coup, der Hunderte Entwickler jahrelang absorbiert hat, aber dennoch den Markt nicht bezwungen hat. Geld wollte IBM ohnehin erst mit Applikationen im Middleware- und Netzwerkbereich verdienen - und das klappt auch wunderbar mit NT, erst recht, wenn man als `Solution Provider´ für das Gesamtprojekt zum Zuge kommt.

Linux ist auf dem besten Wege, auch Zweifler zu bekehren. Viele dachten wohl, was nichts kostet, kann auch nicht viel taugen. Lange Zeit erfuhr man nur ganz verschämt und unter der Hand, daß jemand das firmeneigene Netz um wichtige Funktionen erweitert hatte, indem er heimlich einen Linux-PC dazustellte. Heute finden Linux-Lösungen auch bei Profis offene Anerkennung.

Fest in Lohn und Brot steht Linux längst an Universitäten; hier stört auch der immer noch vorherrschende Mangel an Standard-Applikationen wenig. Für wissenschaftliche Veröffentlichungen gilt den meisten das frei verfügbare Tex als ultimative Lösung, und für Forschungsprojekte muß man die meiste Software sowieso selbst schreiben. Die intensive Auseinandersetzung vieler Studenten mit Linux birgt enormes Potential, ist es doch schließlich ganz normal, daß man später im Berufsleben gern auf Lösungen zurückgreift, die man gut kennt.

Ob man auf der CeBIT schon mehr Linux zu sehen bekommt als etwa OS/2, bleibt dennoch fraglich. Zwar werden hinter den Kulissen viele Linux-Rechner werkeln, doch wird mancher sich immer noch nicht trauen, dies offen auf einer `Profi-Messe´ zuzugeben.

Während IBM bezüglich NT und OS/2 mehr oder weniger deutlich bekundet, daß es eigentlich völlig wurscht ist, auf welcher Plattform man sein Geld verdient, hatte eine aus den Ideen des Internet geborene Initiative mit `Plattformunabhängigkeit´ eine - zumindest vordergründig - idealistischere Variante im Sinn.

Der Netzcomputer (NC) nach Lesart von Oracle, Sun und - ja, doch - IBM sollte sich aus beliebiger Hardware zusammensetzen können. Eine Mixtur aus Java-Laufzeitumgebung und Betriebssystem (JavaOS) würde dann alle künftigen Java-Applikationen ausführen. Und so ganz `nebenbei´ würde man darüber das Wintel-Imperium aus den Angeln heben: Niemand, der nur mit Java-Applikationen arbeitet, bräuchte dazu unbedingt einen Intel-PC oder Windows - auch wenn aus dieser Ecke längst der Netz-PC als billigste und am einfachsten zu realisierende Variante propagiert wird.

Die Praxis zum NC besteht immer noch aus einer Fülle nicht eingelöster Versprechen, widersprüchlicher Konzept-Ideen und daraus resultierend, aus einer Menge Fehlinterpretationen. Wird der NC nun also billiger als ein PC sein, wie ursprünglich avisiert? Wohl kaum, denn die einzig billigere Hardware, die die Arbeit eines PC verrichten könnte, sind derzeit Spielekonsolen von Sega, Nintendo und Sony. Zwar gibt es Ankündigungen von Acorn, wonach es auch mit einer Neuentwicklung kostengünstig gehen solle, aber abgeliefert haben bisher nur die Hersteller von XTerminals einen halbwegs lauffähigen NC [3] - und die spielen preislich in der höchsten Liga.

Aber auch für diese Spielart finden sich Verfechter. Denn aus der Sicht geplagter Netzwerkadministratoren war der NC schon immer ganz anders gemeint. Die Gerätekosten seien völlig sekundär, denn der Wintel-PC verursache - belegbar mit Zahlen der Gartner Group - im Laufe von fünf Jahren das Achtfache seines Kaufpreises an Wartungskosten. Hunderte exakt gleichartiger NCs, die man identisch konfigurieren kann und die kein User gleich wieder zerkonfiguriert, auf die er keine Privat-Software samt Viren laden kann, seien die Lösung schlechthin.

Ob damit nicht nur die alte Zentral-EDV durch die Hintertür herbeigesehnt wird, wo Server eigentlich Mainframe und NC-Client eigentlich Terminal meint, sei dahingestellt; ebenso, ob die Auswirkungen für die Mehrzahl der Anwender immer noch so frustrierend wären, wie ich sie seinerzeit erlebte.

Daß bisher so gut wie keine NCs auf den Markt sind, hat natürlich auch einen ganz banalen Grund: Es existiert noch viel zu wenig Java-Software, mit der man sie ernsthaft benutzen, geschweige denn die tägliche Arbeiten absolvieren könnte. Hier gibt es zwar Hoffnungsschimmer, aber Corels Java-Office und das Anyware Office von Applix können bestenfalls als Designstudien, aber noch nicht mal als Alpha-Versionen durchgehen (Seite 194). Gute Chancen daher für StarDivision, die bereits eine in Java geschriebene Alpha-Version ihres brandneuen StarOffice 4.0 auf der CeBIT zeigen wollen.

Unter dem Stichwort `Network Computing´ werden Sie sich auf der CeBIT ein eigenes Urteil zu den Chancen des NC bilden können. Die Debatte um den NC wird vermutlich neue Glaubenskriege heraufbeschwören, auch wenn die neue Lesart `Networked Computing Device´ (NCD) gemäß Gartner Group (www.gartner.com/hotc/) im Prinzip alles erlaubt, was mit einem Client unter Java halt machbar ist.

Zu den großen Sound- und Grafik-Spektakeln im Erdgeschoß der Halle 8 dürfte sich dieses Jahr ähnliches Getöse auch im ersten Stock gesellen. Dort haben die Hersteller von CD-ROMs ihr Domizil, und dort werden die brandneuen DVD-Player rund um die Uhr kristallklare Digital-Videos mit ebensolchem Surround-Sound zum besten geben.

Doch auch wenn DVD-Laufwerke in Bälde das heute übliche CD-ROM-Laufwerk ersetzen werden, fällt für den PC-Anwender derzeit noch nicht viel ab, was Begehrlichkeiten wecken könnte. Im jetzigen Stadium steht DVD noch weitgehend für den Taufnamen `Digital Video Disc´, obwohl längst `Digital Versatile Disc´ im Stammbuch steht. Die hohe Kapazität von knapp 5 Gigabyte der DVD-ROM können zur Zeit nur Spielfilme rentabel ausschöpfen. Bis Softwarehersteller diese Menge zur Distribution von Office-Suiten oder Entwicklungswerkzeugen brauchen, werden noch ein paar Tage ins Land gehen. Auf längere Sicht wird daher die Herstellung von 10 herkömmlichen CDs nicht nur billiger, sondern auch nötig bleiben, weil zu wenig DVD-Laufwerke im Einsatz sind.

Durch die Kompatibilität zur CD - DVD-Laufwerke können auch die herkömmliche CD lesen - dürfte die Verbreitung von DVD aber relativ schnell vonstatten gehen. Anders als die momentan im Umlauf befindlichen DVD-Leser der ersten Generation sollen schon die Geräte auf der CeBIT auch CD-Rs einwandfrei lesen können. Wirklich spannend wird es aber sowohl in der Computerei als auch bei digitalen Videorecordern, wenn in ein bis zwei Jahren die DVD-RAMs kommen, also die wiederbeschreibbaren DVDs. Die erste Generation soll 3,8 GByte auf einer Scheibe fassen.

Neben den Hochglanzvorführungen zur DVD wird vermutlich eine für die meisten Computerbenutzer viel nützlichere Neuentwicklung in den Hintergrund rücken, nämlich die wiederbeschreibbare CD, die CD-RW. Mit ihr könnte sich die Frage, ob denn nun die 120-MByte-Diskette oder das ZIP-Drive das Erbe des Floppy-Laufwerks im PC antritt, schlicht erübrigen - auch wenn diese Frage auf der CeBIT sicherlich noch aufgeworfen wird.

Doch ganz so einfach ist die Sache nicht. Zwar sind sehr wichtige Voraussetzungen wie das Booten von CD bereits geschaffen, aber noch gilt es, einige Klippen zu umschiffen, ehe die CD-RW als Floppy-Ersatz dienen kann. Zunächst einmal muß ein geeignetes Dateisystem etabliert werden, und zwar - anders als in der herkömmlichen Wechselplattenwelt - wirklich nur eines, will man den großen Nutzen der CD als universelles Transportmedium nicht aufs Spiel setzen. Ferner muß das Kopieren auf CD-RW genauso simpel wie das auf Floppy oder Harddisk gehen. Artet es in eine Fummelei wie beim Brennen von einmal beschreibbaren CD-Rs aus, wird sich dieses Medium nur sehr schleppend verbreiten.

Diese Forderungen stehen jedoch im Widerspruch zu den Erwartungen der meisten Anwender, mit CD-RW nun endlich auch Musik so einfach auf CD bannen zu können, wie bisher mit dem Kassettenrecorder. Denn dazu ist das klassische Red-Book-Format vonnöten, das nun absolut nichts mit einem anwenderfreundlichen Dateisystem zu tun hat - es wurde ja auch für einen ganz anderen Zweck entwickelt. Über den aktuellen Spreizwinkel, in dem sich der Spagat von Herstellern und Entwicklern gerade befindet, informiert Sie ein eigenständiger Beitrag zu DVD und CD-RW auf Seite 246.

Doch neben Softwareungereimtheiten hat der Anwender bei CD-RW zunächst eine ganz andere Kröte zu schlucken. Anders als die einmal beschreibbare CD-R wird die CD-RW in keinem heute auf dem Markt befindlichen CD-ROM-Laufwerk lesbar sein. Ebensowenig wird ein Audio-Player diese Scheiben abspielen können. Die in Phase-Change-Technik beschriebenen CD-RWs haben nämlich nur eine Reflexionsfähigkeit beziehungsweise Lichtausbeute von 10 Prozent verglichen mit normalen CDs (CD-Rs haben übrigens auch nur 70 Prozent). Dieses Faktum ist jedem Hersteller von CD-ROM-Laufwerken seit über einem Jahr geläufig: Bereits auf der CeBIT ´96 wurde uns gesagt, daß eine entsprechende Modifikation herkömmlicher CD-ROM-Drives quasi keinen Aufwand bedeute - aber vorgenommen hat sie bisher niemand. Mit anderen Worten: Ein kolossales Neugeschäft bahnt sich an, und alle Hersteller reiben sich die Hände.

Nachdem Internet und ISDN die Ehe längst vollzogen haben, werden nun Mobiltelefonie und Internet immer vertrauter miteinander. EMails schicken und empfangen können die meisten Handys schon ganz ohne Zubehör, Faxen steht als nächste Stufe der Evolution an. Zum Web-Browsen jedoch bedarf es noch des Beistandes durch einen separaten Computer. Hier konkurriert der Personal Digital Assistant (PDA) mittlerweile mit dem althergebrachten Laptop beziehungsweise Notebook. In Halle 26 und 27 geben sich Mobiltelefone, Pager, aber auch der jetzt über Landesgrenzen hinwegreichende Bündelfunk die Ehre. Wohl dem, der die Vibrationsalarme und Zwitschergeräusche seiner elektronischen Heinzelmännchen in den Jackentaschen noch unterscheiden kann - wo doch der Trend angeblich zu Zweit-Handy, -Pager und -Quix gehen soll.

Doch auch die `altehrwürdige´ Mobilität in Gestalt transportabler Rechner hat draufgesattelt. Quasi alle Hersteller haben jetzt Notebooks mit MMX-Pentium im Angebot, so daß das mobile Büro dem immobilen kaum mehr an Leistung nachstehen muß (Seite 274). Auch scheint der videobeschleunigende ZV-Port langsam an Boden zu gewinnen, so daß die höhere Multimediatauglichkeit nicht schon bei einem Stempel auf dem Prozessor enden muß.

Daneben boomt natürlich auch die klassische Telefonie, zu der mittlerweile auch ISDN gezählt werden kann. Hier entdeckt vor allem das Zubehörgeschäft beständig neue Anwendungsfelder. Große TK-Anlagen für Firmen mausern sich zu Schaltstellen im Firmennetz, über die immer mehr Dienste abgewickelt und vor allem zusammengeführt werden können.

Natürlich hat auch hier das Internet wieder seine `Tentakel´ im Spiel, vor allem in seiner Inkarnation als Intranet. So zeigt sich eine Tendenz, daß Firmen, die bislang eigentlich nur als Geschäftspartner miteinander kommunizierten, vermehrt ihre Intranets gemeinsam nutzen und Datenbestände und andere Ressourcen teilen.

Wie man es auch dreht und wendet, das Internet ist fast immer dabei. Da sträubt sich natürlich das Nackenfell, wenn immer mehr Unken rufen, daß das Internet noch 1997 zusammenbrechen werde. Wenn noch mehr Multimedia-Megabytes das Netz fluten, Telefonie und Fax darüber abgewickelt werden, sind die Aussichten auf eine Totalverstopfung durchaus real. Als Zugabe mehren sich die Horrormeldungen über Sicherheitslücken und den zunehmenden Verlust der Privatspähre im Netz. Diese Fäden spinnen wir ab Seite 226 in eigenen Beiträgen weiter.

Flachbildschirme bis 28" Diagonale sind avisiert - wann aber endlich ein 20"-TFT-Monitor den Preis eines Kathodenstrahl-Gerätes unterbietet, vermag noch niemand zu prophezeien. Meiner Bandscheibe zuliebe hätte ich ihn lieber heute als morgen ... doch wenn man Samsungs düsterer Prognose glauben darf, werden selbst die 14"- und 15"-LCD-Monitore erst in zwei Jahren zu attraktiven Preisen den Markt erreichen.

Zudem geht auch die Entwicklung der klassischen Monitore weiter, wobei derzeit das 16:9-Format für Doppelseiten-Monitore zum Desktop Publishing die augenfälligste Neuheit darstellt. Jedoch gibt es erhebliche Probleme mit der Bildschärfe, und der Optimismus der Branche, bei 110° Ablenkung bald bessere Ergebnisse zu erzielen, ist eher gedämpft.

Daß die Software-Entwicklung sich nun fast einmütig zu Objekten bekennt, wundert niemanden. Daß aber laut Messegesellschaft Windows NT - und nicht Windows 9x - die am häufigsten genannte Zielplattform für neue Entwicklungen und Entwicklungswerkzeuge sein soll, verblüfft schon eher. Womöglich hätte sich Microsoft die Arbeit für Windows 97 sparen können ...

Selbst eine 600 Seiten starke c't vermag nicht alle für das Jahr 1997 relevanten Entwicklungen in eigenen Artikeln aufzugreifen, ja nicht mal sämtliche Stichwörter zu nennen. Data-Warehousing und -Mining [4, 5] zum Beispiel werden einen großen Schwerpunkt auf der CeBIT bilden, ebenso Workflow im Verein mit Dokumentenmanagement und -Archivierung. ATM ist bei den Netzwerkern gefragt, Modems mit 56 KBit/s oder gar Kabelmodems reizen den DFÜ-Spezialisten.

Selbstverständlich gibt es auf nahezu jedem Gebiet Neues zu vermelden - doch das weitaus meiste davon ist nur graduell neu und nicht nur leicht vorhersehbar, sondern es wird von jedermann mittlerweile erwartet. Ob das nun Seagates Festplatten mit 10 000 U/min sind oder immer weiter im Preis fallende Farblaserdrucker - das überrascht ebensowenig wie die neue Zielrichtung im Unix-Lager, wo die Anbindung an Windows-Clients als Überlebensmaxime ausgegeben wurde.

Lassen sie mich mit einem abgewandelten Zitat von Thomas Alva Edison enden: Computertechnik ist nur zu einem Prozent Revolution, und zu 99 Prozent Evolution. Und trotzdem werden es nur die wenigsten über sich bringen, der CeBIT willentlich fernzubleiben. (gr)

Anzeige