Der optimale PC

Kriterien für di Systemauswahl

Test & Kaufberatung | Kaufberatung

Ein idealer PC ist schnell kreiert: Man nehme den schnellsten Prozessor, die größte Festplatte, die rasanteste Grafikkarte und garniere das Ganze mit viel Hauptspeicher sowie einem 18"-TFT-Schirm. Für die Würze sorgen schließlich noch einige der erlesensten Erweiterungskarten, die der Markt zu bieten hat. Das Hightech-Fest kostet dann unter Brüdern knapp 20 000 Mark - und ist schon deshalb nicht mein optimaler PC.

Den optimalen Computer für jedermann gibt es auch Jahrzehnte nach der Einführung des ersten PC noch immer nicht. Je nach Anwendung ist mal die eine, mal die andere PC-Komponente von größerer Bedeutung. Geht man allerdings von einem typischen Rechner für das heimische Wohnzimmer oder ein kleines Büro aus, so ist die Wahl längst nicht mehr so schwierig wie noch vor wenigen Jahren.

Wer auf seinem Computer vornehmlich Briefe schreiben, Tabellen, Grafiken oder Zeichnungen erstellen will, dem reicht eigentlich jeder heute verkaufte PC von der Leistung her aus. Besondere Anforderungen stellen diese Anwendungen weder an den Prozessor noch an die sonstige Ausstattung des Rechners. Trotzdem lohnt es sich aber auch bei einem PC für solche - aus Sicht der Hardware - anspruchslosen Aufgaben, auf Ausstattungs-Details zu achten und nicht wahllos beim erstbesten Schnäppchen zuzugreifen.

Zwar haben vor allem die extrem niedrigen Preise bei allgemein hoher Leistung der einzelnen PC-Komponenten dafür gesorgt, daß vereinzelte Fehlgriffe beim Kauf nicht mehr gar so hart bestraft werden. Doch es bleibt nach wie vor ärgerlich, wenn das mit viel Mühe beim Preisvergleich auserkorene Prunkstück erst durch einen Nachschlag von 300 Mark das leistet, was man eigentlich erwartete - und so gesehen das 100 Mark teurere System letztlich der bessere Kauf gewesen wäre. In krassen Fällen können ein zu kleines Gehäuse oder zu wenige Steckplätze im Innern auch die Erweiterungsmöglichkeiten des Rechners so nachhaltig verbauen, daß ein Totalumbau oder gar ein Neukauf nötig wird. Und dann wird selbst der preiswerteste PC richtig teuer.

Die typischen Angaben in den bunten Prospekten der Kaufhäuser und Fachmärkte helfen beim Angebotsvergleich allerdings kaum weiter. Glaubt man der Werbung, so besteht ein Rechner vor allem aus MHz, MByte und GByte. Detailliertere Angaben etwa zum genauen Typ der verwendeten Grafikkarte, Festplatte oder gar des Motherboards sucht man in der Regel vergeblich. Wer nicht die Katze im Sack kaufen will, kommt deshalb nicht umhin, gezielt nach den gewünschten Ausstattungsmerkmalen zu fragen - und sie sich notfalls durch Öffnen des Gehäuses beweisen zu lassen.

Angaben über den Prozessortyp finden sich noch in den meisten Prospekten. Dennoch gibt es auch hier Ladenhüter und Mogelpackungen, die nicht auf den ersten Blick ersichtlich sind.

Grundsätzlich gibt es zwei verschiedene Prozessorklassen: Solche für den klassischen Sockel 7 und solche für den sogenannten Slot 1. Zwischen diesen beiden Welten gibt es keinen sinnvollen Upgrade-Pfad. Ein Wechsel von einem Sockel-7- zu einem Slot-1-System ist stets auch mit einem Wechsel der Hauptplatine verbunden, dem Kernelement des Rechners.

Bei den aktuellen Sockel-7-Rechnern dominieren derzeit klar die Systeme mit AMDs K6-2, gefolgt von Angeboten auf Basis des 6x86MX von Cyrix respektive IBM. Leistungsfähiger sind in der Regel die PCs mit dem K6-2, da dieser mit einem externen Systemtakt von bis zu 100 MHz arbeiten kann. Der 6x86MX arbeitet dagegen typischerweise mit einem externen Takt von 66 bis 83 MHz, was den Datentransfer zum Hauptspeicher und zum L2-Cache spürbar verlangsamt. Obendrein arbeitet AMDs K6-2 auch intern mit deutlich höheren Taktraten als die Pendants von IBM und Cyrix.

Wer einen preiswerten PC fürs Büro oder für zu Hause sucht, ist aber mit einem 6x86MX-System durchaus gut bedient, solange er nicht vorhat, den Rechner vornehmlich für Action-Spiele zu verwenden.

Für den Spieler mit Hang zu temporeichen 3D-Action-Games kann der K6-2 ein sinnvoller Einstieg sein - vorausgesetzt, die verwendeten 3D-Spiele nutzen bereits `3D-Now´, die spezielle 3D-Recheneinheit des K6-2. Wenn die für Sie attraktivsten Spiele diese neuen Befehle nicht verwenden (und die Spielehersteller auch keine diesbezügliche Unterstützung ankündigen), so liegen Sie mit dem Griff zum Rechner mit Slot 1 auf der sicheren Seite. Hier ist man dann auf Pentium-II- und Celeron-Prozessoren von Intel festgelegt.

Spielebeschleuniger, auch 3D-Beschleunigerkarten genannt, sind im Regelfall kein Ersatz für Prozessorleistung; vielmehr verlangen anspruchsvolle 3D-Spiele nach beidem. Vor allem die neuesten 3D-Beschleuniger laufen erst zu Höchstform auf, wenn ein leistungsfähiger Prozessor sie unterstützt. Echte Spielernaturen sollten daher davon ausgehen, daß sie sowohl beim Prozessor als auch bei der Grafikkarte selten mit dem Komplettangebot vom Lebensmittel-Discounter glücklich werden.

Etwas Linderung kann man sich mit nachrüstbaren 3D-Beschleunigern verschaffen, also speziellen Steckkarten, die parallel zur eingebauten Grafikkarte nur zur Spielebeschleunigung eingesetzt werden. Einige davon können durchaus auch mit einem weniger leistungsfähigen Prozessor die Spieleleistung deutlich steigern.

Ihr größtes Manko liegt allerdings darin, daß das Video-Signal hier über Zusatzkabel quasi durch die 3D-Karte geschleift wird: Darunter leidet immer die Signalqualität. Beim Spielen selbst fällt das nicht auf; zum einen liegt hier die Auflösung üblicherweise mit 800 x 600 Bildpunkten vergleichsweise niedrig, zum anderen hängt die 3D-Karte direkt am Monitor. Erst im Betrieb mit normalen Windows-Programmen, wenn also die Standard-Grafikkarte das Bildsignal liefert, stellt sich ein unscharfes Bild ein, eventuell mit Schlagschatten. Insbesondere wer mit Auflösungen ab 1024 x 768 Bildpunkten bei hoher und augenfreundlicher Bildfrequenz (ab 85 Hz) arbeitet, sollte von einer zusteckbaren 3D-Karte Abstand nehmen.

In den meisten Fällen fährt der PC-Spieler daher mit einer Kombination besser, die Standardgrafik und Spielebeschleuniger auf einer Steckkarte vereint. Eine solche findet sich aber selten in einem Komplett-PC - hier kann also der Kauf eines vom Anbieter nach Kundenwunsch ausgestatteten Rechners einiges an Folgekosten vermeiden. Detaillierte Hilfen bei der Auswahl der richtigen Grafikkarte für Spiele und den Büroalltag finden sich im Artikel auf Seite 112.

Wer etwas mehr Geld für seinen Rechner ausgeben kann, greift in der Regel zu einem `Pentium-II-System´. Allerdings muß solch ein PC nicht unbedingt schneller sein als einer mit einem Sockel-7-Prozessor. Besonders kritisch sind hier Rechner, die sich mit der Floskel Pentium-II-Technologie schmücken. Hinter dieser kunstvollen Umschreibung verbirgt sich zumeist ein Celeron-Prozessor der ersten Generation. Es gibt ihn mit Taktraten von 266 und 300 MHz. Entscheidender als die Arbeitsfrequenz ist allerdings die Tatsache, daß Intel bei diesem Prozessor-Typ aus Kostengründen auf den L2-Cache verzichtet hat.

Das lähmt nahezu alle typischen Büro-Applikationen, weil diese Gattung Celeron-Prozessoren hier deutlich weniger Leistung als etwa ein gleich hoch getakteter K6-2 liefert. Lediglich bei Spielen sieht der Celeron noch ganz passabel aus. Dennoch sollte man von Systemen mit diesem Prozessor besser die Finger lassen oder sie zumindest bis ins letzte Detail überprüfen. Der cachelose Celeron war Intels Antwort auf die preiswerte Prozessor-Konkurrenz seitens AMD und Cyrix, und etliche PC-Hersteller haben denn auch entsprechend billige Kampfpreissysteme drum herumgestrickt (dazu später noch mehr). Langsame Festplatte, lahmes CD-ROM-Laufwerk, zu wenig Steckplätze - selbst ein scheinbares Schnäppchen für nur 1000 Mark, wo man noch 400 Mark für den Austausch des Prozessors gegen einen besseren einkalkuliert, muß daher keineswegs zu einem zeitgemäßen System führen.

Schneller und zumeist auch nicht viel teurer sind Rechner mit dem neuen Celeron. Diesem hat Intel wieder einen L2-Cache gestiftet, der jetzt aber in den Prozessorkern integriert wurde. Er ist mit 128 KByte deutlich kleiner als beim echten Pentium II (512 KByte), arbeitet dafür aber mit dem vollen Prozessortakt und damit doppelt so schnell wie der des Pentium II. Dies gleicht den Nachteil der geringeren Größe in vielen Bereichen aus und bringt bei Spielen und anderer 3D-Software sogar noch einen kleinen Vorteil. Den neuen Celeron gibt es als Modell 300A und 333 mit 300 beziehungsweise 333 MHz. Besonders beim 300er besteht Verwechslungsgefahr mit dem alten, cachelosen Celeron-Modell. Und es steht sogar zu befürchten, daß einige Händler es auf diese Verwechslung anlegen werden, um ihre Ladenhüter an den Mann zu bringen.

Die `alten´ Pentium-II-Prozessoren mit Taktraten von 233 bis 333 MHz bei 66 MHz Bustaktfrequenz haben durch den neuen Celeron schon fast ausgedient, sind doch selbst die beiden Spitzenmodelle mit 300 und 333 MHz mit nur winzigen Leistungsvorteilen gegenüber dem Celeron mit Cache unverhältnismäßig teurer (was Intel allerdings jederzeit durch eine Preiskorrektur ändern kann).

Interessant wird der Pentium II allerdings mit Taktfrequenzen von 350 bis 450 MHz, denn in diesem Bereich, der gleichzeitig 100 MHz Bustakt voraussetzt, tummeln sich (noch) keine Celerons. Die derzeit schnellstmöglichen und teuersten PCs gibt es folglich nur auf Pentium-II-Basis. Noch vor vier Wochen hätten wir geschrieben, daß sich ein solcher Rechner nur für die wenigsten Anwender lohnt. Erst wenn es gilt, anspruchsvolle Aufgaben wie etwa Bildbearbeitung, Video-Schnitt, Sound-Bearbeitung oder CAD zu bewältigen, kommt man nicht mehr um einen echten Pentium II herum.

Seit aber die ersten 350-MHz-PCs sogar von Markenherstellern wie Compaq die magische Preisgrenze von 2000 Mark unterschritten haben - wenn auch ohne Monitor -, muß man das im Hinblick auf Komplettsysteme relativieren. Wer gerade mit einem 333-MHz-Modell liebäugelt, sollte sich gut überlegen, ob ein 350-MHz-Modell nicht längerfristig die bessere Wahl ist. Nach Intels bisherigen Aussagen soll es nämlich keinen Prozessor mit mehr als 333 MHz bei 66 MHz Bustakt geben, auch wenn sich hartnäckig Gerüchte über eine 366-MHz-Version halten; aber dabei könnte es sich auch um eine (sehr teure) Notebook-Version handeln. Man sollte daher besser davon ausgehen, daß ein 333-MHz-System nicht weiter ausbaufähig ist, denn die Boards lassen sich üblicherweise nicht auf 100 MHz Bustakt umstellen; damit lassen sich keine höher getakteten Prozessoren mehr einsetzen.

Wer aber heute ein 350-MHz-System erwirbt, kann darin später auch die 400er und 450er Pentium-II-Prozessoren betreiben. Im Moment sind diese allerdings - gemessen an der zusätzlichen Leistung - noch unattraktiv teuer. Für ihren Einsatz gilt also das oben Gesagte noch: nur für Anwender mit speziellen Bedürfnissen rentabel. Welcher Prozessor welche Aufgaben wie schnell im Detail bewältigt, verrät der nachfolgende Artikel auf Seite 106.

Der schnellste Prozessor nützt allerdings kaum etwas, wenn nicht genug Hauptspeicher im Rechner steckt. Die Mindestgröße für einen Einstiegs-PC ist inzwischen auf 32 MByte geklettert. 64, 128 MByte oder mehr sind aber durchaus nicht übertrieben, wenn man heute mit Word, CorelDraw und Co. arbeitet. Wer stets mehrere Anwendungen parallel betreibt, ist erst recht für jedes zusätzliche MByte Hauptspeicher dankbar. Das gilt natürlich in besonderem Maße für Spezialisten, die große Bilddateien etwa mit Photoshop bearbeiten. Auch dazu mehr im Artikel ab Seite 106.

Damit der viele Hauptspeicher auch wirklich für ein flotteres Arbeiten sorgt, muß der L2-Cache diesen auch abdecken. Tut er das nicht, so verlangsamen sich die Speicherzugriffe so stark, daß es in der Regel sinnvoller ist, auf den zusätzlichen Speicher zu verzichten. Neben der Hauptspeicher-Größe sollte man deshalb auch auf die sogenannte Cacheable Area des L2-Caches achten.

Bei einem Slot-1-System ist man hier in jedem Fall fein raus, da der L2-Cache auf dem Prozessormodul sitzt. Alle heute verkauften Slot-1-Prozessoren besitzen eine Cacheable Area von 4 GByte. Dazu zählen alle Celeron-Modelle ebenso wie die aktuellen Pentium-II-Prozessoren mit 300 bis 450 MHz Taktfrequenz. Lediglich die in der Vergangenheit verkauften älteren Pentium-II-Modelle mit 266 bis 333 MHz begnügen sich mit einer Cacheable Area von 512 MByte.

Deutlich kritischer ist die Lage bei den Sockel-7-Systemen. Hier bestimmen der verwendete Chipsatz und das Board-Layout die Größe der Cacheable Area. Die immer noch verkauften Hauptplatinen mit Intels 430TX-Chipsatz begrenzen den Bereich auf heute völlig ungenügende 64 MByte. Doch auch bei Boards mit Chipsätzen der Konkurrenz sieht es nicht zwangsläufig besser aus. Viele Board-Hersteller begrenzen den Bereich künstlich auf 128 MByte, um wenige Pfennige in der Produktion einzusparen [1]. Wer absehen kann, daß er mehr als 128 MByte RAM einsetzen wird und ganz auf Nummer Sicher gehen will, sollte daher ebenfalls zu einem Slot-1-System greifen, auch wenn ihm die Leistung eines Sockel-7-Systems ausreichen würde.

Daneben ist auch die Speichertechnologie von Belang. Zur Wahl stehen hier EDO-DRAMs und SDRAM. Um EDO-Bausteine auf PS/2-SIMMs sollte man beim Neukauf einen weiten Bogen machen. Auch wenn einige moderne Boards nach wie vor passende Steckplätze bieten, ist EDO eine aussterbende Technologie. Sie verträgt sich vor allem nicht mit modernen Prozessoren, die mit 100 MHz Bustakt laufen.

Doch auch bei den moderneren SDRAM-Modulen im DIM-Format gibt es Unterschiede: Sie werden als sogenannte PC-66- und als PC-100-Module angeboten. Nur die letztgenannten eignen sich für einen externen Systemtakt von 100 MHz, wie ihn alle modernen Sockel-7-Prozessoren und die schnelleren Pentium-II-Modelle verwenden.

Beim Kauf eines Rechners sollte man zudem darauf achten, daß der installierte Hauptspeicher aus möglichst wenigen Modulen besteht und noch mindestens ein freier Steckplatz für Erweiterungen vorhanden ist. Ideal wäre ein einziges Modul und zwei oder drei freie Steckplätze. Sind hingegen bereits alle Steckplätze belegt, kann man RAM später nur nachrüsten, indem man bereits vorhandenes ausbaut, das dann üblicherweise ungenutzt rumliegt. Die bei einigen Sockel-7-Boards anzutreffenden zusätzlichen PS/2-SIMM-Sockel sind hier übrigens keine Hilfe, da sich das RAM darin in aller Regel nicht parallel zu den DIMMs betreiben läßt. Besonders Angebote mit `krummer´ Speichergröße - etwa 48 MByte - sollten Ihr Mißtrauen wecken, da sich solche Zwischengrößen nur aus mehreren Modulen zusammensetzen lassen, aber auch 64 oder 128 MByte basieren oft genug auf zwei oder mehr Modulen.

Stolpersteine für eine spätere Aufrüstung lauern auch an anderer Stelle. Daß der Wechsel von einem Sockel-7-System zu einem Pentium-II-Rechner nur über den Austausch des Motherboards möglich ist, wurde eingangs erwähnt. Das ist aber im Prinzip kein Problem, denn beide Prozessorgattungen werden stetig weiterentwickelt, so daß man innerhalb der beiden Linien später zu leistungsfähigeren Modellen greifen kann. Doch es gibt durchaus Tücken, die oben schon anklangen.

Wer sich etwa ein Celeron-333-System kauft, steckt schnell in einer Sackgasse, wenn darin ein 440LX oder gar 440EX-Chipsatz werkelt - und das steht bei Komplettsystemen zu erwarten. Beide arbeiten ausschließlich mit einem externen Systemtakt von 66 MHz, so daß sie sich nicht für die schnelleren Pentium-II-Modelle ab 350 MHz Takt eignen.

Steckt gar der 440EX-Chipsatz, der Spezialist für absolutes Celeron-Low-Cost-Design, im Rechner, kommen weitere Engpässe hinzu: Dieser Chipsatz unterstützt maximal 256 MByte Hauptspeicher und dies auch nur mit zwei DIMM-Sockeln. Die Anzahl der PCI-Slots hat Intel auf drei beschränkt, und viele EX-Boards bieten obendrein nur einen ISA-Slot. Kurzum: EX-Boards sind die denkbar schlechteste Investition in die Zukunft eines PC.

Die einzigen zukunftssicheren Slot-1-Chipsätze von Intel sind derzeit der 440BX [2] und sein Server-Pendant 440GX. Nur diese unterstützen einen externen Systemtakt von 100 MHz und eignen sich so nicht nur für die derzeit erhältlichen Pentium-II-Modelle mit 350 bis 450 MHz, sondern auch für die in Kürze auf den Markt kommenden Celeron-Modelle mit 100 MHz Bustakt. Als sinnvolle und durchaus geldsparende Strategie beim PC-Kauf bietet sich deshalb der Kauf eines BX-Systems mit einem preiswerten Celeron-300A-Prozessor an. Der BX-Chipsatz arbeitet nämlich auch mit 66 MHz und bietet so ideale Bedingungen für ein späteres Prozessor-Upgrade - vorausgesetzt, man setzt von Anfang an PC100-DRAMs ein.

In Kürze wird sich die Auswahl zukunftssicherer Chipsätze für den Slot 1 durch Varianten von ALi, SiS und VIA deutlich vergrößern. Die ersten Labormuster sind recht vielversprechend, aber bevor wir keine serienreifen Boards getestet haben, mag ich keine Kaufempfehlung aussprechen. Wer diese Tests abwarten kann, wird dann sicherlich eine preiswerte BX-Alternative finden. Allzuviel Geld sollte man aber auf keinen Fall in die `Zukunftssicherheit´ seines Rechners investieren. Wer heute bereits eine Rechnerbasis für die Prozessoren des Jahres 2000 kaufen will, wird nach allen bisherigen Erfahrungen scheitern. Bislang gab es alle ein bis zwei Jahre eine einschneidende Veränderung im Prozessorbereich, die jeglichen Upgrade-Pfad von bestehenden Motherboards aus beendete - entgegen aller vorherigen Versprechungen der Prozessorhersteller.

Eine vernünftige Vorausplanung orientiert sich deshalb am aktuellen Leistungsbedarf. Ist abzusehen, daß in einem halben Jahr mehr Performance vonnöten ist, sollte man sich einen entsprechenden Upgrade-Pfad offenhalten. Dies kann durch den Tausch des Prozessors, aber auch durch mehr RAM oder eine bessere Grafikkarte erfolgen.

Letztlich kann man sogar den Tausch eines Motherboards ins Kalkül ziehen, also heute ein billiges 66-MHz-Board kaufen, und erst mit dem Prozessor-Upgrade zusammen auf ein später natürlich ebenfalls billiges 100-MHz-Board aufsteigen. Die Steckkarten kann man problemlos mitnehmen, und wenn man gleich PC-100-RAM vorsieht, auch dieses. Oder man bestückt halt nur ein Minimum an Speicher und schreibt diesen ebenfalls ab. Das kann durchaus ökonomisch sein - ökologisch ist es indes nur, wenn die ausrangierten Teile später weiterbenutzt werden können.

Wer so rechnet, für den wäre es dann auch kein Drama, sich heute für ein besonders preiswertes Sockel-7-Board zu entscheiden, denn damit ist der Umstieg auf ein Slot-1-System ja nicht auf ewig verbaut. Wenn dann in ein bis zwei Jahren tatsächlich mehr Performance benötigt wird, ist diese zu einem Bruchteil des heutigen Preises zu haben.

Auf jeden Fall lohnt es sich nur äußerst selten, jeweils in den schnellsten Prozessor zu investieren, denn hier ist der Preisverfall besonders rasant. Wer heute einen Celeron 333 für knapp 400 DM statt eines Pentium II 450 für 1300 DM kauft, kann letzteren bei Bedarf vermutlich in einem guten halben Jahr für 400 Mark nachrüsten - unterm Strich hat er dann 500 DM gespart.

Gemäß aktueller Doktrin von Intel und Microsoft hat der alte ISA-Bus inzwischen ausgedient. So wünschenswert und richtig dies aus technischer Sicht ist, in der Praxis kann man noch nicht völlig auf ISA-Karten verzichten. Theoretisch gibt es zwar alle relevanten Erweiterungskarten inzwischen auch in einer PCI-Version, allerdings sind diese noch deutlich teurer als ihre ISA-Vorgänger. Aus Kompatibilitäts- und Kostengründen sollte auch ein modernes System noch mindestens zwei ISA-Steckplätze bieten.

Wenn aber nur ein oder gar kein ISA-Slot mehr vorhanden ist, sollte es wenigstens entsprechend mehr PCI-Steckplätze geben. Doch ein Trend zu mehr als drei oder vier PCI-Slots ist nicht absehbar. Im Gegenteil, etliche Spardesigns kommen statt dessen mit nur einem ISA- und zwei PCI-Plätzen daher. Ein SCSI-Adapter, eine ISDN-Karte, ein Netzwerkadapter - und schon passen weder eine bessere Grafikkarte noch eine Soundkarte mit Audio-Digital-Anschluß (S/P-DIF) ins System.

Ein möglicher Ausweg aus dem Slot-Dilemma sind auf dem Board integrierte Komponenten. Hier spart man sich den Slot und unter Umständen viel Geld. So kostet ein Ultra2-SCSI-Hostadapter von Adaptec als Steckkarte gut 730 DM (Kit mit Software), wogegen der Aufpreis bei einer vergleichbar ausgestatteten On-Board-Lösung nur knapp 250 DM beträgt. Durch einen integrierten Netzwerkadapter lassen sich auch noch mal rund 30 Mark sparen.

Die On-Board-Lösung hat aber den entscheidenden Nachteil, daß man die integrierten Komponenten bei einem Boardwechsel nicht mitnehmen kann. Hier gilt es dann abzuwägen, was unterm Strich günstiger ist: Eine Steckkarte, die man nach einem Upgrade in den neuen Rechner mitnehmen kann, oder eine integrierte Schnittstelle, die im Zweifelsfall neu erworben werden muß. Wer des öfteren die Hauptplatine wechselt, fährt mit separaten Steckkarten sicher besser.

Auf einem völlig anderen Blatt stehen dagegen integrierte Grafiklösungen. Die Innovationszyklen speziell bei Grafikkarten für 3D-Spiele sind inzwischen auf rund sechs Monate geschrumpft. Aber auch hinsichtlich neuer Bildschirme mit LC-Display stehen über kurz oder lang Neuerungen ins Haus, etwa deren direkte digitale Ansteuerung. Die Wahrscheinlichkeit, daß zur Lebenszeit eines heute erworbenen Rechners eine neue Grafikkarte ins System kommt, ist sehr hoch.

Zwar schalten sich alle modernen On-Board-Grafikchips automatisch ab, wenn eine Grafikkarte in einem der PCI-Slots steckt, für ein Upgrade aus Performance-Gründen ist das aber kaum hilfreich. Die neue Grafikkarte steckt dann nämlich nur in einem PCI-Slot; die einzige verfügbare AGP-Schnittstelle blockiert in jedem Fall die On-Board-Grafik. Das ist auch deshalb fatal, weil PCI-Grafikkarten langsam aussterben - die Auswahl an wirklichen Neuentwicklungen auf PCI-Basis beginnt sich schon erkennbar zu lichten. Die Möglichkeit, trotz On-Board-AGP-Grafik einen AGP-Steckplatz vorzuhalten, nutzt bisher nur Siemens-Nixdorf bei einem ihrer OEM-Boards. Eine integrierte Grafiklösung kommt damit nur für Systeme in Frage, deren langfristige Nutzung bereits feststeht. Das gilt bestenfalls für bestimmte Arbeitsplätze in Firmen oder Behörden.

Bei der Auswahl des Motherboards sollte man auch berücksichtigen, daß sich der PC-Markt derzeit in einer Umbruchphase befindet. Schuld daran ist Windows 98 und dessen optimiertes Power-Management. Die neuen PCs sollen nun nicht nur weniger Energie verbrauchen, sondern auch schnell genug aus dem Tiefschlaf erwachen, um ein Fax oder einen Anflug entgegen zu nehmen. Auch der Boot-Vorgang soll sich auf wenige Sekunden verkürzen.

Das Zauberwort für diese Neuerungen heißt ACPI und ist eng mit dem BIOS des Motherboards verknüpft. Leider gibt es bislang aber kein völlig fehlerfreies ACPI-BIOS, so daß immer wieder Upgrades nötig werden. Die neuen BIOS-Versionen muß der Board-Hersteller liefern, was nach unseren Erfahrungen nicht immer reibungslos klappt. Viele Anbieter beschränken sich darauf, neue Versionen für aktuelle Boards zu entwickeln. Besitzer älterer Platinen haben dann das Nachsehen.

Wer sich hier vor Reinfällen schützen will, sollte sich vor dem Kauf eines Boards oder Komplettsystems einmal auf der Internet-Seite des Anbieters umsehen. Finden sich dort gar keine BIOS-Updates oder nur welche für die aktuellen Produkte, sollte man es sich zweimal überlegen, ob man sein Geld nicht lieber zu einem anderen Händler trägt.

IDE ist die Standard-Lösung auf jedem PC. Hier lassen sich bis zu vier Massenspeicher anschließen und heute auch hinreichend schnell bedienen. Wer mit vier Geräten langfristig über die Runden kommt - etwa Festplatte, CD-ROM-Laufwerk, Wechselplatte und CD-Brenner - sollte kein Geld in das grundsätzlich etwas teurere SCSI-Zubehör investieren. Außerdem steht ihm der Weg zu SCSI stets offen, denn einen SCSI-Hostadapter kann man jederzeit nachrüsten, und er funktioniert völlig problemlos neben einer IDE-Lösung.

Eine moderne IDE-Festplatte ist mittlerweile genauso schnell wie ein preiswertes SCSI-Modell. Für ein 32- oder auch 40fach-CD-ROM-Laufwerk reicht die via IDE-Schnittstelle erzielbare Datenübertragungsrate ebenfalls völlig aus. Aus der Welt ist auch der CPU-Leistung fressende PIO-Modus, mit dessen Hilfe in der Vergangenheit Daten auf die IDE-Festplatten geschaufelt wurden. Inzwischen übernimmt diese Aufgabe ein PCI-Master (Busmaster-Betriebsart), der wie sein SCSI-Pendant im wesentlichen ohne Mithilfe des Prozessors auskommt. IDE fehlt derzeit nur die Möglichkeit, Daten quasi-überlappend von mehreren Geräten zu lesen beziehungsweise an sie zu senden, aber auch das ist bereits in Planung. Allerdings spielt das eigentlich nur bei professionellen Festplattenarrays eine Rolle.

Nur ein einziges, sehr bedeutsames Alleinstellungsmerkmal konnte sich SCSI gegenüber IDE erhalten: SCSI erlaubt den Betrieb externer Geräte. Das ist bei IDE schon aufgrund der vorgeschriebenen geringen Kabellänge schlicht nicht machbar. Viel wichtiger aber ist, daß SCSI auch den Anschluß von mehr als einem externen Gerät gleichzeitig ohne Probleme erlaubt, was bei Alternativlösungen für den Drucker-Port keineswegs gilt (s. Artikel ab Seite 164). Ob Scanner, CD-Brenner, Zip-Drive oder Streamer, sie alle machen als externe Geräte mit SCSI weniger Streß - man lasse daher dem Drucker seinen Port für sich allein.

SCSI ist ferner angesagt, wenn mehr als vier Geräte zu betreiben sind. An einen SCSI-Hostadapter kann man je nach Ausführung 7 (Ultra- SCSI, Ultra-Wide-SCSI) oder 15 (Wide-SCSI, Ultra2-SCSI) Geräte anschließen. In der Praxis [3] beschränkt man sich aber in der Regel auch bei Wide- und Ultra2-SCSI auf 7 bis 8 Geräte.

Doch die Empfehlung lautet weiterhin: IDE-Geräte sind billiger, so daß man nur ausgesuchte Peripherie in SCSI-Ausführung anschaffen sollte. Sinnvolle Kandidaten dafür sind vor allem Wechselplatten, die am IDE-Adapter (ebenso wie am Parallelport) viel Kummer machen können; überdies gibt es etliche Wechselplattensysteme (etwa große magneto-optische Laufwerke) nur als SCSI-Ausführung. Klassische SCSI-Geräte sind ferner Bandlaufwerke (Backup-Streamer) - hier ist die Auswahl gegenüber IDE-Geräten weit größer und die Unterstützung durch Backup-Software verläßlich. Unter Umständen kann auch ein SCSI-CD-ROM-Laufwerk eine sinnvolle Anschaffung sein, weil es einige Typen, die sich besonders gut auf schnelles Audio-Grabbing verstehen (Plextor), nur in dieser Ausführung gibt.

Im Bereich DVD haben derzeit ganz klar die ATAPI-Geräte für den Anschluß an die IDE-Schnittstelle die Nase vorn - sie werden stets vor den SCSI-Geräten auf den Markt gebracht. Das könnte sich allerdings ändern, wenn DVD-RAM-Laufwerke - mithin also Wechselplatten - größere Marktbedeutung gewinnen. Die Hersteller dieser Laufwerke könnten der Menschheit großes Leid ersparen, wenn sie weiterhin SCSI wie bei den ersten DVD-RAM-Geräten favorisieren. Insgesamt ist der DVD-Markt aber noch Pioniergebiet: DVD-ROM und -RAM sind zwei völlig unterschiedliche, in vielen Bereichen noch inkompatible Technologien. Der Zeitpunkt, ab dem ein DVD-Laufwerk gleichermaßen DVD-ROM, DVD-Video, DVD-RAM und alle Schattierungen der CD verarbeitet - und das haben uns die Hersteller vor zwei Jahren hoch und heilig versprochen -, ist noch nicht sichtbar. Derzeit können eigentlich nur Video-Fans DVD-ROM-Laufwerke sinnvoll nutzen.

Bei der Festplattengröße gilt prinzipiell dasselbe wie beim Hauptspeicher: je größer, desto besser. Als Mindestgröße für eine Festplatte in einem Windows-95- oder -98-Rechner gilt heute ein Modell mit vier GByte. `Auslaufmodelle´ mit zwei GByte sind meistens deutlich langsamer und angesichts aktueller Office-Pakete, die sich bei der Vollinstallation auf mehrere hundert MByte aufblähen, oder Browsern, die im 60-MByte-ZIP-File daherkommen, zu knapp bemessen.

Wer seinen Rechner fürs CD-Brennen oder für die Bearbeitung von hochauslösend eingescannten Bildern einsetzt, sollte von vornherein zu einer Sechs-GByte-Platte greifen. Diese kosten heute nur noch knapp 100 DM mehr als ein Vier-GByte-Modell. Ein Beispiel möge den Platzbedarf illustrieren: Eine randvolle Audio-CD entspricht 650 MByte WAV-Dateien. Wenn man diese nachbearbeitet und dadurch von jedem Stück ein oder zwei neue Versionen entstehen, sind in kürzester Zeit zwei bis drei GByte belegt.

Etwas Vorsicht ist bei hochkapazitiven IDE-Festplatten mit mehr als 8 GByte geboten, es sei denn, man kauft diese in einem Komplettsystem mit vorinstalliertem Betriebssystem. Muß man das System aber selbst aufspielen, kann man so manche Überraschung erleben. Ist das Rechner-BIOS etwa nicht auf dem neuesten Stand, so sind nur die unteren acht GByte sichtbar, der Rest bleibt ungenutzt. Abhilfe schafft ein BIOS-Update - so man denn ein passendes BIOS auftreiben kann.

Generell gilt bei Festplatten: Je größer und je schneller sie werden, desto sinnvoller ist es, sie als SCSI-Variante zu erwerben. Sehr schnelle Festplatten und wirklich große Modelle (ab 18 GByte) gibt es ohnehin nur mit SCSI-Schnittstelle. Aber Vorsicht: Diese Platten sind nicht mehr für den heimischen PC gedacht, sondern für Server, die weit ab vom Arbeitsplatz stehen. Sie leisten natürlich auch auf dem heimischen PC gute Dienste, aber sie verursachen dabei einen nicht zu überhörenden Radau. Leistung ist schön und gut, aber wer an seinem Arbeitsplatz täglich Ohrensausen aufgrund einer pfeifenden Festplatte bekommt, dem ist Leistung nach wenigen Tagen völlig wurscht. In Desktop-PCs beschränkt man sich daher besser auf Platten, die mit maximal 7200 U/min drehen. Sensible Gemüter sollten in unseren regelmäßigen Plattentests die Laufwerke ganz maßgeblich anhand der dort vermerkten Geräuschentwicklung aussuchen.

Neben der Festplatte sind aber auch die Lüfter am Prozessor und im Netzteil potentielle Lärmerzeuger. Krawall macht unter Umständen auch das CD-ROM-Laufwerk, wenn es eine nicht genau zentrische CD liest. Kommt dann noch ein klappriges Blechgehäuse hinzu, ist es vorbei mit der Ruhe.

Da solch einem Radaubruder mit nachträglichen Lärmdämm-Maßnahmen nur schwer beizukommen ist [4], sollte man von vornherein auf ein leises System achten. Einen PC mal `probehören´ zu wollen, ist also nicht nur in Hinblick auf die Soundkarte und die Boxen ein berechtigtes Ansinnen. Ein gut aufgebauter Rechner ist im Normalfall kaum zu hören, weil CPU-und Netzteil-Lüfter temperaturgeregelt sind. Ein stabil aufgebautes und sauber verschraubtes Gehäuse verhindert auch Klappern und störende Vibrationen beim Festplatten- und CD-ROM-Zugriff.

Von der Gehäusewahl hängt überdies auch die Erweiterbarkeit des Systems ab. Besonders die auf den ersten Blick schnuckeligen kleinen Desktop-Gehäuse, aber auch vergleichbare Midi-Tower im Micro-ATX-Format bieten in ihrem Inneren kaum Platz für Erweiterungen und machen mitunter schon den Ausbau des Hauptspeichers zur Qual. Andererseits ist ein voluminöses Tower-Gehäuse auch nicht jedermanns Sache - besonders wenn es gerade so eben nicht mehr unter den Schreibtisch paßt.

Grundsätzlich sollte aber jedes PC-Gehäuse noch Platz für ein weiteres 5,25"-Laufwerk wie etwa einen CD-Brenner oder eine Wechselplatte bieten. Ebenso ist ein zusätzlicher 3,5"-Einbauplatz sinnvoll, damit man eine zweite Festplatte nachrüsten kann.

Auch die Leistung des Netzteils sollte nicht zu knapp bemessen sein. Zum Glück hat der kontinuierliche Preisverfall auch vor Netzteilen nicht halt gemacht, so daß inzwischen in beinahe jedem Komplettsystem mindestens ein 150- oder 200-Watt-Gerät werkelt. Man findet aber immer noch vereinzelte Kompakt-PCs, die sich mit einer 95-Watt-Ausführung begnügen. Hier kann eine zusätzliche Platte schon für gelegentliche Unterspannung und damit für Stabilitätsprobleme sorgen.

Jeder will natürlich den günstigsten Zeitpunkt für den PC-Kauf erwischen, damit er so viel PC wie möglich fürs Geld erhält. Da PCs seit Anbeginn sowohl ständig im Preis fallen als auch gleichzeitig leistungsfähiger werden, kann man natürlich jahrelang warten - und muß dann dennoch mitansehen, daß zum kürzlich entrichteten Preis schon wieder mehr Leistung zu bekommen wäre.

Irgendwann heißt es also `zugreifen´. Zunächst läßt sich ganz allgemein sagen, daß man einen PC wirklich erst dann kaufen soll, wenn man ihn unmittelbar braucht. Dasselbe gilt für alle Komponenten, die man schon als Aufrüstung für später ins Auge gefaßt hat. Wenn Sie den CD-Brenner nicht sofort brauchen, kaufen Sie ihn später nach, ebenso das Wechselplattenlaufwerk oder den Scanner.

Es gibt wirklich nichts Ungeschickteres, als zum Beispiel dem Nachwuchs einen PC im Oktober zu kaufen, den er erst zu Weihnachten auspacken darf. Egal, wie sensationell der Kauf im Oktober war, eine Woche vor Weihnachten gibt es ein besseres Modell mit mehr Speicher, größerer Festplatte und noch leistungsfähigerem Monitor für dasselbe Geld - zwischen 200 und 500 Mark kann man durch voreiligen Kauf in den Sand setzen. Und vermutlich fallen die Preise unmittelbar nach Weihnachten noch mal deutlich.

Unabhängig von dieser globalen Aussage gibt es aber noch einige Feinheiten, mit denen sich Geld sparen läßt. Die Prozessorpreise bewegen sich derzeit zu bestimmten, von Intel vorgegebenen Stichtagen nach unten. Wann immer Intel einen neuen Chip am oberen Ende der Leistungsskala auf den Markt bringt, fallen die Preise der Vorgängertypen - und auch die Mitbewerber wie AMD und Cyrix müssen nachziehen. Die Kosten für Platten und Grafikkarten sinken dagegen eher kontinuierlich. Der Speichermarkt wiederum macht zur Zeit undurchsichtige Kapriolen: Mal geht der Preis ein paar Mark nach unten, mal steigt er wieder an.

Da der Prozessor zu den größeren Kostenfaktoren in einem PC zählt, sollte man sich beim Einkauf an den Preissenkungsterminen von Intel orientieren. Steht ein solcher kurz bevor, so lohnt sich das Warten immer. Ist er gerade vorbei, muß man ein bis zwei Monate auf die nächste Preissenkung warten - sofern man sich das leisten kann. Die Termine für die Preissenkungen erfahren Sie bei c't schon im voraus regelmäßig im Prozessorgeflüster.

Was tun mit dem ausrangierten PC? So er denn kaputt ist, bleibt einem kaum etwas anderes übrig, als ihn zum Sondermüll zu bringen. Natürlich kann man zuvor alle noch funktionsfähigen Teile bergen. Für die Entsorgung eines alten Rechners berechnen die Gemeinden höchst unterschiedliche Gebühren. Einige nehmen die Geräte kostenlos an, wenn man sie selbst anliefert, andere verlangen für einen PC ohne Monitor zwischen 15 und 35 DM. Monitore lassen sich heute kaum noch kostenlos entsorgen, so daß man hier generell mindestens 25 DM veranschlagen muß.

Wenn der PC noch funktioniert, aber für die Alltagsaufgaben einfach nicht mehr schnell genug ist, kann man ihn auch im Rahmen eines häuslichen Netzwerks für Sonderaufgaben abstellen. Möglich wäre hier ein Drucker- oder Internet-Server. Wie man den alten so zu neuen Ehren kommen läßt, steht auf Seite 128. Es gibt aber auch Firmen wie den Kirchbauhof, die alte Rechner als Spenden annehmen und wieder aufmöbeln, um sie zum Beispiel kostenlos an Schulen abzugeben [5]. (gs)

Anzeige