Grafikkarten-Geschichte: Von der Frühphase bis zur modernen GPU

Über die Jahre entwickelten sich Grafikkarten zu wahren Funktionskünstlern. Heute sind sie nicht nur in der Spielewelt wegen ihrer Rechenleistung unentbehrlich.

Lesezeit: 13 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 19 Beiträge
Von
  • Carsten Spille
Inhaltsverzeichnis

Lange wurden Grafikkarten im PC belächelt, diente der PC doch vorwiegend als Arbeitsgerät und der Monitor zeigte hauptsächlich ASCII-Zeichen in festgelegten 25 Zeilen und 80 Spalten an. Doch mit dem Einzug grafischer Bedienoberflächen und optisch immer aufwendigeren Spielen gewann auch die Grafikkarte an Bedeutung.

In der Anfangsphase des PC stellte IBM selbst noch 8-bittige Grafikkarten für den ISA-Steckplatz her. Die arbeiteten meist im "Monochrome Display Adapter"-Standard (MDA), einem reinen Textmodus mit 80 Spalten und 25 Zeilen – jedem Zeichen waren fest 9 × 14 Pixel zugeteilt, die Gesamtauflösung lag bei 720 × 350 Bildpunkten. Die Bildpixel ließen sich darin noch nicht einzeln ansteuern. Das ging nur mit einer optionalen Grafikkarte, dem Color Graphics Adapter (CGA), nach dem auch der gleichnamige Standard benannt wurde. Mit dieser Karte gab es dann die Auswahl von 16 Farben mit 160 × 100 Pixeln oder 320 × 240 Pixeln mit ganzen vier Farben.

Zulieferer wie Hercules boten allerdings schon ein Jahr nach Einführung des IBM-PCs Steckkarten an, die beide Modi kombinierten.

Immer mehr Wissen. Das digitale Abo für IT und Technik.

  • Zugriff auf alle Inhalte von heise+
  • exklusive Tests, Ratgeber & Hintergründe: unabhängig, kritisch fundiert
  • c't, iX, Technology Review, Mac & i, Make, c't Fotografie direkt im Browser lesen
  • einmal anmelden – auf allen Geräten lesen - monatlich kündbar
  • erster Monat gratis, danach monatlich 9,95 €
  • Wöchentlicher Newsletter mit persönlichen Leseempfehlungen des Chefredakteurs
GRATIS-Monat beginnen Jetzt GRATIS-Monat beginnen Mehr Informationen zu heise+