c't 1/2016
S. 14
Prozessorgeflüster
AMDs Grafiksparte

Prozessorgeflüster

Vom Aufstreben und Aufleben

AMDs Grafik-Guru Raja Koduri, der zwischenzeitlich vier Jahre bei Apple den Bereich „Graphics Architecture“ leitete, will die Radeon-Sparte mit allen Mitteln aus dem Schlamassel ziehen. Das ist eine Herkulesaufgabe, aber die Zeichen stehen gar nicht so schlecht.

Oft wurde AMD schon der baldige Untergang geweissagt. Doch nun scheint sich die Firma zumindest etwas zu berappeln. Der Aktienkurs klettert seit Anfang Oktober unaufhörlich und hat seitdem fast 50 Prozent zugelegt. Bevor jetzt einige überschwänglich werden: Wir reden von einem Sprung von 1,66 US-Dollar auf rund 2,40 US-Dollar. Für eine AMD-Aktie bekommt man im Silicon Valley also noch immer keine Tasse Kaffee.

Raja Koduri will AMDs Grafiksparte wieder konkurrenzfähig machen.

Dennoch: Den Händlern und Analysten ist nicht entgangen, dass innerhalb der Firma wirklich wichtige Veränderungen laufen. Besonders den konkurrenzfähigen Grafik-Bereich will AMD stärken, weshalb man die Radeon Technologies Group unter Führung des kompetenten und intern beliebten Chef-Architekten Raja Koduri formte – und zwar bereits im September, kurz bevor der Aktienkurs Fahrt aufnahm.

Seitdem hat AMD vor allem am Grafiktreiber selbst geschraubt – erst das unübersichtliche Catalyst Control Center begraben, schließlich noch jede Menge sinnvoller Funktionen eingebaut und die Performance befeuert.

Aber AMD wäre nicht AMD, wenn dabei nichts schiefgegangen wäre. Und so kam es, dass kurz nach dem Release des Wundertreibers „Crimson“ aufgrund eines Fehlers im Lüftersteuerungs-Algorithmus einige Radeon-Grafikkarten überhitzten und karminrot wurden. Im Dezember schob AMD schließlich einen „Hotfix“-Treiber nach – da war der Name tatsächlich Programm. Schlecht für AMD: Solche groben Fehler hinterlassen immer einen Brandfleck im Image einer Firma – Nvidia kann davon ein (langes) Lied singen.

Überdies läuft nun ausgerechnet die Radeon R9 Fury X als AMDs „heißeste“ Grafikkarte des Jahres Gefahr, vom Markt zu verschwinden. Denn ihre in Zusammenarbeit mit Coolermaster entwickelte Referenz-Wasserkühlung soll Patente der Firma Asetek verletzt haben. AMD vertritt in einem kleinen Statement die Ansicht, dass der Fury-X-Kühler keine Asetek-Patente verletze.

Ob damit auch die Verschiebung der wohl wassergekühlten Dual-GPU-Grafikkarte Radeon R9 Fury X2 zusammenhängt, die nun erst 2016 auf den Markt kommen soll? Eher munkelt man, dass AMD ohnehin noch ziemlich viel Arbeit in den Treiber stecken müsse und daher die Fury X2 erst kurz vor Nvidias High-End-Grafikkarten der Serie „Pascal“ vom Stapel lassen wolle. Auf der Anfang April stattfindenden GPU Technology Conference will Nvidia zumindest die neue Pascal-Architektur enthüllen – ob dann sofort neue GeForce-Karten in den Handel gelangen, weiß derzeit niemand.

AMD beglückt die PC-Gamer aber nicht nur mit Hyper-Highend-Karten, sondern hat mit der Radeon R9 380X auch was für Normalsterbliche in petto. Auch wenn jene erstmal grummelten als herauskam, dass die Grafikkarte offenbar über ein funktionstüchtiges 384-Bit-Speicherinterface verfügt, was aber von AMD künstlich auf 256 Bit limitiert wurde. Der Grund liege laut PC Perspective darin, dass AMD keine passende Preis-Performance-Kombination gefunden habe. Klarer gesagt: Mit 256-Bit-Interface kann AMD einfach 4 GByte Speicher einsetzen; bei 384 Bit müsste man auf 3 GByte (zu wenig) oder 6 GByte (zu teuer) setzen. Die Alternative wäre gewesen, 384 Bit mit 4 GByte VRAM zu kombinieren und einen Teil des Speichers langsamer anzubinden – ähnlich wie es Nvidia bei der GeForce GTX 970 getan hat. Aber da hat sich AMD glücklicherweise dagegen entschieden.

Gute Vorzeichen

Von Problemchen lenkt man am besten mit guten Nachrichten ab – und das geht am einfachsten über Ankündigungen. Diese Kunst beherrscht AMD vortrefflich und verkündete wirklich Interessantes: Die kommenden Radeon-Grafikkarten mit Polaris-Architektur sollen endlich 4K-Fernseher mit 60 Hz ansteuern können, also HDMI 2.0 – pardon – 2.0a bieten. Der kleine Buchstabe „a“ weist darauf hin, dass die HDMI-Schnittstelle auch Bilder mit hohem Kontrastumfang (High Dynamic Range/HDR) ausgeben kann. Dieses echte HDR ist nicht zu verwechseln mit dem gleichnamigen 3D-Effekt in Computerspielen, der einen ähnlichen Eindruck mehr schlecht als recht simuliert.

Hochkontrastbilder (HDR) oder 5K-Displays: für die kommende Radeon-Generation dank DisplayPort 1.3 kein Problem Bild: AMD

Richtige Hochkontrast-Bilder müssen Radeon-Grafikkarten mit 10 Bit pro Farbkomponente berechnen (1,07 Milliarden statt 16,7 Millionen Farben) und auf HDR-Displays mit 10-Bit-Panel ausgeben. Kompatible Computermonitore sollen im zweiten Halbjahr 2016 erscheinen; dann sollte es auch UHD-Blu-rays oder Streaming-Angebote mit HDR-Inhalten geben. Sogar aktuelle Radeon-300-Grafikkarten will AMD für echtes HDR fitmachen, allerdings nur für Spiele; HDR-Filme spielen nur die künftigen „Arctic-Islands-Karten“ dank neuer Videoprozessoren ab. Letztere steuern via DisplayPort 1.3 sogar 5K-Displays mit nur einem Kabel an; na, das ist doch mal was!

Radeon-Grafikkarten sollen im kommenden Jahr aber nicht nur hübschere Bilder berechnen, sondern auch schneller und vor allem zugänglicher werden. AMD will Entwicklern unter der GPUOpen-Initiative direkten GPU-Zugriff gewähren und Treiber-Utilities, Tools, Bibliotheken und SDKs (darunter auch das VR-SDK LiquidVR) unter der freizügigen MIT-Open-Source-Lizenz offenlegen; das Gleiche gilt auch für die Tools, die unter der HPC-Initiative Boltzmann laufen, die etwa Nvidias CUDA-Code in C++ übersetzen. Die Quelltexte will man direkt auf GitHub veröffentlichen. Außerdem verstärkt AMD seine Bestrebungen, bei Linux vorwiegend auf Open-Source-Treiber zu setzen.

Das Team um Raja Koduri klotzt also richtig ran, um den AMD-Grafikkarten-Marktanteil endlich mal wieder deutlich über die 20-Prozent-Marke zu drücken. Den Rest des Grafikkarten-Marktes beherrscht die Firma Nvidia, die sich derzeit eher ruhig gibt. Aber das könnte auch nur die Ruhe vor dem Sturm sein, der Anfang April mit Pascal aufziehen könnte. Derweil soll auch Apple an einer eigenen GPU arbeiten – aber das dürfte Raja Koduri wohl kaum überraschen. (mfi@ct.de)

Kommentare lesen (1 Beitrag)