Menü

Nvidia bestätigt: Auf Maxwell-GPUs sitzen auch ARM-Prozessorkerne

Von
vorlesen Drucken Kommentare lesen 78 Beiträge

Nvidia-Chef Jen-Hsun Huang kündigte Maxwell-Grafikchips für 2013 an.

(Bild: c't)

Der von Nvidia für das Jahr 2013 angekündigte Grafikchip "Maxwell" wird zusätzlich zum GPU-Design auch integrierte ARM-Rechenkerne mitbringen. Dies bestätigte Nvidia-Mitarbeiter Michael Rayfield, seines Zeichens General Manager für den Mobile-Geschäftssektor, gegenüber der Webseite Hexus.net .

Laut Rayfield ist Maxwell die erste Implementation des vor kurzem auf der CES (Las Vegas) von Nvidia-Chef Jen-Hsun Huang angekündigten "Project Denver": Nvidia will für Desktop- und Supercomputer geeignete Kombi-Prozessoren mit ARM-CPU- und Nvidia-GPU-Kernen erschaffen.

Als Zwischenstück zu den aus 22-Nanometer-Strukturen gefertigen Maxwell-GPUs wird Ende dieses Jahres noch die "Kepler"-Generation (28 nm) erwartet, die Nvidia bereits mit Preemption- und Virtual-Memory-Funktionen ausstatten will. Über einen eigenen Scheduler ist der Grafikchip dann in der Lage, Compute-Kernels schlafen zu legen und zu einem bestimmten Zeitpunkt wieder aufzunehmen.

Das derzeit noch schwerwiegende Problem der langsamen CPU-GPU-Datentransfers dürften die direkt auf dem Chip sitzenden ARM-Kerne deutlich verbessern, sofern ihre Leistung zur Datenfütterung der Shader-Rechenkerne ausreicht. Bereits auf der SC'10 hatte der Stanford-Professor und Nvidia-Chefwissenschaftler William (Bill) Dally (Blog ) Kombi-Chips mit ARM- und GPU-Kernen erwähnt, die jedoch unter dem Codenamen Echolon laufen.

Im Vergleich zu den aktuellen Fermi-Grafikchips soll Maxwell bei gleicher Leistungsaufnahme deutlich effizienter arbeiten.

(Bild: c't)

Wie Huang auf der GPU Technology Conference in San Jose ankündigte, soll Maxwells Rechenleistung bei bis zu 16 Dual-Precision-GFlops pro Watt liegen, bei den ersten Fermi-Grafikkarten lag der Wert noch bei 2 DP-GFlops/Watt. Kepler soll zwischen 4 und 6 DP-GFlops/Watt erreichen. Aus den theoretischen Werten lassen sich jedoch keine Schlüsse ziehen, wieviel schneller die kommenden Grafikchips zumindest bei herkömmlichem 3D-Rendering im Vergleich zu heutigen GPUs sein werden. (mfi)

Anzeige
Anzeige