Menü
c't Magazin

Nvidia Titan V: Grafikkarte für Machine Learning und Forschung

Nvidias Titan-Grafikkarte mit Volta-Grafikchip stemmt mit brachialer Leistung anspruchsvolle KI-Berechnungen und 4K-Spiele – zu einem fürstlichen Preis.

vorlesen Drucken Kommentare lesen

Nvidia geht in die Vollen: stolze 3200 Euro kostete die Titan V – das ist selbst für die ohnehin teure Titan-Serie ein neuer Rekord. Zum Vergleich: AMDs schnellste Profi-Konkurrenzkarte Radeon Vega Frontier Edition kostet weniger als die Hälfte. Den hohen Preis rechtfertigt die Titan V tatsächlich mit einem hohen Mehrwert – allerdings nur in ganz bestimmten Spezialanwendungen, in denen der Volta-Grafikchip seine volle Leistung entfaltet. Daher richtet sich die Titan V in erster Linie an Forscher und Entwickler, weniger an Spieler – auch wenn letztere über den GeForce-Treiber trotzdem die volle 3D-Performance der GPU abrufen können.

Der verwendete GV100-Grafikchip ist im Vergleich zu bisherigen GPUs riesig: er besteht aus 21,1 Milliarden Transistoren und bringt 5120 Shader-Rechenkerne auf einer Grundfläche von 815 mm² unter. Zu diesen gesellen sich 640 Spezialkerne für KI-Berechnungen, die sogenannten Tensor Cores. Alle Kerne laufen mit einer Basis-Taktfrequenz von 1200 MHz, dürfen sich aber im Turbo-Modus auf garantierte 1455 MHz hochtakten. Sofern in der Firmware hinterlegte Grenzen der Leistungsaufnahme und GPU-Temperatur nicht überschritten werden, laufen die Kerne kurzzeitig noch schneller – in unseren Tests maßen wir bis zu 1702 MHz. Das erhöht die theoretische Rechenleistung von 12,8 auf 17,4 Billionen Gleitkommaoperationen pro Sekunde bei einfacher Genauigkeit (FP32-TFlops, Single Precision). Bei der unter anderem für Finanzmathematik wichtigen doppelten Genauigkeit erreicht die Titan V immerhin die halbe Single-Precision-Leistung, bei etwa für Deep Learning wichtigen FP16-Berechnungen (Half Precision) die doppelte Single-Precision-Leistung, laut Nvidia bis zu 27,3 TFlops.

Doch selbst diese Rekord-Rechenwerte übertrifft die Titan V noch um ein Vielfaches, sobald die Tensor Cores mitrechnen. Dafür müssen die Anwendungen aber speziell angepasst sein und mindestens über CUDA 9.0 auf die Titan V zugreifen. Manche Deep-Learning-Frameworks wie Caffe 2 und MXNet können die Tensor Cores bereits ansprechen. Nvidia zufolge erreichen sie dann beim Inferencing und Training neuronaler Netzwerke eine theoretische Rechenleistung von 110 TFlops. Der Wermutstropfen: Die Tensor Cores lassen sich nur eingeschränkt programmieren und taugen tatsächlich nur für Deep-Learning-Berechnungen.

Immer mehr Wissen. Das digitale Abo für IT und Technik.

  • Zugriff auf alle Inhalte von heise+
  • exklusive Tests, Ratgeber & Hintergründe: unabhängig, kritisch fundiert
  • c't, iX, Technology Review, Mac & i, Make, c't Fotografie direkt im Browser lesen
  • einmal anmelden – auf allen Geräten lesen - jederzeit kündbar
  • erster Monat gratis, danach monatlich 9,95 €
  • Wöchentlicher Newsletter mit persönlichen Leseempfehlungen des Chefredakteurs
GRATIS-Monat beginnen Jetzt GRATIS-Monat beginnen Mehr Informationen zu heise+