Menü
Developer

Nvidias CUDA 6 führt Unified-Memory-Konzept ein

Von
vorlesen Drucken Kommentare lesen 31 Beiträge

Nvidia hat einen Einblick in die nächste Version seiner CUDA-Plattform für parallele Berechnungen gewährt. Das für Anfang 2014 angekündigte CUDA 6 soll durch Verbesserungen Programme um den Faktor 8 beschleunigen können, indem Entwickler die vorhandenen CPU-Bibliotheken mit ihren GPU-Pendants ersetzen. Die Beschleunigung der BLAS- (Basic Linear Algebra Subprograms) und FFTW-Berechnungen erfolgt danach automatisch.

Neue BLAS- und FFT-GPU-Bibliotheken skalieren anscheinend automatisch über bis zu 8 GPUs in einem Single Node und liefern über 9 Teraflops Leistung über Double-Precision-Berechnungen pro Knoten. Mit CUDA werden ferner anscheinend größere Workloads als je zuvor unterstützt (bis zu 512 GB). Die Skalierung von Multi-GPUs lässt sich wohl auch mit der neuen BLAS Drop-in Library von CUDA nutzen.

Unter dem Schlagwort Unified Memory führt Nvidia ein an das hUMA-Konzept (heterogeneous Uniform Memory Access) der Heterogeneous System Architecture (HSA) erinnerndes Programmiermodell ein, über das Applikationen via CUDA-Direktiven Zugriff auf den Speicher von CPU und GPU erhalten, ohne dass Entwickler manuell Daten jeweils hin und her kopieren müssen. Das soll außerdem die GPU-Beschleunigung in vielen Programmiersprachen vereinfachen. Anwender von CUDA sehen hier deutlich reduzierten Code und bis zu 50 Prozent kürzere Entwicklungszeiten.

Zusätzlich zu diesen neuen Funktionen umfasst CUDA Programmier-Tools, GPU-beschleunigte Mathematik-Libraries, Dokumentationen und Programmieranleitungen. Mitglieder des CUDA Computing Registered Developer Program erhalten offenbar automatisch eine Nachricht, sobald der Download bereitsteht. (ane)