Menü

Nvidia CUDA für ARM-Supercomputer

Nvidia will Tesla-Karten auch für ARM-Supercomputer verkaufen und die I/O-Performance bei Clustern verbessern.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 1 Beitrag

(Bild: Nvidia)

Von

Nvidia-Tesla-Rechenbeschleuniger lassen sich künftig auch in Systemen mit ARMv8-CPUs nutzen. CUDA-X ist ab sofort in einer Preview-Version erhältlich, die auf Servern mit Marvell ThunderX2, Ampere A1 und Fujitsu A64FX mit Tesla-(V100-)Karten läuft. Damit fügt Nvidia nach x86-Prozessoren (von AMD und Intel) sowie IBM Power/OpenPower eine dritte CPU-Familie zu CUDA hinzu.

Schon in der vor-vorletzten Top500-Liste waren erste Supercomputer mit ARM-Prozessoren aufgetaucht; in Zukunft dürfte das Angebot deutlich wachsen, vor allem auch durch die Kooperation zwischen HPE/Cray und Fujitsu bei A64FX-Systemen. Aber auch die European Processor Initiative (EPI) setzt auf ARM (und RISC-V) und mit Nuvia könnte ein weiterer ARM-Server-SoC-Hersteller hinzukommen. Nvidia hatte CUDA für ARM allerdings schon auf der ISC19 angekündigt.

Außerdem kündigt Nvidia das Software-Paket Magnum IO an, um I/O-Operationen beim Rechnen auf Clustern mit Tesla-Karten zu beschleunigen. Magnum IO stellt dazu einen Datenpfad bereit, der die CPU umgeht und direkt auf schnelle Netzwerkkarten zugreift.

Nividia kooperiert bei Magnum IO mit IBM, Excelero, DataDirect Networks, WekaIO und dem im Frühjahr übernommenen Interconnect-Spezialisten Mellanox. Die Magnum-IO-Funktion GPUDirect Storage soll erst ab 2020 nutzbar sein. Andere GPUDirect-Funktionen gibt es bei Nvidia schon seit 2010.

Anlässlich der HPC-Konferenz Supercomputing SC'19 kündigt Nvidia außerdem an, dass Microsoft Azure nun auch extrem leistungsfähige NDv2-Instanzen offeriert, bei denen sich bis zu 800 Tesla-V100-Beschleuniger über Infiniband-Dapter von Meallnox koppeln lassen. (ciw)