Computex

Nvidia kündigt erste Server mit der eigenen Grace-ARM-CPU an

Im Rahmen der Computex hat Nvidia erste Server mit dem ARM-Prozessor Grace in Aussicht gestellt. Fürs Rechenzentrum kommen außerdem wassergekühlte GPUs.

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen

(Bild: Nvidia)

Von
  • Moritz Förster

Erste Server von Drittherstellern sollen in der ersten Jahreshälfte 2023 mit Nvidias selbstentworfenem ARM-Prozessor Grace und den GPU-Beschleunigern aus der neuen Hopper-Generation erscheinen – Grace Hopper genannt. Das gab Nvidia im Rahmen der Computex bekannt.

Den Anfang machen die Hersteller Asus, Foxconn, Gigabyte, Supermicro und Wiwynn. Erstmals angekündigt hatte Nvidia den ARM-Prozessor Grace im April 2021, als die Übernahme des Chip-Designers ARM noch nicht abgesagt war. Bei Grace Hopper handelt es sich um einen Kombiprozessor mit Grace-CPU und der GPU H100.

Die ersten Server richten sich an unterschiedliche Einsatzbereiche: HGX Grace Hopper soll sich unter anderem fürs KI-Training und das High Performance Computing (HPC) eignen; ist für letzteres aber in erster Linie CPU-Leistung nötig, sieht Nvidia Systeme der Serie HGX Grace ohne eigenständige Hopper-GPUs vor. OVX-Server erhalten ebenfalls die Grace-CPU sowie nicht näher spezifizierte GPUs von Nvidia – ihren Dienst sollen sie vor allem bei der Erstellung digitaler Zwillinge und Kollaborationsanwendungen verrichten. CGX-Systeme schließlich sollen mit Grace-CPUs sowie A16-Beschleunigern Grafikanwendungen und Spiele in der Cloud antreiben.

Des Weiteren hat Nvidia eine Variante des A100-Beschleunigers – Hoppers Vorgänger– mit Wasserkühlung vorgestellt. Sie erscheinen als PCI-Express-Karten und sollen in OEM-Servern noch diesen Herbst erhältlich sein. Auch die H100-GPU soll als wassergekühlte PCIe-Karte erscheinen, jedoch erst Anfang 2023.

Die wassergekühlte Version des GPU-Beschleunigers A100 belegt nur einen PCIe-Steckplatz.

(Bild: Nvidia)

Laut Nvidia laufen die wassergekühlten Versionen effizienter, insbesondere wenn man bei luftgekühlten Systemen die Klimaanlagen in die Rechnung einbezieht. Zudem belegen die wassergekühlten GPUs nur einen anstatt zwei Steckplätzen, sodass Server eine höhere Rechenleistung auf geringerem Platz liefern können. In seiner Ankündigung betont Nvidia, dass Kunden Beschleuniger mit Wasserkühlung schon jetzt verstärkt nachfragen würden und sie künftig mehr Rechenzentren-Hardware derart ausstatten wollen.

Mehr von iX Magazin Mehr von iX Magazin

(fo)