GPU-Leistung aus der Cloud: Google stellt A2-VMs mit bis zu 16 Nvidia A100 vor
Bis zu zwanzigmal mehr Leistung gegenüber dem Vorgänger – Google verspricht mit seinen neuen A2-VMs GPU-Leistung satt dank Nvidias A100-GPUs.
(Bild: Google)
Unter dem Namen A2 führt Google eine neue VM-Serie für seine Public-Cloud-Plattform ein. Mit bis zu 16 A100-Grafikbeschleunigern von Nvidia pro Instanz ist sie in erster Linie auf GPU-Leistung im Bereich maschinelles Lernen und fürs High Performance Computing (HPC) ausgelegt.
Google verspricht eine um bis zu zwanzigmal höhere Leistung im Vergleich zur vorherigen GPU-Generation von Nvidia – konkret bezieht sich diese Zahl auf Tests des Herstellers, die die A100 der V100 gegenüberstellten. Vorgestellt hatte Nvidia die A100 im Mai 2020, bei der A2-Serie handelt es sich um die ersten Cloud-VMs mit der Grafikkarte.
Verschiedene Instanzen
Google offeriert Instanzen mit einer, zwei, vier, acht oder 16 A100. Hiernach richtet sich auch die restliche Ausstattung der VMs. Das System basiert auf Nvidias HGX-A100-Plattform, die vier oder acht GPUs auf einer Platine integriert. Verbunden sind letztere per NVLink.
Flankiert werden die GPUs von bis zu 96 Cascade-Lake-vCPUs von Intel sowie maximal 1,3 TByte Arbeitsspeicher. Auf Wunsch lassen sich die VMs mit lokalen SSDs ausstatten, die Verbindung ins Netz schafft bis zu 100 Gbit/s. Die kleinste Instanz muss hingegen mit 12 vCPUs, 85 GByte RAM und einer 24 Gbit/s schnellen Netzverbindung auskommen. Details zu den einzelnen Instanzen finden sich in der Ankündigung.
Zunächst sind die A2-VMs einem privaten Alpha-Programm vorbehalten. Die generelle Verfügbarkeit plant Google noch für dieses Jahr.
(fo)