"GPUs as a Service" für Kubernetes Engine allgemein verfügbar

Google ergänzt das eigene Kubernetes-Engine-Angebot um weitere Features für Unternehmen: Nun stehen auch GPUs allgemein allen als Dienste zur Verfügung.

 –  0 Kommentare
GPUs as a Service für Kubernetes Engine allgemein verfügbar

Erst kürzlich haben die Google-Entwickler die allgemeine Verfügbarkeit der Version 1.10 ihrer verwalteten Kubernetes-Version mit dem Namen Google Kubernetes Engine bekanntgegeben. Nun haben sie auch die allgemeine Verfügbarkeit von GPUs als weiteres Feature in einem Blogeintrag verkündet.

Sie führen dabei auch aus, dass sich die Verfügbarkeit von GPUs in der Kubernetes-Engine-Plattform bereits in der Beta-Phase zu einem der meistgefragten Features entwickelt hat. So haben sich die Kernzeiten für den Einsatz der GPUs seit dem Ende des Jahres 2017 nach diesen Aussagen in der Zwischenzeit um das Zehnfache gesteigert.

Die Google-Mitarbeiter betonen, dass sich die Plattform durch dieses Feature besonders gut für Machine-Learning-Anwendungen im Enterprise-Umfeld eignen würde. Entwickler, die diese GPUs für ihre CUDA-Anwendungen einsetzen, können je nach Bedarf auf entsprechend große GPU-Power setzen, ohne dass sie dazu entsprechende Hardware oder auch nur virtuelle Maschinen verwalten müssen.

Kürzlich hat Google das Portfolio der GPUs zudem um die aktuellste und schnellste Nvdia Tesla V100 erweitert. Auch die P100 ist allgemein verfügbar. Für Entwickler, die eher eine Einsteiger-GPU benötigen, steht unter anderem das Nvidia-Modell K80 bereit. Alle GPU-Modelle stehen dabei auch als preemptive Varianten bereit, die Entwicklern helfen sollen, Kosten zu sparen und trotzdem die volle Leistung der GPUs in ihren Projekten zu nutzen. Google bezeichnet den Einsatz dieser preemptiven GPUs als ideal für Nutzer, die mit kurzzeitigen Arbeitslasten arbeiten, wie sie beispielsweise beim Machine Learning oder High-Performance Computing auftauchen können.

Wie in dem Blogeintrag weiter erläutert wird, habe man auf Nachfragen der Nutzer nun auch die Möglichkeit integriert, dass die Entwickler Information darüber, wie beispielsweise die GPU-Jobs verlaufen, wie die GPUs performen und wie die Auslastung des Speichers ist, direkt in der GPC-Console auslesen können.

Wie laufen die GPU-Jobs ab? Das können die Nutzer nun in der GPC-Konsole direkt überwachen. (Bild: Google)

Google stellt interessierten Entwicklern die Möglichkeit bereit, die GPUs als Dienst selbst mit 300 Euro Startguthaben zu testen. Allerdings ist es dazu nötig, dass sie ihr Konto auf ein kostenpflichtiges Konto upgraden, um dort die GPU Quotas zu aktivieren, damit das Guthaben nutzbar wird. Für detaillierte Informationen darüber, wie die Entwickler dann beispielsweise die Nvida-Treiber installieren oder ein Pod-Objekt für eine GPU konfigurieren können, sind in der Online-Dokumentation (die sich aktuell allerdings noch auf die Beta-Version bezieht) zu finden.

In ihrem Blogeintrag fügen die Google-Entwickler dann noch ergänzend hinzu, dass zusätzlich nun auch die Modelle für maschinelles Lernen mit der Bezeichnung Cloud TPU in der Google-Cloud bereitstehen. Entwickler, die diese Cloud TPUs unter Kubernetes Engine testen wollen, können dazu dem entsprechenden Early-Access-Programm beitreten. (fms)