zurück zum Artikel

Microsoft baut Top-5-Supercomputer mit 10.000 GPU-Beschleunigern

Microsoft baut Top-5-Supercomputer mit 10.000 GPU-Beschleunigern

(Bild: VDB Photos/Shutterstock.com)

Über 285.000 Prozessorkerne und 10.000 Beschleunigerkarten dürften Microsoft zum weltweit schnellsten Industrie-Supercomputer verhelfen.

Microsoft schafft sich zusammen mit dem KI-Unternehmen OpenAI einen Supercomputer an, der laut (noch) aktueller Top500-Liste zu den fünf schnellsten Rechenfarmen der Welt gehören soll. Über 285.000 Prozessorkerne und 10.000 Beschleunigerkarten trainieren künftig neuronale Netzwerke für Microsoft und OpenAI, beispielsweise für die eigene Spracherkennung. OpenAI ist unter anderem über die Spiele-KI „Five“ bekannt, die es mit Profi-Teams in Titeln wie Dota 2 aufnimmt. Verbunden werden die Rechen-Nodes über einen Ethernet-Interconnect mit Übertragungsraten von 400 GBit/s.

News von der Build 2020

Microsofts Ankündigung erfolgte im Rahmen des Build-2020-Livestreams [12]. Konkrete Hardware-Details verraten die beteiligten Firmen noch nicht – in einem separaten Blog-Beitrag deutet Microsoft [13] jedoch den Einsatz von Nvidias neuen A100-Beschleunigern mit Ampere-GPUs [14] an. 10.000 davon kämen auf eine FP64-Rechenleistung, wie sie die Top500 misst, von knapp 100 PetaFlops. Unter Berücksichtigung der aufgebohrten Tensor-Rechenkerne in der GPU wäre die doppelte Rechenleistung drin. Bliebe Microsoft bei den bisher eingesetzten Tesla-V100-Karten, kämen 10.000 Stück auf etwa 75 PetaFlops.

Der bisher schnellste Supercomputer in privatem Firmenbesitz ist der HPC5 des italienischen Gas- und Erdölkonzerns Eni [15] mit 51,7 FP64-PetaFlops. In die Top500-Liste wird das System mit der nächsten Ausgabe im Juni 2020 aufgenommen. Mehr Rechenleistung vereinen ausschließlich Rechenfarmen von Forschungseinrichtungen und Universitäten, die vom Staat gefördert werden.

Lesen Sie auch

Den neuen Supercomputer nutzen Microsoft und OpenAI intern für eigene neuronale Netzwerke. Mitarbeiter erhalten über die Azure-Cloud Zugriff. Für Kunden hostet Microsoft separate Instanzen über Azure, die künftig auf die gleiche Hardware aufgerüstet werden sollen.

[Update, 20.5.20, 17:45:] Der Interconnect läuft mit 400 GBit/s, nicht 400 GByte/s.

(mma [17])


URL dieses Artikels:
https://www.heise.de/-4725457

Links in diesem Artikel:
[1] https://www.heise.de/news/Microsoft-legt-Sourcen-fuer-GW-BASIC-Interpreter-offen-4726428.html
[2] https://www.heise.de/news/Kommentar-So-kann-Microsoft-die-Abwanderung-von-NET-Entwicklern-nicht-stoppen-4725901.html
[3] https://www.heise.de/news/Microsoft-Build-2020-Blazor-WebAssembly-ist-fertig-4725818.html
[4] https://www.heise.de/news/Microsoft-baut-Top-5-Supercomputer-mit-10-000-GPU-Beschleunigern-4725457.html
[5] https://www.heise.de/news/Microsoft-Build-2020-Vierte-Preview-von-NET-5-0-und-weitere-Ausblicke-4725047.html
[6] https://www.heise.de/meldung/Microsoft-Build-2020-C-9-0-mit-viel-Fingerkuppenschonung-4725001.html
[7] https://www.heise.de/meldung/Microsoft-Build-2020-Microsoft-will-Windows-APIs-wiedervereinen-4724998.html
[8] https://www.heise.de/meldung/Microsoft-Build-2020-Neue-Werkzeuge-fuer-Windows-Entwickler-4723981.html
[9] https://www.heise.de/meldung/Build-2020-Aus-Xamarin-Forms-wird-MAUI-4724947.html
[10] https://www.heise.de/news/Microsoft-Build-Neues-bei-Teams-WSL-und-PowerToys-4723951.html
[11] https://www.heise.de/meldung/Build-2020-Was-Entwickler-erwarten-koennen-4723752.html
[12] https://blogs.microsoft.com/ai/openai-azure-supercomputer/
[13] https://techcommunity.microsoft.com/t5/azure-ai/training-deep-learning-models-at-scale-in-azure/ba-p/1399647
[14] https://www.heise.de/meldung/Nvidias-GPU-Generation-Ampere-Fast-7000-Kerne-und-40-GByte-RAM-4720862.html
[15] https://www.heise.de/meldung/Eni-HPC5-Schnellster-Industrie-Supercomputer-mit-52-PetaFLOPS-4659950.html
[16] https://www.heise.de/meldung/OpenAI-Five-Die-KI-die-den-Dota-2-Weltmeister-besiegt-hat-4400773.html
[17] mailto:mma@heise.de