Menü

ISC'14: Nvidia paart Tesla-Karten mit 64-Bit-ARM-SoCs

Nvidia sieht die Zeit reif für den Einsatz von ARMv8-Prozessorkernen in Supercomputern - wobei allerdings Tesla-Chips die eigentliche Rechen-Power liefern und die ARM-Kerne nicht von Nvidia stammen.

von
vorlesen Drucken Kommentare lesen 4 Beiträge

Cirrascale RM1005D: Zwei X-Gene-Mainboards mit je einer Tesla K20 im gemeinsamen 1-HE-Rack-Einschub.

(Bild: Nvidia)

"Jetzt" eignen sich 64-Bit-ARM-Prozessoren für das High-Performance Computing (HPC), schreibt Nvidia in der Pressemeldung zur International Supercomputing Conference in Leipzig. Liest man weiter, wird aber klar, dass auch Nvidia das kleine Problem der seit Jahren diskutierten ARMv8-Server-SoCs kennt: Man kann bisher keine kaufen. "Entwicklersysteme" sollen die Firmen Cirrascale (RM1005D) und E4 Computer Engineering (EK003) ab Juli liefern und später auch Eurotech (Aurora HPC). Preise nennt bisher aber keiner der von Nvidia vorgestellten Pioniere. Alle setzen auf das Entwickler-Mainboard mit dem 40-nm-X-Gene der ersten Generation von Applied Micro (APM) in Kombination mit einer Tesla K20.

Böswillig könnte man es auch anders ausdrücken: "Jetzt" gibt es noch keine serienreifen ARM64-Server. Doch die sollen noch vor Ablauf des Jahres 2014 kommen, verspricht Nvidia. APM selbst hatte allerdings diesen X-Gene-Systemen der ersten Generation selbst schon pauschal eher für den Einsatz bei der Fortentwicklung des ARMv8-Ökosystems empfohlen – die wahren Vorzüge der ARMv8-Technik in Servern soll erst der 28-nm-Chip X-Gene 2 zeigen.

Solches Getrommel für den jeweiligen Nachfolger eines noch nicht einmal in die freie Wildbahn entlassenen Produkts wirft kein gutes Licht auf letzteres. Es hat etwa auch in Bezug auf Intels Atom schon mehrmals für Enttäuschung gesorgt.

Zudem ist an der Idee, 64-Bit-ARM-SoCs statt x86-CPUs mit GPGPU-Beschleunigern zu paaren, wenig Überraschendes: Der X-Gene besitzt ohnehin eine PCIe-3.0-Schnittstelle, wenn auch wohl nur mit acht Lanes, und Linux kooperiert einerseits mit CUDA und andererseits mit ARM64, also ARMv8.

Die britische Firma SoftIron hat unterdessen ihr Server-Mainboard 64-0800 mit der Octo-Core-Version des X-Gene angekündigt, der darauf mit 2,4 GHz taktet. Er bindet bis zu 128 GByte DDR3-RAM in Form von zwei 64-GByte-Modulen an sowie eine PCIe-3.0-x8-Karte, vier SATA-6G-Ports sowie je zwei 10- und 1-Gigabit-Ethernet-Ports. Später soll auch eine 4-Kern-Version kommen. Zusätzlich sind ARM-SoCs zur Hardware-Beschleunigung von Netzwerk- und Kryptofunktionen vorhanden sowie für Fernwartung. Die Leistungsaufnahme des Micro-ATX-Boards liegt unter 84 Watt (12 Volt, 7 A).

Nvidia-Roadmap von der GTC2014: Project Denver scheint aus der GPU-Roadmap gestrichen.

(Bild: Nvidia)

Der Journalist Agam Shah von PCWorld sieht in der Nvidia-Ankündigung sogar das Eingeständnis, dass Nvidia die eigenen Pläne für ein Server-SoC mit ARMv8-Technik aufgibt: Das seit 2011 stets etwas unscharf angekündigte Project Denver hat oder hatte das Ziel, einen proprietären ARM-Kern zu entwickeln; dafür hat Nvidia eine Architektur-Lizenz von ARM erworben.

Erste selbst entwickelte ARM-Kerne hatte Nvidia-Chef Jen-Hsung Huang 2011 für die damals für 2013 angekündigte GPU-Generation Maxwell versprochen, die mittlerweile zwar erhältlich ist, aber ohne ARM-Kerne. Mittlerweile tauchen ARMv8-Kerne nicht einmal mehr bei dem für 2016 versprochenen Pascal auf, sondern nur beim Tegra-K1-Nachfolger Erista für Smartphones und Tablets. Bis 2016 dürften außer APM auch AMD und Cavium wohl die zweiten Generationen ihrer ARMv8-CPUs auf dem Markt haben.

Angesichts der Verzögerungen bei der GPU-Roadmap könnte die Aufgabe, auch noch eine proprietäre ARMv8-Mikroarchitektur mit spezifischen Vorteilen für Server zu entwickeln und zu pflegen, Nvidia schlichtweg überfordern. Nvidia hat ja ohnehin längst angekündigt, mehrgleisig zu fahren, und unterstützt auch OpenPower und vor allem weiterhin x86-CPUs, die man problemlos kaufen kann. Da kann es effizienter sein, sich vor allem auf eine enge Verzahnung mit den CPU-Kernen zu konzentieren, etwa mit NVLink/CAPI bei OpenPower. Intel will aber bekanntlich sein eigenes Süppchen kochen mit Xeon Phi und Xeon und AMD setzt auf HSA. (ciw)

Anzeige
Zur Startseite
Anzeige