Menü

Cloud AI 100: Qualcomm kündigt KI-Beschleuniger im Steckkartenformat an

Mit dem KI-Beschleuniger Cloud AI 100 will Qualcomm vom erwarteten Inference-Processing-Boom profitieren. Punkten will man mit der Effizienz der Steckkarte.

vorlesen Drucken Kommentare lesen 11 Beiträge
Qualcomm Cloud AI 100

(Bild: Qualcomm)

Der als Steckkarte ausgelegte KI-Beschleuniger AI Cloud 100 soll es unter anderem mit Hardware von Nvidia, Intel und Google aufnehmen und Betreiber von Rechenzentren wie Facebook und Microsoft überzeugen. Dabei verweist Qualcomm vor allem auf ein Argument: Effizienz. Mit der steigenden Bedeutung von KI-Berechnungen werden die Betriebskosten der entsprechenden Hardware immer wichtiger. Die Neuvorstellung soll die nicht näher genannte Konkurrenz in diesem Punkt deutlich überholen. Die Leistung pro Watt wird gegenüber den derzeit führenden Inference-Processing-Lösungen (das Erstellen von Schlussfolgerungen auf Basis antrainierter Modelle) mit mehr als zehnmal so hoch angegeben.

Belastbar ist diese Aussage noch nicht, da Qualcomm bislang nur sehr wenige Details bekanntgegeben hat. So wird die maximale Leistung zwar mit mehr als 350 TOPS (Tera Operations Per Second) beziffert, Angaben zur dazugehörigen Art der Berechnungen gibt es aber nicht. Für Vergleiche zieht Qualcomm nur zwei Smartphone-SoCs heran: Gegenüber dem im Dezember 2018 vorgestellten Snapdragon 855 soll die KI-Leistung mehr als 50-mal so hoch ausfallen, der wiederum dreimal so schnell wie der Snapdragon 820 aus dem Jahr 2016 abschneidet.

Gegenüber dem Snapdragon 855 soll die KI-Leistung mehr als 50-mal so hoch ausfallen. Möglich macht das unter anderem die komplette Neuentwicklung des Chips.

(Bild: Qualcomm)

Wie hoch der Energiebedarf ist, ist ebenfalls noch nicht bekannt. Laut Keith Kressin, Senior Vice President Product Marketing, sind die Reaktionen von potentiellen Kunden aber vielversprechend: Würden die versprochenen Werte erreicht, sei der Cloud AI 100 der Konkurrenz überlegen. Kressin zufolge liegt das an der Ausgangslage. Während andere Anbieter versuchen, ihre energiehungrigen Chips sparsamer zu machen, sei Qualcomm andersrum vorgegangen – dem Manager zufolge der deutlich einfachere Weg.

Zu den wenigen bekannten technischen Daten gehören die Fertigung in 7 nm, was wie schon beim Snapdragon 855 auf TSMC oder Samsung als Foundry schließen lässt. Trotz dieser Parallele handelt es sich laut Qualcomm beim Cloud AI 100 um eine komplette Neuentwicklung. Ebenfalls verraten wurde, dass der KI-Beschleuniger passiv gekühlt werden kann und hochskalierbar ist. Wie viele Karten in einem Verbund arbeiten können, wurde nicht mitgeteilt.

Kunden will Qualcomm aber nicht nur durch die hohe Effizienz für sich gewinnen, sondern auch mit dem Plattformansatz. So setzt man auf die Unterstützung kompletter Software-Stacks, die unter anderem die Frameworks Pytorch, Tensorflow und Caffe2, die Laufzeitumgebungen Glow und ONNX sowie Werkzeuge wie Debugger und Compiler abdecken. Zu den möglichen Anwendungsbereichen, für die Cloud AI 100 Berechnungen liefern kann, gehören Gaming, Augmented und Virtual Reality sowie das Personalisieren von Inhalten.

Zu möglichen Abnehmern der KI-Beschleunigerkarte will Qualcomm sich noch nicht äußern. Im Gespräch machte Qualcomm-Präsident Cristiano Amon aber deutlich, dass es sich dabei nicht nur um Größen wie Facebook oder Microsoft handeln dürfte. In Hinblick auf die neue Mobilfunkgeneration 5G mit ihren höheren Bandbreiten und geringeren Latenzen seien derartige Systeme auch für Edge Computing respektive Edge-Cloud-Ansätze und nicht nur für klassische Rechenzentren geeignet.

Dank der hohen Bandbreite und geringen Latenz von 5G soll der KI-Beschleuniger Cloud AI 100 auch für Edge Computing respektive Edge Cloud geeignet sein.

(Bild: Qualcomm)

Die Konzentration auf Inference Processing begründet Qualcomm mit der erwarteten Entwicklung des dazugehörigen Marktes. Bis zum Jahr 2025 soll sich dieser auf dann etwa 17 Milliarden US-Dollar verzehnfachen – ein deutlich schnelleres Wachstum als beim KI-Training. Allerdings dürften auch die unterschiedlichen Anforderungen eine große Rolle bei der Entscheidung gespielt haben: Während für KI-Training eine hohe Genauigkeit und entsprechend leistungsfähige Hardware benötigt wird, ist Inference Processing genügsamer. (pbe)