zurück zum Artikel

Neue Xeon-Prozessoren: Intel verspricht doppelte KI-Performance

Intel Xeon Cascade Lake-SP Deep Learning Boost (VNNI)

Intels Xeon Cascade Lake-SP bringt Deep Learning Boost

(Bild: Intel)

Die Ende 2018 erwarteten "Cascade Lake"-Xeons sollen beim KI-Inferencing dank Deep Learning Boost schneller sein - quasi als Geschenk zum 20. Xeon-Geburtstag.

Auf Intels Data-Centric Innovation Summit kündigte Navin Shenoy, Chef der Rechenzentrums-Sparte, eine Erweiterung des AVX-Befehlssatzes für KI-Berechnungen an: Deep Learning Boost (DLBoost) soll mit den für Ende 2018 angekündigten Xeon-SP-Prozessoren der Generation Cascade Lake [1] kommen. Mit optimierter Software sollen Inferencing-Algorithmen, gemessen mit dem Resnet-50-Beispiel zum Sortieren von Bildern, rund doppelt so schnell laufen wie mit den aktuellen Xeon-SP-CPUs (Skylake-SP).

Die AVX-Erweiterungen nennt Intel auch Vector Neural Network Instructions (VNNI) for Inference Acceleration.

Shenoy betonte, dass viele Intel-Kunden statt spezialisierter KI-Chips ganz bewusst Xeons für KI-Aufgaben einsetzen, unter anderem weil sie flexibler sind. Der Intel-Manager verriet, dass sein Unternehmen alleine mit Produkten für AI-Anwendungen im Jahr 2017 rund 1 Milliarde US-Dollar Umsatz erzielt habe.

Außerdem zeigte Shenoy, dass Intel schon seit der Vorstellung des Xeon-SP Mitte 2017 optimierte Software herausgebracht hat, die die Inferencing-Performance um den Faktor 5,4 vervielfacht habe. Zusammen mit DL Boost/VNNI soll Cascade Lake-SP dann um den Faktor 11 schneller sein als der aktuelle Xeon-SP mit doppeltgenauen Gleitkommawerten (FP32).

Shenoy holte auch den von Tesla abgeworbenen Jim Keller [2] auf die Bühne, der aber wenig Konkretes zu berichten hatte.

Im Rahmen des Data-Centric Innovation Summit veröffentlichte Navin Shenoy auch einige interessante Zahlen zur Xeon-Familie der Serverprozessoren, deren erstes Mitglied "Drake" alias Pentium II Xeon 1998 auf den Markt kam [3]. Seither hat Intel insgesamt 220 Millionen Xeons verkauft und liefert derzeit rund zwei Millionen Stück pro Quartal aus, davon 50 Prozent vom Typ Xeon-SP.

20 Jahre Intel Xeon

Das stärkste Wachstum bei den Xeons kommt aus den Cloud-Rechenzentren, vor allem von großen Anbietern wie Google. Für solche Kunden fertigt Intel spezifische Prozessorversionen, sogenannte Custom-CPUs [4]. Der Anteil dieser Custom-CPUs an den gesamten Prozessoren für Cloud-Rechenzentren ist laut Intel von 18 Prozent im Jahr 2013 auf 50 Prozent im vergangenen Jahr angewachsen. (ciw [5])


URL dieses Artikels:
http://www.heise.de/-4131925

Links in diesem Artikel:
[1] https://www.heise.de/meldung/Intels-verwirrende-Server-Roadmap-4121400.html
[2] https://www.heise.de/meldung/Teslas-Autopilot-Chef-geht-4035523.html
[3] https://www.heise.de/meldung/Acht-Xeons-im-Server-14828.html
[4] https://www.heise.de/meldung/Sonder-CPUs-fuer-Cloud-Dienstleister-Intel-kombiniert-Xeons-mit-FPGAs-fuer-Spezial-Befehle-2235150.html
[5] mailto:ciw@ct.de