Beschleuniger-Schnittstelle CXL: AMD, ARM, IBM, Nvidia und Xilinx im Boot

Ab 2021 sollen Server-Prozessoren mit PCIe 5.0 auch KI- und Rechenbeschleuniger per kohärentem Compute Express Link anbinden.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 2 Beiträge

Compute Express Link (CXL) nutzt PCIe auch zur kohärenten Anbindung von Rechenbeschleunigern

(Bild: Compute Express Link)

Von

Die Server-Branche hat sich offenbar auf den von Intel vorgeschlagenen Compute Express Link (CXL) als zukünftiges Interface für Cache-kohärente Rechenbeschleuniger geeinigt: Nun sind auch IBM und Xilinx dem CXL-Industriegremium beigetreten. Bereits zuvor hatten sich AMD, ARM und Nvidia zu CXL bekannt. Alternative kohärente Inferfaces wie CCIX und OpenCAPI dürften es damit künftig schwerer haben. CXL scheint aber auch Bereiche abzudecken, auf die Gen-Z zielt, etwa die flexible Anbindung von zusätzlichem RAM und Storage-Class Memory (SCM).

CXL setzt auf PCI Express 5.0 (PCIe 5.0) mit 32 Gigatransfers pro Sekunde und Lane auf; es wird erwartet, dass relativ rasch der Schritt zu PCIe 6.0 mit 64 GT/s erfolgt. Erste Serverprozessoren mit PCIe 5.0 werden ab 2021 erwartet: Bei AMD steht dann die Epyc-Generation "Genoa" (Zen 4) an, bei Intel der Xeon "Sapphire Rapids", vermutlich auch mit DDR5-SDRAM.

Ein superschnelles PCIe-Interface nutzt wenig, wenn das RAM zu lahm ist. CXL soll vor allem für PCIe-x16-Karten verwendet werden, die bei PCIe 5.0 dann 64 GByte/s pro Richtung übertragen könnten. DDR4-3200-RAM liefert pro Kanal 25,6 GByte/s, es wären also drei RAM-Kanäle für Datentransfers eines einzigen x16-Beschleunigers nötig. DDR5-5200 sollen über 40 GByte/s pro Kanal ermöglichen.

Intel hatte CXL zunächst unter dem Namen Intel Accelerator Link (IAL) entwickelt, den Standard dann aber in das auch für Konkurrenten offene CXL-Gremium eingebracht. Intel hat im Oktober 2018 die Patentanmeldung 20190065426 für eine Flex Bus Protocol Negotiation and Enabling Sequence eingereicht, die einige Details genauer beschreibt.

Im Wesentlichen umfasst CXL die drei Protokolle CXL.io, CXL.cache und CXL.mem, die sich zusätzlich zur PCIe-Verbindung, die den eigentlichen Datentransfer übernimmt, in beliebiger Kombination nutzen lassen. Auf der Webseite Computeexpresslink.org findet sich eine (PDF-)Präsentation vom Flash Memory Summit 2019, die CXL erklärt.

Proprietäre Interconnects wie Nvidia NVLink und AMDs InfinityFabric haben weiter ihre Berechtigung, um beispielsweise Chips desselben Herstellers untereinander zu koppeln. (ciw)