c't 8/2019
S. 42
News
Server & Storage

Schlankere, günstige, schlaue Server-SSDs

Toshiba bringt flachere U.2-SSDs, Kingston bezahlbare SATA-SSDs und die SNIA arbeitet an Computational Storage.

Die Server-SSD Toshiba XD5 ist weniger als halb so dünn wie andere U.2-SSDs mit PCIe-Anschluss. Bild: Toshiba

Sowohl Kingston als auch Toshiba haben neue SSDs für Server im Angebot. Toshibas U.2-SSDs der Serie XD5 sind 7 statt 15 Millimeter flach und haben trotzdem ein NVMe-Interface mit PCIe 3.0 x4. Sie lassen sie sich dichter packen als bisherige U.2-SSDs und speichern 960 GByte bis 3,84 TByte. Schon bisher gab es Varianten der XD5 in der 11 Zentimeter langen M.2-Bauform 22110.

Die XD5-SSDs sind für Storage-Systeme gedacht, bei denen Daten häufiger gelesen als geschrieben werden: Sie dürfen während der fünfjährigen Garantiezeit täglich einmal überschrieben werden (1 Drive Write per Day, DWPD). Die 3,84-TByte-Version verträgt demnach rund 7 Petabyte Written (PBW).

Die sequenzielle Geschwindigkeit beträgt 2,7 GByte/s beim Lesen, aber nur 895 MByte/s beim Schreiben. Mit 21.000 beziehungsweise 250.000 IOPS setzen sich die XD5-SSDs nur beim Lesen von SATA-SSDs ab. Preise nennt Toshiba bisher nicht. Für 2020 kündigt Toshiba aber bereits Nachfolger mit PCIe 4.0 als Serie XD6 an.

Kingston produziert neue SATA-SSDs im gängigen 2,5-Zoll-Gehäuse mit gutem Preis-Leistungs-Verhältnis, sofern Daten häufiger gelesen als geschrieben werden: Die DC500R verträgt 0,5 DWPD, das sind bei der ab etwa 440 Euro erhältlichen 1,92-TByte-Version in fünf Jahren insgesamt 1,75 PBW. Die 3,84-TByte-Version ist für 3,5 PBW ausgelegt.

Robuster sind die DC500M-Typen mit 1,3 DWPD, also 4,55 PBW (1,92 TByte) beziehungsweise 9,1 PBW (3,84 TByte).

Die Firma NGD Systems hat beim Industriegremium Storage Networking Industry Association (SNIA) eine Arbeitsgruppe für Computational Storage mitgegründet. Ziel sind Spezifikationen für SSDs mit eingebauten Rechenwerken, die etwa Suchfunktionen oder Map-Reduce-Algorithmen selbsttätig ausführen. Das soll unnötige Datentransfers vermeiden. (ciw@ct.de)

Nvidia kauft Mellanox

Der ConnectX-6-VPI-Adapter von Mellanox beherrscht Infiniband und 200-GBit/s-Ethernet. Bild: Mellanox

Nvidia übernimmt für 6,9 Milliarden US-Dollar den Infiniband- und Ethernet-Spezialisten Mellanox. Das US-israelische Unternehmen hat Produkte, Patente und Know-how zur leistungsfähigen Vernetzung von Servern und Rechenbeschleunigern.

Nvidia folgt damit dem Vorbild Intel: Der CPU-Gigant hatte 2012 sowohl Qlogic als auch die Interconnect-Sparte von Cray gekauft und später Xeons auf den Markt gebracht, in denen die Verbindungstechnik Omni-Path Architecture (OPA) steckt. OPA ähnelt Infiniband und kommt in rund 13 Prozent aller Supercomputer auf der Top500-Liste zum Einsatz, Infiniband in 27 Prozent.

Nvidia hat mit NVLink 2 bereits einen Interconnect zur Verknüpfung von Tesla-Rechenbeschleunigern untereinander und mit IBM-Power9-Prozessoren. Letztere beherrschen auch den Cache-kohärenten Interconnect OpenCAPI mit 25 GBit/s pro Lane. Sowohl OpenCAPI als auch NVLink sind aber nicht zur externen Vernetzung von Servern gedacht. (ciw@ct.de)

Intels neues CXL-Interface

Der Compute Express Link (CXL) soll künftig Prozessoren mit Rechenbeschleunigern verbinden – und zwar schnell, Cache-kohärent und mit niedriger Latenz. Intel hat zusammen mit Cloud-Größen wie Google, Facebook, Microsoft und Alibaba sowie mit den Server-Herstellern Cisco, Dell EMC, HPE und Huawei das CXL-Konsortium gegründet – also ohne AMD, ARM, Qualcomm und Xilinx.

Die letztgenannten Firmen kooperieren nämlich seit 2016 beim konkurrierenden CCIX, bei dem jetzt auch Nvidia via Mellanox mitmischt. Sowohl CXL als auch CCIX sind angeblich offene Spezifikationen, aber nur für Mitglieder einsehbar.

CXL soll auf PCI Express 5.0 aufsetzen, also mit 32 GBit/s pro Lane arbeiten. CCIX bringt es wie OpenCAPI von IBM und Nvidia auf 25 GBit/s pro Lane. Bei CCIX sind auch Switches vorgesehen. (ciw@ct.de)

Kommentieren