Menü

Windows Storage Spaces Direct mit 80 GByte/s

Mellanox demonstriert 100-GBit/s-Ethernet-Karten und NVMe-SSDs mit der neuen Funktion von Windows Server 2016 für hyperkonvergente Systeme.

Lesezeit: 1 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 32 Beiträge

Mellanox ConnectX 4 für 100-GBit/s-Ethernet.

(Bild: Mellanox)

Von

In Windows Server 2016 debütiert die Software-defined-Storage-(SdS-)Funktion Storage Spaces Direct: Damit lassen sich lokale SAS-, SATA- und NVMe-Speichermedien von mindestens drei Servern zu einem ausfallsicheren Verbund von ReFS-Volumes koppeln. Typischer Nutzungszweck ist die Bereitstellung von Ressourcen für virtuelle (Hyper-V-)Maschinen auf Standard-x86-Hardware, die sich durch Hinzufügen weiterer gleicher Systeme erweitern lassen. Der Markt dieser hyperkonvergenten Server wächst derzeit besonders schnell.

Auf dem Flash Memory Summit demonstriert Mellanox mit Storage Spaces Direct die Leistungsfähigkeit von ConnectX-4-Adapterkarten und Spectrum-2700-Switches für 100-GBit/s-Ethernet. Ein Verbund mehrerer Server mit solchen Converged-Ethernet-(CE-)Karten und den PCIe-NVMe-SSDs Samsung PM1725 liefert Daten mit bis zu 80 GByte/s. Für jede der 112 laufenden virtuellen Maschinen (VMs) stehen somit etwa 750 MByte/s bereit.

Storage Spaces Direct ermöglicht hyperkonvergente Server mit Windows Server 2016.

(Bild: Microsoft)

Laut einem Technet-Beitrag, der die kommende Funktion Storage Spaces Direct beschreibt, müssen Speichermedien und Netzwerkadapter dafür gewisse Voraussetzungen erfüllen. Beispielsweise klappt es nur mit SAS-, SATA- oder PCIe-NVMe-Massenspeichern und die Netzwerkkarten müssen Remote DMA (RDMA) beherrschen. Das trifft beispielsweise auf Karten mit RoCE zu, das steht für RDMA over Converged Ethernet: Also RDMA über Ethernet- und InfiniBand-Interconnects.

Mellanox betont, dass die ConnectX-4- und kommende ConnectX-5-Adapter auch Offloading-Funktionen für Storage bieten. Damit soll sich NVM over Fabrics statt über teure PCIe-Switches auch effizient über Ethernet-Verbindungen nutzen lassen.

Mellanox hatte im Juni auch einen Controller für Storage-Systeme mit PCIe NVMe und bis zu 100-GBit-Ethernet angekündigt: Das BlueField-SoC nutzt Technik der zugekauften Firmen EZchip und Tilera und vereint mehrere ARMv8-A-Rechenkerne mit schnellem I/O. Damit sollen sich Storage-Systeme ohne teure Xeons bauen lassen. (ciw)