Trends & News | News

Erste PCIe-SSDs nach den NVMe-Spezifikationen

Mehrere Jahre hat die NVM (Non-Volatile Memory) Express Work Group daran gearbeitet, ein schnelles PCIe-Interface für SSDs zu spezifizieren. Insgesamt 80 Firmen sind daran beteiligt, darunter Cisco, Dell, EMC, IDT, Intel, LSI, Marvell, Micron, NetApp, Oracle, Samsung, SanDisk and STEC.

Im März 2011 war bereits die Spezifikation NVMe 1.0 fertig, im Herbst 2012 folgte Fassung 1.1 – nun kommen die ersten Produkte, die direkt an PCIe über mehrere Lanes ankoppeln. Die Spezifikation V1.1 basiert noch auf PCIe 2.1, erlaubt aber auch modernere Fassungen. Treiber für Windows und Linux sind fertig, für VMware, Solaris und UEFI noch in Arbeit.

Allen voran hat Samsung neben den neuen EVO-SSDs (S. 26) und PCIe-SSDs für Notebooks nun auch die NVMe SSD XS1715 für Enterprise Storage vorgestellt, die in der zweiten Jahreshälfte auf den Markt kommen sollen – Preise sind noch unbekannt.

Die 2.5-Zoll-SSDs soll laut Samsung mit PCIe 3.0x4 arbeiten. Es gibt sie in den drei Größen 400, 800 und 1600 GByte. Sie erreichen eine sequenzielle Lesegeschwindigkeit von 3 GByte/s. Gegenüber anderen Produkten mit ähnlichen Spezifikationen soll sie damit laut Samsung um Faktor 14 schneller schnell sein, beziehungsweise sechsmal so schnell wie Samsungs bisherige High-End Enterprise Storage SSD.

Für Random-Read gibt Samsung bis zu 740 000 IOPS an – etwa zehnmal so viel wie die derzeit verfügbaren High-End-Storage-SSDs. Das Ei ist also (nahezu) da, jetzt fehlen noch die Hühner, sprich die Server mit NVMe-Schnittstelle – sinnvollerweise ebenfalls PCIe-3.0-tauglich. Dell hat schon verkündet, dass die aktuellen Server der 12. Generation mit Modulen mit den SFF-8639-Steckern für NVMe bestückt werden können und EMC hat einen mit NVMe arbeitenden Prototypen namens „Thunder Storage“ gezeigt. Hewlett-Packard hingegen ist bei der NVMe Work Group nicht dabei, sondern setzt mehr auf SCSI Express. (as)

Verteilter Speicher für Cloud und Big Data

Cleversafe bietet unter dem Namen DSnet eine flexible Kombination von Hard- und Software für Storage. DSnet arbeitet mit Object Storage File System, das laut Hersteller gegenüber dem verbreiteten Hadoop Distributed File System (HDFS) höhere Ausfallsicherheit bei weniger Verschnitt für Redundanz bieten soll. Auch die Anfälligkeit des bei HDFS wichtigen NameNode besitzt DSnet nicht.

Neben dem DSnet-Manager umfasst das Angebot die beiden Hardware-Module Accesser und Slicestor. Letzterer nimmt die Festplatten auf, es gibt Versionen für 12 Platten als 2-HE-Einschub (Slicestor 2210, maximal 36 TByte) oder für 48 Laufwerke (1440: 4 HE/144 TByte). Ein oder mehrere Dsnet Accesser pro Rack verbinden das Speichersystem mit dem Netzwerk, entweder per Gigabit-Ethernet (Accesser 2100) oder per 10GbE (Accesser 3100). Schließlich gibt es auch die Manager-Knoten in zwei Ausführungen, nämlich für maximal 10 Petabytes oder für bis zu 100. (ciw)

BelWü mit 100 GBit/s

Mitte Juli hat das Landeshochschulnetz BelWü in Baden-Württemberg den ersten produktiven Betrieb mit 100 GBit/s aufgenommen. Mit dieser Performance verbindet es zunächst das KIT in Karlsruhe mit der Universität Heidelberg. Die anderen Universitäten und Hochschulen in Baden-Württemberg sollen im Laufe der nächsten Jahre auf 100 GBit/s aufgerüstet werden. Wie BelWü-Leiter Professor Stefan Wesner berichtete, will man – auch passend zum aktuellen Anlass – die Datensicherheit von solchen High-Speed-Netzen erproben, sowie Software Defined Networking (SDN) und Network as a Service (NaaS). Vor allem hat Wesner auch schon die nächste Stufe mit 1TByte/s ins Auge gefasst.

Experimentell sind dem das Leibnizrechenzentrum in Garching bei München und die Universität Dresden schon näher gekommen, und zwar über Landesgrenzen hinweg. Mit Unterstützung der Telekom haben sie eine stabile Verbindung von 400 GBit/s hergestellt, die sie während der internationalen Supercomputer-Konferenz demonstrierten. (as)

Artikel kostenlos herunterladen

Anzeige