Trends & News | News

RAID-Adapter mit PCI Express 3.0

Die Auswahl an Hostadaptern mit PCIe-3.0-Interface wächst. Bisher gab es nur InfiniBand-FDR-Adapter von Mellanox (ConnectX-3) und den Emulex-Chip XE201R, der sowohl 10- und 40-Gigabit-Ethernet (10 GbE, 40 GbE) als auch 8- und 16-GBit-Fibrechannel (8/16GFC) beherrscht. Nun bringt LSI eine ganze Reihe von SAS- und SAS-RAID-Hostadapterkarten mit dem Controllerchip LSISAS2308 auf den Markt. Die Preise beginnen bei rund 240 Euro für den LSI SAS9207-8i mit acht internen Ports (2 × miniSAS x4/SFF-8087) und reichen bis weit über 1000 Euro für den MegaRAID SAS 9286CV-8eCC mit acht externen Ports (2 × SFF-8088), RAID, 1 GByte DDR3-SDRAM, Flash-Puffer samt Speicherkondensator und Lizenz für CacheCade Pro 2.0. CacheCade bindet zertifizierte Solid-State Disks als schnellen Datenpuffer ein, also als SSD-Cache.

Alle zehn Adapterkarten besitzen je acht PCIe-3.0-Lanes (PCIe x8), die Intel-Xeons der jüngsten Generationen E5-2600, E5-1600 und E3-1200v2 bereitstellen. Die SATA-kompatiblen SAS-Ports arbeiten maximal mit 6 GBit/s. Bei den RAID-tauglichen Karten übernimmt der mit 800 MHz getaktete PowerPC-Kern im LSISAS2308 im Verbund mit der MegaRAID-Firmware die nötigen Berechnungen für die RAID-Level 0, 1, 5, 6, 10, 50 oder 60. (ciw)

Dell tüftelt an Storage-Konzepten

Auf dem Dell Storage Forum 2012 hat der Server-Hersteller Konzepte für künftige Storage-Produkte vorgestellt. Dabei geht es um Storage-Virtualisierung, Deduplizierung und Flash-Caches. Dell hatte im Herbst 2011 die Partnerschaft mit EMC beendet. Statt Produkten wie Clariion oder Celerra sind nun die Produktfamilien Compellent für SAN sowie EqualLogic und PowerVault für NAS im Programm. Die „Fluid Data“-Architektur soll diese verschiedenen Produkte gemeinsam nutzbar machen. Ein Baustein ist das Fluid File System: Mit dem Compellent FS8600 lässt sich Speicherplatz auf einem Compellent-System auch als NAS nutzen.

Dell-Manager Bob Fine erwähnte auf dem Storage Forum das „Projekt Hermes“ alias Fluid Cache, das im Kern auf dem Know-how der im Sommer 2011 von Dell gekauften Firma RNA Networks beruht: Flash-Speicher in Form von PCI-Express-SSDs in unterschiedlichen Servern wird dabei gemeinsam nutzbar. (ciw)

DDR4-RDIMM mit 16 GByte

Samsung liefert Entwicklermuster eines Registered DIMM mit 16 GByte DDR4-SDRAM an Hersteller von Server und Prozessoren aus. Schon Anfang 2011 hatte Samsung Prototypen von DDR4-Speichermodulen gefertigt, allerdings ungepufferte Module (UDIMMs) für Client-PCs. DDR4 verspricht vor allem höhere Taktfrequenzen als DDR3-SDRAM bei gleichzeitig sinkender Leistungsaufnahme. Um den externen Durchsatz der Speicherchips weiter zu steigern, werden die internen Speicherfelder im Vergleich zu DDR3 anders aufgeteilt, nämlich unter anderem in Bank Groups. Viele kleine Tricks machen die neuen Chips tauglich für höhere Frequenzen. Dazu gehören Dynamic Bus Inversion (DBI), eine geänderte On-Die-Terminierung (ODT) sowie CA Parity, eine Paritätsprüfung der Steuer- und Adresssignale (Command/Address). Auf dem Datensignalbus ist eine CRC-Sicherung vorgesehen, zudem kommt eine vom JEDEC als POD12 spezifizierte Signalisierung mit 1,2 Volt Spannung zum Einsatz. U-, R- und LR-DIMMs des Typs DDR4 haben mit 284 Kontakten 44 mehr als DDR3-DIMMs, bei den SO-DIMMs steigt der Pin Count von 204 auf 256. Vermutlich kommt mit DDR4-SDRAM zumindest bei UDIMMs eine Beschränkung auf nur 1 DIMM pro Kanal (1 DPC). Die finale Spezifikation des Industriegremiums JEDEC wird im Laufe des Jahres erwartet.

Samsung will die DDR4-Serienfertigung im kommenden Jahr starten und erwartet dann auch die ersten passenden Server-Plattformen. Das deutet darauf hin, dass Intel bestimmte Xeon-Versionen mit einer Mikroarchitektur der Haswell-Generation mit DDR4-tauglichen Speicher-Controllern bestückt. Für die DDR4-Entwicklermuster verwendet Samsung noch SDRAMs aus einem Fertigungsprozess der „30-Nanometer-Klasse“ – präzisere Angaben veröffentlicht Samsung nicht mehr. Künftig sollen die DDR4-Chips aber wie jetzt schon einige DDR3-Produkte aus der Fertigung der 20-nm-Klasse kommen. (ciw)

Diskussion um Amazons Cloud-Panne

Am Freitag, 29. Juni kämpfte Amazon bei seinem Cloud-Computing-Angebot Amazon Web Services (AWS) zum zweiten Mal innerhalb von 15 Tagen mit einem Ausfall – peinlicherweise in der gleichen „Verfügbarkeitszone“ im Osten der USA. Auslöser war ein schweres Gewitter in North Virginia, doch wie beim Ausfall am 14. Juni führte erst die Verkettung mehrerer Fehler zu längerem Stillstand. Betroffen waren viel genutzte Dienste wie Netflix, Pinterest, Instagram oder Heroku. Sie verwenden Amazon-Infrastruktur wie Elastic Compute Cloud (EC2), die Datenbank RDS, Elastic Block Store (EBS) oder Elastic Load Balancer (ELB).

Die wiederholte Panne löste viele Diskussionen über die Zuverlässigkeit von Cloud-Rechenzentren aus. Es lohnt sich jedoch, die ausführliche Analyse der Ausfallursache von Amazon zu studieren (siehe c’t-Link). Demnach waren die Geräte für die Stromversorgung in den betroffenen Amazon-Rechenzentren jünger als zwei Jahre, wurden vom Hersteller gewartet, wöchentlich getestet und hatten zuletzt am 12. Mai einen Volllastprobelauf erfolgreich absolviert. Trotzdem schaffte es in einem Rechenzentrum keiner der beiden Notfall-Stromerzeuger, den Ausfall der externen Speisung automatisch zu überbrücken: Sie liefen während der Zeit der Batteriepufferung zwar an, konnten ihre Spannung aber nicht stabilisieren. Als die USV-Akkus dann leer waren, fehlte den Servern im Rechenzentrum um kurz nach acht Uhr abends für zirka 10 Minuten der Strom. Erst dann hatte es das Personal vor Ort – das wegen der Wetterlage verstärkt worden war – geschafft, einen der beiden Generatoren zu stabilisieren. Anschließend schlug Murphys Gesetz zu, denn sowohl beim Speicherdienst EBS als auch beim Load-Balancer ELB gab es zuvor nie aufgetretene Verzögerungen, sodass manche Angebote erst nach mehreren Stunden wieder online waren. (ciw)

Artikel kostenlos herunterladen

weiterführende Links

Anzeige