Menü
iX Magazin

200.000 Festplatten in einem 120-Petabyte-Cluster

Von
vorlesen Drucken Kommentare lesen 211 Beiträge

Für einen bisher unbekannten Kunden hat IBM einen Storage-Cluster entwickelt, der 120 Petabyte Daten fassen kann. Es soll einem neuen Supercomputer für Simulationen zur Seite stehen. Das noch namenlose System fasst 200.000 Festplatten zusammen. Um sie alle unterzubringen, haben die Entwickler von
IBM Research in Almaden zu hohen Racks in Überbreite und mit horizontalen Einschüben gegriffen. Gekühlt werden die Platten mit Wasser statt mit Lüftern.

Da bei einer solchen Anhäufung von Festplatten regelmäßige Ausfälle einzelner Laufwerke unausweichlich sind, musste auch eine neue Strategie zur Ausfallsicherheit her: Statt mit berechneten Paritäten arbeitet das System mit verteilten Kopien der Daten, auf die der Supercomputer ohne Performance-Verlust zugreifen kann. Die defekten Kopien werden derweil auf den ausgetauschten Platten im Hintergrund mit geringer Priorität wiederhergestellt. Sollten mehr Platten als im Durchschnitt üblich ausfallen, erhöht das System die Geschwindigkeit der Wiederherstellung, um einem potenziellen Datenverlust entgegenzuwirken.

Entscheidend bei solch großen Systemen ist jedoch die Zugriffsgeschwindigkeit auf Daten und Dateisystem, da die Steigerung der Festplatten-Performance schon längst nicht mehr mit der von Prozessoren und Supercomputern mithält. Deshalb spannt IBM über alle Platten des Clusters das hauseigene GPFS (General Parallel File System). Zur Beschleunigung des Zugriffs verteilt es einzelne Dateien auf mehrere Laufwerke, die dann parallel lesen oder schreiben können. Zusätzliche Dateisystemindexe ersparen das mühsame Scannen der Volumes auf der Suche nach einzelnen Dateien. Erst im vergangenen Monat hatte ein IBM-Team mit 10 Milliarden Dateien in 43 Minuten einen neuen Rekord im Dateisystemzugriff aufgestellt . Dafür benötigt das GPFS aber auf dem neuen System allein 2 PByte für die Dateiverwaltung. (sun)