Menü
iX Magazin

HP will Computerwelt mit "The Machine" revolutionieren

Seit 2008 experimentieren HP-Ingenieure mit Memristoren. Ab 2019 will das Unternehmen Computer mit dieser Technik in Serie bauen.

Von
vorlesen Drucken Kommentare lesen 133 Beiträge

Wie HP am letzten Tag auf der Discover 2014 in Las Vegas verkündet hat, arbeiten die Techniker des Unternehmens mit Hochdruck an einer Computer-Architektur, bei der alles neu sein wird: Von den Basiselementen bis hin zum Betriebssystem. Das System trägt bislang den Codenamen "The Machine" und soll noch in diesem Jahrzehnt auf den Markt kommen.

Kernstück der Entwicklung sind Memristoren, mit denen HP schon seit 2008 experimentiert. Dabei handelt es sich um passive Bauelemente, deren Widerstand nicht konstant ist. Der aktuelle Widerstandswert hängt davon ab, wie viele Ladungen in welcher Richtung vorher geflossen sind. Dieser Wert bleibt erhalten, auch wenn kein Strom mehr zugeführt wird. Der Effekt lässt sich zum Speichern von Daten nutzen, aber auch zum Rechnen. Obwohl die Kapazität theoretisch sehr hoch und die Zugriffszeiten extrem kurz sind, gibt es bislang noch keine Memristor-Speicher auf dem Markt. 2010 hieß es bei HP, man könne 2013 liefern. Später wurde dann "frühestens 2015" daraus.

HPs CTO Martin Fink zeigt einen handlichen Memristor-Prototyp.

Jetzt meint HP, die Technik im Griff zu haben und im nächsten Jahr Muster herstellen zu können. Ab 2016 sollen dann DIMMs verfügbar sein. Diese Module werden laut HP eine Umschaltzeit im Bereich von wenigen Pico-Sekunden haben. Auf der Discover 2014 zeigte HP-CTO Martin Fink einen handlichen Memristor-Prototyp mit einer Kapazität von 6 Terabyte, der über ein Glasfaserkabel angesprochen wird.

Auch bei den Prozessoren muss es für diese Maschine Neuentwicklungen geben. So sollen Systems-on-Chip (SoC) ebenfalls mit Memristoren ausgestattet sein und nicht mehr über einen parallelen Bus, sondern über eine serielle optische Verbindung kommunizieren.

Laut Fink lässt sich in einem einzigen Rack eine Speicherkapazität von 160 Petabyte einrichten – derzeit sind mit herkömmlichen Festplatten zirka 2 PByte als Serienprodukt lieferbar, die Plattenindustrie will die Kapazität bis 2020 vervierfachen. Die maximale Zugriffszeit auf jedes beliebige Byte soll in der "Machine" bloß 250 Nanosekunden betragen. HP vergleicht sie sogar mit dem realen K-Computer von Fujitsu. Dieser erreicht mit 73.000 SPARC-Nodes 28,8 GUPS (Giga-Updates pro Sekunde), wozu 12.600 Kilowatt erforderlich sind. "The Machine" soll dagegen bei 160 GUPS mit nur 160 kW auskommen.

Die Konfiguration könnte so aussehen: 8 Racks, 256 SoCs pro Rack, 24 Kerne pro SoC, 2 GHz je Kern und 256 GByte nichtflüchtiger Speicher pro SoC. Mit diesen Angaben empfiehlt HP The Machine für Exascale-Supercomputer, die pro GFlops wesentlich weniger Leistung schlucken müssen als heutige PFlops-Boliden.

"Automata Processor"-DIMM von Micron.

(Bild: Micron)

Im HP-Bereich Forschung und Entwicklung arbeiten inzwischen drei Viertel aller Mitarbeiter an diesem Projekt. Geplant ist, erste Systeme 2018 freizugeben. Die Serienproduktion soll 2019 anlaufen. Die Maschine benötigt aber nicht nur neue Hardware, sondern auch ein neues Betriebssystem. Es soll die Architektur optimal nutzen und keine hierarchischen Speicherstrukturen mehr besitzen. Für "Machine OS" hat das Unternehmen ein Open-Source-Projekt eröffnet. Zur Mitarbeit aufgerufen sind Universitäten und interessierte Unternehmen. Bereits 2015 soll es eine Entwicklungsumgebung geben, die Beta-Version des Betriebssystems 2017 vorliegen.

In kleineren Ausführungen könnten Memristoren die Speicherkapazität von Handys auf 100 Terabytes erhöhen. Allerdings arbeiten auch viele andere Chip-Entwickler an RRAM- und ReRAM-Typen, die ähnliche Hystereseeffekte nutzen wie die HP-Memristoren. Kürzlich hat Micron "rechnende Speichermodule" als Automata vorgestellt – und die IRAM-Idee von Berkeley-Professor David Patterson ist fast 20 Jahre alt. Stanford-Professor John Ousterhout entwickelt seit geraumer Zeit das RAMCloud-System. (Harald Weiss) / (rh)