iX 8/2016
S. 106
Wissen
Rechenzentren
Aufmacherbild

Kurz erklärt: Hyperkonvergenz

Kompaktklasse

Hyperkonvergenz erkennt man äußerlich an Servern, Switches und Storage in einem einzigen Chassis. Die entscheidende Rolle spielt aber die Software – besonders für die Speichervirtualisierung.

In der Unternehmens-IT sind häufig separate Abteilungen für Server, Netzwerk sowie Storage verantwortlich. Sie nutzen unterschiedliche Management-Tools, Prozesse und Regeln für Auswahl, Implementierung und Betrieb der Technik. Die Trennung reicht bis in die Einkaufsabteilungen, denn auch die Hersteller konzentrierten sich bisher auf einzelne Produktkategorien.

Als Kunden anfingen, komplexe SANs zugunsten lokaler Festplatten aufzugeben, ergriffen Speicherhersteller die Initiative und bewarben eine konvergente Infrastruktur. So entstanden Produkte wie vBlock oder FlexPod: vorkonfigurierte Racks mit Servern, Switches und Storage unterschiedlicher Hersteller sowie einem Hypervisor. Ziele sind die Vermeidung von Kompatibilitätsproblemen, beschleunigte Inbetriebnahme sowie ein einfacheres Management. Der Kunde erhält ein kleines schlüsselfertiges Rechenzentrum samt Wartungsvertrag aus einer Hand.

Der nächste logische Schritt ist der von vorkonfigurierten Systemen zum Rechenzentrum in einem Chassis – zur „hyperkonvergenten“ Infrastruktur. Die wesentlichen Komponenten eines Rechenzentrums wandern in eine Appliance und werden durch gemeinsame Virtualisierungs- und Management-Tools verwaltet.

Nun liegt der entscheidende Vorteil nicht länger in der Miniaturisierung der Hardware, sondern darin, dass sich alle integrierten Technologien wie ein einziges System konfigurieren und verwalten lassen. Damit können die Anwender zusätzliche Management-Tools für Backup, Datenreplizierung oder Disaster Recovery auf einfache Weise integrieren. Im Zusammenspiel aus Hardware und Virtualisierungssoftware stehen darüber hinaus Netzwerkfunktionen bereit, für die sonst weitere Appliances notwendig wären, beispielsweise zur WAN-Optimierung. So lassen sich hyperkonvergente Systeme räumlich verteilen, aber wie ein Gesamtsystem nutzen.Wie üblich treiben vor allem Start-ups die Entwicklung voran: Neben den Pionieren Nutanix und SimpliVity bieten Gridstore, Nimboxx, Pivot3 oder Scale Computing hyperkonvergente Appliances an. Sie bilden alle zentralen Funktionen eines Data Center virtuell auf Standard-x86-Hardware ab. Möglich wird dies dank leistungsfähiger Multicore-CPUs und Fortschritten bei Flash- und Festplattentechnik. Durch die bisher unerreichte Hardwaredichte belegen viele Appliances nur ein bis zwei Höheneinheiten im Rack.

Softwarelizenz statt Appliance

Die größten Veränderungen bewirkt Hyperkonvergenz beim Storage. Separate Speichernetze (SANs) und Verbindungen über das Netzwerk (NAS) verschwinden. Stattdessen befindet sich der Speicher wieder direkt in den Servern; das Konzept des Direct Attached Storage erlebt eine Renaissance. Mittels Virtualisierung werden einzelne lokale Festplatten zu einem logischen Storage Array zusammengefasst. Statt eines SAN verwaltet die IT-Abteilung den Speicherbedarf auf der Ebene virtueller Maschinen. Neben dem Hypervisor kommt Software zum Einsatz, die den Speicherplatz der direkt angeschlossenen Massenspeicher als virtuellen Pool bereitstellt. Auch Features eines Enterprise Storage wie Datenkomprimierung und Deduplizierung werden integriert.

Dass der Schlüssel zu Hyperkonvergenz in der Software liegt, zeigt sich auch daran, dass Nutanix, SimpliVity oder Maxta ihre Produkte auch in Gestalt von Softwarelizenzen anbieten. Inzwischen existieren mehrere OEM Agreements beispielsweise von Nutanix mit Dell und Lenovo. Umgekehrt bietet SimpliVity Appliances, die auf Ciscos UCS oder Lenovos Servern basieren. Einige der Start-ups haben Referenzdesigns für die verbreiteten Serverhersteller erarbeitet, andere erklären ihre Software als unabhängig von der darunterliegenden Infrastruktur und nennen dies „Bring your own Hardware“ (Stratoscale). Die Softwarearchitektur hyperkonvergenter Systeme gilt deshalb als Beispiel für das propagierte Software-defined Data Center (SDDC).

Wie so häufig, wenn neue Paradigmen gefeiert werden, treten deren Limitierungen erst einmal in den Hintergrund. So skalieren Appliances nur durch das Hinzufügen neuer Chassis (Scale-out). Viele Lösungen starten auch nicht mit einem einzigen Knoten, sondern mindestens als Drei-Knoten-Cluster. Das Hinzufügen einzelner Prozessoren, Festplatten, RAM-Module oder Netzwerk-Interfaces (Scale-up) ist in der Regel nicht möglich. Genau das soll auch ein Vorteil von Hyperkonvergenz sein: Kapazitätserweiterungen sind mit dem Hinzufügen weiterer Appliances erledigt und die Ressourcen stehen direkt zur Verfügung. Aufwendige Konfigurationsarbeiten – wie insbesondere von SANs bekannt – entfallen. Der Preisverfall bei der Hardware soll die ineffiziente Ressourcennutzung ausgleichen. Da die Upgrade-Regel „alles oder nichts“ das Einsatzgebiet hyperkonvergenter Systeme einengt, weichen einige Hersteller es auf und erlauben eine voneinander unabhängige Aufrüstung von Servern und Storage (z. B. Ciscos HyperFlex oder Gridstore). Eine Alternative dazu bildet zusätzlicher externer, über iSCSI oder NFS angebundener Storage (StarWind). Die Grenzen zwischen konvergenten und hyperkonvergenten Systemen werden also zukünftig fließend sein.

Hyperkonvergente Systeme brechen mit jahrzehntealten Architekturen und dürften vorerst nur in bestimmten Anwendungsszenarien zum Einsatz kommen – allerdings auch neue eröffnen. Deshalb eignen sie sich besonders für Private Clouds oder Virtual Private Server in Unternehmen. Besonderen Reiz entfalten sie, wenn ein einziges Gerät mehrere Server, Switches und Appliances ersetzen kann. (un)

Kommentare lesen (2 Beiträge)