Operations heute und morgen, Teil 3: Virtualisierung und Containerisierung

Know-how  –  3 Kommentare

Der nächste logische Schritt nach "Software is eating the world" heißt Virtualisierung und Conntainerisierung. Doch sind Private Cloud und Docker die Allheilmittel für jedermann?

Noch nicht allzu lang ist es her, dass für beinahe jeden Dienst, den Unternehmen entweder nutzen oder selbst bereitstellen wollten, Serverhardware anzuschaffen und in Betrieb zu nehmen war, von andauernder Pflege mit regelmäßigen Betriebssystem- und Anwendungsupdates, Hardwarereparaturen und der Jagd nach Softwarebugs ganz zu schweigen. Durch notwendige fachliche Trennungen, Datenschutz, unterschiedliche Lastprofile, Risikominimierung oder schlicht Inkompatibilitäten stieg die Anzahl separater Maschinen schnell, und mit ihr der Aufwand und die Kosten für den laufenden Betrieb.

Gleichzeitig wurden die vorhandenen Ressourcen in Summe nicht effizient genutzt, da kaum eine Anwendung die ihr exklusiv bereitgestellten Rechen- und Speicherkapazitäten dauerhaft und vollständig ausnutzt und somit teuer eingekaufte Ressourcen brachliegen lässt. Aus den gleichen Gründen halten zum Beispiel Fluggesellschaften ihre Flotten so lückenlos wie möglich in Bewegung. Jedes Flugzeug, das länger als unbedingt – etwa zu Wartungszwecken – nötig am Boden steht, kostet Geld. Der Schlüssel zur effizienten Ressourcenauslastung ist die Minimierung von Leerlauf. Ein Server, der ungenutzte Kapazitäten hat, ist totes Kapital.

Dedizierte Hardware für nur wenige Anwendungen lässt große Anteile der Ressourcen brachliegen (Abb. 1).

Operations heute und morgen

Das Business scheint aus IT-Sicht seine Anforderungen und Wünsche nach neuen und aktualisierten Features immer schneller zu ändern. Gleichzeitig gibt es innerhalb der IT fortwährend neue Trends, die umgesetzt werden wollen. Doch wo steht der IT-Betrieb bei der Umsetzung der Anforderungen und Wünsche? Haben die Entwickler mit dem agilen Trend die Mauern zum Business eingerissen, kam in den letzten Jahren zunehmend der Wunsch nach DevOps auf. Dev steht für Development/Entwicklung und Ops für Operations/Betrieb. Damit soll auch die Mauer zwischen Entwicklung und Betrieb überwunden werden. Doch was hat sich bisher wirklich durchgesetzt? Das betrachtet die Artikelserie "Operations heute und morgen":

Virtualisierung brachte diesbezüglich eine Verbesserung der Situation mit sich. Statt auf einem Bare-Metal-Server ein einziges Betriebssystem mit einer oder nur wenigen Anwendungen zu betreiben, erlaubte sie die bis dato durch verschiedene Server erreichte physikalische Trennung durch eine logische zu ersetzen. Mit Erweiterungen der CPU-Befehlssätze wie Intels VT-X lassen sich mehrere
Betriebssysteminstanzen mit den darin laufenden Anwendungen auf der gleichen Maschine parallel betreiben. Dadurch steigt die mittlere Auslastung der Hardware, die Anzahl physikalischer Server sinkt – und mit ihr die Kosten.

Der nächste Schritt, virtuelle statt echter Server zu kaufen, liegt damit nicht mehr fern. Unzählige Startups, ebenso wie namhafte Unternehmen, betreiben ihre komplette Infrastruktur virtualisiert. Netflix, Dropbox und iCloud – um nur einige bekannte Beispiele zu nennen – bedienen sich verschiedener Dienstleister, die ihnen virtuelle Infrastruktur als Dienstleistung anbieten (IaaS – Infrastructure as a
Service). Sie kaufen bedarfsgerecht von beispielsweise Amazon (Elastic Compute Cloud; EC2) oder Microsoft (Azure) binnen Minuten gezielt Rechen- und/oder Speicherkapazitäten ein und schalten sie ebenso schnell wieder ab. Zur Abdeckung von Lastspitzen, wie sie beispielsweise saisonbedingt oder zu bestimmten Ereignissen auftreten können, sind so nicht dauerhaft Kapazitätsreserven ungenutzt vorzuhalten.