Menü
IT News
  • Newsticker
  • heise Developer
  • heise Netze
  • heise Open Source
  • heise Security
Online-Magazine
  • heise+
  • Telepolis
  • heise Autos
  • TechStage
  • tipps+tricks
Magazine
  • c't
  • iX
  • Technology Review
  • c't Fotografie
  • Mac & i
  • Make
  • im Browser lesen
Services
  • Stellenmarkt heise Jobs
  • heise Download
  • Preisvergleich
  • Whitepaper/Webcasts
  • Tarifrechner
  • Netzwerk-Tools
  • Spielen bei Heise
  • Loseblattwerke
  • iMonitor
  • IT-Markt
Heise Medien
  • heise shop
  • Artikel-Archiv
  • Abo
  • Veranstaltungen
  • Arbeiten bei Heise
  • Mediadaten
  • Presse
Anzeige Cloud Innovationen Cloud Services
Push Nachrichten Push-Nachrichten
iX Magazin für professionelle Informationstechnik
  • Kontakt
  • Forum
  • News
    • 7-Tage-News
    • News-Archiv
  • Heftartikel
    • Aktuelles Heft
    • Alle Hefte
    • Artikel-Archiv
  • Abo & Shop
    • Abonnieren
    • Einzelhefte kaufen
    • Heftarchiv auf DVD und USB-Stick
    • Sonderhefte
    • Video-Tutorials
    • iX extra
  • Apps
    • iOS
    • Android
    • Amazon-Store
    • FAQ zur iX-App
  • Veranstaltungen
  • Service
    • Listings/Downloads
    • Security-Awareness
    • Die iX-Redaktion
    • Newsletter
    • NiX Spam
    • Mediadaten
    • Presse-Informationen

  1. iX
  2. Heft
  3. 5/2014
  4. 50 Jahre Mainframe

50 Jahre Mainframe

(K)ein altes Eisen

Achim Born

Vor 50 Jahren präsentierte IBM den ersten Universal-Mainframe System/360. Er sicherte ihr auf Jahrzehnte die IT-Vorherrschaft und zeigt, wie innovativ – oder mutig – IBM einst war.

  • Zum Kasten
  • DATEV – von Anfang an dabei

Dezentralisierung, Downsizing, Rightsizing – solch wohlfeile Schlagworte griffen Interessierte in den neunziger Jahren gern auf, um das anstehende Aus der Mainframe-Architektur zu postulieren. Sprüche wie „Keine (Überlebens-)Chance für Dinosaurier“ oder „Host-a la vista“ drückten das Lebensgefühl der IT-Branche aus. Für die Zukunft standen Unix, Client/Server, Cluster und die Hersteller Digital, Nixdorf, PCS, Plexus, Pyramid, Sequent, Siemens, Sun – um nur einige zu nennen.

Während die Geschichte der genannten Firmen perdu ist, tragen die Nachfolger der System/360 weiterhin ungeachtet allen Bashings die Hauptlast der Transaktionsverarbeitung in den Rechenzentren dieser Welt. Noch heute sollen Mainframes 80 % aller Unternehmensdaten verwalten und grob geschätzt täglich 30 Mrd. Unternehmenstransaktionen verarbeiten.

Wann immer man einen Flug reserviert, per Kreditkarte kauft, Geld abhebt oder überweist, ist es fast sicher, dass ein Mainframe involviert ist – auch wenn sich die aktuellen Modelle kaum noch mit den Ursprungssystemen vergleichen lassen. Sie sind deutlich leistungsstärker, kleiner und energieeffizienter als ihre Vorläufer, die als „big iron“ geschmäht wurden.

In der 2012 vorgestellten zEnterprise EC12 etwa arbeitet ein 5,5 GHz schneller CMOS-Prozessor. Der Hauptspeicher darf bis zu 3 TByte groß sein. Zum Vergleich: Das Einstiegsmodell der ersten Mainframe-Generation brachte es auf 0,0018 bis 0,034 MIPS (million instructions per second), für das obere Ende versprach IBM das 50-Fache. Der Hauptspeicher war zwischen 8 KByte und 8 MByte groß.

zum Kasten
DATEV – von Anfang an dabei

Zunächst standen diese Leistungsdaten auf dem Papier. Zu den Kunden fanden die ersten Modelle erst ein Jahr später, und manches der angekündigten Systeme schaffte es erst gar nicht auf den Markt. Unter der Ägide von Thomas Watson Jr., der 1959 seinen Vater an der IBM-Spitze ablöste, begann gleichwohl mit der Ankündigung der System/360 am 7. April 1964 einer der nachhaltigsten Umbrüche in der Computer-Geschichte. Viele der heute als selbstverständlich geltenden Techniken und Verfahren lassen sich auf den ersten Mainframe zurückführen.

IBMs 5-Milliarden-Dollar-Wette

System/360 war das Ergebnis des kostspieligsten Industrieprojekts, das ein Unternehmen je in Angriff nahm. Am Ende betrugen die Kosten für Entwicklung und Fertigungsstätten 5 Mrd. Dollar – eine Summe, die heute 36 Mrd. entspricht. Eine 5-Milliarden-Dollar-Wette nannte das Fortune-Magazin die Investition einmal. Die Höhe übertraf den damaligen Umsatz des Konzerns um das Doppelte, der im Unterschied zu manch anderem Unternehmen damals wie heute keine Milliarden auf den Konten „bunkert“.

IBM startete also „praktisch ohne Fallback“ in das Abenteuer [1]. Vorausgegangen war zum einen ein interner Zwist über diverse Entwicklungsvorstöße, der mitunter Züge eines Bruderkampfes annahm – Watsons Bruder Arthur stand der weltweiten Verkaufseinheit vor. Zum anderen waren die bisherigen Produkte technisch ausgereizt. Das Wachstum war Ende der 50er- und Anfang der 60er-Jahre deutlich unter 20 % gefallen. CDC (Control Data Corp.), Honeywell, RCA (Radio Corporation of America) & Co. schickten sich an, mit besseren Produkten und Konzepten die Gunst der Käufer – genauer: Mieter – zu gewinnen.

Daher hatte Thomas Watson Jr. 13 seiner klügsten Leute im Herbst 1961 den Auftrag gegeben, eine Blaupause für die nächsten zehn Jahre zu liefern. Für die Arbeitsgruppe SPREAD – Systems, Programming, Review, Engineering And Development – gab es keine heiligen Kühe. Alles, was IBM zuvor mit Computern und Peripheriegeräten angestellt hatte, kam auf den Prüfstand.

In ihrem 80-seitigen Endbericht empfahl die Gruppe, eine Reihe von fünf ausbaufähigen Systemen zu entwickeln, die sich nur in der Rechenleistung unterschieden. Peripheriegeräte sollten zu jedem Rechner passen. Zudem sollte ein für ein Modell entwickeltes Programm auch auf den anderen laufen. Kurz: Alle Computer sollten Standardschnittstellen nutzen und nicht mehr individuell entwickelt sein.

Dieses Papier brach mit allen bisherigen Gepflogenheiten. Denn in der noch jungen Computerindustrie waren Rechner mehr oder minder Spezialanfertigungen für Wissenschaft, Forschung und Behörden. Die Computer der ersten und zweiten Generation mit ihren Relais, Röhren und Transistoren waren geprägt von grundlegenden Entwicklungen. Jeder technische Fortschritt hatte das Aus der seinerzeit unfassbar teuren Vorgängergeneration zur Konsequenz. Ende der Fünfziger, Anfang der Sechziger deutete sich in der Ferne mit den Integrierten Schaltkreisen (IC) der nächste Wechsel an, obwohl diese noch nicht marktreif waren.

IBM griff daher auf die hybride Technik SLT (Solid Logic Technology) zurück, die Komponenten wie Transistoren, Kondensatoren und Dioden auf halbzollgroßen Keramikmodulen zusammenfasste. Die eigentliche Revolution dieser dritten Rechnergeneration bestand in der Entstehung des Microcode – der Maschinensprache zum Steuern des CPU-Rechenwerks –, der erst eine einheitliche Befehlssprache auf allen Modellen und damit ihre Kompatibilität ermöglichte. Mit ihr begann die Entkopplung von Hardware und Software.

Alles für eine, eine für alles

Auch die Konkurrenten kannten die zugrunde liegenden Techniken und ließen sie in ihre neue Generation einziehen. Die Konsequenz, mit der IBM die Entwicklung vorantrieb, war jedoch einzigartig: An mehreren Orten gleichzeitig – darunter in Böblingen – entwickelte sie sechs Prozessoren in 19 Varianten nach einheitlichen Vorgaben. Das Ziel war es, alle Größenklassen und Einsatzfelder – kaufmännische und naturwissenschaftlich-technische – mit einer einheitlichen Architektur einschließlich des notwendigen Beiwerks wie Speicherplatten, Zeilendrucker und Bildschirmterminals auszustatten.

Dass angesichts der schieren Größe des Projekts nicht alles reibungslos laufen konnte, liegt nahe. Insbesondere bei der Entwicklung der Systemsoftware hat man sich in Aufwand und Kosten kräftig verschätzt. Allein die Arbeit am Betriebssystem OS/360 soll von 1963 bis 1966 etwa 5000 Mannjahre verschlungen haben. Ein Resultat davon war immerhin, dass der verantwortliche Projektleiter Frederic Brooks seine Erfahrungen in dem beeindruckenden Buch „The Mythical Man Month“ [2] niederschrieb.

Ebenfalls einzigartig: IBM zelebrierte die Vorstellung des System/360 als gewaltiges Marketing- und PR-Ereignis. Rund 100 000 Personen in 165 Städten in 14 Ländern, darunter 200 Journalisten, die mit einem Sonderzug von New York City zum Fertigungsstandort Poughkeepsie kamen, durften am 7. April die Vorstellung der System/360-Familie mit den Modellen 30, 40, 50, 60, 62 und 70 beklatschen. Ziemlich genau ein Jahr später liefen mit der /360-40 die Auslieferungen an.

Für die Apollo-11-Mission hatte die NASA einst fünf System/360 im Einsatz. 2012 ging die Mainframe-Ära bei der Raumfahrtbehörde zu Ende.

In vielen Dingen beeinflusste die Einführung der Mainframes die IT-Branche. Mit ihr fiel der Startschuss zur kostengünstigen und standardisierten Entwicklung und Produktion. Eine einheitliche Rechnerlinie mit klaren Schnittstellen erlaubt es zudem anderen Herstellern, ergänzende oder kompatible Produkte zu entwickeln. Selbst der Start der eigenständigen Software-Industrie liegt hier begründet. Zu den Errungenschaften, die sich auf System/360 zurückführen lassen, zählen auch das 8 Bit große Byte sowie die Technik der Virtualisierung.

IBM bescherte die 5-Milliarden-Dollar-Wette die dauerhafte Regentschaft über den Mainframe-Markt, der zu Beginn fast deckungsgleich mit dem Computermarkt war. Anfang der 70er-Jahre reklamierte der Konzern einen Marktanteil von 70 % für sich. Den Rest durften sich die als sieben Zwerge verunglimpften Hersteller Burroughs, Univac, NCR, CDC, Honeywell, General Electric und RCA beziehungsweise die nach ihren Anfangsbuchstaben als BUNCH (Pack) bezeichneten fünf erstgenannten Anbieter unter sich aufteilen. In Deutschland kam Siemens hinzu, zunächst als Vermarkter der RCA-Rechner, später mit der eigenen BS2000-Linie.

Zudem perfektionierte IBM die Kunst, die Konkurrenz mit lauteren (Patenten) und unlauteren Mitteln (Monopolgebaren) kleinzuhalten. Wiederholt mussten Gerichte für etwas mehr Wettbewerb sorgen. Ein beliebtes Mittel war FUD (Fear, Uncertainity, Doubt). Man schürte bei Anwendern Furcht, Unsicherheit und Zweifel über Konkurrenzprodukte.

Selbst die Ankündigungen rund um System/360 waren kein „Fairplay“. Denn im Rahmen der neuen Familie sollte unter dem Namen Project x auch ein Supercomputer entstehen, um endlich dem Erfolg der konkurrenzlos schnellen CDC 6600 etwas entgegenzusetzen. Geschickt streute IBM im April 1964 Informationen über den /360-90. Im August stellte Big Blue das Modell 92 vor, lieferte es aber nie aus. Erst im Oktober 1967 konnte man das im Januar 1966 angekündigte Modell 91 liefern. Die 95er-Systeme entwickelte IBM ausschließlich für die NASA.

Auch wenn die System/360-9x mehr oder minder floppte, schaffte es IBM, dass CDC anderthalb Jahre keinen Auftrag für den 6600 bekam. Das Nachspiel: Als IBM wieder mit einer Ankündigung auf ein neues Konkurrenz-Modell reagierte, zerrte CDC sie vor den Kadi – mit Erfolg. CDC übernahm von IBM Ende 1973 zusätzlich zur Erstattung von 15 Mio. Dollar Service-Geschäfte im Wert von rund 101 Mio. Dollar.

Trotz dessen gewährleistet das Mainframe-Monopol verlässlich hohe Margen. In der Entwicklung der Nachfolger S/370 in den 70er-Jahren und S/390 in den 90ern setzte man auf Evolution. Die PCM-Konkurrenz (Plug Compatible Mainframe) wie Amdahl oder Fujitsu erzielte bestenfalls Achtungserfolge. Unbelastet von der IBM-Dominanz waren lediglich die ESER-Rechner in den damaligen Ostblock-Staaten.

Überleben im neuen Ökosystem

In den neu entstehenden Märkten der Minis, PCs und RISC-Server war IBM mit eigenen Produktlinien unterwegs. Derweil machten sich Unix-Systeme mit ihren niedrigen Einstiegspreisen und MIPS-Kosten von 400 Dollar statt 100 000 Dollar im Jahr 1991 in Abteilungen breit und hielten mit ihrer rasant steigenden Performance in den RZ Einzug. Dennoch verließ sich die Mainframe-Fraktion lange Zeit auf das Argument Gesamtkostenrechnung, bei der das Big Iron in der Regel vorne lag.

Mitte der 90er-Jahre folgte der Umstieg von den energiefressenden ECL-Prozessoren (Emitter Coupled Logic) auf die preiswertere CMOS-Technik (Complementary Metal Oxide Semiconductor). Sie bescherte den Mainframes eine höhere Packungsdichte ohne Wasserkühlung, ein besseres Preis-Leistungs-Verhältnis sowie die Leistungsverdopplung im 2- statt 5-Jahres-Rhythmus.

Den stärksten Modernisierungsschub brachte zum Jahrtausendwechsel die Einführung der zSeries (heute System z). Mit ihr kamen die 64-Bit-Adressierung, redundante Hardwarekomponenten sowie die SAN-Verbindungstechniken ESCON (Enterprise Systems Connection) und FICON (Fibre Connection).

Ihnen folgen die Spezialprozessoren für Linux-Workloads IFL (Integrated Facility for Linux), als DB2-Beschleuniger zIIP (z Integrated Information Processor) oder für Java-Umgebungen zAAP (z Application Assist Processor). Dahinter verbergen sich zwar per Microcode begrenzte z-CPUs, dennoch fließt ihre Arbeit nicht in die Berechnung der Maschinenleistung und der Lizenzgebühren ein. An Umfang gewonnen hat in den vergangenen Monaten die Software zum Betreiben von Clouds.

Gern erwähnt IBM, dass man mit dem System z weiterhin Neukunden gewinnt. Dazwischen mischen sich die Abtrünnigen, etwa die NASA, die einst mithilfe des System/360-95 zum Mond flog und nun vor rund zwei Jahren ihren letzten Mainframe ausschaltete. IBM, die nach eigenen Angaben in jede Generation bisher rund 1,5 Mrd. Dollar Entwicklungskosten gesteckt hat, hält dagegen am großen Eisen fest und stieß erst kürzlich das Geschäft mit der leichten Ware – den x86-Servern – ab. (sun)

Literatur
  1. [1] Raimund Vollmer; Die 5.000.000.000-Dollar-Wette; rv-extrablog.blogspot.de/2009/04/die-5000000000-dollar-wette.html
  2. [2] Frederick P. Brooks: Vom Mythos des Mann-Monats, Essays über Software-Engineering, Addison-Wesley, Bonn 1987
DATEV – von Anfang an dabei

iX sprach mit Lothar Lux, Mitglied der DATEV-Geschäftsleitung und verantwortlich für die IT einschließlich der RZ. Bereits im ersten eigenen RZ nutzten die Nürnberger IBMs Mainframes. Was 1969 mit den /360-40-Modellen begann, führen heute vier zEC12 und z114 fort.

iX: Herr Lux, was waren für Sie in den vergangenen 20, 25 Jahren die größten Neuerungen rund um den Mainframe?

Lothar Lux: In der Entwicklung des Mainframe gab es viele Highlights an unterschiedlichen Stellen. Denken Sie nur an die Substitution der Wasserkühlung oder die Ablösung des Kupfers durch Lichtwellenleiter. Wichtig für uns waren aber vor allem die Fortschritte bei der Kopplung von Speicher- und Server-Ressourcen sowohl im RZ als auch zwischen entfernten Standorten. So erleichtert Parallel-Sysplex die Arbeit, wenn es gilt, Spiegelrechenzentren aufzubauen. Oder die Hardwarekomponente Coupling Facility unterstützt als zentrales Steuerelement komplexe z/OS-Infrastrukturen bei der Bereitstellung des globalen Arbeitsspeichers oder der Lastverteilung.

iX: Wo lagen die größten Enttäuschungen?

Lux: Von direkten Enttäuschungen möchte ich nicht reden. Sicherlich gab und gibt es viele Herausforderungen, gerade im Bereich der Preismodelle. Der Trend zu einer Software-Bepreisung analog zur Nutzungsmenge ist im Prinzip nachvollziehbar. Diese Verbindung wird jedoch spätestens dann problematisch, wenn die Nutzungsmengen schneller steigen als der erzielbare Umsatz in der eigenen Organisation.

iX: Welche Eigenschaften machen den Mainframe derzeit unerlässlich für das DATEV-Geschäft?

Lux: Sehr wichtig ist uns die Flexibilität im Workload-Management, die eine sehr hohe Auslastung der Hardware erlaubt. Zudem sind die enormen I/O-Anforderungen der Online-Anwendungen in der Praxis auf keiner anderen Plattform mit ähnlicher Effizienz abbildbar. Dabei bezieht sich der Begriff Effizienz nicht nur auf die Auslastung der Hardware, sondern auch auf das notwendige Personal. Darüber hinaus haben die mögliche On-demand-Zuschaltung von Ressourcen – OOCoD – und das CapacityBackUp als Vorsorgeoption für uns eine große Bedeutung.

iX: IBM preist die z-Modelle gerne als Konsolidierungsplattform für Unix-/Linux-Workloads an. Ist die Konsolidierung auf z für Sie eine Option?

Lux: Wir prüfen diese Frage ständig. Bisher gibt es keine konkrete Planung oder strategische Absicht, größere Workloads in der genannten Form zu überführen. Strategisches Ziel ist es vielmehr, für die Anwendungen die jeweils „richtige“ Plattform zu wählen. Das führt dazu, dass neben der Mainframe-Plattform auch AIX, Linux und Windows strategische Server-Plattformen sind.

iX: Was erwarten Sie künftig von den Mainframe-Systemen?

Lux: Der Mainframe muss in erster Linie die steigende Arbeitslast stemmen. Wir erwarten deshalb, dass sich in den nächsten Generationen die Skalierbarkeit und das Leistungs-Kosten-Verhältnis weiter verbessert. Wichtig ist außerdem, dass die Flexibilität im Workload-Management beispielsweise durch eine bessere Parallelverarbeitung gestärkt wird und die I/O-Leistung den steigenden Anforderungen durch Online-Anwendungen standhält. Hier könnten neue Techniken zur stärkeren Integration von Compute, Storage und Datenbank-Funktionen eine Hilfe sein. Ansätze dazu zeigen sich bereits in den Cache-Hierarchien, den Solid State-Drives und Big-Data-Methoden.

iX: Bedrohen Trends wie Cloud Computing den Mainframe?

Lux: Aktuelle IT-Entwicklungen wie der sogenannte Megatrend Cloud führen auch zu geänderten Anforderungen an die IT-Infrastruktur. Die entscheidende Frage ist jedoch, ob und wo der Mainframe unter Kosten-Nutzen-Aspekten eine wirtschaftliche Alternative bleibt. Wenn sich das positiv beantworten lässt, ist und bleibt die Mainframe-Plattform für DATEV auch bei Cloud-Anwendungen ein wichtiger IT-Infrastruktur-Baustein.

Das Interview führte Achim Born für iX.

Alle Links: www.ix.de/ix1405088

Dieser Artikel stammt aus iX 5/2014.

iX 5/2014 kaufen

  • Permalink: https://www.heise.de/-2172708
Kommentieren
Anzeige
  • Leistungsstarke und leise CPU-Wasserkühlung
  • Cyberbedrohungen erkennen und bekämpfen
  • Graphdatenbanken – die Macht der Beziehungen
  • 20 Euro sparen bei Cyberschutz für zuhause
  • Kosten sparen im Datacenter: Nutzen statt kaufen
  • IT Jobs, der über 0 und 1 hinausgehen
  • IBM Power und SAP HANA für große Datenberge
  • Content Marketing für Ihr Unternehmen
  • Tipps: Telefonanlagen-Kauf für Unternehmen
  • Profi Homepage - zum Festpreis!
Video-Tutorial:

Mit C die Grundlagen moderner Programmiersprachen lernen

Siebenstündiges Video-Tutorial zum Download

Aktuelle Inhalte in der iX-App
Apps für iX

iX-App für Android, iOS und Kindle Fire

iX können Sie auch auf Tablets und Smartphones unter Android und iOS lesen – als Plus-Abonnent sogar ohne zusätzliche Kosten.

Die Apps gibt es im App Store, bei Google Play und im Amazon App Shop

Meistkommentiert
  • AWS: IBM, Oracle und Microsoft gehören in den Entrümplungsverkauf
  • Electronic Frontier Foundation klärt über Überwachungstechniken auf
  • Unter der Lupe: Programmieren mit C# 8.0 und D
  • Sicherheit durch bessere Lagerung: Ceph und die Offsite-Replikation
  • Aus iX 12/2019: Wie werden DSGVO-Bußgelder berechnet?
Meistgelesen
  • AWS: IBM, Oracle und Microsoft gehören in den Entrümplungsverkauf
  • Oreps: Dashboard für leichteren Zugang zu Open-Source-Projekten
  • Electronic Frontier Foundation klärt über Überwachungstechniken auf
  • Sicherheit durch bessere Lagerung: Ceph und die Offsite-Replikation
  • Live-Webinar: Künstliche Intelligenz und maschinelles Learning
IT- und Technologieunternehmen stellen sich vor

Verlagsbeilage: Innovation in deutschen Unternehmen

Rechenzentren und Infrastruktur

Verlagsbeilage: Server, Kabel, Cloud-Computing

iX Jetzt iX kennenlernen

3x iX testen

  • 3x iX als Heft oder digital
  • Über 30% Rabatt
  • Inkl. Prämie nach Wahl
Zum Angebot
  • News
    • 7-Tage-News
    • News-Archiv
  • Heftartikel
    • Aktuelles Heft
    • Alle Hefte
    • Artikel-Archiv
  • Abo & Shop
    • Abonnieren
    • Einzelhefte kaufen
    • Heftarchiv auf DVD und USB-Stick
    • Sonderhefte
    • Video-Tutorials
    • iX extra
  • Apps
    • iOS
    • Android
    • Amazon-Store
    • FAQ zur iX-App
  • Veranstaltungen
  • Service
    • Listings/Downloads
    • Security-Awareness
    • Die iX-Redaktion
    • Newsletter
    • NiX Spam
    • Mediadaten
    • Presse-Informationen
    • Kontakt
    • Mediadaten
    • Presse-Infos
  • Datenschutzhinweis
  • Impressum
  • Kontakt
  • Mediadaten
  • 1209475
  • Content Management by InterRed
  • Copyright © 2019 Heise Medien