Grid Computing: Das wahre Web 2.0?

15.01.2008

Schluckt das Grid bald das Web wie dieses einst das Internet?

Grid- oder Distributed Computing ist ein sehr intensives Forschungsfeld, dessen Vision die delokalisierte Nutzung von IT-Ressourcen aller Art ist. Netze, Rechenleistung, Software etc. sollen eine Sprache sprechen und virtuellen Organisationen eine neue Dimension erschließen. IT-Leistung soll so selbstverständlich über das Netz fließen, wie heute der elektrische Strom. Die Bundesregierung investierte seit 2005 ca. 35 Millionen Euro in das deutsche D-Grid-Programm, die EU ca. 30 Millionen in EGEE (Enabling Grids for E-sciencE). Trotzdem hörte man bislang wenig vom Grid.

"Grid-Computing ist eine Fortentwicklung des World Wide Web, sozusagen die nächste Generation", sagte Franz-Josef Pfreundt (Fraunhofer-Institut für Techno- und Wirtschaftsmathematik) schon auf der CeBIT 2003 und verwies auf die NASA als Grid-Avantgarde.

Viele kennen aus der Weltraumforschung noch SETI@home, den lustigen Bildschirmschoner, der unseren Rechner an ein Netzwerk der Berkely Universität koppelt, an einen "virtuellen Supercomputer". SETI heißt bekanntlich "search for extraterrestrial intelligence" und so beackert unser Rechner, wann immer wir ihn nicht brauchen, online die gewaltigen Datenberge des Arecibo Radioteleskops in Puerto Rico, immer auf der Suche nach den LGM (little green man). Warum funktioniert nicht die gesamte Computerwelt nach diesem Prinzip des "cycle scavenging" (wörtlich übersetzt: der Rechenzyklus-Abfallnutzung)?

Power Grid nennt man in den USA das Stromnetz und diesem könnte sich die Computerwelt in Zukunft angleichen. Rechnerleistung, Speicherplatz, Programme, Daten – all das könnte künftig einfach wie Strom aus der Steckdose kommen. Keinen Nutzer würde mehr interessieren, wo die Bilder berechnet werden oder wo die Textverarbeitung läuft, die er gerade zu Hause auf dem Schirm sieht. Der Geist des Grid fand sich schon in verschiedenen Versuchen, gemeinsam Daten zu nutzen, etwa als zentralistische Tauschbörse bei Napster oder dezentrales Netzwerk bei Gnutella.1 Doch das Prinzip hat seine Probleme.

Genau wie das Internet den Austausch von Information durch die Bereitstellung eines universellen Protokolls und einer universellen Syntax (HTTP und HTML) für den Informationsaustausch revolutioniert hat, benötigen wir Standardprotokolle und eine Syntax für die allgemeine Freigabe und gemeinsame Nutzung von Ressourcen... Wie die Internet-Kernprotokolle die Interoperabilität und den Datenaustausch von und in unterschiedlichen Computernetzwerken ermöglichen, ermöglichen die Intergrid-Protokolle (wie wir sie vielleicht nennen können) die Interoperation von verschiedenen Organisationen und den Austausch oder die gemeinsame Nutzung von Ressourcen durch diese Organisationen.

Foster/Kesselman/Tuecke: Anatomie des Grid (2002)2

Bertelsmann verschluckte sich an Napster

Beim Versuch der Übernahme von Napster verstolperte sich im Jahr 2000 der gewaltige Bertelsmann-Konzern in juristischen Problemen. Der an sich genialisch das derzeitige Web2.0-Monopoly vorwegnehmende Schachzug, ein P2P-Netz zu kommerzialisieren, war jedoch urheberrechtlich stümperhaft geplant und strandete vor einem US-Gericht. Der Gütersloher Mediengigant zog sich vor Schreck weit aus dem boomenden Netzmedium zurück, zu seinem Glück kurz vor dem New Economy Crash.

Rechtliche, sicherheitstechnische und ethische Probleme bilden bis heute die Achillesferse des Grid Computing –wie soll im Grid der Datenschutz funktionieren? Bertelsmann machte durch diesen Fehltritt glückliche Milliardengewinne und p2p-Tauschbörsen sind heute begehrte Investitionsobjekte. Auch die Gridforschung ist entschlossen, aus den frühen Fehlern zu lernen.

DESY, CERN und Open Grid

Kristallisationskeim des Grid war die Nutzung teurer Hochleistungsrechner durch datenaufwendige Wissenschaften wie Astronomie, Teilchenphysik und Klimaforschung. Ziel war es dabei zunächst auch, in einzelnen Grids mit gebündelter Rechenkraft Aufgaben zu lösen, die ein einzelner Computer nicht bewältigen konnte. Die Vorarbeiten von Physik- und Klimaforschern bei der gemeinsamen, verteilten Nutzung ihrer raren Supercomputerzeit bilden bis heute das Rückgrad des Grid. Einrichtungen wie das Hamburger DESY oder das Schweizer CERN sind Zentren der Gridentwicklung.

Ab 1998 entstand das erste Grid Forum aus der US-Community der High Performance Computing–Nutzer heraus, nach der Vereinigung mit dem European Grid Forum (eGrid) und dem Asia-Pacific Grid Forum zum Global Grid Forum (GGF) diskutierten Wissenschaftler aus aller Welt die Standardisierung der verteilten Rechnernutzung. 2006 bildete sich schließlich das Open Grid Forum (OGF) aus GGF und der 2004 von der Privatwirtschaft gegründeten Enterprise Grid Alliance.

Bei IBM arbeitet man schon länger an kommerziellen Anwendungen, etwa an einer aus EU-Mitteln geförderten gridbasierten Lösung für Collaborative Engineering gemeinsam mit msc.sofware und Audi.3 Schon 2004 hatten sich Oracle, Dell, EMC und Intel im Projekt MegaGrid liiert

Als Allianz von IT-Wirtschaft und Wissenschaft will das OGF standardisierte Protokolle und Software entwickeln, um Gridnutzung im Geiste des Open Source-Denkens voran zu bringen. Ein Ergebnis dieser Arbeit ist die Open Grid Service Architecture (OGSA).4

Deutschland hinkt voraus – der Latecomer Advantage

Wer zu spät kommt, den bestraft das Leben, aber wer gerade noch rechtzeitig kommt, genießt den Latecomer Advantage. Deutschland hinkt der internationalen Entwicklung der Grid-Technologie um einige Jahre hinterher. Die Briten investierten schon ab 2001 ca. 250 Millionen Pfund, das deutsche D-GRID startete erst 2005 mit nur 35 Millionen Euro.

D-GRID ist anders als britische und US-Projekte nicht aus akademisch-wissenschaftlichen Geldquellen gespeist, sondern steht unter Ägide der Bundesregierung/BMBF (Bundesministerium für Bildung und Forschung). Daher sind die Projekte gerade der zweiten gerade anlaufenden Phase sehr auf wirtschaftliche Verwertbarkeit ausgelegt.5

Vorteile ergeben sich für D-GRID aus der Chance, Fehler zu vermeiden und in Standards einzusteigen, die sich inzwischen heraus gebildet haben, auch im europäischen Projekt EGEE (Enabling Grids for E-sciencE), das 2006 in die zweite Phase ging. Eine Grid-Support-Infrastruktur für Nutzer und gridbasierte Virtuelle Organisationen wird mit EU-Mitteln derzeit im Forschungszentrum Karlsruhe in Kooperation mit dem Darmstädter Fraunhofer Institut entwickelt, das Global Grid User Support (GGUS). Im September 2007 traf sich in Göttingen erstmals die deutsche Grid-Community, d.h. alle Projektpartner der D-Grid-Initiative und einige Wissensvernetzungsprojekte.

D-GRID umfasst in der ersten Phase (bis Herbst 2008) acht Teilprojekte. Ein Integrationsprojekt dient zur Etablierung allgemein nutzbarer Grid-Plattformen im Kern-D-Grid und soll Daten- und Ressourcenmanagement, Firewalls, Support, Referenzinstallationen bis hin zur Klärung rechtlicher Fragen übernehmen. Konkrete Umsetzungen laufen in sieben Community-Projekte aus Astrophysik, Hochenergiephysik, Energiemeteorologie, Klimaforschung, Ingenieurwissenschaften, Medizin und Geisteswissenschaften.

Gerade das letztere Projekt TextGrid zielt auf eine dem Web 2.0 nahekommende interdisziplinäre Vermittlung fachdisziplinären Wissens durch informationstechnische Umsetzung von bibliothekswissenschaftlichen Ordnungs- und Übersetzungsfunktionen. Komplexe Erkenntnisse sollen der globalen akademischen Community über die Fachgrenzen hinaus so leicht zugänglich gemacht werden, wie Videoclips auf YouTube. Die Information auch verständlich zu machen, ist dabei ungleich schwieriger, allein wegen der oft missverständlichen Fachsprachen. So ist ein Tensor in der Anatomie etwas anderes als in der Mathematik. Folglich arbeitet man bei TextGrid an komplexen Lösungen für semantisches Wissensmanagement, an sogenannten Ontologien.

Die nächste Stufe, D-Grid 2, läuft von 2007 bis 2010. Das anwendungs- und wirtschaftsorientierte DG2 umfasst elf weitere Projekte: F&L-Grid: Grid-basierte IT-Dienste; D-MON: Monitoring von Ressourcen und Diensten; AeroGrid: Luft- und Raumfahrt-Forschung; GDI-Grid: Geo-Daten-Infrastruktur; BauVOGrid: Bauindustrie; ProGrid: Automobilindustrie; SUGI: Grid-Support; PartnerGrid: Kooperation in industriellen Organisationen; BIS-Grid: Betriebliche Informations-Systeme; Biz2Grid: Betriebliche Grids ("SAP und Grid") und FinGrid: Finanz-Sektor (Börsendaten). Ca. 100 Institute, 45 Unternehmen und insgesamt 400 Personen sind derzeit an D-GRID beteiligt.

Der stellvertretende Leiter des D-GRID Fachgebietes 1 (Basis-Software), Volker Gülzow vom Hamburger DESY, bekundete im Telefon-Interview mit Telepolis am 10.Januar 2008 seinen Optimismus für dieses Jahr:

Alle D-GRID Projektteile liegen gut in der Zeit und werden im nächsten Herbst planmäßig beendet. Elf neue Projekte laufen gerade an, neun alte Projekte laufen aus. Die vom BMBF berufene Gutachtergruppe, die die neuen Projekte auswählte, legte ihren Schwerpunkt auf wirtschaftlich nutzbare Anwendungen in Industrie, Finanzwirtschaft, KMU. Besonderen Nutzen wird jedoch die Teilchenphysik aus dem Grid ziehen, etwa die Forschungen am CERN, im wichtigen LHC (Large Hadron Collider), Grid-Projekt LCG. Probleme liegen weiterhin in der Sicherheit und im Datenmanagement großer Datenvolumen. Unsere Orientierung an OGF-Standards garantiert internationale Anschlussfähigkeit des D-GRID-Projektes, viele unserer Leute sind in OGF-Foren aktiv.

Das wahre Web 2.0?

Wie das Grid werfen auch Beziehungsnetze im Web 2.0 eine neue Dimension in Netzethik und der Gefährdung von Persönlichkeitsrechten auf. Mit Beziehungs-Technologien werden womöglich auch die Beziehungsnetze selbst zu Handelsobjekten degradiert.6 Die tiefe Implementierung von Datenschutz und weiteren ethischen Standards lässt bislang auf sich warten. Grid-Projekte sind auf das Problem zwar aufmerksam geworden, aber Konsequenzen werden wohl ohne öffentliche Aufmerksamkeit kaum gezogen.

P2P- und Internet-Computing (Napster/Gnutella/seti@home) waren bzw. sind Beispiele für neue, verallgemeinerte Sharing-Modalitäten, die teils schon jenseits von Client-Server-Beziehungen an offene Formen virtueller Organisationen erinnern. Sie stellen Schritte in Richtung auf umfassende Grid-Architekturen dar. Wenn Web Services und P2P-Netzwerke verschmelzen, könnte das Grid Computing künftig Basiskonzepte und neue, auf dem Internet-Protokoll TCP/IP aufsetzende Protokolle dazu liefern.

In der Evolution der Internet-Technologie zeichnet sich möglicherweise ein Paradigmenwechsel von einem Client-Server- zu einem Global-Class-Architekturmodell ab. Desktop-Computer werden durch steigende Speicher-, Rechen- und Vernetzungsfähigkeit zu potentiellen Netzknoten, verwischen den Unterschied von Client und Server. Die Software-Entwicklung orientiert sich in Richtung modularisierter, netzwerkfähiger Komponenten, die global verteilt arbeiten können.7

Mit der zunehmenden Komplexität dieser Applikationen wird auch die Notwendigkeit der Interoperabilität offensichtlich, und wir können uns auf eine starke Konvergenz der Interessen zwischen Peer-to-Peer-, Internet- und Grid-Computing freuen.

Foster/Kesselman/Tuecke (2002)8

In der Informatik gilt Grid Computing heute mehr als Beispiel für die Mühen der Ebene, denn als "sweet science". Dennoch könnte es, falls nicht etwas Neues auftaucht und alte Projekte zur technologischen Sackgasse macht, schon bald zum Feld künftiger innovativer Netzwelten werden. Vielleicht wird schon 2008 zum Jahr des Grids. Literatur

Thomas Barth lehrte Medienkultur und Ethik in Hamburg und Vorarlberg und ist als Publizist in Hamburg tätig.

x
Fehler melden
Telepolis zitieren
Vielen Dank!
Kommentare lesen (31 Beiträge) mehr...
Anzeige
Anzeige
Hellwach mit Telepolis
Anzeige
Cafe
Telepolis-Cafe

Angebot des Monats:
Kaffee und Espresso aus Nicaragua in der Telepolis-Edition für unsere Leser

Cover

Aufbruch ins Ungewisse

Auf der Suche nach Alternativen zur kapitalistischen Dauerkrise

Anzeige
Cover

Die Form des Virtuellen

Vom Leben zwischen den Welten

Machteliten

Von der großen Illusion des pluralistischen Liberalismus

bilder

seen.by

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

Tastenkürzel:

ctrl-Taste:
Zum Wechseln zwischen Heise- und Google-Suche

esc-Taste:
Verlassen und Zurücksetzen des Eingabe-Felds

Buchstaben-Taste F
Direkt zur Suche springen

SUCHEN

Mit dem Schalter am linken Rand des Suchfelds lässt sich zwischen der klassischen Suche mit der Heise-Suchmaschine und einer voreingestellten Suche bei Google wählen.

SUCHEN

.
.