Teilen und hamstern

Von der Tragik digitaler Gemeingüter

Eine neue Studie mit dem Titel Free Riding on Gnutella, zeigt auf, dass die Benutzer des File-sharing-Systems Gnutella mehr nehmen als geben. In dieser Studie werden wichtige Daten vorgestellt, aber die daraus gezogenen Schlüsse sind fragwürdig.

Die Studie basiert auf einer 24 Stunden dauernden Analyse des Datenverkehrs auf einem einzelnen Knotenpunkt des Gnutella-Netzwerks, welche von einem Forscherteam zur Internet Ecologies Area (etwa: Ökologie des Internet-Datenraums) an den Palo Alto Research Laboratories (PARC) der Firma Xerox durchgeführt wurde. Das Forscherteam fand durch diese Analyse des Datenverkehrs heraus, dass "70% der Gnutella-User kein Filesharing betreiben und dass 90% von ihnen auf keine Anfragen (queries) antworten." Das würde bedeuten, dass nur 30% der User überhaupt Dateien zum gemeinsamen Datenpool beisteuern.

Die Studie stellt darüber hinaus fest, dass es sogar unter den aktiven Teilnehmern, also denen, die Daten auch anbieten, eine starke Konzentration an der Spitze gäbe. Die oberen 10% der Hosts stellten 87% der Dateien zur Verfügung, wobei fast 40% vom obersten einen Prozent allein angeboten werden würden. Weiterhin hätten 90% aller User entweder keine Dateien zur Verfügung gestellt oder die von ihnen zur Verfügung gestellten Dateien würden nie abgerufen werden. Die Dateien, die die User interessierten, also von ihnen heruntergeladen worden seien, hätten sich auf nur 10% der anderen teilnehmenden Computer konzentriert befunden.

Diese Zahlen stellen einige der allgemein üblichen Annahmen über das Wesen verteilter Systeme wie Gnutella in Frage. Erstens ist das System nicht so stark verteilt, wie die Anzahl der teilnehmenden Rechner vermuten lässt. Eine relativ kleine Anzahl von Rechnern fungiert in Wahrheit als ein zentrales Speichersystem für einen grossen Teil des Datenpools - besonders für die beliebtesten Daten darin. Zweitens bringt diese Konzentration wieder eine Anzahl von Schwachpunkten in das System hinein, von denen man gedacht hatte, sie durch seine verteilte Architektur vermieden zu haben.

Das System ist somit hinsichtlich Zensurversuchen und Cracker-Attacken (wie Distributed-Denial-of-Service-Angriffe - verteilten Überlastungsangriffen auf einzelne Maschinen im Netzwerk) verwundbarer, als sonst immer behauptet, weil es möglich ist, die relativ kleine Anzahl von teilnehmenden Rechnern, die den Großteil der Ressourcen zur Verfügung stellen, zu identifizieren. 40% der Ressourcen, so zeigt die Studie, seien von nur 314 teilnehmenden Rechnern zur Verfügung gestellt worden. Während das schon wesentlich mehr ist als der einzelne zentrale Verzeichnisdienst von Napster, wäre es trotzdem nicht allzu schwierig, gegenüber den meisten Betreibern dieser Knotenrechner Urheberrechtsgesetze und Zensurmaßnahmen durchzusetzen, wenn erst einmal die Rechtsprechung geklärt ist und entsprechende Präzedenzfälle entschieden worden sind.

Ein weiteres Problem, das diese starke Konzentration der Ressourcen mit sich bringen könnte, hat damit zu tun, dass die Netzlast ungleich über das System verteilt ist. Wenn nur 10% der teilnehmenden Rechner jene Dateien zur Verfügung stellen, die tatsächlich heruntergeladen werden, dann würde diese kleine Anzahl von Maschinen 100% der Bandbreite des Systems in Anspruch nehmen, was zu Übertragungsengpässen führen könnte und die wichtigsten Netzwerkteilnehmer mit dem Löwenanteil der Kosten belasten würde. Also bestraft das System diejenigen, die am meisten dazu beitragen.

Die Forschergruppe schliesst daraus: "Diese Forschungsergebnisse haben gravierende Folgen für die zukünftige Entwicklung von Gnutella und seiner zahlreichen Varianten. Damit verteilte Systeme ohne zentrale Vermittlungsinstanz erfolgreich arbeiten können, ist einiges an freiwilliger Kooperation notwendig; eine Voraussetzung, die in Systemen mit grossen Teilnehmerzahlen, in denen die Mitglieder anonym bleiben, schwierig zu erfüllen ist." Die Konsequenz daraus: Ein offenes Filesharing-System kann leicht von der "Tragödie der digitalen Gemeingüter" erfasst werden.

Die Tragödie der Gemeingüter besteht darin, dass frei verfügbare Ressourcen dazu tendieren, mit der Zeit zu verfallen. In seinem klassischen Artikel von 1968 lieferte der Biologe Garret Hardin das Urbeispiel zu dieser Problematik:

Stellen Sie sich eine Weide vor, die für alle offen ist. Es ist zu erwarten, dass jeder Herdenbesitzer versuchen wird, soviel Vieh wie möglich auf der Allmende weiden zu lassen [und so] mündet die innere Logik der Allmende in eine gnadenlose Tragödie. Als ein rationales Wesen, versucht jeder Herdenbesitzer, seinen Gewinn zu vergrössern. Explizit oder implizit, mehr oder weniger bewusst fragt er sich: "Welchen Nutzen kann ich daraus ziehen, wenn ich eines oder mehrere Tiere zu meiner Herde hinzufüge?" Dieser Nutzwert hat eine negative und eine positive Komponente.

1. Die positive Komponente ist eine Funktion aus dem Herdenzuwachs von einem Tier. Da der Herdenbesitzer den gesamten Erlös aus dem Verkauf des zusätzlichen Tieres erhält, beträgt der positive Nutzwert annähernd +1.

2. Die negative Komponente ist eine Funktion der zusätzlichen Überweidung durch ein weiteres Tier. Da jedoch die Folgen der Überweidung von allen Herdenbesitzern gleichermassen getragen werden, ist der negative Nutzwert für jeden Herdenbesitzer/Entscheidungsträger nur ein Bruchteil von -1.

Wenn der rational agierende Herdenbesitzer die Nutzwert-Komponenten zusammenrechnet, dann schliesst er daraus, dass die für ihn einzig vernünftige Vorgehensweise darin besteht, seiner Herde ein weiteres Tier hinzuzufügen. Und noch ein weiteres... Aber das ist der Schluss, zu dem jeder einzelne rational agierende Herdenbesitzer kommen muss, der sich mit anderen eine Allmende teilt. Hierin liegt die Tragödie. Jeder von ihnen ist in einem System gefangen, das ihn dazu zwingt, seine Herde endlos zu erweitern - und das in einer begrenzten Welt. Jedermann läuft in sein Verderben, wobei jeder seinen besten eigenen Interessen folgt. Und das in einer Gesellschaft, die an die freie Verfügbarkeit der Allmende glaubt. Freiheit der Allmende bringt allen den Ruin.

Problematisch an diesem Beispiel ist - abgesehen davon, dass es eine eher beschränkte Auffassung von Rationalität voraussetzt - dass es nicht klar ist, wie es auf die gemeinsame Nutzung digitaler Güter anwendbar ist, und ob man es darauf überhaupt anwenden kann. Rishab Ghosh erörtert in seinen Cooking-Pot Markets, warum man es nicht auf diesen Problemkomplex anwenden könne: Bei einem eisernen Kochtopf (Cooking Pot) ist es so, dass man kaum mehr herausnehmen kann, als man hineingegeben hat - wenngleich es unter der Hitze des Feuers weiterverarbeitet wurde - also muss die Gemeinschaft diese begrenzte Menge unter sich aufteilen. Die "Kochtöpfe" im Internet funktionieren natürlich vollkommen anders. Sie nehmen in sich alles auf, was auch immer produziert wird, und verteilen den gesamten Inhalt der Töpfe an all diejenigen, die ihn verbrauchen möchten. Der digitale Kochtopf ist offensichtlich ein gigantischer Replikator, der nicht einzelne Bruchstücke ausgibt, sondern Kopien des ganzen Topfes. Aber einzeln betrachtet, ist jeder Topf voll geklontem Material für den Verbraucher genauso wertvoll wie die originalen Produkte, die ursprünglich in den Topf hineingewandert sind.

Der Unterschied kommt daher, dass die den anderen zur Verfügung stehenden Vorräte nicht gemindert werden, wenn man aus einer digitalen Ressource nimmt. Da digitale Daten nicht materiell greifbar sind, bedeutet das, dass man sie hergeben kann, ohne ihrer verlustig zu gehen. Daraus ergibt sich, dass digitale Gemeingüter einen wesentlich höheren Grad an reiner Konsumption vertragen können als physisch existente Gemeingüter, in denen alles, was verbraucht wird, ersetzt werden muss, bevor es wieder verfügbar ist.

Die Tatsache, dass keines der Filesharing-Systeme von der "Tragödie der Gemeingüter" negativ betroffen wurde, legt den Gedanken nahe, dass diese nicht auf digitale Güter zutrifft. Bisher bedeutet jeder Zuwachs an Verschiedenheit im verfügbaren Datenpool einen Zuwachs in der Attraktivität des Systems für alle Nutzer, sogar dann, wenn die Anzahl der Nutzer schneller ansteigt, als die Anzahl der Dateien. Dies weist darauf hin, dass diese Systeme viel stabiler sind, als die Studie von PARC unterstellt - und dass sie weit weniger darauf angewiesen sind, in eine "Marktbasierte Architektur" umgewandelt zu werden.

Während die verteilten Systeme wohl kaum unter ihrem eigenen Gewicht zusammenbrechen werden, zeigt die Studie jedoch, dass die Zentralisierung sie durch die extrem ungleich über das Netz verteilten Ressourcen für feindliche Angriffe verwundbar macht. Sowohl auf technischer, als auch auf juristischer Ebene. Das zeigt uns, dass sogar ein clever aufgebautes System nicht den freien Fluss von Informationen in einer Umwelt garantieren kann, die dieses Ziel entweder nicht unterstützen will, oder ihm gar offen feindlich entgegensteht.

Übersetzung von Günter Hack

Kommentare lesen (11 Beiträge)
Anzeige