Menü

WOS3: Die Zukunft von Peer-to-Peer

vorlesen Drucken Kommentare lesen 111 Beiträge

Der britische Mathematiker Ross Anderson will die Performance von Peer-to-Peer-Netzen (P2P) deutlich erhöhen. Der Leiter der Computer Security Group an der University of Cambridge, der in jüngster Zeit vor allem Aufsehen mit seiner kritischen Haltung gegenüber den unter dem Banner "Trusted Computing" laufenden Industrie-Initiativen erregt hat, arbeitet gemeinsam mit Kollegen am Massachusetts Institute of Technology (MIT) an einer Verknüpfung der Dateistruktur des Usenet mit einer speziellen kryptographischen Verzeichnisfunktion. Die Lösung, die Anderson am gestrigen Samstagabend auf der dritten Wizards of OS (WOS) in Berlin vorstellte, soll robuster sein als bestehende Filesharing-Dienste und auch über lange Zeiträume hinweg die gezielte Verbreitung bestimmter Dateien sicherstellen. Gleichzeitig ist sie deutlich ökonomischer angelegt als das gegenwärtige Usenet.

Für Anderson erfordern eine Reihe von Problemen in den bestehenden Netzarchitekturen eine zügige Fortentwicklung von P2P. So stoße die klassische Client-Server-Struktur beim Hosting umfangreicher Datenmengen an ihre Grenzen. Als Beispiel nennt der Brite die Bestrebungen von Museen oder Bibliotheken, ihre Bestände online zu bringen und dabei auch hochauflösende Bilder mit Größen ab 10 MByte ins Netz zu stellen. Anderson verwies zudem auf die praktischen Probleme, in die bald die BBC mit ihrem Creative Archive gelangen werde: Es gehe der britischen Rundfunkanstalt darum, mehrere Petabyte an altem Sendematerial bis 2006 online frei verfügbar zu machen. Da stelle sich rasch die Kostenfrage. Wie nicht zuletzt Scientology mehrfach bewiesen habe, sei die gängige Netzarchitektur zudem anfällig für Zensur.

Auch die Online-Tauschbörsen von heute sind laut Anderson nicht das Gelbe vom Ei. Es gebe zwar "zensurresistente" P2P-Netzwerke wie Freenet oder Publius. Doch deren Erfolg bedürfe einer hohen "Solidarität" unter Nutzern, die ihre Bandbreite und ihren Speicherplatz lieber in Netzwerke wie Gnutella, Kazaa oder eDonkey einbrächten. Wenig gefragte, aber wissenschaftlich interessante Dokumente wie historische Manuskripte haben in diesen P2P-Zusammenschlüssen keine Chance.

Für Anderson kommt es bei der Verbesserung des Systems darauf an, "Wirtschaftlichkeit und eine saubere technische Konstruktion" zu vereinen. Im Usenet sieht der Forscher einen guten Ansatz in dieser Richtung, doch "das bricht momentan unter der auf die Newsgroups einprasselnden Masse an Spam und Bilddateien zusammen". Dafür habe es erstmals in moderne soziale Interaktionssysteme eine klare Datenstruktur und eine ausgefeilte Kommunikationsarchitektur eingeführt, deren Potenzial es neu zu entdecken gelte. Konkret schlägt der Verschlüsselungsfachmann vor, die Usenet-Infrastruktur mithilfe einer so genannten Distributed Hash Table (DHT) deutlich leistungsfähiger und P2P-gerechter zu machen. Eine Hash Table ist ein Verzeichnisdienst mit einem leicht bedienbaren Interface für Infrastrukturen mit zahlreichen Benutzern. Die Distributed Hash Table "verhält sich wie eine Festplatte, auf der ein Programmierer mithilfe eines Schlüssels Dateien ablegt", erklärt der Krypto-Experte. Was gespeichert werde, könne man selbst bestimmen. Gleichzeitig sei die Hash Table an sich aber blind gegenüber den Inhalten, die sie enthält.

Durch die Implementierung in die Usenet-Architektur kann die DHT-Funktion laut Anderson einen zweiten Trumpf ausspielen: Die verfügbaren Artikel und Dateien sollen eben als Hash, also nicht komplett, sondern in Form eines Abstracts vorgehalten werden -- ähnlich wie bei digitalen Signaturen im neuen Newsgroup-Verzeichnis. "Damit wird eigentlich nur noch eine einzige Kopie des Usenet benötigt", erklärt der Techniker. In der Praxis stellt er sich vor, dass sich im Idealfall etwa 300 große Internetprovider die zu erwartende hohe Nachfragelast anteilmäßig an dem angedachten Stamm-DHT-Server teilen. Die einzelnen "Super-Peers" könnten dann im Bedarfsfall auch Anpassungen an nationale Gesetze vornehmen, Spamfilter einbauen oder weitere Nachrichtendienste integrieren.

Anderson erhofft sich davon, "99 Prozent der aktuellen Datenlast" einzusparen. "Ein Nutzer postet einen Artikel an den Server, der schreibt ihn auf die DHT und tauscht mit anderen Servern fortan nur noch die Header-Beschreibung aus", veranschaulicht der Forscher das Prinzip. Die Super-Peers müssten seinen Hochrechnungen zufolge statt 10 Terabytes nur noch 60 Gigabytes pro Woche austauschen und könnten viel Bandbreite sparen. Peer-to-Peer habe eine große Zukunft, verspricht Anderson. Man möge darüber doch bitte nicht immer nur im Zusammenhang mit illegalem Musikdownloads sprechen. Von der neuen Struktur könnten auch Dienste wie die freie Online-Enzyklopädie Wikipedia profitieren, die bereits unter Datenbankproblemen leidet. Bis zum Jahresende will die Forschungsgruppe um Anderson einen Prototyp fertig haben.

Zur Wizards of OS siehe auch:

(Stefan Krempl) (ghi)