Menü

Missing Link: Vom Netz der Netze zur Content Delivery Plattform - ist das Internet noch zu retten?

Das Netz von Netzen wird abgelöst von einer Content-Service-Plattform. Das Internet wird fundamental umgebaut, die Netze konsolidiert und zu privaten Content-Zuspielnetzen. Ist das schlimm? Nicht nur Netzaktivisten, auch die Techniker kommen ins Grübeln.

Von
vorlesen Drucken Kommentare lesen 358 Beiträge
Server, Rechenzentrum, Vorratsdatenspeicherung

Wer braucht schon Internet. Das CDN liefert den Content aus dem Data-Center um die Ecke. Da steht Youtube, der Facebook-Server und mein Amazon-Kaufhaus. Vorbei die Zeit, in der das Internet Monopole aufgebrochen hat. Stattdessen werden nach großen Content-Schleudern auch die Netze konsolidiert und zu privaten Content-Zuspielnetzen, die weder eine Universal-Service-Verpflichtung noch Netzneutralität kennen und dem öffentlich unterfinanzierten Internet allenfalls noch ein Schattendasein zubilligen.

Nach einem pointierten Rant von APNIC-Forscher Geoff Huston, Forscher bei der IP- und ASN-Registry APNIC, zeigt sich jetzt auch das Internet Architecture Board (IAB), Hüterin der auf dem Internet-Protokoll aufgebauten dezentralen Netzarchitektur, besorgt und überlegt, was noch zu retten ist vom guten alten Internet.

"Missing Link"

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

78 Prozent des Transatlantik-Datenverkehrs rauscht heute über Kabel von Content-Providern. Dazu rechnet Alan Mauldin, Forschungschef bei der Telekommunikations- und Netz-Analysefirma Telegeography, die vier Großen Google, Facebook, Microsoft und Amazon. Global gesehen stellten die Riesen Ende 2017 insgesamt 49 Prozent der Kapazität. Die angekündigten Pläne für weitere Seekabel zeigt wohin die Reise geht, erklärt Huston gerade seinen Kollegen bei allerlei technischen Konferenzen: Das Internet wird fundamental umgebaut.

Fernsehen 5.0

Das Netzwerk von Netzwerken wird abgelöst von einer Content-Service-Plattform. Nicht Endnutzer werden verbunden und die Ende-zu-Ende-Kommunikation optimiert. Statt dessen servieren die großen Inhalteanbieter ihr Angebot direkt über Server, die sie beim Zugangsprovider zahlungskräftiger Kunden untergebracht haben. Dorthin wird es über die eigenen Netzstrecken und das kontinuierlich ausgebaute eigene Unterseekabelnetz gepumpt. Telegeography sagt bereits jetzt einen Rückgang von Unterseekabel-Projekten auf einige wenige Player voraus und den Ersatz der bislang aktiven Konsortien durch Einzelunternehmen.

Geoff Huston spricht vom Tod der Transitprovider und einer Privatisierung der Netzinfrastruktur. Nicht, dass hierzulande nicht auch klassische Netzbetreiber dereguliert und privatisiert wurden. Aber ein Rest an Regulierung blieb vorhanden und zwang sie mehr oder weniger, andere auf ihre Leitung zu lassen. Die neuen Service-Plattformen der Großen entziehen sich der Regulierung und nehmen ihr Geschäft mit von der allgemeinen Datenautobahn auf ihre Privatrennstrecke. "Ich fürchte das Geschäftsmodell der Transitprovider ist nicht mehr tragfähig", sagt Huston, und "die Zeit, in dem das Netz Monopole aufbricht, ist vorbei."

(Bild: Geoff Huston)

Standards als Rettungsanker?

Auch unter den Standardisierern, also denen, die Protokolle vom guten alten Internet Protokoll (IP) bis zur neuesten Verschlüsselung von Daten auf dem Weg durchs Netz (Transport Layer Security TLS 1.3) entwickeln, regt sich Sorge. Der ehemalige Chef der Internet Engineering Task Force (IETF), Jari Arkko, hat die "Konsolidierung" der Netze auf die Tagesordnung gesetzt.

"Effiziente Märkte", schrieb Arkko, "tendieren dazu, Gewinner mit immer größeren Marktanteilen hervorzubringen", schrieb Arkko kürzlich in einem Blogpost. Das Prinzip der "Economies of Scale" betrifft laut Arkko dabei nicht nur den Bereich Content-Delivery, sondern auch Internet-Provider, Betriebssysteme, Webbrowser und alle anderen Netz-Werkzeuge.

Was aber bedeutet es für die Entwicklergemeinde, wenn mehr und mehr Netzverkehr in Richtung einer winzigen Gruppe riesiger Content-Provider abwandert, fragte Arkko jetzt. "Was bedeutet es für das Internet" – und vor allem: Können die Entwickler ihre Standards so trimmen, dass sie die alte Idee von der Dezentralisierung und dem Ende-zu-Ende Prinzip unterstützen?

Schwere Hypotheken - in Technik und Politik

"Das ist schwer", sagt Arkko am Rande der IETF-Tagung in London. Denn eine Reihe von ungelösten Problemen, teils Ergebnisse erfolgreicher Standardisierung, machen die Großen stark. Die immer riesigeren DDoS-Angriffe sind von kleinen Anbietern kaum zu beherrschen. Die Bekämpfung von Spam sorgt dafür, dass (auch in Deutschland) E-Mail immer unzuverlässiger wird. Es ist praktisch unmöglich, erklärt Arkko, seinen eigenen kleinen Mailserver zu betreiben, denn nur die Großen können sich erfolgreich dagegen wehren, auf schwarzen Listen zu landen.

Die IETF-Gemeinde ist zum Brainstorming aufgefordert. Unausgesprochen im Aufruf von Arkko hat die IETF längst Anteil an der Konsolidierung. Abgesehen davon, dass immer komplexere Protokolle den Großen in die Hände spielen, steht die Content-Delivery-Fraktion längst bei der Organisation auf der Matte. Sie prägt neuen Protokollen, wie etwa den möglichen TCP-Nachfolger Quic, ihren Stempel auf.

Vom Internet zum Next Generation Network

Dabei bräuchten die Großen die Standards nicht immer zwingend, sie können per deFacto Standard das Netz regieren und daher dürfte die IETF froh sein, dass Google seine Quic-Experiment überhaupt eingebracht hat. Schließlich ist die Standardisierungsorganisation zugleich Opfer der Konsolidierung. Zwar kommen die großen Anbieter, aber die Zahlen und die Vielfalt der Teilnehmer nimmt ab und sorgt für finanzielle Engpässe. "Es geht um ein Billionen-Dollar-Geschäft", menetekelt Huston, "die IETF wird mitschwimmen."

Netzpolitik? Fehlanzeige ...

Ist ein Ruf nach Regulierung angesichts von Konsolidierung an der Schwelle zum Monopol angebracht? Kann die Politik noch etwas tun, um die gern als kritische Infrastruktur regulierten Netze gegen die immer mächtigeren Privatstraßen im Netz zu verteidigen? Das Steuerrecht bot die britische konservative Politikerin Lilian Neville-Jones bei einem Gespräch mit der IETF Spitze und der Internet Society London an. Mehr könne man derzeit kaum machen, auch weil die großen Monopolisten in einer Region konzentriert seien. "Wir haben aktuell da ein Problem", räumte sie ein und warf schnell noch "offene Standards" in die Waagschale.

Falsche oder schlicht fehlende politische Weichenstellungen und die uneingelösten Versprechungen eines echten Breitbandnetzes als Infrastruktur hierzulande, das beklagt seit Jahren hartnäckig Dieter Klumpp, Gründer des Forschungsinstituts Instkomm. Zufälligkeiten und Zögerlichkeiten von Politiker mehrerer Generationen hätten dafür gesorgt, dass ein deutsches Glasfasernetz "immer in fünf oder sieben Jahren kommt, und das schon ziemlich lange."

Zwar habe man zu Recht die alten Staatsmonopole aufgelöst, aber zugleich habe man durch fehlende Investitionen in eine zukunftsfähige Grundversorgungs-Infrastruktur den neuen Monopolen von Google und Co. in die Hände gespielt. Anbieter wie die Deutsche Telekom versuchen sich selbst im geänderten Content-Modell. Die Idee, dass sie bei Google mitkassieren, haben sie aber praktisch aufgegeben.

Bleiben am Ende zum Schutz der Diversität die Access-Netze? Vorerst platzieren die CNDs ihre Server bei Access-Providern wie der Telekom. Wenn ein Konzern wie Google aber am Ende die Notwendigkeit sieht, noch näher an die Kunden heranzurücken, etwa weil die alternativen Netze nicht die notwendige Qualität bieten, würde das Unternehmen es tun, sagt eine Google-Insiderin. Warum die Wettbewerbsaufseher Google bis vor kurzem fast unbehelligt sein Reich aufbauen lassen, ist für sie unverständlich. Die Dystopie von Dave Eggers' "The Circle" und dem allmächtigen, den Staat ablösenden Technologieprovider, lässt grüßen.

Wenn das Netz kaputt ist, fixt es einer

Viele Entwickler bleiben trotz der düsteren Prognosen dem Motto treu, dass die nächste Technik-Generation es richten wird. "Einer macht das Netz kaputt, der nächste fixt es", ist eine alte Regel, sagt der erfahrene schwedische Netzingenieur Peter Löthberg. Ja, die Optimierung in Richtung CDN ist Mist, räumt er ein, vor allem, weil sie genau die Innovationen behindern kann, derer es bedürfte für die Disruption der neuen Monopole.

Wenn man auf dem Netz schimpfen, subversiv Revolutionen anzetteln und sich dazu mit Gleichgesinnten über Zertifikats-verschlüsselte Transportprotokolle verabreden kann, ist das dann nicht das gute alte Internet? "Die lügen", warnt Huston. "Das ist nur noch eine Simulation."

(jk)

Anzeige
Anzeige