Menü

IETF: Die "Internetmacher" zwischen offener Innovation und Netzlast-Begrenzern

Lesezeit: 2 Min.
In Pocket speichern
vorlesen Druckansicht Kommentare lesen 5 Beiträge
Von

Die Internet Engineering Task Force (IETF) hat sich am Mittwoch mit einer Konferenz zu offenen Standards und zur Frage "Wer Macht das Internet?" auf ihre Jahrestagung Ende Juli in Berlin eingestimmt. Hans-Joachim Otto, parlamentarischer Staatssekretär im Bundeswirtschaftsministerium, versicherte dem für Internet-Standards zuständigen Gremium bei dieser Gelegenheit in der Hauptstadt, dass es in der Bundesregierung einen festen Verbündeten habe. "Wir müssen uns auf internationaler Ebene immer wieder für die Freiheit des Internets einsetzen", betonte der FDP-Politiker. "Das ist mitnichten eine Selbstverständlichkeit."

Das Wirtschaftsressort trete für ein "nicht bevormundetes" Netz ein, führte Otto aus. "Internet und soziale Netzwerke sind zu einer mächtigen Stimme der Freiheit geworden", die nicht durch Kontrolle und Reglementierung gefährdet werden dürfe. Gegen die Verletzung persönlicher Rechte müssten die Bürger aber auch online vorgehen können. Zugleich sprach sich der Liberale dagegen aus, dass Regierungen eine stärkere Rolle bei der technischen Steuerung des Internets über bewährte Gremien wie die IETF oder die Netzverwaltung ICANN erhalten sollten. Zugleich gab er die Losung aus, dass ernsthafte Netzpolitik ein Verständnis dafür voraussetze, "wie die zugrundeliegende Technik funktioniert".

Hans-Peter Dittler, Vorstandsvorsitzender der deutschen Abteilung der Internet Society (ISOC), erinnerte in diesem Sinne an die Gründungsvision der Dachorganisation der IETF, das Internet "frei von Beeinflussung durch den Staat und Firmen zu halten". Die Debatte hierzulande leide aber darunter, dass die Möglichkeiten offener Standards und der dahinterstehenden Vereinigungen wie auch dem World Wide Web Consortium (W3C) "ausgeblendet" würden gegenüber den klassischen Normungseinrichtungen wie dem DIN. Dabei habe die Arbeit bei der IETF etwa den Vorteil, dass sie "für jeden offen" sei und die eigentlichen Diskussionen und Entscheidungen über Mailinglisten liefen. Gemäß dem Grundprinzip seien dabei "rough consensus and running code" entscheidend, also die fachliche Übereinstimmung und nicht etwa Stimmverhältnisse.

Einen Schwerpunkt auf das Prinzip der Netzneutralität legte Olaf Kolkman von der niederländischen NLnet.labs. Die "wundervolle Architektur" des Internets erlaube Innovationen, die keiner Erlaubnis bedürften, erläuterte der frühere Vorstand des Internet Architecture Board (IAB), das der IETF untersteht. Einzige Voraussetzung dafür, eine eigene Applikation ins Netzwerk einzubringen, sei, dass diese das Internetprotokoll beherrschen müsse. Dieser Ansatz beruhe auf offenen Standards, die gemeinsam von unten entwickelt und freiwillig adoptiert würden. Die entsprechenden Prinzipien seien auf der Webseite Open Stand festgehalten. Dazu gehörten etwa Kooperation, Transparenz, Ausgeglichenheit, gemeinsame Verantwortung oder technische Machbarkeit.

Auch kleine und mittlere Unternehmen könnten sich einfach in den Standardisierungsprozess einbringen, unterstrich Kolkman die Offenheit des Prozesses. Es dauere in der Regel zwischen drei Monaten und zwei Jahren, bis ein zur Diskussion gestellter "Request for Comments" (RFC) seinen Weg durch eine Arbeitsgruppe nehme und von der Internet Engineering Steering Group (IESG) der IETF zu einem "getesteten" IETF-Standard ausgerufen werde. Auch wenn ein RFC nicht soweit komme, sei er trotzdem nützlich, da Patentämter entsprechende Eingaben für die Suche nach bereits veröffentlichten Erfindungen verwendeten.

Als Form der "Gewaltenteilung" für die technische Entwicklung feierte IETF-Bereichsleiter Martin Stiemerling offene Standards. Zugleich räumte er aber ein, dass Konzerne wie Google, Facebook oder Apple mehr Leute in die Arbeitsgruppen schicken und so Ergebnisse beeinflussen könnten. Letztlich rede bei der Standardisierung aber die IESG als nächsthöhere Ebene ein Wort mit. Als ein praktisches Problem, an dem die IETF derzeit arbeite, führte der Mitarbeiter der auf Traffic-Kontrolle spezialisierten NEC Laboratories Europe die "Schwerlast-Benutzer" an, die einen Großteil des Internetverkehrs für sich beanspruchten. Die Arbeitsgruppe Conex (Congestion Expoure) feile hier an technischen Hilfsmitteln wie Lastbegrenzern, um nach einer Warnung an entsprechende User "die Daumenschrauben anzusetzen".

Die von solchen Techniken angeheizte Debatte über die Netzneutralität begrüßte Jan Krancke, Regulierungsexperte der Deutschen Telekom. Er plädierte dafür, das Thema offener Zugänge "entlang der Wertschöpfungskette" des gesamten Internet-Ökosystems zu betrachten. Zugleich brachte er die Formel "pay for use" ins Spiel, um den weiteren Ausbau einer leistungsfähigen Netzinfrastruktur zu finanzieren. Der Bonner kritisierte zudem ebenfalls, dass letztlich auch bei den Internetstandardisierungsgremien faktisch die großen Akteure mit ihren mehrfachen Mitspracherechten über ihre Tochtergesellschaften weltweit die Normen und damit die Geschäftsmodelle setzten. Entscheidend seien die Ressourcen, da man auch physisch präsent sein müsste.

Es sei "nicht alles ideal mit der Partizipation", räumte Klaus Birkenbihl von ISOC.DE ein. Unternehmen, die bei der IETF etwas ausrichten wollten, müssten aber zumindest erst parallel etwa die Entwicklergemeinde oder Nutzergruppen einfangen. Insofern seien die Hürden der Machtausübung höher als bei traditionellen Normungsgremien. Letztlich gebe es bei der IETF auch viele Standards, die untereinander im Wettbewerb stünden. (jk)