Marktvertrauen

25 Jahre TK-Liberalisierung – warum die Breitband-Politik in der Sackgasse steckt

Wissen | Hintergrund

Als vor einem Vierteljahrhundert die „Liberalisierung“ begann, galt es, den Telekommunikationssektor von den Fesseln des Staates zu befreien. Heute zeigt sich, dass der Markt nicht alle Probleme lösen kann. Beim Glasfaserausbau und bei der Erhaltung der Netzneutralität entzieht sich der Staat zu Lasten der Bürger seiner ordnungspolitischen Verantwortung.

Vor 25 Jahren steckte die EU-Kommission die Grundzüge eines neuen ordnungspolitischen Rahmens für die Telekommunikation in Europa ab. Die 256-seitige Mitteilung vom 30. Juni 1987 an die Mitgliedstaaten ist ein Schlüsseldokument [1]. Es leitete die Zeitenwende von der alten Welt der Telefon-Monopole in die neue Welt des Wettbewerbs ein. Wo sich die europäische Politik zuvor auf zusammenhanglose Einzelaktivitäten beschränkt hatte – es gab zum Beispiel das gemeinsame Forschungsprogramm „R&D in Advanced Communications for Europe“ (RACE) oder die Richtlinie des Rates zur Einführung des MAC-Standards für das Satellitenfernsehen – nahm jetzt erstmals eine Strategie zur Einführung von Wettbewerbsstrukturen im Telekommunikationssektor Gestalt an. Die Veröffentlichung des sogenannten „Grünbuchs“ eröffnete die Diskussion über die künftigen Rechte und Pflichten von Netzbetreibern, den Zugang zur Infrastruktur der sich meist noch im Staatsbesitz befindenden Monopolunternehmen („Incumbents“), die Freiheiten der Diensteanbieter und die Notwendigkeit einheitlicher Standards als Voraussetzung für den Vertrieb von Endgeräten überall in der Gemeinschaft.

Big Bang

Danach ging es Schlag auf Schlag: Im Jahr darauf wurde die Richtlinie über die Öffnung des Endgerätemarkts verabschiedet und das „Europäische Institut für Telekommunikations-Standards“ (ETSI) gegründet, dem heute mehr als 700 Organisationen als Mitglieder angehören. Die Richtlinie zur Freigabe des Wettbewerbs bei Telekommunikationsdiensten, die lediglich noch den Sprachdienst im Monopol der staatlichen Telefongesellschaften beließ, folgte 1990, und 1993 legte der Ministerrat das Datum für den Big Bang zur vollständigen Liberalisierung der Telekommunikation (TK) in Europa auf den 1. Januar 1998 fest. Von da an sollten die Staatsunternehmen, die als unflexibel, als „over-staffed and over-sized“ galten, auf allen Ebenen dem rauen Wind der Konkurrenz ausgesetzt sein.

Das Ende einer Ära war besiegelt. Die alte Welt, das waren Mischkalkulation und Quersubventionierung, über die Städter die Telefonversorgung der Landbevölkerung mitfinanzierten und die Monopolbetriebe in eigenen Instituten umfangreiche Forschungsaktivitäten unterhielten. Die neue Welt prägten fortan Trennungsrechnung, Quartalsberichte und Shareholder Value. In ihr gibt es keine gleichwertige Versorgung mit TK-Diensten im ländlichen und städtischen Raum mehr. Die Forschung wurde abgewickelt; Marketing war wichtiger.

Die Bundesrepublik hatte bereits 1989 die Trennung von hoheitlichen und unternehmerischen Funktionen im Postwesen vollzogen und noch unter dem Dach der Deutschen Bundespost drei eigenständige Unternehmensbereiche (Telekom, Postdienst und Postbank) eingeführt, die in einer zweiten Postreform 1994 in unabhängige Aktiengesellschaften umgewandelt wurden. Mit dem neuen Grundgesetzartikel 87f zog sich der Bund bei Bahn, Post und Telekommunikation, die bis dato zu den Kernaufgaben staatlicher Daseinsvorsorge gehörten, auf die Rolle als Gewährleistungsstaat zurück, der nur noch „flächendeckend angemessene und ausreichende Dienstleistungen“ gewährleistet, die von den privatisierten Staatsbetrieben „und durch andere private Anbieter erbracht“ werden. Den vorläufigen Abschluss bildete das Telekommunikationsgesetz (TKG) von 1996, das die Vorgaben aus Brüssel in nationales Recht übernahm und so auch in Deutschland die Plattform für den freien Wettbewerb mit Netzen, Diensten und Endgeräten schuf.

Eingekeilt

Freiwillig kam die Wende in den 80er-Jahren nicht – vielmehr waren die europäischen Politiker Getriebene: In einer Bestandsaufnahme des TK-Sektors hatte die Kommission in Brüssel besorgt registriert, wie die Gemeinschaft gegenüber den beiden Hauptkonkurrenten auf dem Weltmarkt, den USA und Japan, immer mehr ins Hintertreffen geriet und sich die Handelsbilanz für TK-Equipment rapide verschlechterte: „Während die Vereinigten Staaten mehr als 35 Prozent und Japan 11 Prozent Anteile am Weltmarkt der Telekommunikation halten, bringt es kein Mitgliedsstaat auf mehr als 6 Prozent.“ Die Lage stellte sich als ernst, aber nicht hoffnungslos dar, denn zusammengenommen belief sich der Marktanteil der Unternehmen aus der Gemeinschaft noch „auf über 20 Prozent“.

Mit dem Grünbuch entwarf die Brüsseler Kommission daher eine Doppelstrategie nach innen und außen. Ein Ziel war die Schaffung eines gemeinsamen Binnenmarktes durch den Abbau von Barrieren, die der Kompatibilität von Netzen und Endgeräten innerhalb der Gemeinschaft entgegenstanden. Seinerzeit erfolgte die grenzüberschreitende Zusammenschaltung stets von einem nationalen Hoheitsbereich zum anderen. Und wenn Hersteller ihre Produkte in ein anderes europäisches Land exportieren wollten, benötigten sie dafür die Zulassung der zuständigen Postverwaltung.

Die Schrittmacher …

Das zweite Ziel bildete die Positionierung zu den Problemen, mit denen sich die Gemeinschaft als Ganzes gegenüber Drittländern konfrontiert sah. Denn auf dem Weltmarkt zeichneten sich Umwälzungen ab, nach denen kein Stein mehr auf dem andern bleiben sollte. Unter Ronald Reagan, der von 1981 bis 1989 im Weißen Haus residierte, hatten die USA – und im angelsächsischen Gleichtakt die Briten unter Margaret Thatcher, der konservativen Premierministerin von 1979 bis 1990 – beharrlich an einer neuen Weltordnung gebastelt. Die Vorlagen und Rezepte, die bis heute das ökonomische Weltbild diesseits und jenseits des Atlantik prägen, lieferten ihnen Vordenker wie der Soziologe Mancur Olson, der als Autor von Bestsellern wie „The Logic of Collective Action“ und „The Rise and Decline of Nations“ die institutionelle Verkalkung geißelte, und insbesondere der neoliberale Wirtschaftswissenschaftler und Nobelpreisträger Milton Friedman, der noch in hohem Alter die Ansicht vertrat, es sei unmoralisch, „Geld von den Reichen zu nehmen, um es den Armen zu geben“.

In der 1986 gestarteten Uruguay-Runde zu neuen Welthandelsvereinbarungen hatte die Reagan-Regierung die Liberalisierung der TK-Märkte mit auf die Tagesordnung gesetzt. „Die USA sind der Haupttreiber des Wandels in der Telekommunikationswelt und des Welthandels in diesem Sektor geworden“, analysierte das Grünbuch 1987 klar die Situation. „Die von der US-Deregulierung freigesetzten wirtschaftlichen und industriellen Kräfte stürzen sich nun auf den Weltmarkt. Die Zielscheibe ist vor allem Europa.“ Besonders beunruhigend sei die „wachsende Tendenz, die Situation in anderen Ländern mit dem eigenen Verständnis von ‚angemessener’ Regulierung zu beurteilen und jede Abweichung als ‚Handelshemmnis’ zu betrachten“, denn auf diese Weise würde die Regulierungspolitik in den Vereinigten Staaten „als Maßstab für die ‚Offenheit’ der Auslandsmärkte festgelegt“.

… im Durchmarsch

Die Reagansche Ökonomik, die „Reaganomics“, und in Großbritannien der „Thatcherismus“, das waren: Privatisierungen, Deregulierung und Steuersenkungen, welche die Wirtschaft ankurbeln und so letztendlich allen zugutekommen würden. Dazu gehörten ferner die Marginalisierung der Gewerkschaften und die Abwicklung des Sozialstaats. Im Zentrum der Außenpolitik standen die Forcierung der Freihandelspolitik, der freie Kapitalverkehr, Direktinvestitionen im Ausland und der Export US-amerikanischer Rechtsvorstellungen. Diese Konzepte strahlten auch auf die in der US-Hauptstadt ansässigen internationalen Institutionen wie die Weltbank und den International Monetary Fund aus – aus der „Reaganomics“ wurde der sogenannte „Washington Consensus“. Er führte dazu, „dass die entwickelten Industriestaaten spätestens in den Achtzigerjahren in eine konvergente liberalisierungspolitische Phase eintraten“ und sich in ihrem wirtschaftspolitischem Handeln „spürbar ähnlicher wurden“ [2]. Nur wenige durchschauten, dass die USA im Grunde einen „Handelskrieg gegen den Rest der Welt“ führten, wie es ein früherer Ministerialdirektor im Bundeswirtschaftsministerium nannte.

In der Agenda der Neoliberalen zur wirtschaftlichen und politischen Erneuerung nahm der TK-Sektor nicht nur aus industriepolitischem Interesse eine herausragende Stellung ein. Neben der Öffnung der ausländischen Märkte zur Steigerung des Exports sollte die Telekommunikation auch als Schmieröl der Globalisierung dienen und multinationalen Konzernen die nahtlose Vernetzung mit TK-Diensten aus einer Hand ermöglichen. Hinzu kam, was der Welthandelsexperte Jagdish Bhagwati von der Columbia-Universität in New York als „aggressiven Unilateralismus“ bezeichnete: ein tiefes Misstrauen gegenüber den Vereinten Nationen und ihren Unterorganisationen wie der International Telecommunication Union (ITU), wo sich die USA als größter Beitragszahler oftmals dem Mehrheitsvotum beugen mussten.

Bypassing the ITU

In einer strategischen Meisterleistung schaffte es die US-Regierung, die Arena zu wechseln und die ITU zu schwächen, die mit ihren Vorläuferorganisationen seit 1865 das Forum für internationale Vereinbarungen auf dem Gebiet der Telekommunikation bildete. Während in der ITU das Prinzip „one country, one vote“ galt, saß in den Welthandelsrunden der wirtschaftlich Stärkere am längeren Hebel. Dort galt nicht „gleiches Stimmrecht für alle“, sondern das „Prinzip des gegenseitigen Nutzens“: Ein hochentwickeltes Industrieland konnte mehr Druck ausüben und seine Interessen eher durchsetzen, wenn es sich die Zustimmung zu den angestrebten Regelungen auf dem Gebiet der Telekommunikation mit Zugeständnissen auf anderen Sektoren wie beispielsweise der Landwirtschaft erkaufte. In der ITU hingegen blieben Absprachen, Koalitionen und Kompromisse stets auf das Feld der Telekommunikation beschränkt – Diplomaten sprechen vornehm von „sektoraler Reziprozität“.

Die gleiche Strategie des „Forum-Shopping“ verfolgten die USA übrigens auch auf dem Gebiet des Patentwesens und des Urheberrechts, an dem sie sich nach jahrzehntelanger Missachtung der Berner Übereinkunft – der sie erst 1988 beitraten – plötzlich überaus interessiert zeigten und wo es ihnen gelang, die Verschärfung der Schutzrechte an immateriellen Wirtschaftsgütern von der UN-Unterorganisation WIPO in das Freihandelsabkommen TRIPS von 1994 zu verlagern.

Am 1. Januar 1998 war es dann so weit: Mit dem „WTO Agreement on Basic Telecommunications“ trat unter dem Dach der 1995 gegründeten World Trade Organization (WTO) die neue Weltordnung in Kraft. Im Kern verpflichteten sich die Mitglieder darin, „jedem Diensteanbieter eines anderen Vertragsstaates den Zugang und die Nutzung öffentlicher Telekommunikationsnetze und -dienste zu angemessenen und nicht-diskriminierenden Bedingungen zu gewähren“. Die neuen Wettbewerber aus dem Ausland sollten die öffentlichen Netze für den Datentransport nutzen dürfen; explizit sollten der Zugang und die Nutzung von Mietleitungen mit eigenem Equipment und eigenen Protokollen gewährleistet sein, sowie das Recht, diese mit dem öffentlichen Netz zusammenzuschalten. Zugangs- oder Nutzungsbeschränkungen waren nur noch bei einer Gefährdung der Verfügbarkeit und Integrität des Netzes erlaubt [3].

Bestandteil der Übereinkunft war auch ein „Reference Paper on Regulation“ mit Grundsätzen zu einer unabhängigen Regulierung, die für Gleichbehandlung sorgen und verhindern sollte, dass ein Land den Monopolbereich zur Abwehr der Neuankömmlinge auf den entstehenden TK-Märkten einsetzt. „Die Entscheidungen und Verfahren der Regulierungsbehörden“, verlangt das WTO Agreement, „sollen unparteilich gegenüber allen Marktteilnehmern sein“.

Binnenwirkung

Das klingt plausibel; Gleichheit für alle ist eine Forderung, die jeder auf Anhieb geneigt ist zu unterschreiben. Damit war jedoch jede Art von Industriepolitik verboten: Schwächere heimische Unternehmen, die – vielleicht aufgrund von Sperrpatenten – in der Produktentwicklung etwas zurücklagen, durften vor der ausländischen Konkurrenz nicht geschützt werden; ebenso wenig kleinere Firmen, die noch nicht über die weltweite Vermarktungslogistik zur Produktion in großen Stückzahlen verfügten und deshalb bei Neuentwicklungen mit höheren Einstiegspreisen operieren mussten. Faktisch förderte die Freihandelsvereinbarung ein „First-Mover-Advantage“: Sie stärkte die Position des Ersten am Markt und zementierte die US-amerikanische Hegemonie im Hochtechnologiesektor.

Formal enthielt die WTO-Übereinkunft keine Verpflichtung zur Privatisierung der staatlichen Netzbetreiber. Doch was ausländischen Unternehmen zugestanden wurde, kann inländischen schlecht verwehrt werden. Selbst in Teilbereichen wie dem Telefondienst für Privatkunden hätte sich ein öffentliches Monopol nicht aufrechterhalten lassen und wäre früher oder später ausgehöhlt worden. Dem öffentlichen Netzbetreiber, der etwa die flächendeckende Grundversorgung aus den Erträgen bei Firmenkunden quer finanzieren wollte, würde die von solchen Verpflichtungen unbelastete Konkurrenz schnell die Geschäftsgrundlage entziehen, die sich mit günstigeren Preisen auf den lukrativen Teilmarkt stürzen kann. Zwischen einem dem Gemeinwohl verpflichteten und Rosinen pickenden Unternehmen kann es keinen fairen Wettbewerb geben.

Die Position der USA in den Welthandelsrunden – das hatte die Brüsseler Kommission mit ihrem Grünbuch 1987 frühzeitig erkannt – setzte eine Eigendynamik in Gang, die in anderen Ländern eine erhebliche Binnenwirkung ausübte. Die völkerrechtlich bindenden Verträge würden den nationalen Gesetzgebern im Grunde keine Alternative zur Liberalisierung der heimischen TK-Märkte lassen. Die Transformation ließ sich vielleicht etwas hinauszögern, aber zu verhindern war sie auf Dauer nicht [4].

Zu der von den USA und England angestoßenen Entwicklung gab es keine vernünftige Alternative. EU-Kommission und mehr noch die Bundesregierung versuchten daher, rechtzeitig auf den Zug aufzuspringen und sich zu Schrittmachern der Liberalisierung zu machen. Die Zweischneidigkeit, dass bei der Flucht nach vorn nicht nur Exportchancen winkten, sondern die Öffnung des Inlandsmarktes auch die heimischen Hersteller dem Konkurrenzdruck aussetzte, war den Akteuren offenbar klar. Doch sie erhofften sich einen Schub durch die „Economies of Scale“, die Größen- und Mengenvorteile, die sich über den Binnenmarkt hinaus auf Drittmärkten ergeben würden. Es dürften „nicht nur die Risiken für die heimischen Hersteller gesehen werden“, heißt es in dem Grünbuch, „sondern vor allem die Herausforderungen und Chancen, die in den gleichzeitigen Bemühungen zur Öffnung der Märkte außerhalb der Gemeinschaft liegen“.

Unterm Strich

Ist die Rechnung aufgegangen? Nach dem Inkrafttreten des WTO-Abkommens kam es zu einem Aufschwung, der aber nur von kurzer Dauer war. Danach setzte eine Konsolidierung ein, in der sich die Gewichte deutlich verschoben. „Länder wie Kanada, Finnland, Frankreich, Deutschland, Schweden oder England, die traditionell bedeutende TK-Ausrüstungsexporteure waren, haben eine niedrigere Ausfuhrziffer als vor zehn Jahren“, resümiert die OECD in ihrem jüngsten Report zur Lage der TK-Märkte. „Diese Länder sind jetzt unter den größten Importeuren von TK-Equipment zu finden.“ [5]

Allein mit Outsourcing und der Verlagerung von Teilen der Vorproduktion nach China lässt sich das Ausmaß kaum erklären, mit dem sich die Wertschöpfung aus den einstigen Zentren der Branche verlagerte. Das fernöstliche Reich ist längst keine verlängerte Werkbank der „Blaupausengesellschaften“ des Westens mehr, die nach Anleitung produziert, was hier erfunden und entwickelt wird. Unter den fünf großen TK-Ausrüstern nehmen inzwischen die beiden chinesischen Konzerne Huawei und ZTE auf dem Weltmarkt eine Spitzenstellung ein – gehalten haben sich Ericsson aus Schweden und der französisch-amerikanische Konzern Alcatel-Lucent. Der Fünfte im Bunde, Nokia Siemens Networks (NSN), häufte seit dem Zusammenschluss 2007 nur Verluste an und kämpft ums Überleben.

„Die europäischen Staaten sind im internationalen Innovationswettlauf kontinuierlich zurückgefallen“ und Deutschland habe in wichtigen Spitzentechnologiebereichen wie der Informationstechnik und Telekommunikation „erhebliche Probleme der Wettbewerbsfähigkeit“ zu verzeichnen, konstatiert die „Expertenkommission Forschung und Innovation“ (EFI) in ihrem Gutachten 2012 [6]. Seit 1998 sind nicht nur ehemalige „Amtsbaufirmen“ wie SEL, Telefonbau und Normalzeit oder DeTeWe auf der Strecke geblieben, auch Weltkonzerne wie Bosch oder Siemens haben sich aus dem Geschäft zurückgezogen. Und was noch schwerer wiegt: Dabei wurden zukunftsträchtige Felder wie die optische Nachrichtentechnik und Optoelektronik ausgegliedert und weitgehend kleinen oder mittelständischen Unternehmen überlassen. Von denen können einige als Spezialitätenanbieter in Nischen zwar durchaus brillieren, aber wenn heute ein groß angelegtes Programm für Fiber-to-the-Home (FTTH) gestartet würde, dann kämen die wesentlichen Komponenten – ähnlich wie die photovoltaischen Solarpaneele für die Energiewende – aus China.

Falsch verdrahtet

Auffallend ist, dass ausgerechnet die Länder, die in Europa am konsequentesten auf die Liberalisierung des TK-Marktes setzten und die noch zu Monopolzeiten die Speerspitze der Photonik bildeten, bei der Modernisierung ihrer Anschlussnetze mit zukunftsfähiger Breitbandtechnik am weitesten hinterherhinken. An den britischen Standard Telecommunications Laboratories hatten Charles Kuen Kao und George Hockham einst die stürmische Entwicklung losgetreten, als sie 1966 die störenden Bestandteile der langgezogenen Fasern identifizierten, die ihrem Einsatz als verlustarmes Übertragungsmedium noch im Wege standen. Im gleichen Jahr entwarf der Physiker Manfred Börner am Ulmer Forschungsinstitut von Telefunken die Grundstruktur eines kompletten digital-optischen Übertragungssystems und ließ sich die Schaltung aus Halbleiterlaser, Lichtwellenleiter und Photodiode patentieren. Heute sind Länder wie Japan und Korea, die den Playern klare Rahmenbedingungen vorgaben, beim Glasfaserausbau wesentlich weiter. England und Deutschland tauchen in den einschlägigen Statistiken des FTTH Council nicht einmal auf.

Nicht nur, dass Europa den anderen Weltregionen hinterherhinkt, „der Abstand zwischen einzelnen Ländern in Europa und zwischen der EU und anderen Regionen vergrößert sich noch“, haben die Analytiker von Heavy Reading ermittelt. Die Fehler der Vergangenheit zeigen sich in den Daten heute und setzen sich in den Vorhersagen fort. „Unseren Prognosen zufolge werden sieben von 21 Ländern bis Ende 2016 noch unter 10 Prozent Haushaltsdurchdringung bleiben“ – darunter England, Deutschland, Österreich und die Schweiz. Die Verfügbarkeit von Glasfaseranschlüssen für mindestens 20 Prozent der Haushalte in Deutschland erwarten die Experten nicht vor 2022. In diesem Ranking liegt die Bundesrepublik weit abgeschlagen hinter Schweden (2014), Portugal und Dänemark (2016), den Niederlanden (2018) und noch unter dem Gesamtdurchschnitt der EU (2020).

Von dem einstigen Vorsprung ist nichts mehr geblieben. Der Glasfaserausbau, den die Deutsche Telekom in den 1990er Jahren in den neuen Bundesländern gestartet hatte, wurde im Zuge der Privatisierung und des Börsengangs im Jahr 1996 jäh gestoppt. Und wo die einst fürs Telefon und teils auch fürs Kabelfernsehen verlegten Lichtwellenleiter im Boden lagen, wurden die 1,2 Millionen Teilnehmeranschlüsse später nicht für das schnelle Internet nachgerüstet, weil man die Kosten scheute. „Wir ruhen uns auf den Lorbeeren von Kupfer und Mobilfunk aus“, meint Gabrielle Gauthey, Chefin der Abteilung für Public Affairs in der Zentrale von Alcatel-Lucent in Paris. „Ich glaube, es liegt nicht so sehr am Geld für die Investitionen – die Gelder sind verfügbar – als an der politischen Entschlossenheit.“

Statt Gigabit-Gesellschaft …

Als Telekom-Chef René Obermann vor zwei Jahren den Einstieg in die „Gigabit-Gesellschaft“ vermeldete und erklärte, bis Ende 2012 bis zu 10 Prozent aller deutschen Haushalte mit der Glasfaser erschließen zu wollen, glaubten viele, nun gehe es endlich voran. Im Rückblick handelte es sich aber wohl eher um einen PR-Gag: Bei Modernisierungsprojekten in zwölf Städten brachte es das Unternehmen 2011 auf insgesamt 169 000 anschlussfähige Wohneinheiten. In diesem Jahr ist der Ausbau in zehn weiteren Städten oder Stadtbezirken vorgesehen. „Die Planungen für 2013“, erklärte unlängst ein Telekom-Vertreter, „laufen noch“. Begeisterung klingt anders.

Selbst wenn die DTAG jährlich 200 000, und ihre Wettbewerber ebenso viele Haushalte jährlich per Glasfaser anschließen, wird es knapp ein Jahrhundert dauern, bis die alte Kupferdoppelader in den rund 40 Millionen Haushalten der Republik ersetzt sein wird. Fakt ist: Im Massengeschäft der Haushaltskunden wirtschaften die Privaten und Privatisierten auf der vorhandenen, meist noch unter staatlicher Ägide errichteten Infrastruktur der Telefon- und Kabelnetze – sie haben aber nur in den seltensten Fällen eine neue errichtet. Stattdessen werden die bilanztechnisch längst abgeschriebenen Zugangsnetze bis auf das Äußerste ausgereizt. Selbst die mit der Vermarktung von Breitbandanschlüssen derzeit erfolgreichen Kabelgesellschaften, die nur knapp zwei Drittel der deutschen Haushalte erreichen, bauen ihr Netz ja nicht aus, um die Flächendeckung zu vergrößern, sondern beschränken sich auf das DOCSIS-3.0-Upgrade des bestehenden Koaxnetzes.

… in den Innovationsstau

„Die ursprünglichen Investitionen in kupferbasierte Netze sind vergraben, während Glasfasernetze beträchtliche Neuinvestitionen erfordern“, beschreibt ein Vierteljahrhundert nach dem Grünbuch eine Studie für die „EU-Generaldirektion Informationsgesellschaft und Medien“ die aktuelle Lage. Es gäbe daher keinen Anreiz für die auf den Kupferkabeln operierenden Ex-Monopolisten, mit FTTH-Investitionen voranzupreschen; die als Alternative infrage kommenden Wettbewerber müssten dagegen bei einem Glasfaserausbau befürchten, dass ihnen die etablierte Konkurrenz jederzeit mit niedrigen Kampfpreisen die Investitionsrechnung zunichtemacht [7].

Der Modernisierungsrückstand lässt sich mit den Zeiten der einsetzenden Automobilisierung vergleichen, als immer mehr Kraftwagen auf eine veraltete Infrastruktur von Chausseen und Feldwegen trafen, die für Pferdefuhrwerke entstanden war. Aber während es im Verkehrswegebau bewährte planungsrechtliche Instrumentarien mit definierten Zuständigkeiten von Bund, Ländern, Kreisen und Gemeinden gibt und niemand auf die Idee verfallen würde, das Aushandeln der Trassenführung und den Bau von Autobahnen den Kommunen zu überlassen, herrscht in der Bundesregierung das Dogma vor, dass die Breitbandvernetzung der Bundesrepublik marktgetrieben von selbst im Wettbewerb entsteht und jegliche Ausbauplanung technologieneutral und dezentral vor Ort zu erfolgen habe.

Manager warnen vor dem entstehenden Flickenteppich, doch Vizekanzler Philip Rösler und seine Mannen tun so, als ginge sie das alles gar nichts an. Das Bundeswirtschaftsministerium (BMWi) schiebt die Verantwortung auf die unterste politische Ebene ab. „Die Kommunen sind der zentrale Punkt“, gab der langjährige BMWi-Staatssekretär Bernd Pfaffenbach die Richtung vor. Die Städte und Gemeinden sollten beim Glasfaserausbau „von unten anfangen und das Subsidiaritätsprinzip beachten, dass wichtige Entscheidungen nicht immer ganz oben getroffen werden“.

Das Subsidiaritätsprinzip funktioniert vielleicht in Städten, in denen aufgeschlossene Stadtwerke Telecom-Töchter gegründet haben – wie Köln (NetCologne), München (M-Net) oder Norderstedt bei Hamburg (wilhelm.tel). Die restlichen 11 000 Kommunen des Landes sollen sich offenbar selbst mit den Feinheiten der Breitbandtechnologien vertraut machen: Welche Technik was leistet und wie zukunftssicher LTE im Vergleich zur Glasfaser ist. Sie sollen Kriterien für Ausschreibungen entwickeln und herausfinden, welche Beihilfen auf Kreis-, Landes-, Bundes- und EU-Ebene als wettbewerbsrechtlich unbedenklich erachtet werden. Das ist ein beachtlicher Lernprozess, auf den die Bundesregierung da abzielt. Und er verläuft wie alle Lernprozesse, in denen eine Vielzahl von Akteuren unterschiedlicher Herkunft und unterschiedlicher Vorbildung auf Sachverhalte außerordentlicher Komplexität treffen, unendlich langsam. So bringt man keine flächendeckende Infrastruktur zustande, sondern katapultiert sich auf die Stufe eines Entwicklungslandes.

Baustelle Netzneutralität

Auch auf einer zweiten Großbaustelle haben die neoliberalen Marktfundamentalisten irgendwann aus dem Auge verloren, dass Wettbewerb nicht das Ziel, sondern nur ein Instrument zur Allokation von Gütern ist. Wie in den USA (siehe dazu auch den Exkurs „US-Markt als Vorbild?“ auf Seite 78), so haben sie sich auch hierzulande um eine grundlegende Richtungsentscheidung für die Informationsgesellschaft herumgedrückt: Ob nämlich die Eigentümer der Anschlussinfrastruktur weiterhin als TK-Netzbetreiber (wie bisher die Telefongesellschaften) operieren sollen, indem sie die Transportplattform für Dienste- und Content-Anbieter bereitstellen, oder ob sie (wie die Kabel-TV-Gesellschaften) selbst den Vertrieb von Inhalten steuern dürfen und sich zu Medienhäusern mit angeschlossenem Netzbetrieb wandeln.

Die Deutsche Telekom AG, an der der Bund noch mit 31,7 Prozent beteiligt ist, hat gerade erst versucht, für mehr als eine Milliarde Euro die Übertragungsrechte der Bundesliga von der Deutschen Fußball Liga zu erwerben, um mit den Inhalten ins Geschäft zu kommen. „Content is King“, lautet die Branchenformel. Sie steht auch hinter dem Bestreben, quasi als Wegezoll für die Durchleitung der Inhalte Dritter einen Anteil von deren Erlösen zu kassieren, obgleich ja schon der Kunde für seinen Netzzugang zahlt. Die zentrale Frage ist, welche Macht vertikal integrierten Netz- und Medienkonzernen künftig über die Konnektivität der Bürger zugestanden werden soll.

Die großen Player klagen – darunter viele ehemalige Staatsmonopolisten wie Telefonica, Deutsche Telekom oder Telekom Austria – dass die Kosten und der Nutzen ihrer Netze ungleich verteilt seien. Mit dem Argument, die Content Provider würden teils exorbitante Gewinne mit Werbeeinnahmen erzielen, während sie selbst an die begrenzte Zahlungsbereitschaft der Endkunden stoßen, treiben sie energisch den Abschied von der Netzneutralität voran. Den Hebel dazu bietet das Netzmanagement an zwei kritischen Punkten des Zugangsnetzes, dem User-Network-Interface (UNI) und dem Network-Network-Interface (NNI). Beide markieren quasi die Schnittstellen der Betreiberdomain zur Außenwelt, zu den eigenen Endkunden und zu den Nachbarnetzen, welche die Konnektivität zur großen weiten Welt des Internet herstellen. In diesen Schnittstellen können Policy-Manager algorithmisch in einer beliebig feinkörnigen Kombination aus Monitoring, Verkehrssteuerung und Tarifierung praktisch jede gewünschte Geschäftspolitik umsetzen.

Die Gatekeeper

Die Folge: Das passive, auf Vermittlung und Durchleitung angelegte („neutrale“) Netz wird zu einem aktiven („makelnden“) Netz mit neuen Wertschöpfungsmöglichkeiten für den Betreiber. Dieser kann nun insbesondere mit Content und Service Providern am NNI vertraglich Sonderkonditionen hinsichtlich der Priorisierung oder Tarifierung des Zugangs zu den Endkunden vereinbaren. Konnte man bislang die Eingriffe der Zugangsnetzbetreiber in den User-Verkehr vielleicht noch als Notbehelf ansehen, um die vorhandene Kapazität gemeinsam genutzter Ressourcen zu Spitzenlastzeiten unter den Nutzern fair zu verteilen, soll das Policy Management am NNI und UNI künftig zum ertragssteigernden Geschäftsprinzip erhoben werden.

Die klassischen Beispiele sind die gänzliche Blockade oder die tarifliche Diskriminierung von VoIP- und Instant-Messaging-Diensten in Mobilfunknetzen, die mit den originären Angeboten der Betreiber konkurrieren, oder das Ausbremsen von unerwünschtem P2P-Verkehr. Aber es geht auch subtiler, das Spektrum der Möglichkeiten, wie Zugangsnetzbetreiber bestimmten Inhalten Wettbewerbsvorteile verschaffen können, sobald sie am NNI und UNI frei schalten und walten können, ist schier unbegrenzt. Die neueste Variante hat jetzt der größte Kabelnetzbetreiber und Internet Service Provider in den USA, Comcast, eingeführt.

Die technische Plattform zur Diskriminierung von Wettbewerbern ist in diesem Fall die Kopplung von Comcasts Internetzugang mit Microsofts Xbox 360, die ursprünglich als Spielkonsole auf den Markt kam, inzwischen mit ihren Video- und Netzfähigkeiten aber zunehmend wie eine Set-Top-Box als Interface zum Streamen von Inhalten aus dem Internet auf den Fernseher genutzt wird. Derzeit sind über die „Xbox Live“-Plattform in den USA 36 Musik-, TV- und Video-on-Demand-Dienste verfügbar, darunter Netflix, Hulu, Vudu, YouTube und der Sportkanal ESPN. Im März 2012 kam Comcasts eigener Videoservice „Xfinity TV“ hinzu – mit einem kleinen, aber feinen Unterschied: Bei „Xfinity TV“ können die User beliebig viele Videos herunterstreamen, während all die anderen Anbieter, die durch Comcasts Anschlussleitungen müssen, unter die Volumenbeschränkung von 250 GB im Monat fallen.

In Neuseeland versucht neuerdings Rupert Murdochs Pay-TV-Sender Sky, in Verträgen mit Zugangsnetzbetreibern ein unbegrenztes Download-Volumen zu vereinbaren, um seinem Webangebot iSky Platzvorteile auf den Internetzugängen der User zu verschaffen. Derartige „unmetered content deals“ stellen eine Bevorzugung bestimmter Inhaltsangebote und eine indirekte Diskriminierung der anderen Content Provider dar. Sie sind das Trojanische Pferd zur Einführung zweiseitiger Märkte, auf denen die Betreiber einmal am UNI von den Endkunden für den Netzzugang, und ein zweites Mal am NNI von den Content Providern für den Zugang zu den Endkunden kassieren.

„Managed Services“ heißt die Alternative zur Netzneutralität im Branchenschnack. Dienste- oder Inhalteanbieter, die den Endkunden erreichen wollen, können dies nur, wenn ihnen der Zugangsnetzbetreiber das auch ermöglicht. Solange Vertragsfreiheit herrscht, haben sie gegenüber dem „Gatekeeper“ des Endkundenzugangs keinen Anspruch auf „Durchleitung“. Und wenn sich das Geschäftsmodell durchsetzt, wird der User den Shoppingkanal HBO nur über den Netzbetreiber A erreichen und zum Videoportal Quickflix nur über den Betreiber B gelangen. Seine Wahlfreiheit ist eingeschränkt – wer beides will, muss sich zwei Internetzugänge zulegen.

Antiquiertes Recht …

Weder das Medien- noch das TK-Recht sind auf diese Entwicklung vorbereitet. Der europäische Rechtsrahmen für die elektronische Kommunikation bezieht sich nur auf die Infrastruktur der elektronischen Kommunikationsnetze sowie die darüber erbrachten TK-Dienste und lässt „die Regulierung von Inhalten und die audiovisuelle Politik“ ausdrücklich unberührt. Für Hörfunk, Fernsehen und Abrufdienste gibt Brüssel mit der Audiovisuelle-Mediendienste-Richtlinie (AVMD-RL) den Rahmen vor. Dazwischen, wo es um die Koppelung von Inhalten und Netzinfrastruktur geht, liegt ein Vakuum.

Die Trennung hat historische Gründe. Rundfunk und Telefon, und später mit der Verbreitung des Kabelfernsehens die Verteil- und Kommunikationsnetze, entwickelten sich jahrzehntelang unabhängig voneinander. Mit der technischen Konvergenz der uni- und bidirektionalen Übertragungsmedien und den dadurch möglich gewordenen Geschäftsmodellen haben die unterschiedlichen Rechtssysteme nicht Schritt halten können.

In der Bundesrepublik spiegelt sich die Trennung im Telekommunikationsgesetz und im Rundfunkstaatsvertrag wider, mit der zusätzlichen Komplikation, dass für den Rundfunk die Länder zuständig sind, für die Telekommunikation aber der Bund. Die Hoheitsträger zur Sicherung der Medienvielfalt sind wiederum die Bundesländer, die diese Aufgabe an die 14 Landesmedienanstalten übertragen haben. Faktisch wird diese Medienhoheit, die historisch ihre Daseinsberechtigung in der politischen Regulierung des Zugangs zu der beschränkten Ressource „Ätherwellen“ hatte, durch das Internet allerdings längst ausgehöhlt. Das Internet sichert inzwischen die mediale Vielfalt weit mehr, als es die Landesmedienanstalten und Staatskanzleien der Länder je könnten – sofern die Vielfalt nicht durch die Kollusion von Medienkonzernen und TK-Riesen nun wieder eingeschränkt wird. Genau das aber können die Bundesländer nicht verhindern, da die Erhaltung der Netzneutralität nicht in ihre Zuständigkeit fällt [8].

… und Placebos

Auch im neuen TKG hat der Bundesgesetzgeber dieses Problem weitgehend ausgeblendet; in die Vertragsfreiheit auf dem sogenannten Einspeisemarkt am NNI einzugreifen und klare Regeln für den Endkundenzugang vorzugeben, war er offenbar nicht gewillt. Der § 41a TKG ermächtigt die Bundesregierung lediglich, eine Verordnung erlassen zu können, welche die „willkürliche Verschlechterung von Diensten“ untersagt. Doch Verträge à la Comcast oder iSky, bei denen Inhalteanbieter für das unbegrenzte Downloadvolumen zahlen, fallen nicht in diese Kategorie. Eine „willkürliche Verschlechterung“ wird durch den Wortlaut auch gar nicht unterbunden, denn der Paragraf legt lediglich das Verfahren fest, in dem eine entsprechende Vorgabe erlassen werden könnte. Das Verfahren selbst ist so schwerfällig und die Eingriffslatte so hoch gelegt, dass Betreiber mühelos darunter hindurchlaufen können. Ist dies schon Tollheit des Gesetzgebers, so hat es doch Methode. (pmz)

Literatur
  1. [1] EU-Kommission, „Green Paper on the Development of the Common Market for Telecommunication Services and Equipment“, COM(87)290 final (Brüssel, 1987)
  2. [2] Max-Planck-Institut für Gesellschaftsforschung, „Liberalisierungspolitik. Eine Bestandsaufnahme von zweieinhalb Dekaden marktschaffender Politik in entwickelten Industrieländern“, MPIfG, Discussionpaper 09/7 (2009)
  3. [3] Bronckers, M., Larouche, P., „A Review of the WTO Regime for Telecommunications Services“, Kap 8 in: Alexander, K., Andenas, M. (eds.), „The World Trade Organization and Trade in Services“, S. 319–379, Koninklijke Brill NV., Holland (2008)
  4. [4] Steven Kent Vogel, „International Games with National Rules: Competition for Regulatory Advantage in Telecommunications and Financial Services“, Berkeley Roundtable on the International Economy (BRIE), Working Paper 88 (1996)
  5. [5] OECD, Communications Outlook, Paris (2011)
  6. [6] Expertenkommission Forschung und Innovation (EFI), „Gutachten zu Forschung, Innovation und technologischer Leistungsfähigkeit Deutschlands“ (2012)
  7. [7] Ecorys/TU Delft/TNO, „Steps towards a truly Internal Market for e-communications“, EU-Studie (2012)
  8. [8] Holznagel, B., Schumacher, P., „Netzpolitik ist nicht Medienpolitik“, FUNK Korrespondenz 9 (2012)
Der US-Markt als Vorbild?

Während sich die Architekten des „Washington Consensus“’ auf der internationalen Bühne als Missionare betätigten, experimentierten sie im eigenen Land noch mit der optimalen Marktstruktur für die Telekommunikation herum. Die erste Hürde hatten sie 1982 mit der Aufspaltung des privaten, aber staatlich regulierten Telefonmonopols von AT&T genommen, die aber zu einer unbefriedigenden Situation führte. Bei dem in einem kartellrechtlichen Power Play vom Justizministerium erzwungenen Vergleich hatte AT&T das Geschäft mit Fernverbindungen, die weltberühmten Bell Labs und den Endgerätehersteller Western Electric behalten; die örtlichen Telefongesellschaften waren ausgegliedert worden und formierten sich zu sieben regionalen Anschlussnetzbetreibern neu.

Für die Regulierung des Fernverkehrs blieb die Federal Communications Commission (FCC) zuständig; die sieben Regional Bell Operating Companies (RBOCs) – Ameritech, Bell Atlantic, BellSouth, Nynex, Pacific Telesis, Southwestern Bell und US West – unterlagen der Regulierung auf einzelstaatlicher Ebene. Doch was ihnen, den Regulierern und den „Competitive Local Exchange Carriers“ (CLECs) als Wettbewerbern erlaubt war, wurde zum Gegenstand fortwährender Auseinandersetzungen vor dem Kartellgericht, das für die Auslegung des Vergleichs von 1982 zuständig war. Daher nahm die US-Regierung schon bald die grundlegende Revision des seit einem halben Jahrhundert nahezu unveränderten Communications Act von 1934 in Angriff, die sich aber mehr als ein Jahrzehnt hinzog und erst 1996 mit der Unterzeichnung des Telecommunications Act durch Bill Clinton zum Abschluss kam.

Das neue Gesetz hob die Trennung in Fern- und Ortsnetzbetreiber wieder auf. Er erlaubte den RBOCs den Betrieb von Fernnetzen wie auch die Herstellung von Endgeräten, sodass sie im Grunde so operieren konnten wie AT&T vor der Aufspaltung, nur jetzt im Wettbewerb; im Gegenzug konnte AT&T wieder ins Endkundengeschäft einsteigen. Die Kabelfernsehgesellschaften durften nun Telefondienste anbieten – so, wie umgekehrt die Telefongesellschaften auch Kabelfernsehen.

Doch in der Auslegung und Anwendung des Gesetzes mäanderte die FCC herum. Während sie zunächst auf Entbündelung und Linesharing setzte – das Anmieten der Teilnehmerleitung durch Wettbewerber beziehungsweise die gemeinsame Nutzung der Anschlussleitung durch Telefongesellschaften und konkurrierende DSL-Provider – wechselte sie 2001 unter der Präsidentschaft George W. Bushs die Strategie und favorisierte den Infrastrukturwettbewerb zwischen den Kabel- und Telefongesellschaften.

Im Ergebnis sind die CLECs und die unabhängigen Internetzugangsprovider weitgehend verschwunden; für die meisten US-Amerikaner hat sich der Wettbewerb auf ein Duopol reduziert, das ihnen die Wahl lässt, TK-Dienste wie Telefon, TV und Internet von der örtlichen Kabelfernseh- oder von der Telefongesellschaft zu beziehen. Den Markt für Telefon- und DSL-Anschlüsse teilen die drei Großen AT&T, Verizon und Qwest gebietsweise auf. Kabelgesellschaften wie Comcast, Time Warner Cable, Cox, Charter Communications oder CableVision operieren in ähnlicher Weise territorial abgegrenzt und nicht in Konkurrenz untereinander.

Besonders folgenreich war die 2002 unter dem Druck der Kabel-Lobby getroffene Entscheidung der FCC, den von den Kabel- oder Telefongesellschaften angebotenen Internetzugang juristisch weder als Telekommunikation noch als Fernsehverteilung, sondern in einer Art Mittelweg als Informationsdienst einzustufen. Damit enthob sie die Zugangsnetzbetreiber von der „allgemeinen Beförderungspflicht“ für Internetinhalte und stellte das Internet praktisch auf eine Stufe mit Informationsdiensten wie der Wettervorhersage, Datenbanken, AOL oder CompuServe – obwohl es sich faktisch um einen TK-Dienst handelt.

Für die Infrastrukturbetreiber wirkt diese Einstufung als Informationsdienst wie ein unsichtbarer Zaun, der ihre eigenen TV-Pakete vor der zunehmenden Konkurrenz durch Web-TV-Anbieter und Mediatheken schützt. Sie können selbst entscheiden, wem sie zu welchen Bedingungen über das Internet den Zugang zu ihren Kunden gewähren.

Aufgrund andauernder Proteste hat die FCC im Jahr 2010 versucht, Auswüchse durch Regeln zur Bewahrung eines „Open Internet“ zu mildern. Kritikern gehen die Neutralitätsregeln jedoch nicht weit genug, weil sie den Mobilfunk und „Managed Services“ wie zum Beispiel IPTV ausnehmen; Comcast und Verizon gehen gerichtlich dagegen vor, indem sie der FCC Kompetenzüberschreitung vorwerfen – und die Republikaner im Kongress lassen unterdessen nichts unversucht, die Regeln wieder abzuschaffen. Der Ausgang des Machtkampfes ist offen. (pmz)

Artikel kostenlos herunterladen

Kommentare

Anzeige