Glasfaser-Poker

Über gute und schlechte Karten beim Netzausbau

Trends & News | News

Zehn Prozent der Haushalte will die Deutsche Telekom bis Ende 2012 mit Glasfaser ans Internet anschließen. Dabei ist noch immer umstritten, welche Architektur sich für optische Zugangsnetze am besten eignet.

Hohe Investitionen, ungewisse Nachfrage durch Kunden, die zudem höchstens 40 bis 50 Euro für eine Flatrate bezahlen wollen – das sind die Herausforderungen, vor denen Anschlussnetzbetreiber beim Glasfaserausbau stehen. „Deshalb ist für uns die Technoökonomik so wichtig“, erklärte Thomas Monath von den Deutsche Telekom Laboratories (T-Labs) zur Eröffnung der Conference on Telecommunication, Media and Internet Techno-Economics (CTTE), die Mitte Mai in Berlin stattfand. Auf der Veranstaltung tauschten die Beteiligten am von der EU bis Ende 2012 mit fünf Millionen Euro geförderten Projekt Optical Access Seamless Evolution (OASE) ihre bisher gewonnenen Erkenntnisse aus.

Technoökonomik, das ist der Versuch, die von der Technik bereitgestellten Optionen zur Entscheidungsfindung mit Geschäftsmodellen zu verbinden. Szenarien, Wirtschaftlichkeitsrechnungen, Simulationen und Sensitivitätsanalysen sollen Schneisen in die Ungewissheit schlagen und Investitionsrisiken halbwegs kalkulierbar machen. So beschäftigt sich eine Gruppe um Koen Casier an der Universität Gent damit, wie Geoinformationssysteme die Planer bei der Einführung neuer Netzstrukturen unterstützen können. Am Beispiel der Stadt Gent propagierte er ein Planungswerkzeug zur Kosten-/Nutzenrechnung, das die Investitionsrechnung mit Methoden des Geomarketing koppelt.

Dieser Ansatz betreibt eine Art Scoring der Ausbaugebiete, für das Informationen über potenzielle Kunden kleinräumig mit Gebäudekoordinaten verknüpft werden. Mit Hilfe eines Geoinformationssystems wird dazu zunächst das Stadtgebiet in Cluster gegliedert, die die Altersstruktur und Kaufkraft widerspiegeln. In einem zweiten Schritt werden diese Cluster dann mit den netzspezifischen Ausbaukosten etwa in Bezug auf Anschlusslängen und -dichten neu berechnet. Bei dieser iterativen Neubewertung können unter Umständen wohlhabende Villenvororte einen niedrigeren Score erhalten als ein von Internet-affinen Yuppies durchsetztes Viertel mit Mehrfamilienhäusern. Mit dem Geomarketing, warb Casier für die Methode, könne sich ein Netzbetreiber nach Kosten- und Erlösgesichtspunkten die Rosinen unter den Ausbaugebieten herauspicken, mit den lukrativsten Bezirken beginnen und dann aus den Erträgen sukzessive auch die Erschließung der weniger profitablen Stadtteile angehen.

Während der sich über etliche Jahre hinziehenden Investitionen in den Next Generation Access (NGA) verändern sich im Allgemeinen die Wettbewerbsbedingungen. Das versucht Anastasios Economides von der Universität Mazedonien zu modellieren, indem er die inzwischen weit verbreiteten Ansätze der Spieltheorie mit den in der Finanzwelt etablierten Methoden zur Berechnung des Wertes von Optionen in Waren- und Wertpapier-Termingeschäften kombiniert.

Beim „Geomarketing“ – hier am Beispiel der 250ˇ000-Einwohner-Stadt Gent – werden zunächst soziodemografische Cluster der Einkommens- und Altersstruktur gebildet (links). Durch die Gewichtung mit den Anschlusskosten einzelner Gebäude im zweiten Schritt ergibt sich eine neue Cluster-Struktur, die Ausbaugebiete nach dem erwarteten Verhältnis von Kosten zu Nutzen priorisiert (dunkelgrün: höchste Priorität, dunkelrot: niedrigste Priorität). (Bild: Koen Casier, Uni Gent)

Er begleitete den Einstieg in die Breitbandkommunikation des städtischen Wasserver- und -entsorgers in Thessaloniki mit einem Modell. Dabei ging es um die schrittweise Ausweitung des Geschäftsfelds vom Aufbau eines passiven optischen Netzes zur Vermarktung unbeleuchteter Glasfasern über den Betrieb eines aktiven Netzes bis zum Angebot eigener Dienste für Privat- und Geschäftskunden. Die Spieler sind die Wettbewerber, und das Verfahren soll es erleichtern, den günstigsten Zeitpunkt für strategische Investitionsentscheidungen herauszufinden.

Weniger spielerisch mutet das ursprünglich von Ökologen entwickelte und in einem System gekoppelter Differenzialgleichungen formulierte Räuber/Beute-Schema an, das Ökonomen als Lotka-Volterra-Competition übernommen haben. Rüdiger Zarnekow von der TU Berlin analysierte damit die Konkurrenz von IPTV und Internet-TV um die Gunst der Zuschauer. Dazu zog er das IPTV-Angebot der Deutschen Telekom, T-Entertain, als Prototyp für den administrierten Übertragungsweg und Zattoo als Vertreter für das TV-Streaming über das offene Internet heran.

Die beiden Anbieter haben es hierzulande bis Ende vergangenen Jahres nach eigenen Angaben auf 1,4 Millionen (T-Entertain) und 2,5 Millionen (Zattoo) Nutzer gebracht. „Beide sind recht erfolgreich in Deutschland“, meinte Zarnekow, aber bis jetzt gebe es noch keine Substitutionseffekte. Er führt das auf die bislang unterschiedlichen Zielgruppen zurück – die eher traditionellen TV-Konsumenten im Falle von IPTV und die Internet-Erfahrenen beim Webfernsehen. Doch innerhalb der nächsten drei oder vier Jahre sei damit zu rechnen, dass sich die Nutzerprofile zunehmend überschneiden und das Internet-TV in die Wohnzimmer vordringe.

Die Analyse des Berliner Professors ist Teil seiner Forschungsarbeiten zur QoS Economics, die sich mit der Marktentwicklung, den Geschäftsmodellen und Wertschöpfungsketten zur Auslieferung von Inhalten mit unterschiedlichen Qualitätsmerkmalen (QoS) durch die Betreiber beschäftigt. Obwohl Zarnekow den Begriff tunlichst mied, ist der Zusammenhang zur Netzneutralität offensichtlich: Das Internet unterläuft die etablierten TV-Verteilkanäle und hat die Markteintrittsbarrieren für neue Anbieter drastisch gesenkt. In den USA erreichen die Videostreams von Netflix bereits ein Viertel aller Breitbandhaushalte und machen in den Abendstunden 30 Prozent der Internetnutzung aus. Um durch die Internet-TV-Konkurrenz nicht zu reinen Bitstrom-Durchleitern degradiert zu werden, sehen die Kabelnetz- und IPTV-Betreiber in den NGA-Plattformen gegenüber dem Best-Effort-Internet eine Chance, sich über die Vermarktung von QoS-Inhalten zu behaupten.

Rein technisch betrachtet wäre das Angebot verschiedener QoS-Klassen zur Übertragung zunächst einmal neutral. Doch das ist spätestens dann nicht mehr der Fall, wenn der Betreiber beginnt, die Wurst von beiden Enden her anzuschneiden und seine Plattform nicht nur den Endkunden, sondern auch den Inhalteanbietern zu vermarkten. Dann entsteht ein zweiseitiger Markt, auf dem der Teilnehmeranschluss zum Bündelprodukt von QoS-Klassen mit ausgewählten Inhalten wird. Wobei bestimmte Hosts möglicherweise gar nicht oder nur zu den vom Netzbetreiber festgelegten Bedingungen zugänglich sein werden.

Dagegen bliebe die Netzneutralität gewahrt, solange der Nutzer seinen Anschlussnetzbetreiber für die Nutzung bestimmter QoS-Transportklassen bezahlt und davon unabhängig für die bezogenen Inhalte Entgelte an die jeweiligen Content Provider entrichtet. Doch das ist ein Modell, dem Zarnekow keine Chance gibt. „Die Konsumenten sind nicht bereit, separat zum einen für den Inhalt und zum anderen für die Transportqualität zu zahlen“, meint er. „Wenn man ins Kino geht, will man auch nicht zwei Eintrittskarten – eine für den Platz und eine für den Film – kaufen.“

Nan Zhang von der Aalto Universität Helsinki wies in ihrem Beitrag auf die zunehmende Bedeutung der Content Delivery Networks (CDNs) hin, auf die sich große Medienhäuser zunehmend stützen und die mit eigenen Backbones und Cache-Servern in Teilnehmernähe die Zugriffsgeschwindigkeit und Übertragungsqualität der Inhalte verbessern. Ein CDN könne nämlich „als zweiseitige Plattform betrachtet werden, die versucht, sich zwischen Inhalteanbieter und Internet Service Provider zu schieben“.

„Content Provider haben eine höhere Zahlungsbereitschaft zur ‚besser als Best-Effort‘-Auslieferung von Inhalten als ISPs“, erklärte Zhang und begründete dies mit der unterschiedlichen Marktpolitik von Akamai und Inktomi: CDN-Pionier Akamai habe sich stets als Dienstleister der Content Provider begriffen, während sich Inktomi von den ISPs vergüten lassen wollte. Im Unterschied zu Inktomi ist Akamai heute noch am Markt und der größte Player unter den weltweit rund 20 CDN-Betreibern. Dieses Geschäftsmodell sei es im Grunde, das die Internet-Zugangsnetzbetreiber nun an sich ziehen wollten, indem sie selbst zu CDN-Betreibern werden.

Die Netze der nächsten Generation böten dazu alle Möglichkeiten – wenn man sie nur erst hätte. Die Ex-Monopolisten (Incumbents) stehen vor der Wahl, ob sie ihr sternförmiges Telefon-Anschlussnetz mit Glasfaser überbauen – also dessen Topologie einfach übernehmen und Kupfer durch Glasfaser ersetzen – oder ob sie die geringe Dämpfung und hohe Bandbreite der Glasfaser zu strukturellen Änderungen nutzen und die Zahl der Zugangsknoten verringern. „Wir glauben, dass die Veränderung der Netzstruktur langfristig große Auswirkungen hat“, erklärte Ralf Hülsermann von den T-Labs der Deutschen Telekom.

Er präsentierte auf der Veranstaltung in Berlin eine im Rahmen des OASE-Projekts entwickelte Methodik zur Ermittlung Total Cost of Ownership (TCO), die zur Kalkulation der Gesamtkosten unter anderem zeitabhängige Anschlussquoten, Nutzungsraten, Investitionskosten und Leistungssteigerungen der Netztechnik, Zahlungsflüsse und jährliche Betriebsausgaben als Parameter in Rechnung stellt. Mit dieser Methodik wurde zu verschiedenen Nachfrage-Szenarien (15, 25 und 30 Prozent Verkehrswachstum pro Jahr) und über einen Zeitraum von 20 Jahren bis zur vollständigen Ablösung der Kupfer- durch Glasfaser-Anschlüsse die Beibehaltung der heute rund 8000 Standorte in den ehemaligen Ortsvermittlungsstellen mit der Reduzierung auf 2000 Netzknoten verglichen. Im Ergebnis zeigten sich, wie Hülsermann resümierte, „deut-liche Kostenvorteile“ zugunsten der Aufgabe von Standorten und der stärkeren Aggregation des Teilnehmerverkehrs in Metronetzen.

Allerdings wurde in den Modellrechnungen eine wesentliche Strukturentscheidung bereits vorweggenommen: Die Telekom präferiert wie weltweit viele Incumbents GPON-Systeme (Gigabit Passive Optical Network) mit einer Punkt-zu-Multipunkt-(PtMP-)Topologie, bei der sich eine einzige Zuführungsfaser mittels eines passiv-optischen Splitters in viele Anschlussfasern zu den Teilnehmern verzweigt, deren Anschlüssen im Zeitmultiplexverfahren jeweils unterschiedliche Zeitschlitze als Kommunikationskanal zugeordnet werden. Gegenüber einer Punkt-zu-Punkt-Topologie (PtP) wie beim alten Telefonnetz benötigt die Aufspaltung des optischen Signals auf 32, 64 oder sogar 128 Teilnehmer weniger Glasfasern im Zuführungsbereich – ein erheblicher Vorteil, wenn statt aufwendiger Tiefbauarbeiten knappe Leerrohr-Kapazitäten genutzt werden sollen.

Gleichwohl ist die Auseinandersetzung über PtMP-GPON oder PtP-Ethernet in der Fachwelt längst nicht abgeschlossen. Das zeigte sich auch auf der CTTE, wo Thomas Plückebaum die Ergebnisse einer Untersuchung zu Architectures and Competitive Models in Fiber Networks vorstellte, die das Wissenschaftliche Institut für Kommunikation (WIK) im Auftrag von Vodafone UK durchgeführt hat. Die Modellrechnungen der Studie bestätigen zwar, dass ein PtP-Ethernet gegenüber einem PtMP-GPON teurer ist – bezogen auf die monatlichen Kosten pro Teilnehmeranschluss um rund zehn Prozent –, jedoch gibt es bei dieser Architekturentscheidung eine Reihe weiterer Faktoren, die erhebliche Auswirkungen auf die Marktentwicklung haben.

So wies Plückebaum eindringlich auf die Diskrepanz zwischen den betriebswirtschaftlichen und gesamtwirtschaftlichen Kosten-/Nutzenrechnungen hin. Wie heute die Glasfaser vergraben wird, lege das Verhältnis zwischen Infrastruktureigentümern und alternativen Netzbetreibern auf lange Zeit fest: Die PtP-Topologie ermöglicht den entbündelten Zugang zur unbeleuchteten Glasfaser, sodass Wettbewerber darüber mit eigener Übertragungstechnik in die Konkurrenz um QoS und Service Level Agreements gehen können. PtMP hingegen erlaubt ihnen praktisch nur den Zugriff auf die Teilnehmeranschlussleitung im Wege des Bitstromzugangs, also über die vom Infrastruktureigentümer beschaltete Glasfaser. Das werde vielen Wettbewerbern nicht ausreichen, die die Unabhängigkeit des physischen Zugriffs auf die Anschlussleitung brauchen, wenn sie etwa Basisstationen oder Computerzentren an ihr Netz anschließen wollen.

„PtMP hat den hübschen Nebeneffekt, neue Monopole zu ermöglichen“, meinte der WIK-Experte und ließ keinen Zweifel daran, „dass PtP auf lange Sicht die richtige Architektur ist“. Die Vorteile für den Marktwettbewerb seien weitaus höher zu veranschlagen als die verhältnismäßig geringen Mehrkosten eines PtP-Rollouts. Zugleich räumte er mit dem weit verbreiteten Argument auf, dass GPONs unter Green-IT-Gesichtspunkten energetisch günstiger seien, weil eine Leitungskarte eine Vielzahl von Teilnehmeranschlüssen bedient, während ein PtP-Ethernet für jede TAL (Teilnehmeranschlussleitung) einen aktiven Port benötigt. „Man sollte bei Vergleichen nicht nur den Standpunkt der Betreiber im Blick haben“, mahnte Plückebaum, denn in der Gesamtbilanz stelle sich der Sachverhalt genau umgekehrt dar, weil die GPON-Glasfasermodems beim Endkunden mehr verbrauchen als die PtP-Ethernet-Anschlüsse. Nur tauche dieser Teil des Verbrauchs halt nicht in der Bilanz des Netzbetreibers, sondern auf der Stromrechnung des Kunden auf.

Die betriebswirtschaftliche und die makroökonomische Rationalität stimmen hier offensichtlich nicht überein; der volkswirtschaftliche Nutzen spiegelt sich in den betrieblichen Investitionsrechnungen nicht wider. Die entscheidende Frage nach der optimalen Infrastruktur künftiger Breitbandzugänge kann daher nicht von der Technoökonomik, sondern nur von der politischen Ökonomie beantwortet werden. (ad)

Kommentare

Anzeige
Anzeige