Next Generation Access

Das Endspiel: Warum Fiber-to-the-Home nicht vorankommt

Trends & News | News

Der Internetzugang muss kein Flaschenhals mehr sein, die Technik für hohe Bandbreiten ist längst vorhanden: die Glasfaser. Doch ist das in der Politik anscheinend noch nicht angekommen.

Aufmacher

Kommt sie nun oder kommt sie nicht? Die Glasfaser als Teilnehmeranschluss ist so etwas wie das Endspiel in der Entwicklung der Telekommunikationsnetze; nur befinden sich die meisten Betreiber mit „Fiber to the Home“ (FTTH) oder „Fiber to the Building“ (FTTB) noch nicht einmal in der Vorrunde. Diverse Stolpersteine in der Standardisierung und vor allem bei der Regulierung der Telekommunikationsmärkte behindern den flächendeckenden Ausbau der Glasfasernetze bis hin zu den Anschlüssen beim Endkunden.


Einzelne Carrier und Projekte gibt es: M-Net etwa in München, die Glasfaseranschlüsse in einzelnen Stadtteilen offerieren; NetCologne in Köln beispielsweise, eine hundertprozentige Tochter des städtischen Gas-, Strom- und Wasserversorgers GEW AG, die bereits optische Netzzugänge für Kabel-TV-, Telefon- und 100-MBit/s-Internet zum Flatrate-Preis von 41,40 Euro monatlich anbieten; oder Coburg (www.glasfaser-ins-haus.de/), wo Glasfaser flächendeckend im Stadtgebiet und im Landkreis ausgebaut werden soll.

In anderen Teilen der Republik steht dagegen noch nicht einmal DSL zur Verfügung. Es gibt Gemeinden, in denen sich die Bürger zum Surfen mit der ISDN-Rate von 64 kBit/s begnügen müssen – eine Spreizung der Zugangsgeschwindigkeit um mehr als einen Faktor tausend. Immerhin: Diverse Lösungsansätze zur Überwindung der Hindernisse gibt es auf Regulierungsseite, vor allem aber auf der technischen Ebene.

Wer nun aber glaubt, dass auf den letzten Metern künftig ohnehin alles über Funk läuft, unterliegt wohl einem Irrtum. Denn hinsichtlich der Bandbreite nimmt es kein Medium mit der Glasfaser auf. Allein im Infrarot erstreckt sich der für die optische Übertragung nutzbare Frequenzbereich heute gängiger Singlemode-Fasern, in dem die Dämpfung unter 0,5 dB/km liegt, von 1260 nm bis 1680 nm Wellenlänge. Das sind rund 60 THz – die entsprechen, zum Vergleich, mehr als der tausendfachen Übertragungskapazität des terrestrischen Funkspektrums vom langwelligen Rundfunk bis zu den Richtfunk-Mikrowellen oder dem 60 000-Fachen der Kabelbandbreite von knapp 1 GHz – auf einer einzigen Faser. Ist diese erst einmal verlegt, kann sich die weitere Netzentwicklung „end to end“ in der optoelektronischen Beschaltung vollziehen.

Zwar lassen sich Funknetze schneller, billiger und flexibler installieren als FTTH-Anschlüsse, für die erst Gräben gezogen oder vorhandene Leerrohre mit Kabeln befüllt, Wände durchbohrt und Verträge mit Haus- und Grundstückseigentümern geschlossen werden müssen. Doch selbst die nächste Mobilfunkgeneration LTE bringt die angestrebten 300 MBit/s im Downlink und bis zu 75 MBit/s im Uplink jeweils nur pro Funkzelle. Sobald mehrere Teilnehmer gleichzeitig aktiv sind, muss diese Bandbreite geteilt werden; vertraglich zusichern können die Mobilnetz-Betreiber daher jeweils nur einige MBit/s.

Immerhin. Aber was oft vergessen wird: Die mobile Verbindung reicht nur bis zur nächsten Basisstation, dann kommt das Festnetz, und zur Anbindung der LTE-Basisstationen sind auch die Mobilfunker auf die faseroptische Anbindung angewiesen. „Je breitbandiger die Anwendungen im Wireless-Bereich werden, umso kürzer wird der Abstand zwischen dem mobilen Endgerät und der Antennenstation“, erinnert Klaus Petermann, Professor für Hochfrequenztechnik an der TU-Berlin, an die von der Physik vorgegebenen Beschränkungen. „Wenn wir wirklich breitbandig werden wollen, führt an der Glasfaser kein Weg vorbei“.

Inzwischen setzt sich immer mehr die Überzeugung durch, dass Funk und Faser nicht miteinander konkurrieren, sondern sich gegenseitig ergänzen; „Next Generation Access“ (NGA) lautet der Oberbegriff für die Koexistenz von FTTH und 4G-Mobilfunk. In der Übergangs- und Ausbreitungsphase des flächendeckenden Breitbandausbaus sei der Mobilfunk „von erheblicher Bedeutung“ für die Erstversorgung bislang nicht abgedeckter Gebiete, beschreibt der wissenschaftliche Arbeitskreis für Regulierungsfragen bei der Bundesnetzagentur die Arbeitsteilung; „darüber hinaus kann die mobile Breitbandversorgung in der Fläche im Sinne einer Zweitversorgung eine wichtige Rolle für die wirtschaftliche Entwicklung spielen“.

Im Zugangsnetz haben daher einige Länder konsequent den Einsatz der Glasfaser vorangetrieben, allen voran Japan, wo sich DSL bereits seit 2005 auf dem absteigenden Ast befindet und 2008 durch FTTH/B vom ersten Platz in der Anschlussstatistik verdrängt wurde. Im Land der aufgehenden Sonne sind inzwischen 14,5 Millionen faseroptische Haushalts- oder Gebäudeanschlüsse in Betrieb. Anders hierzulande: Obwohl in Deutschland schon Anfang der achtziger Jahre die damals noch staatliche Telekom im Verein mit Ausrüstern und Forschungsinstituten im BIGFON-Projekt die ersten Schritte zur Erprobung optischer Anschlusstechniken für Endkunden unternahm, ordnet ein Vierteljahrhundert später der jüngste Breitbandatlas des Bundeswirtschaftsministeriums (BMWi) vom Juni 2009 FTTB/H noch immer unter „Sonstige Technologien“ ein [1] . Zahlenangaben zur Verfügbarkeit von Glasfaseranschlüssen sind darin nicht zu finden – der Anteil dürfte im Promille-Bereich liegen.

„Im internationalen Vergleich“, beschreibt der technische Geschäftsführer des Münchner Netzbetreibers M-Net, Anton Gleich, die Lage, „hinkt Deutschland erheblich hinterher“. Wie Europa insgesamt: Der einschlägigen Branchenstatistik von IDate zufolge nutzen auf dem alten Kontinent lediglich 2 Millionen Teilnehmer einen optischen Netzzugang, in Nordamerika waren es bereits knapp 7 Millionen und im asiatisch-pazifischen Raum 38 Millionen, wo Länder wie Südkorea und Japan bei den Glasfaser-Hausanschlüssen eine Spitzenstellung einnehmen.

M-Net hat sich mit einem Investitionsvolumen von insgesamt 160 Millionen Euro die Erschließung von rund 33 000 Gebäuden in Münchens Innenstadt vorgenommen. Über diese Glasfaserinfrastruktur bietet der Regional-Carrier neben High-Speed-Internet mit 100 MBit/s auch Telefonie und Kabelfernsehen an. Hausbesitzer, die sich die Anschlusseinheit in den Keller legen lassen, können die bestehende Inhausverkabelung weiter nutzen; der Hausanschluss setzt das optische Signal auf VDSL2- und Telefonie-Schnittstellen und das über dieselbe Faser ankommende Kabelfernsehsignal auf den Koax-Anschluss um.

Für den auch in anderen Teilen Bayerns aktiven Netzbetreiber mit seinen rund 190 000 Kunden war es eigentlich eine Flucht nach vorn. Den Anstoß gab die Deutsche Telekom AG, die in einem langjährigen Programm die Konsolidierung ihrer aus Telefonzeiten verzweigten Netzstruktur anstrebt; das bedeutet im Klartext den Rückbau der 7900 Hauptverteiler und direkte Anbindung ihrer 325 000 Kabelverzweiger mit Lichtwellenleitern an nur noch knapp 900 Metroknoten. M-Net sah dadurch die Geschäftsgrundlage bedroht – sind doch vor allem die Hauptverteiler die Punkte, an denen die Wettbewerber der Telekom im Wege der Entbündelung auf die Teilnehmeranschlussleitung zugreifen können, um Kunden an ihr eigenes Netz anzuschließen.

Der Rückschritt zum Reseller kam nicht in Frage. „Das sind Marketing-Schlachten“, erklärt Gleich, „da tut man sich als regionaler Carrier schwer.“ Die Alternative, die Kabelverzweiger der Telekom mit eigenen Lichtwellenleitern zu erschließen, schied ebenfalls aus. Auf dem Rücksitz der Telekom wäre man auch weiterhin von deren Ausbauplänen und -strategien abhängig und bliebe zudem stets auf deren technische Möglichkeiten und bereitgestellten Vorleistungsangebote beschränkt. Die Konsequenz lautete daher: weiterentwickeln und in eine eigene Infrastruktur investieren.

Doch Initiativen wie die von M-Net in München, NetCologne in Köln, Ruhrnet in Schwerte oder wilhelm.tel in Norderstedt sind bislang eher die Ausnahme als die Regel. Bei diesen Beispielen handelt es sich um die Firmentöchter von Stadtwerken, deren kommunale Eigner an einer guten Infrastruktur in ihrem Sprengel interessiert sind [2] . Bis 2014, so ließ jetzt der Branchenverband Buglas verlauten, wollen sie eineinhalb Millionen Haushalte mit Glasfaseranschlüssen versorgen. Die Deutsche Telekom indes hielt sich bisher zurück. Ende 2008 startete sie ein Pilotprojekt in zwei Dresdner Stadtteilen [3] , ansonsten endet ihr Glasfasernetz äußerstenfalls am DSL-Anschlussmultiplexer (DSLAM) im Kabelverzweigerkasten, von wo aus die Teilnehmer auf den letzten hundert Metern mit VDSL bedient werden.

Die Logik dieser von der Telekom seit 2006 eingesetzten FTTCab/VDSL-Lösung, über die in den 50 Ausbaustädten maximal 8 von insgesamt 11 Millionen Haushalten anschließbar sind, ist durchaus nachvollziehbar: Für den ehemaligen Staatsmonopolisten („Incumbent“) war dies der preiswerteste Weg, sich mit „Triple Play“ zu positionieren und IPTV, Internet und Telefon im Dreierpack in den Markt zu bringen.

Im Vergleich zu FTTH kostet der Zwischenschritt, der die Faser näher zum Kunden bringt, auf den letzten Metern aber die vorhandenen Kupferleitungen weiter nutzt, nur ein Viertel. Und nebenbei ließen sich auf diese Weise ausbauwillige Konkurrenten erst einmal in Schach halten, mussten diese doch befürchten, dass ihnen das marktbeherrschende Unternehmen vom Sockel seines hohen Anteils bei Endkundenanschlüssen herunter noch mit den alten Kupferleitungen in die Quere kommt. Denn mehr als Triple-Play können sie aus Kundensicht derzeit kaum bieten, und allein der nackte Mehrwert der Glasfaser mit den nach oben offenen, im Up- und Download symmetrischen Datenraten ist im Marketing noch kein Selbstläufer [4] . Das Ergebnis ist Stagnation. Im Zugangsnetz habe die Telekom mit FTTCab/VDSL die Entwicklung eher behindert, meint ein Insider; „die reizen das zu lange aus“.

Vergrößern Architektur-Wettbewerb: zur Auswahl stehen Punkt- zu-Punkt (PtP Ethernet) (oben), Punkt-zu-Multipunkt (passiver Stern – GPON, GEPON) (Mitte) und Punkt-zu-Multipunkt (aktiver Stern – FTTCab/VDSL) (unten)

Erst 2008 hat sich auf Betreiben von Alcatel-Lucent im VDE ein „Initiativkreis Next Generation Access FTTH/FTTB“ mit dem Ziel einer Standardisierung des Gebäudeanschlusses und der Inhaus-Kabelinfrastruktur gebildet. Ihm gehören neben einschlägigen Netzbetreibern und TK-Ausrüstern auch Verbände der Wohnungswirtschaft, die Bundesnetzagentur und Forschungseinrichtungen wie das HHI und die FH Nürnberg an. Im März 2009 legte der Kreis einen ersten Entwurf vor, der die europäische Normenreihe EN 50173 für die informationstechnische Gebäudeverkabelung um den faseroptischen Hausanschluss ergänzt.

In der Beschreibung einer allgemeinen Architektur von Schnittstellen und Übergabepunkten in Mehrfamilienhäusern versucht der Entwurf, möglichst viele Optionen unter einen Hut zu bringen. So soll der Gebäudeanschluss mehreren Netzbetreibern den Zugang zu den Endkunden ermöglichen – dies gegebenenfalls auch über eigene Fasern, indem gleich ein mehradriges Kabel ins Haus gelegt wird („Multi-Fiber“ oder Fasermultiplex). Die Systemtechnik (GPON/EPON, Ethernet PtP, VDSL, …) bleibt frei wählbar und kann sich auf vorhandene oder neue Hausverkabelungen (Cat3/5/6, Koax, POF, MMF oder SMF) stützen. Im Fall von optischen Inhausstrecken legt die Spezifikation die verfügbaren Wellenlängenbereiche, die maximalen Einfügeverluste der Übergabepunkte sowie die höchstzulässige Gesamtreflexion des optischen Signals fest. Als Option sind ferner Monitoringfunktionen vorgesehen, die dem Netzbetreiber Fernabfragen der Verfügbarkeit oder zusätzlicher Status-Informationen erlauben würden, sodass bei Störungen auf einfache Weise geklärt werden kann, auf welcher Seite des „Demarkationspunktes“ – beim Kunden oder beim Netzbetreiber – der Fehler liegt.

Vergrößern Beim GPON hängen an einem Port 32 oder 64 Teilnehmer – ein PtP Ethernet benötigt pro Teilnehmer einen Port. Bild: Alcatel-Lucent

Die system- und betreiberunabhängige Implementierung der Hausübergabepunkte ist wichtig, weil sie einen Markt definiert, auf dem Anbieter mit ihrer Technik die Endkunden erreichen können; Hauseigentümern bietet die Standardisierung die Gewähr, dass Provider-Wechsel möglich bleiben und sie nicht einer speziellen Lösung oder einem bestimmten Geschäftsmodell ausgeliefert sind. Die Glasfaser überwindet nicht nur den Flaschenhals im Zugangsnetz und bringt dem Endkunden einen Qualitätssprung in die Breitbandwelt; sie stellt auch die Architektur des Netzes auf eine neue Grundlage und erfordert vom Betreiber eine Reihe von Systementscheidungen zu Verkabelung und Übertragungstechnik. So können sich Teilnehmer eine Glasfaser teilen oder im Fasermultiplex jeweils über separate Fasern angeschlossen werden; auch können sie über unterschiedliche Wellenlängen (WDM) oder beispielsweise durch statistisches Paketmultiplex oder mittels TDM über die Zuteilung von Zeitschlitzen adressiert werden, wobei diese Verfahren auch beliebig kombinierbar sind.

Die kommerziell verfügbaren FTTH/B-Systeme, die heute von großen Herstellern wie Alcatel-Lucent, Cisco, Ericsson, Huawei, Mitsubishi, Nokia-Siemens Networks, aber auch einer Reihe kleinerer Ausrüster angeboten werden, fallen im Wesentlichen in drei unterschiedliche Klassen: GPON (Gigabit Passive Optical Network), GEPON (Gigabit Ethernet Passive Optical Network) und PtP Ethernet (Point to Point). Bei PtP Ethernet ist die Optical Network Unit (ONU) in jedem Haushalt sternförmig wie beim alten Telefonnetz in einer Punkt-zu-Punkt-Topologie über eine separate Faser mit einem Port des Ethernet-Switch im Central Office verbunden. Jeder Teilnehmer benötigt nicht nur eine optische Sende- und Empfangseinheit auf seiner ONU, sondern auch auf der optischen Leitungskarte, dem Optical Line Terminal (OLT), im Central Office. Diese Lösung gilt als einfach zu handhaben, weil sich Upgrades teilnehmerspezifisch im Wesentlichen auf den Austausch von ONU und OLT an den Enden der Faser beschränken.

Allerdings ist die PtP-Verkabelung etwas aufwendiger als bei den Alternativen GPON und GEPON, die sich beide auf Laser-Sharing und eine Punkt-zu-Multipunkt-Topologie (PtMP) stützen. Dabei verzweigt sich die aus dem OLT des zentralen Anschlussknotens kommende Faser in Teilnehmernähe mit passiven Splittern („Sternkopplern“) in typischerweise 32 oder 64 Adern, die zu den ONUs der einzelnen Kunden führen. Diese werden alle mit dem optischen Downstream-Signal aus derselben Laserquelle versorgt, aus dem die ONUs die jeweils für sie bestimmten und zur Sicherheit verschlüsselten Datenflüsse abgreifen müssen. Beim GPON erfolgt dies anhand des zugewiesenen Zeitschlitzes, beim GEPON verwirft die ONU alle nicht an die eigene MAC-Adresse gerichteten Ethernet-Pakete. Im Upstream verwenden beide PON-Varianten das Zeitschlitz-Verfahren zum Vielfachzugriff auf das geteilte Medium (TDMA): Dazu werden die 32 oder 64 ONUs an einem Strang vom zugehörigen OLT synchronisiert und dürfen nur in zugewiesenen Zeitschlitzen senden, damit es nicht zu Signalkollisionen an den Sternkopplern kommt, wenn mehrere Teilnehmer gleichzeitig aktiv sind.

Vergrößern Entwicklung der PON-Generationen: Der 10GEPON-Standard ist im September vom IEEE verabschiedet worden; mit der nächsten GPON-Generation der ITU-T (NGPON oder 10GPON) ist 2010 zu rechnen. Bild: Quelle: FSAN

Die Bezeichnung „passives“ optisches Netz (PON) hat sich, etwas verwirrend, als Synonym für die PtMP-Topologie eingebürgert, obwohl auch PtP Ethernet ein passives optisches Netz ist und im Außenbereich ohne elektrisch gespeiste Komponenten auskommt – ein wesentlicher Unterschied zum FTTCab/VDSL-Netz der Telekom, bei dem sich die optoelektronischen Schnittstellen am Übergang vom Glas- ins Kupfernetz in den Kabelverzweigerkästen auf der Straße befinden.

Vergrößern Die verschiedenen Systeme zur Realisierung von Fiber to the Home

Zum getrennten Transport der Signale in Hin- und Rückrichtung nutzen GPON und GEPON gleichermaßen Wellenlängen aus dem Bereich von 1480 bis 1500 nm im Downstream und 1260 bis 1360 nm im Upstream sowie gegebenenfalls von 1530 bis 1560 nm als Träger für das komplette Frequenzband des Kabelfernsehens. Die beiden Systeme unterscheiden sich jedoch in den verwendeten Übertragungsprotokollen. GEPON wurde nach Zuarbeit vom Metro Ethernet Forum (MEF) 2005 von der IEEE in 802.3ah – alias „Ethernet in the First Mile“ – standardisiert, kommt aus der Ethernet-Familie und löste mit 1,25 GBit/s Übertragungsrate den Vorläufer EPON (100 MBit/s) ab. GPON ist das von der ITU-T in G.984 standardisierte Konzept eines „Full Service Access Network“ (FSAN), das die großen Netzbetreiber im FSAN-Forum entwickelten; es ist der Nachfolger des „Broadband-PON“ (BPON) und arbeitet typischerweise pro Faserstrang mit Gesamtdatenraten von 2,48 GBit/s im Downstream zu den Teilnehmern und 1,24 GBit/s im Upstream.

Die Entwicklung ist an diesem Punkt nicht stehen geblieben. Eine 10-GBit/s-Version (10GEPON) hat das IEEE im September als 802.3av verabschiedet; von der ITU-T wird die Standardisierung des 10GPON noch in diesem Jahr erwartet. Weiteres steckt unter Titeln wie WDM-PON, XGPON oder NGPON („next generation“) in der Pipeline: Durch das Hinzufügen weiterer Wellenlängen als Träger für ein Overlay-Netz lässt sich die Kapazität ja nahezu beliebig aufstocken. Das Wellenlängen-Multiplex sichert auch die Kompatibilität beim parallelen Betrieb von 1- und 10-GBit/-s-PONs auf derselben Glasfaser-Anlage.

Insbesondere die Ex-Monopolisten unter den Netzbetreibern bevorzugen GPON, weil es nicht nur über bessere Management-Funktionen zur Betriebssteuerung verfügt, sondern auch multiprotokollfähig ist und mit der GEM-Encapsulation (GPON Encapsulation Method) außer TDM- auch Ethernet- und ATM-Verkehr erlaubt. Zudem ist die Reichweite von 20 Kilometern gegenüber 10 bei GEPON höher, oder bei gleicher Reichweite ist das Aufteilungsverhältnis mit 1:32 oder 1:64 im Vergleich doppelt so hoch, was sich unmittelbar in mehr Teilnehmer übersetzt, die von einer Zuführungsfaser bedient werden können. Dafür operiert GEPON wiederum im Up- und Downstream mit einer symmetrischen Übertragungsrate, die den Bedürfnissen von Geschäftskunden, mittlerweile aber auch vielen privaten Usern entgegenkommt.

Da sich GPON und GEPON auf dieselbe PtMP-Fasertopologie stützen, reduziert sich in der Praxis der wesentliche Unterschied auf die äußere Beschaltung der Glasfaser. Wer aber Glaserfasern neu verlegt, steht vor der grundsätzlichen Alternative, welche Architektur, PONs mit PtMP oder PtP, zum Einsatz kommen soll – eine Frage, die Stoff für Glaubenskämpfe bietet und in der auch nichttechnische Argumente eine Rolle spielen.

Vergrößern Regulierungsziel Infrastrukturwettbewerb: Jeder Netzbetreiber baut seine eigene Plattform auf.

Marktanalysen zufolge sind etwa drei Viertel aller weltweit verkauften FTTH-Systeme PONs und ein Viertel PtP Ethernet, letzteres mit stark steigender Tendenz. In Deutschland setzen beispielsweise NetCologne in Köln, wilhelm.tel in Norderstedt und Ruhrnet in Schwerte auf PtP Ethernet, dagegen M-Net, Primero (Sindelfingen/Böblingen) und R-Kom (Regensburg) sowie die Deutsche Telekom in dem Dresdener Projekt auf GPON. „Der große Vorteil von GPON- oder TDM-Lösungen ist, dass ich für 32 oder 64 Teilnehmer nur eine Leitung habe, die im Central-Office-Bereich zu terminieren ist“, betont Thomas Pfeiffer, NGA-Entwicklungsleiter bei den Alcatel-Lucent Bell Labs Deutschland; weniger Ports heißt weniger Platzbedarf für den Switch im Metroknoten. Kostenvergleiche deuten darauf hin, dass PtP-Systeme noch etwas teurer sind.

Legt man den Wirtschaftlichkeitsbetrachtungen größere Zeiträume zugrunde und berücksichtigt man die gesamten Lebenszykluskosten einschließlich der Aufwendungen für den Betrieb und notwendige Nachrüstungen, stehen PtP-Netze am Ende wahrscheinlich besser da. Denn zwei Drittel bis vier Fünftel der Anschlusskosten entfallen auf die Tiefbau- und Verlegearbeiten. „Wenn man zum Kabelverlegen die Erde aufreißen muss, dann will man das in den nächsten zehn Jahren nicht schon wieder tun“, meint der Leiter der Abteilung „Photonische Netze und Systeme“ im Fraunhofer Heinrich-Hertz-Institut in Berlin, Godehard Walf. „Deshalb sollte man versuchen, Systeme zu installieren, die zukunftssicher sind, wie es insbesondere Punkt-zu-Punkt-Verbindungen sind“. Mit PtP kann man viel flexibler auf die unterschiedlichsten Bedarfsentwicklungen bei Privat- und Geschäftskunden reagieren.

Was aber die Zukunftssicherheit betrifft, verweist das PON-Lager auf das Wellenlängen-Multiplex: Wenn der Bedarf steigt, kann die Nachrüstung zu einem WDM-PON künftig jedem Teilnehmeranschluss (ONU) ein eigenes Wellenlängenpaar für den Up- und Downstream zur Verfügung stellen. Technisch ist das durchaus machbar: Das ultradichte Wellenlängen-Multiplex (DWDM) mit abstimmbaren Lasern, Kanalabständen von unter 10 GHz und kohärenter optischer Detektion hat ein Entwicklerteam um Harald Rohde von Nokia Siemens Networks im September auf der ECOC in Wien präsentiert. Ein solches System erlaubt protokoll- und bitratenunabhängige Netzanbindungen von Haushalten und Unternehmen mit Übertragungsraten von jeweils mehr als 1 GBit/s.

Logisch ist das WDM-PON ein PtP-System, weil jede ONU gezielt mit einem Wellenlängen-Paar für die Hin- und Rückrichtung adressiert wird, obwohl das optische Signal physikalisch über eine PtMP-Glasfasertopologie läuft. „WDM-PON kombiniert das Beste zweier Welten“, ist Wim Te Niet vom Ausrüster LG-Nortel überzeugt. Bislang sind PONs mit DWDM allerdings noch Zukunftsmusik und kommerziell nicht verfügbar; das Bundesforschungsministerium bereitet zu Next Generation Access gerade ein neues Förderprogramm vor, in dem auch solche Systeme entwickelt werden sollen.

Spätestens wenn die Überlegungen zur Systemauslegung Datenraten von 1 GBit/s am Teilnehmeranschluss in Betracht ziehen, kommen selbst innerhalb der Fachwelt Zweifel am Bedarf auf. „Wir werden nicht alle Streaming und Online-Spiele machen“, meint Matthias Kurth, der Chef der Bundesnetzagentur; man müsse da „schon ein bisschen auf dem Teppich bleiben“. Doch die Nutzungstrends weisen alle in Richtung höherer Übertragungsraten: Webservices und Cloud-Computing für kleine und mittlere Unternehmen, Web- und IPTV in HD- und 3D-Qualität, komfortable Telekonferenzen, zunehmendes Video-Blogging und Content Sharing in sozialen Netzen – da kann es bei gleichzeitiger Aktivität in der Familie schon auf einem 100-MBit/s-Anschluss eng werden, vor allem, wenn interaktive Anwendungen schnelle Antwortzeiten verlangen. Die höhere Datenrate übersetzt sich dann unmittelbar in eine geringere Latenz des Systems, weil größere Bursts von Paketen schneller transportiert werden können und so die Pufferanforderungen verringern.

„YouTube ist ja nur der Anfang“, meint Godehard Walf. „Jedes Reiseportal wird seine Urlaubsorte künftig auch szenisch mit Videomaterial präsentieren wollen, wenn erst einmal einer damit angefangen hat – und das möglichst hochauflösend natürlich.“ Als übernächste Generation zeichnet sich jenseits von HD-Video schon Ultra-HD mit 7680 x 4320 Bildpunkten Auflösung ab. „Da braucht man die 16-fache Bandbreite“, rechnet der Bereichsleiter Strategie und Innovation bei Vodafone, Josef Schäfer, vor. „Das sind im Klartext etwa 170 MBit/s komprimiert und macht deutlich, dass man da mit 100 MBit/s nicht sehr weit kommt.“

Neben Zweifeln am künftigen Bedarf sowie den Unsicherheiten über die optimale Systemtechnik gibt es eine Reihe weiterer Faktoren, die die Einführung der Glasfaser als unternehmerisches Risiko erscheinen lassen. Solange über dem Betreiber das Damoklesschwert schwebt, Wettbewerbern den Zugang zu ihren Übertragungseinrichtungen und Komponenten gestatten zu müssen, und das womöglich zu vorgeschriebenen Tarifen, hält sich die Investitionsneigung in Grenzen. Zu dem spezifischen Risiko der Anschluss- und Zahlungsbereitschaft der potenziellen Kunden gesellt sich zusätzlich die Ungewissheit, ob und in welcher Form er sein Netz der Konkurrenz zu öffnen hat. Das Einzige, was bekannt und kalkulierbar ist, sind die Kosten und die kurzfristigen Renditeansprüche des Kapitalmarktes.

Den größten Einfluss auf die Zukunftssicherheit hat damit paradoxerweise die Regulierung. Sie war ursprünglich nur darauf angelegt, das Missverhältnis zwischen der marktbeherrschenden Stellung des privatisierten Staatsmonopolisten und den neuen Wettbewerbern auszugleichen und faire Wettbewerbsverhältnisse herbeizuführen. Übergangsweise sollte das Instrumentarium der Markteingriffe durch nationale Regulierungsbehörden als Korrektiv dienen, bis die Newcomer sich auf dem Markt etabliert haben würden; dann sollten das normale Wettbewerbsrecht und die Aufsicht des Kartellamts greifen.

Vergrößern Das „Ladder of Investment“- Konzept geht davon aus, dass neue TK-Betreiber sich zunehmend zu vertikal integrierten Unternehmen entwickeln, indem sie nach und nach eigene Infrastrukturen aufbauen. Bild: Quelle: ERG

Doch es war ein Geburtsfehler der Telekom-Privatisierung von 1996, die Zugangsnetze im Eigentum der Telekom zu belassen und nicht in eigenständige Ortsnetzgesellschaften zu überführen, die den Endkundenanschluss alten wie neuen Playern auf dem Markt zu gleichen Bedingungen zur Verfügung gestellt hätten [6] . Stattdessen geht die Regulierungspolitik bis heute davon aus, dass die Entbündelung und das „Ladder-of-Investment“-Konzept den Infrastrukturwettbewerb von selbst in Gang bringen: Die Wettbewerber würden mit niedrigen Einstiegshürden und geringen Investitionen als Reseller und Dienstleister in den Markt einsteigen, dann auf der Plattform des Ex-Monopolisten eigene Netze betreiben – zum Beispiel, indem sie die Teilnehmeranschlussleitung (TAL) anmieten – und schließlich die Gewinne in den Aufbau konkurrierender Infrastrukturen investieren.

Dahinter stand die Zielvorstellung eines Wettbewerbs von vertikal integrierten Vollsortimentern, die nach dem Vorbild der Telekom und des Kabelfernsehens als Netzeigentümer von der Technik bis zum Dienste- und Programmangebot alles aus einer Hand anbieten. Nur sind aufwendige Infrastrukturen wie das Zugangsnetz ein natürliches Monopol – der Markt kann durch ein einziges Unternehmen zu geringeren Kosten besser bedient werden als durch mehrere Firmen, die parallel dieselbe Zielgruppe ansprechen. Und die Entbündelung stößt dort an Grenzen, wo ein Netzeigentümer auf den nachgelagerten Wertschöpfungsstufen mit seinen Großhandelskunden konkurriert und kein ausgeprägtes Interesse daran haben kann, dass die „Trittbrettfahrer“ auf seiner Plattform am Markt erfolgreicher operieren als er selbst.

Mehr als ein Jahrzehnt nach der Öffnung des Festnetzes liegt der Marktanteil der Telekom bei Teilnehmeranschlussleitungen weit über 90 Prozent, bei Endkundenanschlüssen über 70 Prozent und bei Breitbandanschlüssen über 50 Prozent. Das Missverhältnis wirft seinen Schatten in die Zukunft, und die Glasfaser stellt das Ladder-of-Investment-Konzept mit dem Ziel des Infrastrukturwettbewerbs nun gänzlich in Frage, weil sie die Effizienzvorteile des natürlichen Monopols noch verstärkt. Das für die alte Telefonwelt mit ihren bereits existierenden Netzen geschaffene Regulierungsregime lässt sich nicht ohne Weiteres auf langfristige Investitionen in eine völlig neue Infrastruktur übertragen [7] .

„Die Wirtschaftlichkeit der Einführung eines Glasfaser-Zugangsnetzes erfordert hohe Marktanteile, was in den meisten Fällen im Widerspruch zu einem wirksamen Wettbewerb steht“, bringt die WIK-Consult das Strukturproblem auf den Punkt [5] . Angesichts der hohen Kosten für die Errichtung der physikalischen Infrastruktur ist für mehrere Betreiber kein Platz, weil ihr Anteil am Erlös des Gesamtkuchens dann so gering wäre, dass sich der Aufwand nicht schnell genug refinanziert. Nur der Erste, der investiert, hat eine realistische Chance, den Erlös wieder hereinzubekommen. Über die Finanzkraft, eine solche Investition flächendeckend zu schultern, verfügt hierzulande wiederum nur die Deutsche Telekom.

Die TK-Politik steckt nun in dem selbst gewählten Dilemma, wie mit den Mitteln der Regulierung in diesem Markt, auf dem ein alteingesessenes Unternehmen noch immer marktbeherrschend einer Vielzahl kleiner, überwiegend regional tätiger Firmen ungleichgewichtig gegenübersteht, Innovationsanreize gesetzt werden können und trotzdem der erwünschte Wettbewerb vorankommt. Setzt sie das bisherige Entbündelungsregime fort und gewährt wie bisher den Kleinen durch Bitstream Access oder Zugriff auf die TAL den Zugang zur Plattform des Ex-Monopolisten, ist dessen Geschäftsplan unmittelbar beeinträchtigt und die Investition unterbleibt, wie Telekom-Chef René Obermann unablässig betont; ein Verzicht auf Regulierung hingegen setzt das bereits erreichte Wettbewerbsniveau aufs Spiel, weil der Platzhirsch mit der neuen leistungsstarken Plattform Marktanteile zurückgewinnen würde und eine Re-Monopolisierung die Folge wäre.

Vergrößern Kurven, wie Manager sie lieben: Der holländische FTTH-Betreiber Reggefiber verzeichnet stetige Zuwächse bei der Zahl der anschlussfähigen Haushalte Bemerkenswert ist der hohe Anteil der tatsächlich angeschlossenen Haushalte (73 Prozent). Bild: Quelle: Reggefiber

Doch schwache Regierungen lehnen sich gern an starke Schultern. Als die Deutsche Telekom 2005 just in der Phase der schwarz-roten Regierungsbildung Investitionen in Höhe von 3 Milliarden Euro in die FTTCab/VDSL-Aufrüstung in 50 Städten von „Regulierungsferien“ abhängig machte, hielt die Regierung Merkel/Steinmeier als Ergebnis der Lobbyarbeit gleich im Koalitionsvertrag fest, dass neue Märkte, die durch den „Aufbau bzw. Ausbau moderner und breitbandiger Telekommunikationsnetze“ entstünden, „für einen gewissen Zeitraum von Regulierungseingriffen freizustellen sind, um für den Investor die notwendige Planungssicherheit herzustellen“. Ein Jahr später wurde das Telekommunikationsgesetz entsprechend geändert und der Bundesnetzagentur im neugeschaffenen § 9a aufgetragen, bei der Prüfung der Regulierungsbedürftigkeit „effiziente Infrastrukturinvestitionen zu fördern und Innovationen zu unterstützen“. Die Brüsseler Kommission wiederum sah darin den Versuch, zugunsten des marktbeherrschenden Unternehmens „in einem wirtschaftlich zentralen Sektor den Wettbewerb auszuhebeln“, und klagte wegen der „Lex Telekom“ gegen die Bundesrepublik beim Europäischen Gerichtshof. Der EuGH folgte den Argumenten der Kommission und gab der Klage Anfang Dezember statt; der § 9a ist nichtig, (EuGH, Az: C-424/07).

Ein Remake mit dem Ex-Monopolisten als Zugpferd für FTTH ist also ausgeschlossen. Die EU-Kommission wie auch die Regulierungsbehörde in Deutschland setzen ihre Hoffnung nach wie vor auf das Entbündelungsregime und die Investitionsleiter. Nur wegen der Transformation des Zugangsnetzes auf Glasfaser werde die Regulierung nicht zurückgefahren, erklärt der Leiter der Abteilung für Regulierungsfragen in der GD Informationsgesellschaft und Medien, Roland Honekamp. „Vom Zugang zu den Kabelschächten bis hin zum Bitstreamprodukt“ sollen alle Eingriffsinstrumente „auch weiterhin den Regulierern zur Verfügung stehen“. Und vier Tage nach der EuGH-Entscheidung legte die Bundesnetzagentur die konkreten Bedingungen fest, unter denen Netzbetreiber die Kabelverzweiger des FTTCab/VDSL-Netzes der Deutschen Telekom ansteuern und mitnutzen können. Danach dürfen sie Glasfaserleitungen selbst in die Kabelkanalanlagen einziehen oder, falls dafür der Platz fehlt, ersatzweise unbeschaltete Fasern nutzen und ihre DSLAMs in die Multifunktionsgehäuse der DTAG einbauen. Die Preisfestsetzung für die Vorleistungsentgelte soll folgen. Dann wird möglicherweise wieder geklagt. Oder gebaut. Oder auch nicht.

Unterdessen hat die Bundesregierung in ihrer Breitbandstrategie, die als Versorgungsziel bis 2014 Datenraten von mindestens 50 MBit/s für 75 Prozent der Haushalte ausgegeben hat, in „Maßnahme 10“ das Ausarbeiten der „Grundzüge einer wachstums- und innovationsorientierten Regulierung“ an die Bundesnetzagentur delegiert. Diese soll die Aspekte der Planungssicherheit und spezifischen Risiken der investierenden Unternehmen sowie des Infrastruktur-Sharing und der Transparenz für die Marktteilnehmer berücksichtigen.

Die Bundesnetzagentur will nun prüfen, wie sie in ihren Methoden, die sie bisher zur Berechnung der Entgelte für Zugangsleistungen anwendet, „eine risikoadäquate Eigenkapitalverzinsung“ aufnehmen kann. Der Aufschlag soll den Investor, der aus volkswirtschaftlichen Wettbewerbsgründen anderen Betreibern den Zugang zu den entbündelten Komponenten seines NGA einräumen muss, für das zusätzliche Risiko entschädigen, das sich aus der ungewissen Anschluss- und Zahlungsbereitschaft der potenziellen Kunden an das neue Netz sowie der höheren Unsicherheit in Bezug auf die technische Entwicklung ergibt.

Es gibt unterschiedliche Arten, auf Marktversagen zu reagieren. Noch mehr Regulierung ist eine davon. Aber dass eine Behörde, die selbst nicht das unternehmerische Risiko trägt, sich nun Gedanken über Geschäftsrisiken machen und diese in Preise übersetzen muss, ist wohl das Gegenteil dessen, was vor anderthalb Jahrzehnten mit der TK-Liberalisierung beabsichtigt war. Wie man es anders angehen kann, lässt sich derzeit in Australien studieren.

Vergrößern Die durchschnittlichen Kosten für den FiOS-Hausanschluss beim US-Netzbetreiber Verizon sind umgerechnet bereits auf etwa 1000 Euro gesunken – allerdings werden in den USA oftmals preiswerte Freileitungen verlegt. Bild: Verizon

Seit Jahren waren in Australien der Ex-Monopolist Telstra und das Konsortium Terria der alternativen Netzbetreiber weder einzeln vorangekommen noch konnten oder wollten sie sich auf die Konditionen eines gemeinsamen Vorgehens verständigen. Die Regierung von Premierminister Kevin Rudd durchschlug schließlich im April vergangenen Jahres den Gordischen Knoten und kündigte ein umgerechnet 26,5 Milliarden Euro schweres „Fiber-to-the-Premises“-Programm an, das die Glasfaser landesweit binnen acht Jahren so bis an die Grundstücksgrenzen führen soll, dass für 90 Prozent der 7,5 Millionen Haushalte auf dem dünn besiedelten Kontinent im ersten Schritt 100 MBit/s verfügbar werden; alle anderen, bei denen sich aufgrund der abgeschiedenen Lage die Verkabelung partout nicht rechnet, werden über terrestrische oder Satelliten-Funkanschlüsse wenigstens 12 MBit/s erhalten.

Finanziert wird das Programm durch öffentliche Anleihen, ausführen soll es die eigens gegründete „National Broadband Network Co. Ltd.“, an der die Regierung eine Mehrheitsbeteiligung hält und die fünf Jahre nach dem Aufbau des Netzes privatisiert werden soll. Diese Konstruktion sei „die größte Reform der Telekommunikation in zwei Jahrzehnten, weil sie zu einer Trennung von Infrastruktur-Providern und Dienstanbietern führt“, heißt es aus Canberra. Sie beende „ein für allemal den inhärenten Konflikt, dass der Eigentümer der vorhandenen Altnetze auch auf den nachgelagerten Wertschöpfungsebenen in Konkurrenz zu seinen Kunden tritt“. Die Breitband-Plattform sei für die Zukunft der Wirtschaft zu wichtig, „um in endlosen Rechtsstreitigkeiten zerrieben zu werden“.

Next Generation Access Networks bieten die Chance, eine Erblast der Telekom-Liberalisierung aus dem Weg zu räumen. Doch so viel Mut ist derzeit offensichtlich von keiner europäischen Regierung zu erwarten. An die Möglichkeit glauben erstaunlicherweise nicht einmal diejenigen, die von gleichen Wettbewerbsbedingungen auf horizontalen Märkten am meisten profitieren würden. „Wir sind nicht in Australien“, meint der Geschäftsführer des Verbands der Anbieter von Telekommunikations- und Mehrwertdiensten, Jürgen Grützner. Er ist zwar der Ansicht, „dass wir in Deutschland eine ganz verfahrene Situation haben“, hält es aber für müßig, „uns in eine neue Welt zu denken“.

Deshalb wird es hierzulande auch weiterhin eine Bundesnetzagentur geben, solange es einen Ex-Monopolisten gibt, dessen starke Stellung auf dem Faustpfand „Zugangsnetz“ beruht.

Die wechselseitige Verstrickung bringt Sätze hervor wie: „Damit keine Wettbewerbsverzerrungen entstehen, darf die Preisdifferenzierung der Vorleistungsentgelte nicht über das Wertäquivalent des übernommenen Risikos hinausgehen“; sie treibt eine Einrichtung, die als Aufsichtsbehörde gedacht war, immer tiefer ins Mikromanagement. Es ist der Fluch komplexer Regulierungsbürokratie, fortwährend neue Komplexität zu gebären. (jk)

[1] BMWi, Breitbandatlas 2009, www.zukunft-breitband.de

[2] Richard Sietmann, Glasfaser bis ins Haus, Städte und Gemeinden bauen Breitband-Anschlüsse, c’t 10/09, S. 44

[3] Ernst Ahlers, Extrabreit, Internet rasant per Glasfaser, c’t 3/09, S. 80

[4] FibreSpeed Tool, www.ftthcouncil.eu/home/fibrespeed_tool/?cid=259

[5] WIK-Consult, The Economics of Next Generation Access – Final Report, Study for ECTA (Sept. 2008)

[6] Richard Sietmann, Verfahrene Kiste Ortsnetzmonopol, Die Deregulierung der Telekommunikation ist an einem kritischen Punkt angelangt, c’t 10/03, S. 186

[7] A. Banerjee, M. Sirbu, Towards Technologically and Competitively Neutral Fiber to the Home (FTTH) Infrastructure. (2003), http://100x100network.org/papers/banerjee-tprc2003.pdf

[8] Dr. Jürgen Lolischkies, Aufbruch in die Zukunft, Bis Ende 2010 soll jeder Haushalt einen Breitbandanschluss erhalten, c’t 7/09, S. 82

[9] Urs Mansmann, Ausbau-Pläne, Breitband-Initiative läuft schleppend an, c’t 26/09, S. 120

[10] Leitlinien der Gemeinschaft für die Anwendung der Vorschriften über staatliche Beihilfen im Zusammenhang mit dem schnellen Breitbandausbau, (September 2009), http://ec.europa.eu/competition/state_aid/legislation/guidelines_broadband_de.pdf

Ein Vierteljahrhundert FTTH in Deutschland

1983 bis 1986: BIGFON, Breitbandiges Integriertes Glasfaser-Fernmelde-OrtsNetz. Technische Versuche mit Glasfaser-Übertragungssystemen im Ortsanschlussnetz der damaligen Deutschen Bundespost mit Telefonie, Fernseh-Verteilung und Bildtelefonie für Endkunden.

1988 bis 1995: VBN, Vermittelndes Breitbandnetz. Selbstwahl-Breitbandnetz mit 140-MBit/s-Anschlüssen zur Erprobung geschäftlicher Breitband-Anwendungen wie etwa Videokonferenzen und schneller Datenübertragung über ein bundesweites Glasfaser-Overlaynetz für rund 1000 Teilnehmer.

1989 bis 1994: OPAL-Pilotprojekte. Technische Erprobung passiver und aktiver Glasfaser-Übertragungssysteme zur Telefonie und Breitband-Verteilung mit fünf Herstellern im Teilnehmeranschlussbereich.

1993 bis 1995: OPAL, Optische Anschlussleitung. Im Zuge der Modernisierung des Telefonnetzes in den östlichen Bundesländern werden 1,2 Millionen Haushalte an optische Zubringersysteme für Telefonie und Kabelfernsehen (überwiegend FTTCab) angeschlossen.

1995: ISIS, Integriertes System zur Bereitstellung von Netz-InfraStruktur auf optischer Basis. Die Deutsche Telekom beginnt schrittweise mit der flächendeckenden Glasfaser-Anbindung ihrer Teilnehmer-Vermittlungsstellen und schafft damit die Voraussetzungen zum Einsatz der Glasfaser im Zugangsnetz sowie zur Verringerung der Netzknoten.

2006: FTTCab/VDSL. Die DTAG nimmt im August 2006 Glasfaser- und VDSL-Netz für IPTV (T-Home, T-Entertain) in Betrieb.

2006: Citynetcologne, wilhelm.tel. NetCologne in Köln und wilhelm.tel in Norderstedt bei Hamburg beginnen als erste City-Carrier mit dem Aufbau von FTTB-Netzen.

2007: M-Net, Ruhrnet. In München und Schwerte bei Dortmund installieren die Stadtwerkstöchter M-Net beziehungsweise Ruhrnet FTTB/H-Zugänge.

2008: GPON Dresden. Die Telekom startet mit einer bislang ungenutzten OPAL-Faser ein Pilotprojekt in den Dresdner Stadtteilen Striesen und Blasewitz.

2009: Glasfaser Ostbayern. R-Kom in Regensburg beginnt mit dem Aufbau eines FTTB/H-Netzes.

Die FTTH-Ökonomie

Einer Faustformel der Branche zufolge liegen die durchschnittlichen FTTH-Anschlusskosten in Deutschland bei 1500 Euro. Für die knapp 40 Millionen Haushalte in der Bundesrepublik würde die Vollverkabelung demnach rund 60 Milliarden Euro kosten – genauso viel wie nach der Wende die Modernisierung des ostdeutschen Telefonnetzes in den Jahren 1990 bis 1996.

In dem konkreten Investitionsfall eines Neubauprojekts „auf der Grünen Wiese“ haben die Stadtwerke Sindelfingen die Gesamtkosten eines PtP-Anschlusses mit 1600 Euro und eines GPON-Anschlusses mit 1200 Euro errechnet. Einem länderübergreifenden Systemvergleich der WIK-Consult zufolge kommen FTTH-Anschlüsse in Deutschland am teuersten, was vor allem an den hohen Tiefbaukosten liegt, wie der Vergleich mit Portugal zeigt:

System    Deutschland    Portugal
FTTCab/VDSL 457 € 218 €
PON 2039 € 1411 €
PtP 2111 € 1548 €

Die geringsten Investitionen fallen bei VDSL an; in erheblichem Abstand folgen GPON oder EPON; der Mehraufwand für PtP Ethernet gegenüber PON wird hier auf etwa 5 Prozent beziffert. Diese mit Modellrechnungen ermittelten Investitionskosten (in Euro pro Haushaltsanschluss) beziehen sich auf einen völlig neu aufgebauten städtischen Versorgungscluster und eine Anschlussquote von 50 Prozent der anschlussfähigen Kunden; sie enthalten die Teilnehmeranschlusseinheit (ONU) sowie die Hausverkabelung [5] .

In den USA kalkulierte Vorreiter Verizon 2004 beim Start seines BPON-Systems „FiOS“ noch mit 2600 Dollar pro Haushalt, 2006 waren die durchschnittlichen Anschlusskosten – jetzt für das Nachfolgesystem GPON – schon auf 1580 Dollar gefallen und für 2010 wird mit 1350 Dollar (umgerechnet ca. 930 Euro) fast eine Halbierung gegenüber dem Ausgangswert erwartet. In den USA stellen sich die Infrastrukturkosten etwas günstiger dar als in Europa, weil die Verlegung oftmals über Freileitungen erfolgt.

Architektur der Kontrolle

PtP-Lösungen ermöglichen das Entbündeln der Teilnehmeranschlussleitung (TAL) in derselben Weise wie heute bei der Kupfer-TAL: Der Betreiber, zu dem der Anschlusskunde wechselt, übernimmt am Hauptverteiler die TAL und legt sie auf sein Equipment. In einem PON ist wie im Kabel-TV-Netz das „Entbündeln“ schwieriger, weil sich immer mehrere Teilnehmer eine Leitung teilen. Es sei denn, die Verlegetechnik lässt eine Möglichkeit, auf die Fasersplitter zuzugreifen und dort einzelne Teilnehmer abzuhängen („Sub-Loop Unbundling“). Dazu müsste ein konkurrierender Betreiber bis zu diesem letzten Splitter eigene Glasfaser verlegen, um daran den zu ihm wechselnden Teilnehmer anzuschließen.

Kritiker fürchten, dass PON-Betreiber solche physischen Eingriffe in ihr Netz mit technischen Argumenten erfolgreich abwehren werden, etwa indem sie sich auf die Störung der empfindlichen optischen Signalpegel der anderen Kunden berufen, die an demselben Splitter hängen. Dem Konkurrenten bliebe dann nur noch der Bitstrom-Zugang, um seinen neuen Kunden zu bedienen. Das heißt, er müsste die Übertragungskapazität vom PON-Betreiber einkaufen und wäre dabei stets abhängig vom Protokoll, der Dienstgüte und der Übertragungsleistung, die ihm der „Zwischenhändler“ für den Endkundenzugang liefert.

An dieser Stelle wird aus der Netzarchitektur ein Geschäftsmodell. Ein Kunde, der mehr Leistung will, als sein Provider ihm bieten kann, und einen anderen Provider hätte, der sie ihm liefern würde, kommt unter Umständen trotzdem nicht an diese Leistung heran, wenn sich das PON des Anschlussnetz-Inhabers als tatsächlicher oder vermeintlicher Flaschenhals erweist. „PON, das ist die Architektur der Kontrolle“, meint David Isenberg, Verfasser jenes legendären Aufsatzes „The Rise of the Stupid Network“, in dem er als Forscher bei den AT&T Bell Labs 1997 das „End to end“-Prinzip des Internet propagierte – was das Ende seiner Karriere bei AT&T bedeutete. Zurzeit gehört er der Arbeitsgruppe an, die für die US-Regierung den „National Broadband Plan“ erarbeitet. „Ein PON“, meint Isenberg, „liefert dem Infrastrukturbetreiber gute Argumente, Inhalte und Kabelschächte wieder zu vereinen“. Mit anderen Worten, wer ein vertikales Geschäftsmodell verficht, ist mit einem PON besser aufgestellt.

Kommentare

Anzeige