Netzwelt - Wege, Werte, Wandel
Dieter Klumpp • Herbert Kubicek Alexander Roßnagel • Wolfgang Schulz (Herausgeber)
Netzwelt Wege,Werte,Wandel
1C
Herausgeber Dr. Dieter Klumpp Alcatel-Lucent Stiftung für Kommunikationsforschung Lorenzstraße 10 70435 Stuttgart Deutschland
[email protected] Professor Dr. Herbert Kubicek Universität Bremen Bibliotheksstraße 1 28359 Bremen Deutschland
[email protected] Professor Dr. Alexander Roßnagel Universität Kassel Nora-Platiel-Straße 5 34109 Kassel Deutschland
[email protected] Dr. Wolfgang Schulz Hans-Bredow-Institut für Rundfunk und Fernsehen Heimhuder Straße 21 20148 Hamburg Deutschland
[email protected] ISBN 978-3-642-05053-4 e-ISBN 978-3-642-05054-1 DOI 10.1007/978-3-642-05054-1 Springer Heidelberg Dordrecht London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag Berlin Heidelberg 2010 Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandentwurf: WMXDesign GmbH, Heidelberg Gedruckt auf säurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)
Vorwort
Die weitere Entwicklung und Ausgestaltung der Informationsgesellschaft zeigen bereits durchaus unterschiedliche Wege hin zu einer Netzwelt. Weil diese nun beileibe keine „virtuelle“ Welt ist, gilt es, die gesellschaftlichen, politischen und kulturellen Werte zum Maßstab im Wandel der von Innovationen und Konvergenzen geprägten Techniken, Märkte und Kommunikationsformen zu machen. Die oft noch so unüberschaubare und für viele Menschen so verwirrende Netzwelt hat heute jedoch hinreichend Konturen bekommen, um weitere Konturierungen in vielerlei Hinsicht als notwendig anzusehen. Diese Netzwelt ist schließlich kein Naturereignis, das „auf uns zu kommt“, sondern ein Ergebnis gesellschaftlichen, wirtschaftlichen und politischen Willens, des Suchens und Irrens, nicht zuletzt des menschlichen Strebens nach der „besseren Welt“. Gewiss, das Ringen um Erkenntnis, um gemeinsame Strategien und um ein verträgliches globales Miteinander wird durch die anhaltende Unübersichtlichkeit der Neuheitsexplosion nicht gefördert, sondern erweist sich als eine permanente Aufgabe, deren Zwischenergebnisse regelmäßig in einem „Review“ dargestellt, analysiert und für den Diskurs zur Verfügung gestellt werden müssen. Dieser Jahresreader will dies als Forum für solche Zwischenbilanzen durch Beiträge herausragender Akteure, Gestalter und Vordenker leisten. Auch wenn es in Anbetracht der – tatsächlichen oder nur phänotypisch erscheinenden – Konvergenzen schwerfällt, das komplexe und komplizierte Phänomen einer Netzwelt nicht einfach mit einer Klammer über alles hinweg zu versehen (was sich wohl als zeitsparendes „e-Alles“ in den Köpfen festsetzen würde), wurden die drei Teile des Buches doch systematisiert in die Themenbereiche „Netz und Qualität“, „Personalisierung und Verantwortung“ sowie „Öffentlichkeit und Kultur“. Mit den Konturen und Beschreibungen werden aus den unterschiedlichen Blickwinkeln der Autoren, die dennoch das Ganze nicht aus den Augen verlieren, überall Handlungserfordernisse deutlich, ohne dass diese wiederum bei der Umsetzung anderes als ein „best effort“ (ein oft fälschlich
VI
Vorwort
als Euphemismus verstandenes Eingeständnis) anstreben können. Die jeglicher Gesellschaftsentwicklung inhärent unmögliche Vision von Endergebnissen muss für die Akteure nicht resignativen Charakter haben, die Ansammlung von Letztgültigkeiten würde am Ende Stillstand bedeuten, den nur Wenige wollen. Es darf aber ein angestrebtes „Zwischenergebnis“ in der Akteursarena auch keine Entschuldigung dafür sein, diese notwendigen Konturierungen haltlos modisch, handwerklich flüchtig oder gar fahrlässig werteflexibel vorzunehmen. In der Diskussion um die Netzwelt, um die Informations- oder Wissensgesellschaft lauern diese Gefahren immer mehr. Man kann sich die Welt bekanntlich nach Belieben zurechtgoogeln, selbstbetwittern und sogar breitbandig das Wissen der Welt ausdünnen, anstatt dieses Wissen kollektiv zu erweitern und umzusetzen. Sicher ist, dass es eine – wenngleich nicht durch Wahlmaschinen legitimierte – gesamtgesellschaftliche Aufgabe ist, um die besten Wege, die längerfristig gültigen Werte und den verträglichen Wandel leidenschaftlich nach bestem Wissen zu streiten. Gerade der deutsche Standort hat in Europa und in der Welt seine besondere Rolle noch unter Beweis zu stellen. Die Besonderheiten seiner (nunmehr schon 60 Jahre modern bleibenden) Verfassungsordnung bringen auf dem Gebiet der Netzwelt geradezu die Verpflichtung mit sich, die Rahmenbedingungen exportfähig zu machen, sei es nun in der marktwirtschaftlich erforderlichen Regulierung, bei den Qualitätsstandards für Datenschutz und Datensicherheit, in der Medienpolitik, beim Schutz des Einzelnen vor Schaden, bei der Architektur verträglicher und nachhaltiger Infrastrukturen und nicht zuletzt beim Kampf um den Erhalt einer räsonierenden Öffentlichkeit. August 2009
Dieter Klumpp Herbert Kubicek Alexander Roßnagel Wolfgang Schulz
Inhaltsverzeichnis
TEIL I: NETZ UND QUALITÄT Die Debatte um Netzneutralität und Quality of Service.............. 5 Ingo Vogelsang Regulatorische Herausforderungen durch die Umstellung auf ein IP-basiertes Telekommunikationsnetz .......................... 15 Matthias Kurth Paradoxe Intervention. Grundsätzliche Grenzen und Möglichkeiten der Regulierung von Online-Anbietern............. 25 Viktor Mayer-Schönberger Industriepolitik und Telekommunikationsmärkte im Übergang zum Wettbewerb – ein Ländervergleich................... 33 Brigitte Preissl Universaldienste und Next Generation Networks..................... 49 Patrick Xavier, Dimitri Ypsilanti Wie geht es weiter nach DSL? Entwicklungsperspektiven der Versorgung mit Breitband-Internet...................................... 63 Franz Büllingen Breitband für den Ländlichen Raum – Dorfcarrier als Modell? ......................................................................................... 79 Kai Seim Bessere Daten für eine bessere Breitbandversorgung und -nutzung........................................................................................ 93 Herbert Kubicek
VIII
Inhaltsverzeichnis
Die Qualitätskette im TV-System und in den verschiedenen Ausspielformen................................................ 117 Dietrich Sauter, Harald Orlamünder Zukunft der Mobilkommunikation – Wohin gehen wir? ......... 133 Thomas Haustein The Internet Architecture – Is a Redesign Needed?............... 147 Anja Feldmann
TEIL II: PERSONALISIERUNG UND VERANTWORTUNG Das Grundrecht auf Schutz der Vertraulichkeit und Integrität eigengenutzter informationstechnischer Systeme.. 165 Wolfgang Hoffmann-Riem Das Problem der legitimen Verteilung von Ressourcen zur Sperrung von schädlichen Inhalten im Internet ............... 179 Per Christiansen Daten- und Persönlichkeitsschutz im Web 2.0 ....................... 195 Alexander Dix Elektronische Identitäten im Internet und die Einführung des elektronischen Personalausweises .................................. 211 Martin Schallbruch Bürgerportale für eine sichere Kommunikation im Internet .. 221 Alexander Roßnagel Vom Bürgerportal zur De-Mail – Usability und Kundenorientierung für komplexe Web-Angebote................. 233 Carsten Busch, Friedrich L. Holl Identitätsmanagement in Netzwelten....................................... 245 Sandra Steinbrecher, Andreas Pfitzmann, Sebastian Clauß
Inhaltsverzeichnis
IX
TEIL III: ÖFFENTLICHKEIT UND KULTUR Die Richtlinie über Audiovisuelle Mediendienste als Kern europäischer Medienpolitik ...................................................... 269 Wolfgang Schulz Bleibt Rundfunk Rundfunk? Der Wert des öffentlichrechtlichen Rundfunks in der Netzwelt.................................... 279 Fritz Raff Vom Wert des Rundfunks in der Netzwelt............................... 289 Jürgen Doetz Wandel der Medienqualität: Reduktion und/oder Substitution?.............................................................................. 301 Dieter Klumpp Perspektiven für die Bürgergesellschaft – Politische Kommunikation im Web 2.0 ...................................................... 317 Dietrich Boelter, Hans Hütt Individualisierung in der Netzwelt............................................ 329 Klaus Kamps Sicherung der Vielfalt kultureller Ausdrucksformen.............. 345 Verena Metze-Mangold Telekom-Monopoly und Human Flesh Search – Europäische Ideen zu Chinas Informationsgesellschaft ....... 365 Thomas Hart
Teil I: Netz und Qualität
Teil I: Netz und Qualität
3
Die Frage nach der Qualität hinsichtlich der Verbreitungswege, der Netztechnik, der Dienste sowie der regulatorischen und ökonomischen Rahmenbedingungen steht im Mittelpunkt des ersten Teils. Ingo Vogelsang, Professor für Volkswirtschaft an der Boston University, wendet sich der Debatte um Netzneutralität und Quality of Service bei Netzdiensten zu. Diese Diskussion entstand im Zuge der Konvergenz von Telefon-, Fernseh- und Breitbandnetz zu einem neuen Netztyp. Vogelsang analysiert die ökonomischen Folgen für Content-Anbieter und Fragen der Wettbewerbspolitik und Regulierung. Der Präsident der Bundesnetzagentur, Matthias Kurth, befasst sich mit den regulatorischen Herausforderungen durch die möglicherweise anstehende Umstellung des öffentlichen Telefonnetzes auf ein IP-basiertes Telekommunikationsnetz. Diese Umstellung würde ein ganzes Bündel an Maßnahmen betreffen, um Telekommunikationsnetze auszubauen, zu optimieren und das Angebot innovativer Dienste zu ermöglichen. Victor Mayer-Schönberger, lange Zeit Professor an der Kennedy School of Government der Harvard University und derzeit an der National University of Singapore, beschreibt und hinterfragt eine paradoxe Intervention im Spannungsfeld zwischen Medienrecht und Wettbewerbsrecht, zwischen Inhalteregulierung und Wettbewerbsregulierung am Beispiel von Lindan Lab – dem Unternehmen, das Second Life betreibt. Im Kern beschäftigt er sich mit den Problemen unterschiedlicher Rechtsordnungen in der Telekommunikation, die ein Unternehmen wie Lindan Lab dazu anregte, Konkurrenten ein zentrales Element des eigenen Geschäftsmodells – einen Quellcode – offen zu legen. Die Hamburger Volkswirtin und Vizepräsidentin der International Telecommunications Society, Brigitte Preissl, stellt die Ergebnisse einer vergleichenden quantitativen wie qualitativen Studie zur Industriepolitik und zu Telekommunikationsmärkten im Übergang zum Wettbewerb vor. Ihr Vergleich industriepolitischer Maßnahmen in Deutschland, Frankreich, Italien, Spanien und Großbritannien zeigt unterschiedliche Regulierungsansätze und Zielsetzungen auf. Patrick Xavier, Professor für Kommunikationsökonomie an der University of Technology in Perth, diskutiert gemeinsam mit Dimitri Ypsilanti, dem Leiter der Abteilung Telekommunikations- und Informationspolitik der OECD, ob eine Verpflichtung zu Universaldiensten – etwa allgemeiner Zugang, Qualitätsstandards –, wie sie den „klassischen“ Netzen zum Teil auferlegt wurden, noch den Next Generation Networks und dem Wandel von Verbreitungswegen und Angeboten gerecht wird.
4
Teil I: Netz und Qualität
Franz Büllingen, Abteilungsleiter am Wissenschaftlichen Institut für Infrastruktur und Kommunikationsdienste, setzt sich mit Entwicklungsperspektiven der Versorgung mit Breitband auseinander. In vielen Ländern wird gegenwärtig dem Breitband-Internet-Zugang ein hoher Einfluss auf das Wirtschaftswachstum und die Standortqualität zugemessen. Für Büllingen ist absehbar, dass selbst nach der Schließung von Versorgungslücken das Problem der Unterversorgung der ländlichen Räume, aber auch mancher städtischer Regionen, künftig fortbestehen wird. Auch Kai Seim beschäftigt sich mit der Frage der Breitbandversorgung, konkret der Unterversorgung im ländlichen Raum. Er analysiert in seinem Beitrag ein Glasfaservollausbau-Szenario und diskutiert einen Widerspruch zwischen politischen Forderungen und Systemeingriffen auf der einen und marktwirtschaftlichen Anforderungen und Strukturen auf der anderen Seite. Herbert Kubicek, Professor für Angewandte Informatik an der Universität Bremen, diskutiert die methodische Qualität der Messung der Versorgung und Nutzung von Breitband in Deutschland – eine für die Debatte um so genannte Weiße Flecken grundlegende Auseinandersetzung. Ein Vergleich mit US-amerikanischen Verfahren eröffnet zudem ergänzende Erfahrungen und Perspektiven. Dietrich Sauter und Harald Orlamünder systematisieren in ihrem Beitrag im Detail die Qualitätskette im Fernsehen unter Berücksichtigung der inzwischen möglichen Ausspielformen. Die Digitalisierung in der Übertragungstechnik und die Diversifizierung der Verbreitungswege (z. B. IPTV) haben neben einigen unbestreitbaren Vorteilen eben auch zu nichtintendierten Wiedergabequalitäten geführt. Thomas Haustein, Abteilungsleiter am Fraunhofer Institut für Nachrichtentechnik in Berlin, erläutert angesichts eines wachsenden Bedarfs mobiler Kommunikation die Vielfalt der damit verbundenen technischen Facetten und neue Herausforderungen, etwa in der Funkfeldabdeckung. Anja Feldmann, Professorin an der TU Berlin und tätig in einem AnInstitut der Universität, den T-Labs der Deutschen Telekom, setzt sich mit grundlegenden Fragen im Kontext des Internet auseinander, im Kern: ob nicht angesichts vielfältiger Probleme und Herausforderungen des Netzes ein völlig neuartiges Internet angedacht und implementiert werden müsste. Sie erörtert und differenziert dabei u. a. auch den in den USA vieldiskutierten „Clean Slate“-Ansatz.
Die Debatte um Netzneutralität und Quality of Service
Ingo Vogelsang
Warum die Debatte gerade heute relevant ist Unter Netzneutralität können Netzanbieter und Netznutzer durchaus Verschiedenes verstehen und dann aneinander vorbeireden. Dazu zwei Beispiele: Während der ersten Ölkrise in den 70er Jahren hieß es, die Franzosen als Freunde der Araber würden von ihnen niedrigere Preise erwarten als von weniger befreundeten Ländern – und waren doch überrascht, als die Araber von eben ihren Freunden ganz im Gegenteil erwarteten, sie würden mehr zahlen. Zweites Beispiel: 2006 warf der damalige AT&T Chef Whittacre Google vor, es erhalte den Zugang zu den Internet-Kunden umsonst und bereichere sich zu Lasten der Netzbetreiber. Darauf fragte der Mathematiker Odlyzko: Warum eigentlich denkt Whittacre, Google soll an AT&T zahlen und nicht AT&T an Google? Content und Netz sind komplementär: Während sie gegenseitig vom Wohlbefinden der anderen Seite profitieren, schließen sich Komplementarität und Konflikt nicht aus. Bei der Debatte um Netzneutralität geht es um genau solche Konflikte. Das ursprünglich radikale Konzept der Netzneutralität bestand in der Forderung nach Gleichbehandlung von Bits im ganzen Netz – unabhängig von Inhalt, Plattform, Herkunft, Ziel oder Art des Dienstes. Während das „BestEffort“-Internet als Leitbild einer so verstandenen Netzneutralität Pate stand, stellt sich im Zuge der Konvergenz unterschiedlicher Netztypen die Frage: Warum sollte sich dabei die herkömmliche Internet-Philosophie durchsetzen, zumal sie streng genommen sogar im Internet nicht mehr gilt? Es gibt gute volkswirtschaftliche Gründe für Preis- und Qualitätsdifferenzierung der Netzdienste. Deshalb scheint sich eine moderatere Definition der Netzneutralität durchzusetzen, die netzseitige Chancengleichheit des Wettbewerbs zwischen Inhalte- und Diensteanbietern im weiten Sinne fordert. Priorisierung und Preisdiskriminierung sind danach erlaubt, sofern
6
Ingo Vogelsang
sie auf sachlichen Kriterien beruhen und keine effizienten Wettbewerber behindern. Insbesondere ist Differenzierung auf der Endkundenseite zulässig. Wesentliche Fälle der Verletzung der Netzneutralität wären dann die ungerechtfertigte Blockierung bzw. Behinderung oder die Bevorzugung bestimmter Diensteanbieter oder Anwendungen. Eine Verletzung der Netzneutralität bezieht sich sowohl auf preisliche als auch auf qualitative Diskriminierungen. Die Situation in den USA Die Debatte über Netzneutralität ging von den USA aus und ist erst in jüngster Zeit auf Europa übergeschwappt, bislang ohne hier ähnliche Wogen zu erzeugen. Die Situation ist in den USA zwar anders als in Europa, aber doch nicht völlig verschieden. Anders ist die noch immer verbreitete Forderung nach „Best-Effort“-Internet als einzig gültigem Maßstab für Netzneutralität. Gemäßigtere Befürworter der Netzneutralität erheben Forderungen nach dem Ausschluss von ungerechtfertigter Zugangsblockierung oder Diskriminierung gegen einzelne Content-Anbieter oder gegen Klassen von Anbietern, die nicht auf objektiven Kriterien beruhen. Aktuell wäre die Blockierung von BitTorrent (P2P) durch Comcast und Cox zu nennen, die von der FCC verboten wurde. Diese Praxis war fast ausschließlich auf die USA beschränkt (und dabei auf das Kabelmodem). Für den – im Vergleich zu Europa – größeren Stellenwert von Netzneutralität in den USA sind zwei Gründe zu nennen. Zum einen wurde vor einigen Jahren in den USA die Regulierung von „Open Access“ und „Unbundling“ im Breitbandbereich abgeschafft. Das geschah im Zuge einer Bevorzugung von infrastrukturbasiertem gegenüber dienstebasiertem Wettbewerb sowie aufgrund des größeren Marktanteils der Kabelnetzbetreiber gegenüber DSL-Anbietern beim Breitbandanschluss. Zum anderen kam es in der letzten Dekade zur Fusion großer Netzbetreiber: AT&T, Verizon, Comcast und Time Warner sind als größte Breitbandanbieter das Resultat einer Reihe von Mega-Fusionen. Diesen Entwicklungen folgte, dass heute in den USA ein größeres Marktmachtproblem im Netzbereich besteht als in Europa. Man kann annehmen, dass (a) nur marktmächtige Breitbandanbieter in der Lage sind, die Netzneutralität zu verletzen, und (b) solche Unternehmen auch genügend Anreize dazu verspüren. Europa verfügt darüber hinaus über ein eingriffintensiveres wirtschaftspolitisches Instrumentarium im Telekommunikationsbereich, womit Verletzungen der Netzneutralität besser verhindert oder korrigiert werden könnten, als das heute in den USA möglich ist.
Die Debatte um Netzneutralität und Quality of Service
7
Die Debatte um Netzneutralität und Quality of Service (QoS) Die Debatte um Netzneutralität und QoS ist Teil der Geburtswehen des neuen Zusammenspiels von Inhalten und Netzen. Aus den drei NetzDienstekombinationen Telefonnetz-Telefondienst, Fernsehnetz-Fernsehen und Breitband/Backbonennetz-Internet entsteht im Zuge der Konvergenz ein heterogener Netztyp, für den neue Qualitäts- und Finanzierungsmodelle und Standards entwickelt werden müssen. Neue Vermittler zwischen den Marktteilnehmern im Netz, z. B. Google und Yahoo, haben inzwischen Marktmacht aufgebaut, die mit der der Anschlussnetzbetreiber konkurriert. Das Problem der Finanzierung der Netzumwandlung und des Netzausbaus in Next Generation Networks (NGN) und Next Generation Access (NGA) wächst angesichts der Konvergenz und des damit verbundenen Wettbewerbs der Netze. Die Identifizierung von Diensten mit Netzen erleichterte bislang die Finanzierung und Qualitätsdifferenzierung der Netze. Die von Konvergenz ausgehende Trennung von Diensten und Netzen erschwert demgegenüber die Finanzierung solcher Investitionen durch Endnutzer, zumal Konkurrenz unter Netzen den Konsumenten die Wahl gibt. Denn (Tele-)Kommunikationsnetze sind versunkene Fixkostenmaschinen, weshalb ihre Finanzierung aus Nutzungsgebühren nur bedingt möglich und effizient ist. Außerdem sind (Tele-)Kommunikationsmärkte zweiseitig: Sie verfügen über mehrere Nutzertypen, die von der gegenseitigen Nutzung profitieren. Für solche Märkte ist bekanntlich eine Beschränkung der Finanzierung auf Endnutzer im Allgemeinen nur wenig effizient. Darüber hinaus fühlen sich die Netzbetreiber im Recht, Beiträge von den Content-Anbietern zu verlangen, da sie ihnen Breitbandzugang zu den Endnutzern gewähren. Zudem erfordern die nun im konvergierten Netz zu erbringenden Dienste differenzierte Qualitäten, so dass eine Qualitätsdifferenzierung letztlich auch effizient sein dürfte. Bislang besteht selbst im Zuge der nach Jahrzehnten der Vorankündigungen nunmehr sich real abzeichnenden Konvergenz immer noch eine Qualitätsdifferenzierung zwischen physischen Netztypen. Bei fortgeschrittener Konvergenz geht es insbesondere (aber nicht ausschließlich) um QoS-Differenzierung im selben Netz, möglicherweise um so etwas wie virtuelle Netzdifferenzierung.1 Bleibende Differenzierungen gehen insbesondere von Mobilfunknetzen aus – wegen der von anderen Netzen nicht nachbildbaren Mobilität – sowie von Festnetzen durch die NGN-Umwandlungen. Ob sich die Investitionen für letztere auszahlen werden, ist dabei durchaus fraglich. Werden die Kunden für höhere QoS im Vergleich zum „Best-Effort“-Internet auch mehr zahlen wollen? 1
Priorisierung kann als Zwitter zwischen Preis- und QoS-Differenzierung gelten.
8
Ingo Vogelsang
Komplementarität von Content und Netzen Zwischen Content und Netzen besteht eine vertikale Komplementaritätsbeziehung. Insbesondere steigt die Nachfrage nach Netzdiensten mit zunehmendem Angebot von Inhalten; gleichzeitig steigt die Nachfrage nach Content mit zunehmendem Angebot von Netzen: Beide profitieren von Netzeffekten. Folglich ist es grundsätzlich die Zusammenarbeit zwischen Netz und Content, die Gewinn maximiert, und – im Gegensatz zur Kollision zwischen Konkurrenten – sie ist auch volkswirtschaftlich erwünscht. Es besteht also eine generelle Interessenkongruenz von Content und Netzen. Versunkene Kosten und steigende Skalenerträge finden sich sowohl bei Netzbetreibern als auch bei Content-Anbietern – wenngleich in unterschiedlichem Maße. Daraus folgt zudem, dass vertikale Integration zur Abwendung von doppelter Marginalisierung und zur Internalisierung von Netzeffekten effizienzerhöhend wäre. Dem stehen aber Kompatibilitätsprobleme einer Integration von Content und Netzen entgegen. Das zeigen enttäuschende Fusionen wie die zwischen AOL und Time Warner, die nicht die gewünschten Synergieeffekte brachten. Eine Verletzung der Netzneutralität kann nun als Versuch gedeutet werden, Vorteile aus vertikaler Integration zu erzielen, ohne die Kompatibilitätsprobleme bewältigen zu müssen. Beispiele hierfür wären Exklusivverträge zwischen Content-Anbietern und Netzbetreibern, die Netzneutralität verletzen und Integrationsvorteile bringen, ohne dass z. B. die jeweiligen Unternehmenskulturen aufgegeben werden müssten. Die überkommene Einheit von Diensten und Netzen lässt sich auch als Substitut für vertikale Integration deuten, die gegenseitige Spezialisierung von Netz und Content erlaubt. Es kann aber auch vorkommen, dass Netzneutralität Integrationsvorteile wahrnehmen hilft, z. B. indem sie doppelte Marginalisierung dadurch vermeidet, dass der Inhalt nicht für Übertragung zahlt.2 Woher rühren Konflikte zwischen Content und Netzen? Der erste ist der, dass zwar grundsätzlich die Komplementarität zwischen Content und Netzen besteht, sich aber im Einzelfall als Komplementarität zu den jeweiligen Konkurrenten äußert. Beispielsweise ist Sprachtelefonie komplementär zu PSTN, und VoIP ist komplementär zum Breitbandnetz. VoIP ist gleichzeitig ein Substitut für und damit Konkurrent von Sprachtelefonie. Daraus folgt ein Interessenkonflikt zwischen VoIP und PSTN.
2
Economides, N. / J. Tåg (2007): Net Neutrality on the Internet: A Two-Sided Market Analysis, in: NET Institute Working Paper 07-45.
Die Debatte um Netzneutralität und Quality of Service
9
Der zweite Konflikt besteht in der Rentenabschöpfung, also dem Konflikt zwischen Anbietern und Kunden, nur dass es hier um so genannte zweiseitige Märkte mit Endnutzern und Content-Anbietern als Kunden geht. Warum sollte Content zahlen, wenn schon die Endnutzer dazu herangezogen werden? Hinzu kommt, dass im Zuge der Netzkonvergenz die Dienste, insbesondere Sprachtelefonie, nicht mehr so sehr zur Zahlung herangezogen werden können wie in der Vergangenheit. Grundsätzlich besteht, wenn beide Kundenseiten bezahlen, eine bessere Steuerungsmöglichkeit der Kapazitätsauslastung bei knapper Netzkapazität. Dem steht entgegen, dass von einigen Content-Anbietern stärkere Netzeffekte als von einer großen Zahl Endnutzer ausgehen. Die Präsenz solcher InhalteAnbieter erhöht also die Nachfrage der Endnutzer nach Netzdiensten. Daraus folgt, dass die Netze solche Content-Anbieter an sich binden wollen und ihnen Gewinnmöglichkeiten bieten und gleichzeitig Renten abschöpfen. Daraus wiederum folgt eine Differenzierung der Anschlussbedingungen von Content nach Netzeffekten, und das kann durchaus effizient sein.
Ökonomische Folgen von QoS- und Preis-Differenzierung für Content-Anbieter Ausgehend vom „Best-Effort“-Internet schafft QoS-Differenzierung Gewinner und Verlierer unter den Inhalte-Anbietern. Im Zuge der Konvergenz kann aber QoS-Differenzierung auch nichts anderes sein als eine Fortsetzung der alten Einheit von Diensten und Netzen. Im Vergleich zum Einheitsbrei des „Best-Effort“-Internet ist solch eine QoS Differenzierung entsprechend den Anforderungen bestimmter (nicht konkurrierender) Dienste meist wohlfahrtserhöhend. Bei Netzwettbewerb profitiert dann von QoS Differenzierung begünstigter Content mehr als der benachteiligte verliert. Eine QoS-Differenzierung zur Differenzierung der Wettbewerber konkurrierender Anwendungen ist demgegenüber in der Bewertung weniger eindeutig. QoS-Differenzierung könnte sich z. B. wettbewerbsfördernd im Content auswirken, wenn es dadurch zur Förderung von Nischenanbietern kommt. Demgegenüber könnte sich QoS-Differenzierung als wettbewerbsmindernd im Content-Bereich erweisen, wenn es zu einer Verstärkung von Skaleneffekten führt. Diese Zusammenhänge sind also recht undurchsichtig. Abbildung 1 zeigt die kurzfristigen Folgen von Netzwettbewerb für Content-Anbieter im europäischen Kontext mit Zugangsregulierung. In diesem Fall generiert das Zusammenspiel von Zugangsregulierung und der
10
Ingo Vogelsang
technischen Marktentwicklung genügend Wettbewerb, so dass Netzneutralität (im moderaten Sinne) von den Netzbetreibern freiwillig eingehalten wird. Von einer etwaigen Verletzung der Netzneutralität benachteiligte Content-Anbieter haben unter Wettbewerb normalerweise genügend Möglichkeiten, über nicht-diskriminierende Netzbetreiber Endkunden zu erreichen. Gemeinsam mit der Komplementarität von Content und Netzen genügt das meist, die Netzbetreiber von Diskriminierungen abzuhalten. Als Folge steigen die schon durch den Netzwettbewerb begünstigten Konsumenten- aber auch Content-Renten durch Netzneutralität noch weiter an. Das Interesse der Content-Anbieter an Einhaltung der Netzneutralität ist daher vollauf verständlich. Hinsichtlich dynamischer Effizienz ist das Hauptargument der Befürworter von Netzneutralität, durch sie würden die Innovationen in Inhalte, Anwendungen, Dienste und Endgeräte optimiert. Zum Beleg wird die phänomenale Entwicklung des Internet mit all seinen Anwendungen angeführt: eine Entwicklung, die angeblich ohne Netzneutralität nicht möglich gewesen wäre. In der Tat erfordert eine auf dem End-to-End-Prinzip beruhende „Dummheit“ der IP-basierten Netze Intelligenz an der Peripherie. Dadurch werden bestimmte Innovationen im Content- und Anwendungsbereich sowie in Endgeräten gefördert. Andererseits geht damit Netzneutralität einseitig zu Lasten von Innovationen in Netzintelligenz und Netzdifferenzierung sowie zu Lasten QoS-abhängiger Dienste. Die Problematik besteht also in einer Abwägung der Innovationen in den komplementären Bereichen Netz und Dienste/Content. Technische und Marktentwicklung
Zugangsregulierung
Netzwettbewerb
Netzneutralität
Content-Renten steigen durch Netzneutralität
Abb. 1. Kurzfristige Folgen von Netzwettbewerb für Content-Anbieter
Die Debatte um Netzneutralität und Quality of Service
Netzneutralität
11
Netzwettbewerb
Mangel an Netzinvestitionen
Weniger Nachfrage nach Content
Mehr ContentInnovationen
Weniger ContentInnovationen
Abb. 2. Langfristige Folgen von Netzwettbewerb und Netzneutralität für ContentAnbieter
Selbst wenn man den Befürwortern der Netzneutralität hinsichtlich der Innovationsanreize folgt, bleibt – wie Abbildung 2 zeigt – eine Ambivalenz bestehen. Das Schaubild stellt die langfristigen Folgen des Zusammenspiels von Netzneutralität und Netzwettbewerb für Content-Anbieter dar. Nach Auffassung ihrer Befürworter gehen von Netzneutralität direkt positive Einflüsse auf die Innovationsneigung im Content-Bereich aus, da der offene Zugang zu Netzen die Innovationen vieler potentieller ContentAnbieter anregt. Langfristig erhöht Netzneutralität durch die damit verbundene Verringerung der Netzdifferenzierung den Netzwettbewerb, während gleichzeitig dieser Wettbewerb die Neigung zu Netzneutralität erhöht. Die durch Netzneutralität bedingte Homogenisierung der Netze und der verstärkte Netzwettbewerb verringern wegen der geringeren Gewinnerwartungen die Investitionsneigung der Netze. Das könnte geschehen, obwohl es gleichzeitig durch den Wettbewerbsdruck zu einer Erhöhung der nachgefragten Netzleistungen kommt. Dieser Mangel an Investitionen führt zu einer Verringerung der Qualität der Netzleistung durch Kapazitätsengpässe, was wiederum die Nachfrage nach Content negativ beeinflusst. Das hat seinerseits einen negativen Einfluss auf die Innovationsneigung im Content-Bereich, obwohl es auch hier zu Innovationen kommen könnte, die Inhalte mit geringeren Netzqualitätsansprüchen fördern. Langfristig gibt es
12
Ingo Vogelsang
Verletzung der Netzneutralität
Weniger Netzwettbewerb
Mehr Netzinvestitionen
Mehr Nachfrage nach Content
Weniger ContentInnovationen
Mehr ContentInnovationen
Abb. 3. Langfristige Folgen von Verletzung der Netzneutralität für Content-Anbieter
also durchaus gegensätzliche Einflüsse von Netzneutralität auf die Innovationsneigungen im Content-Bereich. Abbildung 3 wiederum zeigt analog die durchaus umgekehrten langfristigen Folgen einer Verletzung der Netzneutralität auf Innovationen im Content-Bereich. Eine durch Verletzung der Netzneutralität mögliche Differenzierung der Netze könnte also auf dem Weg über verringerten Netzwettbewerb mehr Netzinnovationen und Netzinvestitionen erzeugen sowie z. B. höhere Breitbandpenetration, die ihrerseits Gewinn- und Innovationsanreize für Content-Anbieter hervorruft. Die relative Marktposition von Content-Anbietern gegenüber Netzbetreibern hängt insbesondere von der Marktmacht im Anschlussbereich der Netze ab. Außerhalb des Anschlussbereichs, also im Kernnetz, ist Marktmacht selten so ausgeprägt, dass Netzbetreiber Content-Anbieter ausnutzen könnten. Die Marktmacht der Netzbetreiber im Anschlussbereich resultiert aus Nichtduplizierbarkeit der physischen Anschlüsse in festen Netzen. Im Gegensatz zu der Marktmacht gegenüber Endnutzern und gegenüber den Betreibern von Kernnetzen rührt aber die Marktmacht gegenüber ContentAnbietern nicht allein vom Mangel an Duplizierbarkeit her, sondern auch von der Gesamtzahl der Anschlüsse eines Netzbetreibers, da Zugang zu einer großen Zahl von Endnutzern relevant für die Content-Anbieter ist.
Die Debatte um Netzneutralität und Quality of Service
13
Durch Anschlussregulierung kann die Marktmacht der Netzbetreiber eingedämmt und Chancengleichheit für Content-Anbieter hergestellt werden. Die Chancengleichheit zwischen Content-Anbietern wird auch von QoS-Differenzierungen beeinflusst, die Verletzungen der Netzneutralität sein können – aber nicht müssen. Gewinner einer solchen Differenzierung sind in erster Linie Content-Anwendungen mit hohen QoS-Anforderungen oder auch Content-Anbieter als Inhaber von Exklusivverträgen mit Netzbetreibern. Verlierer sind in erster Linie Anwendungen mit niedrigen QoSAnforderungen oder durch Exklusivverträge ausgeschlossene Anbieter. Grundsätzlich ist zumindest bei der QoS-Differenzierung ein Ausgleich für diese Effekte durch preisliche Bedingungen möglich. Das heißt, ein durch hohe QoS begünstigter Inhalt kann seinen Vorteil durch einen hohen QoSPreis wieder verlieren, und ein von niedriger QoS benachteiligter Content kann durch preisliche Einsparung den Nachteil ausgleichen.
Gegensteuerung durch Wettbewerbspolitik und Regulierung? QoS-Differenzierungen und Abweichungen von strikter Netzneutralität sind meines Erachtens unweigerlich Bestandteil der anstehenden Veränderungen im Netz- und Contentbereich. Wie der letzte Abschnitt gezeigt hat, sind die Auswirkungen der Netzneutralität und ihrer Verletzung kompliziert, sehr differenziert und von den jeweiligen Umständen abhängig. Sie können wohlfahrtsfördernd sein, müssen es aber nicht. Das heißt insbesondere, dass eine Verletzung der Netzneutralität nicht immer wohlfahrtsmindernd wirkt. Ein Netzneutralitätsgebot setzt in seiner Pauschalität aber voraus, dass eine Verletzung in aller Regel volkswirtschaftlich schädlich sein muss. Da das nicht der Fall ist, sollte stattdessen jeder wirtschaftspolitische Eingriff zur Netzneutralität Abwägungsentscheidungen zulassen. Weder ein pauschales Neutralitätsgebot noch die unbeschränkte Freiheit einer Neutralitätsverletzung sind daher angebracht. Im europäischen Kontext bedeutet das, dass keine neuen ex ante Eingriffe vonnöten sind, auch bei Vorliegen der Regulierungsvoraussetzungen (3-Kriterien-Test und Marktbeherrschung). Vielmehr sollten die Regulierer das Verhalten der Marktteilnehmer beobachten und gegebenenfalls punktuell eingreifen, wie es durch die FCC im Fall Comcast/BitTorrent geschehen ist. Insgesamt scheinen aber Verletzungen der Netzneutralität nach den bisherigen Erfahrungen selten vorzukommen und nachträglicher Korrektur zugänglich zu sein, so dass sie eher in die Kompetenz der Wettbewerbspolitik als in die
14
Ingo Vogelsang
der sektorspezifischen Regulierung gehören. Das EU-Wettbewerbsrecht und der europäische Rechtsrahmen für den Telekommunikationssektor reichen meines Erachtens aus, um potenziell schädliche Verletzungen der Netzneutralität zu verhindern. Produkt- und Qualitätsdifferenzierung in der Netzleistung sollte selbst marktbeherrschenden Netzbetreibern möglich sein, solange sie (a) nicht gegen einzelne Content- bzw. Anwendungsanbieter diskriminiert und (b) nicht auf regulierten Normen beruhende Netzzusammenschaltungsprinzipien verletzt.
Über den Autor Prof. Dr. Ingo Vogelsang, geb. 1943, ist seit 1981 Professor für Volkswirtschaftslehre an der Boston University, USA. 1967 Diplomvolkswirt, 1969 Promotion zum Dr. rer. pol. in Heidelberg. 1975-1980 Wissenschaftlicher Assistent in Bonn, 1978-1979 und 1988 Gastwissenschaftler am M. I. T., seit 1987 Gastwissenschaftler bei der RAND Corporation. 1980 Habilitation in Bonn. Er ist Spezialist auf dem Gebiet der Regulierung und des Wettbewerbs in Netzwerkindustrien, insbesondere Telekommunikation und Elektrizitätswirtschaft. Seine Arbeiten haben besonders die Monopolpreisregulierung und Zusammenschaltbestimmungen in vielen Ländern beeinflusst. Er veröffentlichte 16 Bücher sowie zahlreiche Artikel und Zeitschriftenaufsätze; er ist Mitherausgeber des „Handbook of Telecommunications Economics“ und Associate Editor von „Information Economics and Policy“ sowie im wissenschaftlichen Beirat vierer weiterer Zeitschriften.
Regulatorische Herausforderungen durch die Umstellung auf ein IP-basiertes Telekommunikationsnetz
Matthias Kurth
Ausgangssituation Die Telekommunikationsbranche befindet sich weltweit in einem tief greifenden Umrüstungsprozess. Dabei wird zunehmend IP-Technologie eingesetzt, um nach und nach traditionelle leitungsvermittelte Technologien zu ersetzen. Die Telekommunikationsnetze der Zukunft werden auf dem Prinzip der Paketvermittlung und überwiegend auf dem Internet-Protokoll basieren. Die Entwicklung zu IP-basierten Netzen hat ausgehend vom Kernnetzbereich längst eingesetzt und weitet sich mittlerweile auf die Zugangsund Anschlussnetze aus. Dieser Weg ist noch nicht zu Ende. Große Telekommunikationsnetze werden voraussichtlich noch jahrelang schrittweise von leitungs- auf paketvermittelte Technologie umgestellt. Was unter den Stichwörtern Next Generation Networks (NGN), Next Generation Access (NGA) oder auch allgemein „Umstellung auf IP“ behandelt wird, ist bei genauerer Betrachtung ein ganzes Bündel unterschiedlicher Maßnahmen, um Telekommunikationsnetze auszubauen, zu optimieren und das Angebot innovativer Dienste zu ermöglichen. Einerseits wird leitungsvermittelte Technologie durch paketvermittelte ersetzt, um Kosten zu sparen. Auf der anderen Seite erfordert insbesondere der Anschlussbereich Auf- bzw. Umrüstungen des Netzes, um mehr Bandbreite zu ermöglichen, die wiederum als Voraussetzung für hochwertige breitbandige Dienste anzusehen ist, die dem Endkunden angeboten werden sollen. Hierzu gibt es unterschiedliche Strategien, die hauptsächlich davon abhängen, wie nah Glasfaser an die Endkundenanschlüsse herangeführt wird. Vereinfacht lässt sich sagen, dass die Bandbreite immer höher wird, je näher die Glasfaser am Endkundenanschluss liegt – ein entscheidender
16
Matthias Kurth
Faktor, weil der Endkundenanschluss in heutigen Netzen häufig als kritischer Engpass angesehen wird. Als eines der wesentlichen Merkmale von NGN gilt, dass zukünftig unterschiedliche Netzfunktionen wie Transport, Dienst und die Kontrollfunktion (z. B. Signalisierung) auf unterschiedlichen (logischen) Netzebenen realisiert werden und infolgedessen auch von unterschiedlichen Anbietern erbracht werden können. NGN begünstigt somit die schnelle Verbreitung innovativer Dienste durch unabhängige Diensteanbieter. Vor dem Hintergrund der Investitionen in NGN und NGA ist die Erarbeitung eines Regulierungsansatzes notwendig, um den Netzumbauprozess auch regulatorisch zu begleiten. Dabei sollen die bereits erreichten wettbewerblichen Bedingungen, die auf dem Modell der „ladder of investment“ und der Förderung effizienter Investitionen in Breitbandinfrastruktur sowohl im Zugangsnetz als auch im Kernnetz beruhen, aufrecht erhalten werden. Während die Entwicklung zu NGN/NGA einerseits zu steigenden Skalen- und Dichtevorteilen führt, wird der spezielle Mix an eingesetzten Technologien zunehmend von regionalen Charakteristika (wie etwa Besiedlungsdichte) abhängen und sich daher auch innerhalb von Deutschland unterscheiden. Das kann gegebenenfalls einen differenzierten Regulierungsansatz erfordern, wobei darauf zu achten ist, dass die Regulierung von NGA-Netzen effiziente Investitionen des Incumbent sowie der Wettbewerber fördern sollte. Im Kernnetz ist die Zahl der Zusammenschaltungspunkte in paketvermittelnden Netzen von erheblicher Bedeutung für das Entstehen und die Weiterentwicklung von Wettbewerb, insbesondere auch unter dem Gesichtspunkt der Kosteneffizienz des Netzes. Hierbei sind die unterschiedlichen Interessen aller Beteiligten zu berücksichtigen. Strukturelle Veränderungen der Telekommunikationsnetze erzeugen somit vielfältige Auswirkungen. Während der Endkunde im Idealfall – abgesehen von der Nutzung neuer Dienste – möglichst wenig von der Umstellung merkt, sind Auswirkungen auf die auf den Netzstrukturen basierenden Vorleistungsprodukte eine logische Konsequenz der strukturellen Veränderungen. Nachfolgend werden daher ein Überblick über die Regulierungsaktivitäten und ein Ausblick auf die vor uns stehenden regulatorischen Herausforderungen gegeben.
Regulatorische Bestandsaufnahme Das wesentliche Ziel der Regulierung ist es, die Rahmenbedingungen der Telekommunikation so zu gestalten, dass funktionsfähiger Wettbewerb
Die Umstellung auf ein IP-basiertes Telekommunikationsnetz
17
entstehen kann. Dabei ist Regulierung technologieneutral: Unabhängig davon, auf welcher technischen Grundlage ein Telekommunikationsnetz oder -dienst betrieben oder angeboten wird, ist das Telekommunikationsgesetz anwendbar. Dennoch wirken sich die dargestellten Veränderungen der technologischen Grundlagen auf die Regulierung aus. Die Regulierungspraxis muss daher den neuen bzw. sich ändernden Voraussetzungen angepasst und hinterfragt werden. Die Bundesnetzagentur begleitet die häufig unter dem Stichwort NGN diskutierte Umstellung auf IP-basierte Telekommunikationsnetze bereits seit mehreren Jahren durch Workshops, Expertengruppen, Veröffentlichungen, die Mitarbeit in internationalen Gremien und natürlich auch durch ihre Entscheidungen. Wenn sich die Netze ändern, muss sich auch die Regulierung den neuen Gegebenheiten anpassen. Durch seinen Grundsatz der Technologieneutralität ist der geltende Rechtsrahmen hierfür prinzipiell geeignet. Veränderungen stehen dennoch an, weil die Europäische Kommission gerade den gemeinsamen Rechtsrahmen für elektronische Kommunikationsnetze und -dienste überarbeitet. Dabei spielen auch die hier dargestellten Veränderungen eine wesentliche Rolle, denn der zukünftige Rechtsrahmen sollte stabil genug sein, um die Veränderungen abzubilden, und er sollte technologieneutrale Lösungen bereitstellen, damit sich der Wettbewerb auf den Telekommunikationsmärkten weiter entfalten kann. Dabei kommt es auch darauf an, den Übergangszeitraum dafür zu nutzen, gleichwertige Alternativen für heute bestehende Vorleistungen zu etablieren, die in einer NGAUmgebung nicht mehr angeboten werden können. Zudem sollte das in NGN liegende Potential freigesetzt und nicht durch Einschränkungen der Netzbetreiber behindert werden. Die bei NGN möglichen Multi-ServiceNetze erfordern Freiräume für neue Dienste und unabhängige Diensteanbieter. Insofern kommt hier auch möglichen Transparenzverpflichtungen, die dem entgegenwirken können, eine größere Rolle zu.
Europäische Zusammenhänge stärker beachten Beim Übergang zu NGN und NGA wird auch die Gruppe der europäischen Regulierungsbehörden (European Regulators Group, ERG) an Bedeutung gewinnen. Als Reaktion auf die Forderung der EU-Kommission nach einer Europäischen Regulierungsbehörde ist die ERG gerade dabei, sich auf ein stärkeres Fundament zu stellen, sowohl in rechtlicher, organisatorischer und personeller Hinsicht. Damit ist gewährleistet, dass gerade in dieser
18
Matthias Kurth
Phase des Umbruchs – tatsächlicher wie rechtlicher Art – eine handlungsfähige Einheit geschaffen wird, die schnell und kompetent auf die aufkommenden Fragestellungen reagieren und den Harmonisierungsprozess vorantreiben kann, aber gleichzeitig nationale Besonderheiten besser berücksichtigt, als es bei einer Europäischen Regulierungsbehörde der Fall wäre. Im Jahr 2009 werde ich als „Chair“ der ERG hierauf einen besonderen Schwerpunkt meiner Arbeit setzen. Die ERG kann dabei auf umfangreiche Vorarbeiten der letzen beiden Jahre zurückgreifen. Unter der Leitung der Bundesnetzagentur wurden Papiere zu NGA sowie zur IP-Zusammenschaltung erarbeitet, und beide Themen bilden auch 2009 einen Schwerpunkt des Arbeitsprogramms der ERG. So soll eine ökonomische Analyse der tatsächlichen NGAEntwicklungen erstellt werden, in der auch untersucht wird, mit welchen regulatorischen Maßnahmen der effiziente Netzausbau begünstigt werden könnte. Dabei kann nicht unberücksichtigt bleiben, welche Vorleistungsprodukte in einer NGA-Umgebung erforderlich und angemessen sind. Die Europäische Kommission hat diese Thematik in ihrer NGA-Empfehlung aufgegriffen, dabei auf die von der ERG im Vorfeld geäußerte Kritik jedoch nur bedingt Rücksicht genommen. Daher wird im Rahmen der Arbeiten zu NGA auch die Auseinandersetzung mit der Kommissionsempfehlung im Mittelpunkt stehen. Auch im Hinblick auf die Weiterentwicklung der Zusammenschaltungsleistungen wird die ERG ihre Arbeit 2009 fortsetzen und hat sich die Erarbeitung einer Common Position zu den zukünftigen Zusammenschaltungsund Abrechnungsmechanismen zum Ziel gesetzt. Dabei geht es insbesondere auch um Fragen zu Bill & Keep. Im 2008 veröffentlichten Common Statement hat die ERG Bill & Keep als Abrechnungssystem mit vorteilhaften Eigenschaften identifiziert, zugleich aber weiteren Untersuchungsbedarf festgestellt. Insbesondere die Auswirkungen auf unterschiedliche Geschäftsmodelle und Fragen der tatsächlichen Einführung und des Übergangs sollen 2009 weitergehend erörtert werden.
Situation in Deutschland Natürlich wird sich mit diesen Fragen nicht nur die ERG, sondern auf nationaler Ebene auch die Bundesnetzagentur befassen. Die Deutsche Telekom hat angekündigt, ihr Netz sukzessive auf IP-Technik umzustellen. Wenngleich der konkrete Zeitplan dieses langfristig zu sehenden Vorhabens noch unklar ist, ergeben sich daraus einige aktuelle Fragestellungen so-
Die Umstellung auf ein IP-basiertes Telekommunikationsnetz
19
wohl auf Vorleistungs- als auch auf Endkundenebene. Aber auch andere Anbieter werden vermehrt Glasfaser verlegen, um Anschlüsse mit sehr hohen Bandbreiten anbieten zu können. Hier rücken Kooperationsfragen in den Fokus der regulatorischen Diskussion. Vorleistungsebene Next Generation Access wird den Zugang zur Teilnehmeranschlussleitung in seiner heutigen Ausprägung verändern, wenn sich Teilnehmeranschlussleitungen ändern, indem sie durch das Heranführen von Glasfaser an den Endkunden verkürzt werden. TAL-Nachfrager stehen in diesem Fall vor der Überlegung, ob sie dieser Entwicklung folgen und sich mit ihrer Netzinfrastruktur ebenfalls den Endkunden annähern. Gleichzeitig eröffnet die Verkürzung der Teilnehmeranschlussleitung neue Einsatzmöglichkeiten für Bitstromzugangsleistungen. So könnte insbesondere der heute noch gar nicht angebotene Bitstromzugang am Hauptverteiler in den Mittelpunkt des Interesses gelangen. Dabei ist einerseits sicherzustellen, dass aus der Sicht eines Netzbetreibers ausreichend Anreize bestehen, in einen Netzausbau zu investieren. Auf der anderen Seite muss durch geeignete Vorleistungsprodukte sichergestellt werden, dass sich langfristig funktionsfähiger Wettbewerb etablieren kann. Im Idealfall kommt es hier so früh wie möglich zu Kooperationen zwischen den am Markt tätigen Anbietern, weil eine Remonopolisierung bestimmter Märkte natürlich zu vermeiden ist. Andererseits bleibt auch abzuwarten, wie sich der Bedarf nach bestimmten Vorleistungsprodukten tatsächlich entwickeln wird. Die Bundesnetzagentur hat beispielsweise die Deutsche Telekom bereits Mitte 2007 verpflichtet, den Wettbewerbern Zugang zu Leerrohren und zum Kabelverzweiger zu gewähren. Jetzt müssen die Wettbewerber über die konkreten Bedingungen verhandeln. Die Behörde schreitet nur ein, wenn diese Verhandlungen scheitern. Bislang liegen jedoch keine Beschwerden hierüber vor. Im Gegenteil hat die Bundesnetzagentur hier selbst einen gewissen Druck ausgeübt, um die Gespräche in Gang zu setzen. Letztlich geht es auch darum, dass nicht nur die Deutsche Telekom in ein neues Glasfasernetz investiert, sondern auch die Wettbewerber. Natürlich gilt auch hier die seit Beginn der Liberalisierung bekannte These, dass eine Duplizierung der Anschlussinfrastruktur wirtschaftlich nicht überall sinnvoll ist. Es ist also nicht zu erwarten, dass mehrere Anbieter parallel Gebiete mit Glasfaser erschließen werden. Aus Sicht einer Regulierungsbehörde werden dadurch spannende Fragen aufgeworfen. Ei-
20
Matthias Kurth
nerseits basiert der derzeitige Wettbewerb fast ausschließlich auf Vorleistungsprodukten, die einen Netzzugang gewähren. Andererseits sollen durch die Aussicht auf regulatorisch angeordnete Zugangsprodukte auch keine Negativanreize gesetzt werden, die sich letztlich investitionshemmend auswirken könnten. Es kommt daher darauf an, Investitionsanreize so zu setzen, dass es sich sowohl für den Incumbent als auch für alternative Anbieter lohnt, in Telekommunikationsinfrastruktur zu investieren. Mehr als die Hälfte der seit 1998 getätigten Investitionen in Höhe von ca. 80 Milliarden Euro entfällt auf die Wettbewerber der Deutschen Telekom. Regulierung verhindert daher keinesfalls Investitionen, sondert ermöglicht sie auch. Letztlich ist dabei immer darauf zu achten, dass Investitionsanreize immer auf einen Gesamtmarkt wirken müssen. Dabei erweist sich auch der Maßstab der Kosten der effizienten Leistungsbereitstellung als hinreichend flexibel, um alle relevanten Risiken in der Kapitalverzinsung abzubilden. Dadurch ist sichergestellt, dass auch dem etablierten Betreiber ausreichende Mittel für den Aus- und Umbau seines Netzes zur Verfügung stehen. Wenn mit Blick auf größere Investitionen längerfristige Festlegungen zweckmäßig sind, wäre eine entsprechende Öffnung der gesetzlichen Vorgaben an dieser Stelle positiv zu beurteilen. Allerdings bedarf es hierzu zunächst einer Anpassung des europarechtlichen Rahmens. Gegenstand der Diskussion ist des Weiteren der mit der Umrüstung verbundene Abbau von Hauptverteilern. Sie werden künftig nicht mehr im heutigen Umfang erforderlich sein. Wettbewerber haben diese Hauptverteiler mit ihrer eigenen Infrastruktur erschlossen oder stehen vor der unternehmerischen Entscheidung, ob sie bestimmte Hauptverteiler erschließen sollen. Wenngleich die Deutsche Telekom hierzu immer wieder betont, dass kein Hauptverteiler über Nacht geschlossen wird, sind die Unsicherheit der Wettbewerber und die damit verbundenen Schwierigkeiten nachvollziehbar. Die Bundesnetzagentur wird hier einerseits zwischen den betroffenen Unternehmen moderieren, da einvernehmliche Lösungen zu bevorzugen sind. Darüber hinaus wird die Bundesnetzagentur gegebenenfalls in ihren Entscheidungen im Standardangebotsverfahren nach § 23 TKG Übergangsregelungen und Bedingungen der Standortschließungen festlegen, wie sie das ja auch in der Vergangenheit bereits getan hat. Auch die Zusammenschaltung ihrer Netze wird von den Anbietern derzeit von einer PSTN-basierten auf eine IP-basierte Übergabe umgestellt. Das zeigt, dass der Netzumbau alle Anbieter betrifft und Wechselwirkungen komplexer Art verursacht, die auch aus regulatorischer Sicht zu be-
Die Umstellung auf ein IP-basiertes Telekommunikationsnetz
21
handeln sind. So ist 2009 damit zu rechnen, dass die Deutsche Telekom ein IP-basiertes Zusammenschaltungsprodukt für Sprachdienste anbieten wird. Damit könnten gegebenenfalls vielfältige Fragestellungen verbunden sein, die seitens der Bundesnetzagentur bereits in den 2008 veröffentlichten Eckpunkten der Zusammenschaltung IP-basierter Netze abstrakt behandelt wurden. So wird insbesondere abzuwarten sein, ob sich die Marktteilnehmer auf die maßgeblichen Konditionen der IP-Zusammenschaltung einigen können, denn die Produkte werden zunächst nicht reguliert sein. Der derzeitige Entwurf einer Marktdefinition und Marktanalyse der Zusammenschaltungsleistungen für Festnetztelefonie klammert Zusammenschaltungsleistungen mit IP-basierter Übergabe noch aus, weil die Frage der Austauschbarkeit mit PSTN-basierten Zusammenschaltungsleistungen derzeit noch nicht hinreichend verlässlich beantwortet werden kann, solange die Produkte noch nicht spezifiziert sind. Endkundenebene Auch wenn Endkunden von all diesen Änderungen wenig mitbekommen sollen, sind auch hier Anpassungen erforderlich, um bisherige Qualitätsstandards der Dienste aufrechtzuerhalten. Das gilt insbesondere für den Kundenschutz, der in den vergangenen Jahren stark an Bedeutung gewonnen hat. Hier gilt es, etablierte Rechte der Verbraucher auch auf zukünftigen Technologien zu gewährleisten und sicherzustellen, dass beispielsweise der Nutzer eines IP-basierten Telefondienstes nicht schlechter gestellt wird, als der Nutzer eines PSTN-basierten Sprachdienstes. Eine weitere Frage ist die mögliche Verpflichtung der Deutschen Telekom zur Ermöglichung von Preselection und Call-by-Call auf All-IPAnschlüssen. In der 2009 zu erlassenden Regulierungsverfügung wird die Bundesnetzagentur über eine entsprechende Verpflichtung zu entscheiden haben. Weitere Auswirkungen finden im Bereich der Öffentlichen Sicherheit statt, ebenfalls häufig unbemerkt vom Endkunden. Die Vorschriften zum Fernmeldegeheimnis, Datenschutz, Notruf und zur Überwachung müssen technologieunabhängig befolgt werden, auch wenn es natürlich vereinzelt aus technischen Gründen Übergangsregelungen geben kann. Aufgrund der aktuellen Ereignisse ist unser Augenmerk insbesondere auf den Datenschutz gerichtet. Hier sollten vor allem die Anbieter am Markt ein ausgeprägtes Interesse daran haben, Sicherheitslücken zu schließen bzw. gar nicht erst entstehen zu lassen.
22
Matthias Kurth
Ausblick Von den gesetzlichen Zielen der Regulierung ist in diesem Zusammenhang einerseits an das Ziel zu denken, effiziente Infrastrukturinvestitionen zu fördern und Innovationen zu unterstützen. Daneben steht jedoch gleichberechtigt das Ziel der Sicherstellung eines chancengleichen Wettbewerbs und der Förderung nachhaltig wettbewerbsorientierter Märkte der Telekommunikation, auch in der Fläche. Regulierung darf Netzinvestitionen und Innovationen nicht im Weg stehen, sondern trifft im Idealfall Entscheidungen, die dies begünstigen und den Wettbewerb fördern. Insofern kommt der Arbeit der Bundesnetzagentur hier derzeit eine besondere Rolle zu, weil mit dem Netzausbau eine bessere Versorgung der Bevölkerung mit breitbandigen innovativen Diensten verbunden ist. Zwar darf man in NGN, NGA und zukünftige All-IP-Netze keine übertriebenen Hoffnungen setzen, denn die leider immer noch vorhandenen weißen BreitbandFlecken können dadurch nur teilweise entfernt werden. Hier dürften die vielerorts zu beobachtenden kommunalen und regionalen Initiativen zielführender sein, und ich begrüße außerordentlich, dass die EU-Kommission die Maßnahmen zur Verbesserung der Breitbandversorgung in ländlichen Gebieten als Breitband-Beihilfe ausdrücklich genehmigt hat. Ich gehe nicht davon aus, dass der bisherige Regulierungsansatz Innovationen und Investitionen verhindert hat. Im Gegenteil: Obwohl reguliert wurde, hat die Deutsche Telekom in den letzen zehn Jahren ein hochwertiges Breitbandnetz etabliert und plant den weiteren Ausbau. Weil reguliert wird, investieren alternative Anbieter bedeutende Summen in den Ausbau eigener Infrastruktur und sorgen somit für Wettbewerb auf den Telekommunikationsmärkten. Regulierung hat hier Wettbewerb und Investitionen gerade erst ermöglicht. Staatliche Regulierung und privatwirtschaftliche Investitionen schließen sich also keinesfalls aus. Dennoch ist vorhandenes Deregulierungspotential auszuschöpfen, und Regulierung sollte so ausgestaltet werden, dass Investitionen und daraus folgender Wettbewerb gefördert werden, damit mittel- und langfristig weiteres Deregulierungspotential entsteht. Bei den aktuellen Diskussionen über mögliche Deregulierung wird häufig vergessen, dass Wettbewerb die Voraussetzung dafür ist, dass ein Markt aus der Regulierung entlassen werden kann. Die Bundesnetzagentur ist hier auf einem guten Weg und beschränkt die Regulierung sukzessive auf das notwendige Maß. So wurden die Endkundenmärkte zunächst aus der Ex-ante- in die Ex-post-Regulierung überführt. Mittlerweile wurden sie zum Teil bereits vollständig aus der Regulierung entlassen. Auch im Vor-
Die Umstellung auf ein IP-basiertes Telekommunikationsnetz
23
leistungsbereich entwickelt sich mittlerweile ein gewisses Deregulierungspotential. Ob die Regionalisierung von Märkten hierfür ein geeignetes Mittel ist, wird gerade von der Bundesnetzagentur geprüft. Chancen und Risiken sind hier genau abzuwägen, bevor Entscheidungen getroffen werden, die für alle Beteiligten mit enormem Mehraufwand verbunden sind. Um Entscheidungen auf eine solide Grundlage zu stellen, wurde im vergangenen Jahr hierzu eine Anhörung durchgeführt, die derzeit ausgewertet wird und deren Ergebnisse unmittelbar in die Marktanalyse der Bitstromzugangsmärkte einfließen. Allerdings muss nachdrücklich auf die Gefahr einer übereilten Deregulierung im Vorleistungsbereich hingewiesen werden. Hierdurch würden die in den letzten zehn Jahren erzielten Erfolge insgesamt aufs Spiel gesetzt. Zudem würden die von Wettbewerbern geschaffenen neuen Arbeitsplätze in Frage gestellt. Davon abgesehen hat es die Deutsche Telekom auf den Vorleistungsmärkten insbesondere durch das freiwillige Angebot geeigneter Zugangsprodukte selbst in der Hand, ein mögliches Deregulierungspotential zu eröffnen. Hier sehe ich für die Zukunft einen großen Spielraum, der bislang bei weitem nicht ausgeschöpft wurde. In den letzten zehn Jahren ließ sich die Deutsche Telekom zumeist mit viel Widerstand dazu verpflichten, bestimmte Zugangsleistungen anzubieten. Dabei muss regelmäßig jedes Vertragsdetail und am Ende natürlich der Preis mühsam verhandelt und meist angeordnet werden. Freiwillige Angebote, die – so will es der Gesetzgeber – von einem großen Teil des Marktes angenommen werden, könnten hier helfen und Deregulierung ermöglichen. Hier ist vom Übergang zu einer Ex-Post-Entgeltregulierung bis zur vollständigen Entlassung aus der sektorspezifischen Regulierung alles möglich. Der technologische Übergang sollte also dazu genutzt werden, Chancen zur Deregulierung zu erkennen und wahrzunehmen. Dabei ist jedoch sorgsam darauf zu achten, dass es zu keiner Remonopolisierung einzelner Märkte kommt. Denn Wettbewerb erfordert Wettbewerber, und Regulierungsabbau darf keine Jojo-Effekte erzielen, sondern die Märkte müssen kontinuierlich und auf stabiler Basis in das allgemeine Wettbewerbsrecht überführt werden, damit sich der Wettbewerb auch unter diesen Voraussetzungen nachhaltig entwickeln kann. Bis es soweit ist bleiben die Ziele der Regulierung unabhängig von den verwendeten Technologien der Maßstab unseres Handelns. Neben den gesetzlichen Zielen steht für uns dabei das gesamtwirtschaftliche Ziel der Versorgung der Bevölkerung mit leistungsstarken Breitbandanschlüssen und der Verbesserung der Breitbandpenetration insgesamt im Blickpunkt.
24
Matthias Kurth
Über den Autor Matthias Kurth ist seit 2001 Präsident der Bundesnetzagentur (vormals Regulierungsbehörde für Telekommunikation und Post), der sektorspezifischen Wettbewerbsbehörde für die Telekommunikations-, Post-, Energieund Eisenbahnmärkte in Deutschland. Zu ihrem Aufgabenbereich gehören auch das Frequenzmanagement und die digitale Signatur. Er kam 2000 als Vizepräsident zur Bundesnetzagentur. Vorher war er seit 1999 im Management der Colt Telecom GmbH als Direktor für Geschäftsentwicklung, Recht und Regulierung tätig. Er war von 1978 bis 1994 Mitglied des Hessischen Landtags und arbeitete als Rechtsanwalt. Von 1994 bis 1999 war er dann Staatssekretär im Hessischen Ministerium für Wirtschaft, Verkehr, Technologie und Europaangelegenheiten.
Paradoxe Intervention. Grundsätzliche Grenzen und Möglichkeiten der Regulierung von Online-Anbietern
Viktor Mayer-Schönberger Philip Rosedale, der Gründer und CEO von Linden Lab, könnte zufrieden sein. Sein Unternehmen betreibt Second Life, eine virtuelle Welt mit Millionen von Teilnehmern. Mehr als eine halbe Million davon verbringen 15 Stunden und mehr jede Woche in dieser Welt. Bis zu 80 000 davon sind gleichzeitig online.1 Linden Lab ist profitabel, ganz ohne Börsengang. In fünf Jahren hat Rosedale erreicht, wofür Microsoft die dreifache Zeit benötigte: zum unangefochtenen Marktführer zu werden. Wer sich heute nach einem virtuellen Zweitwohnsitz sehnt, der findet ihn in Second Life. Netzwerkökonomen überrascht dieser Erfolg von Linden Lab nicht. Positive Netzwerkeffekte, die im Internet besonders stark ausgeprägt sind, bringen dem Marktführer weitere Kunden.2 Das Ergebnis sind einige wenige sehr erfolgreiche Unternehmen neben einer Vielzahl weitere Anbieter, die nur geringen wirtschaftlichen Erfolg haben. In dieser für Linden Lab scheinbar so sicheren Position sorgte Philip Rosedale für einige Überraschung, als er ankündigte, Second Life werde seine Technologie anderen zur Verfügung stellen. Diese Strategie hat zwei Komponenten. Die erste betrifft die Software, die Teilnehmer an Second Life auf ihren Computern installieren, um an Second Life teilnehmen zu können. Diese Software wurde von Linden Lab „open-sourced“, der Quellcode steht also jedem zum Herunterladen und Verändern zur Verfügung. Viel interessanter in unserem Zusammenhang ist aber Linden Labs Strategie für die Technologie, die auf Linden Labs Servern läuft. Denn damit werden Millionen an virtuellen Objekten verwaltet, ebenso wie die 1 2
Vgl. http://secondlife.com/whatis/economy_stats.php. Vgl. Shapiro, C. / H. Varian (1998): Information Rules. A Strategic Guide to the Network Economy, Boston.
26
Viktor Mayer-Schönberger
Teilnehmer an Second Life. Sie stellt gleichsam das Herzstück der virtuellen Welt dar. Auch Teile dieser Technologie will Linden Lab anderen Anbietern zur Verfügung stellen, damit sie ihre eigenen virtuellen Welten betreiben können. Das ist auf den ersten Blick wirtschaftlich nicht nachvollziehbar. Warum sollte der Marktführer die Werkzeuge zur Verfügung stellen, mit denen andere mit ihm in Wettbewerb treten können? Die Antwort dazu findet sich im Recht, oder besser gesagt: im Spannungsfeld zwischen Medienrecht und Wettbewerbsrecht. Und die Konsequenzen gehen weit über Second Life und virtuelle Welten hinaus und betreffen viele Anbieter auf digitalen Netzen. Das wird klar, wenn wir uns vergegenwärtigen vor welcher Situation Philip Rosedales stand. Als bei weitem größter Anbieter einer offenen, von den Teilnehmern selbst gestalteten virtuellen Welt, sah sich Linden Lab in den letzten beiden Jahren verstärkt mit Rechtsfragen an der Schnittstelle zwischen dem globalen Second Life und nationalen Rechtsordnungen konfrontiert. Verstößt Linden Lab gegen das Glücksspielverbot amerikanischer Einzelstaaten, wenn ein Teilnehmer, der in der Karibik domiziliert ist, in Second Life Glücksspiel anbietet? Muss Linden Lab aktiv werden, wenn volljährige Teilnehmer in Second Life ihre digitalen Avatare als Jugendliche verkleiden und Sex haben? Was genau unterscheidet Linden Lab von einem „Common Carrier“, der nicht wissen muss, welche Informationen er weiterleitet, weil er sie nicht wissen darf? Als Reaktion auf diese und ähnliche Rechtsprobleme verbot Linden Lab Aktivitäten wie das Glücksspiel und verschärfte die Nutzungsregeln – wurde aber damit die rechtlichen Probleme nicht los. Wie denn auch, sind sie doch in der Struktur eines kommunikativen Raumes verwurzelt, in dem potentiell überlappende, zum Teil widersprüchliche nationale Rechtsordnung Geltung haben. Was in einem Land verboten ist, mag in einem anderen sogar grundrechtliche garantiert sein. Ohne die geografischen Grenzen der realen Welt im virtuellen Second Life exakt nachzubilden, kann diese Grätsche langfristig nicht gelingen, auch wenn Linden Lab noch so pragmatisch versucht, nationalen Regulierungsansprüchen gerecht zu werden. In dieser schwierigen Situation also vermeinte sich Philip Rosedale mit dem Rücken zur Wand und war gezwungen, tief in die strategische Trickkiste zu greifen. Indem er die technische Plattform virtueller Welten anderen bereitstellte, hoffte er augenscheinlich, die Alleinstellung von Linden Lab zu verlieren und mit weiteren Anbietern kompatibler virtueller Welten in direkten Wettbewerb zu treten. Nationale Regulierer hätten dann, so das Kalkül, nicht mehr bloß einen Anbieter – Linden Lab – zur Akzeptanz der jeweiligen nationalen Spielregeln zu zwingen, sondern dutzende, vielleicht
Paradoxe Intervention
27
sogar hunderte weitere. Dann würde eine Vereinheitlichung anzuwendender Regeln über nationalstaatliche Grenzen hinweg unumgänglich sein.3 Das zentrale Problem für Linden Lab sind also nicht nur die vielen widersprüchlichen nationalstaatlichen Regeln, sondern die Tatsache, dass sie primär, weil führender Anbieter, in den Augen nationaler Rechtsordnungen und Regulierungsbehörden diese nationalen Normen in Second Life auch durchzusetzen haben. Würde hingegen dieser Normpluralität eine Anbietervielzahl gegenüber stehen, so wäre dem widersprüchlichen Regulierungs- und Durchsetzungsdruck, der Linden Lab so zu schaffen macht, etwas entgegen gesetzt, das die nationalen Regulierer langfristig zur Vereinheitlichung anhielte. So betrachtet ist es für Linden Lab sinnvoll, sich selbst Konkurrenz zu schaffen. Für die nationalen Regulierer von Inhalten und Aktivitäten in virtuellen Welten sieht die Situation hingegen genau anders aus. Sie profitieren von einer Welt mit wenigen oder einem einzigen, wesentlichen Anbieter und würden einen Teil ihrer Durchsetzungskraft verlieren, wenn sie sich vielen weltweit verteilten Anbietern gegenüber sähen. Was sich hier am Beispiel virtueller Welten zeigt, ist freilich verallgemeinerungsfähig – und genau das verleiht diesem Spannungsfeld zwischen Inhaltsregulierung und Wettbewerbsregulierung seine spezifische Sprengkraft. Es ist wesentlich einfacher für chinesische Zensoren, einen großen Suchanbieter (Google) zu zwingen, Ergebnisse von Onlinesuchen zu verfälschen, damit chinesische Google-Nutzer sich nicht über Tibet, Falun Gong oder die Demokratiebewegung 1989 informieren können, als gleiches mit dutzenden oder hunderten Anbietern zu verhandeln.4 Es ist einfacher für französische Gerichte, Online-Auktionen von Nazi-Material zu verbieten, wenn es dafür nur ein oder zwei große Online-Auktionshäuser gibt.5 Und es ist leichter für türkische Gerichte, den Internet-Providern des 3
4
5
Zur Schwierigkeit einer Vereinheitlichung Mayer-Schönberger, V. (2003): The Shape of Governance. Analyzing the World of Internet Regulation, in: Virginia Journal of International Law, 605. Vgl. BBC Online, 25 January 2006: Google Censors Itself for China, http:// news.bbc.co.uk/2/hi /technology/4645596.stm; das führt mitunter zu unerwartenden Konsequenzen in anderen Nationen, vgl. Bray, H. (2006): Google China Censorship Fuels Calls for US Boycott, in: Boston Globe, January 28, 2006. Reidenberg, J. (2001): The Yahoo! Case and the International Democratization of the Internet, in: Fordham Law and Economics Research Paper No. 11, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=267148.
28
Viktor Mayer-Schönberger
Landes aufzutragen, Videos online zu sperren, wenn das durch eine Sperrung des Zugangs zu einem einzelnen Anbieter (YouTube) faktisch zu erreichen ist.6 In all diesen Fällen von Inhalteregulierung im Internet gelang es einem Nationalstaat, sein Recht mit Hilfe eines internationalen Informationsanbieters im Internet durchzusetzen, weil die wenigen großen Anbieter einfach zu identifizieren waren. Das ist oft das Ergebnis, wenn ein großer Anbieter sich einer Normpluralität gegenüber sieht. Linden Labs Strategie ist also nichts anderes, als die Voraussetzungen dafür zu schaffen, dass Nationalstaaten mittelfristig nicht mit einem sondern mit vielen Anbietern virtueller Welten zu rechnen haben – und dann von allen diesen gleichzeitig, auch wenn sie außerhalb des Nationalstaats ihren Sitz haben, die Durchsetzung nationaler Normen erfolgreich zu verlangen hätten. Das bindet nicht nur nationalstaatliche Kräfte, sondern schafft auch Platz für Arbitrage. Nehmen wir das Beispiel Glücksspiel: Wenn es viele Anbieter virtueller Welten gibt und manche davon nicht in den USA domiziliert sind, dann haben es amerikanische Bundesstaaten ungleich schwerer, ihr Glücksspielverbot durchzusetzen, als mit Linden Lab, das in Kalifornien seinen Sitz hat. Denn Internet-Nutzer können zwischen mehreren Anbietern wählen – solchen mit Sitz in den USA (und damit dem Glücksspielverbot unterworfen) und solchen außerhalb der USA (und damit das Verbot faktisch umgehen). Nationalstaaten können diese Arbitrage nur mit einer von zwei Strategien unterbinden: Entweder sie verbieten ihren Bürgerinnen und Bürgern, ausländische Anbieter zu wählen (bzw. fördern und unterstützen nachhaltig heimische Anbieter), oder sie versuchen, sich mit anderen Nationalstaaten zu koordinieren und damit Arbitragemöglichkeiten einzudämmen. Die erste Strategie bedeutet nicht nur einen nachhaltigen Eingriff in die Wahlmöglichkeiten der Bürgerinnen und Bürger (mit damit verbundenen politischen Reaktionen) sondern unter Umständen auch dadurch ausgelöste problematische Grundrechtseingriffe. Die zweite Strategie findet ihre Grenzen im Umfang des möglichen Konsenses mehrerer Staaten, steht doch damit die Durchsetzung zentraler gesellschaftlicher Werte zur Diskussion.7 China hat sich besonders klar für die erste Strategie entschieden und geschickt die wenigen großen Anbieter gegeneinander ausgespielt. Microsoft 6
7
BBC Online, 7 March 2007: Turkish Court Bans YouTube Access, http://news. bbc.co.uk/2/hi/europe/6427355.stm. Zu den Strategien vgl. Viktor Mayer-Schönberger, V. / J. Crowley (2006): Napster’s Second Life? The Regulatory Challenges of Virtual Worlds, in: Northwestern Law Review, 1775.
Paradoxe Intervention
29
und Yahoo! gaben dem Druck der chinesischen Behörden nach, um sich neben relativ starken nationalen chinesischen Anbietern (z. B. Baidu) in China zu positionieren. Das erhöhte erfolgreich den Druck auf Google, ebenfalls nachzugeben und Suchanfragen aus China chinesischer Zensur zu unterwerfen. Eine ähnliche Dynamik zwischen einzelnen SuchmaschinenAnbietern ergab sich beim Versuch amerikanischer Bundesbehörden, im Zuge der Terrorbekämpfung Millionen von Suchanfragedaten zu erhalten. Die Analogie zu Linden Labs Strategie – übertragen auf Suchmaschinen – wäre, die Suchtechnologie anderen Anbietern zugänglich zu machen, um damit einen breiten Markt an weltweit verteilten Anbietern zu erreichen. Davor scheuen Microsoft, Yahoo! und Google zurück. Stattdessen verfolgen sie eine konventionellere Strategie. Im Oktober 2008 gaben sie die Gründung der Global Network Initiative (GNI) bekannt. Sie bindet die drei Unternehmen in ihren Verhandlungen mit Nationalstaaten an Grundsätze und soll verhindern, dass Nationalstaaten wie in der Vergangenheit Sondervereinbarungen mit den einzelnen Anbietern abschließen. Das Ziel ist klar: Die drei marktführenden Unternehmen verpflichten sich zu grundrechtlichen Mindeststandards, um damit ein Ausufern der spieltheoretisch gesteuerten Verhandlungsdynamik mit Nationalstaaten zu stoppen. Das ist im Kern nichts anderes als das, was auf der anderen Seite Nationalstaaten durch internationale Koordination und Kooperation zu erreichen versuchen. Es ist das Schließen der Reihen, ein gänzlich anderes Mittel als die Strategie von Linden Labs, also der Vervielfachung der Angriffspunkte, zur Erreichung des gleichen Ziels.8 Wie erwähnt, verfolgen Nationalstaaten ebenfalls diese Strategie und versuchen mittel Kooperation und Koordination, einen einheitlichen Regulierungsstandard festzulegen, der von allen Kooperationspartnern gemeinsam getragen und durchgesetzt wird. Sie haben dabei aber gegenüber Online-Anbietern den strukturellen Nachteil, dass sie nicht einheitliche Ziele (z. B. Profitmaximierung) verfolgen. Desto größer daher die Gruppe von sich koordinierenden Nationalstaaten ist, desto heterogener die zu schützenden Werte sind, desto kleiner ist die Chance auf einen breiten Konsens. Das lässt mehrere Auswege offen. Zum einen können sich viele Nationalstaaten auf einen sehr kleinen Konsens verständigen und diesen durchsetzen. Das ist etwa bei der Cybercrime-Konvention der Fall.9 Zum ande8
9
Weitere Informationen zu GNI finden sich unter http://www.globalnetworkinitiative.org/. Europarat, Cybercrime-Konvention, CETS No. 185, http://conventions.coe.int/ Treaty/en/Treaties/ Html/1 85.htm.
30
Viktor Mayer-Schönberger
ren aber können sich Nationalstaaten von einem breiten Konsens verabschieden und sich stattdessen um regionale Kooperation bemühen. Das hat den Vorteil, dass innerhalb einer Region oftmals geringere Wertunterschiede zwischen Nationalstaaten bestehen, als das bei einem weltweiten Koordinationsversuch der Fall ist. Der Nachteil regionaler Kooperation ist eine Minderung der Effektivität der Maßnahmen, da eben nicht weltweit die wesentlichen Nationalstaaten sondern nur jene einer regionalen Untergruppe eingebunden sind. Diese Strategie verfolgen (jedenfalls teilweise) die Mitgliedsstaaten der Europäischen Union durch Koordination und Kooperation etwa der Innen-, Justiz- und Verbraucherressorts. Dabei geht man in Brüssel und auch in den Mitgliedsstaaten der Union allerdings weniger dirigistisch vor als in der Vergangenheit. Statt ausschließlich direkter Regulierung (die gibt es auch) steht der Dialog mit den Anbietern im Vordergrund. Gemeinsam, so der Tenor, sollen Regulierungsmechanismen entwickelt und eingeführt werden, die die Europäischen Grundwerte online sicherstellen.10 Das klingt gut, ist aber mehr als bloß der Wunsch nach guter PR. Denn implizites Ziel dieses koordinierten Herangehens ist, durch Zusammenarbeit mit der Wirtschaft die Zahl der Online-Anbieter (und damit jener, die Regulierung auch durchsetzen) gering zu halten. Je weniger große Anbieter es gibt, desto einfacher hat es Europa, sie in seine Regulierungsstrategie einzubinden und zu verpflichten. Im Gegensatz dazu wäre Linden Labs Ansatz einer Anbietervervielfachung der regulative Alptraum. Dieser Ansatz mag verlockend klingen, verspricht er doch durchsetzbare Regulierung im Online-Bereich jedenfalls gegenüber den 500 Millionen Bürgerinnen und Bürgern Europas. Aber selbst wenn das technisch gelänge, unterschätzt er ein zentrales regulatives Spannungsfeld auf EU-Ebene zwischen inhaltlicher Regulierung einer kleinen Zahl dominierender Anbieter und dem Ziel robuster Märkte und echtem Wettbewerb. Die Konzentration des Marktes auf einen oder wenige Online-Anbieter mag im Interesse der inneren Sicherheit und der Verwirklichung nationaler Moralvorstellungen sein, aber sie steht potentiell mit einem Grundprinzip der Union – dem Wettbewerb – in Konflikt. Das sich daraus ergebende Spannungsfeld liegt nicht primär zwischen Regulierern und Anbietern, sondern 10
Vgl. Schulz, W. et al. (im Auftrag der Europäischen Kommission): Endbericht – Studie über Co-Regulierungsmaßnahmen im Medienbereich, http://ec.europa. eu/avpolicy/docs/library/studies/coregul/final_rep_de.pdf; siehe auch the European Internet Co-Regulation Network, http://www.foruminternet.org/specialistes/international/.
Paradoxe Intervention
31
zwischen zwei Regulierungsinstanzen. Und anders als ein unmittelbarer Zielkonflikt – z. B. innere Sicherheit versus Datenschutz – handelt es sich hier um einen Mittel-Ziel-Konflikt. Hinzu kommen die Besonderheiten in der Rechtsetzung der Europäischen Union, vor allem die Fähigkeit der Wettbewerbshüter der Kommission, notfalls auch ohne politische Zustimmung von Rat und Parlament tätig zu werden. Diese Möglichkeit steht für inhaltliche Regulierung (z. B. Datenschutz, Jugendschutz, Verbraucherschutz) nicht zur Verfügung. Die resultierende Gemengelage aus MittelZiel-Konflikten bzw. institutioneller Interdependenz und Unabhängigkeit macht dieses Spannungsfeld gerade dann schwer beherrschbar, wenn die vorhandenen, implizit geförderten Marktkonzentrationen von den Wettbewerbshütern auch als solche verstanden (und bekämpft) werden. Damit aber ist die Delegation dieser Regulierungsaufgabe auf die nächst höhere, europäische Ebene strukturell wenig geeignet, das Arbitrageproblem durch Koordination und Kooperation hinreichend zu lösen. So könnte es für lokale und nationalstaatliche Regulierer stattdessen von Interesse sein, durch lose Vernetzung mit ähnlichen Institutionen andernorts, aber auch mit einer Vielzahl von Anbietern ein soziales Regulierungs-Netzwerk entstehen zu lassen, in dem straffe Koordination durch lose Informationsflüsse und gegenseitiges Lernen ersetzt wird. Besser noch wäre es, wenn in dieses Netzwerk die Betroffenen selbst, also die Teilnehmer virtueller Welten eingebunden werden könnten. Auch das garantiert keinen Erfolg, erweitert aber die Basis, auf der regulative Erfolgsstrategien entwickelt, eingesetzt und von den Regulierungsunterworfenen internalisiert werden können, ohne den Wettbewerb der Anbieter zu unterlaufen.
Über den Autor Prof. Dr. Viktor Mayer-Schönberger ist Direktor des Information & Innovation Policy Research Centres und Professor an der Lee Kuan Yew School of Public Policy / National University of Singapore. Davor war ein ein Jahrzehnt Professor an der Kennedy School of Government der Harvard University, USA. In seiner Forschung beschäftigt er sich mit Governance-Fragen im Bereich Informationstechnologie. Er ist Autor von über hundert Publikationen, und veröffentlichte acht Bücher, darunter „Governance and Information Technology“ (MIT Press) und „Information und Recht“ (Springer).
Industriepolitik und Telekommunikationsmärkte im Übergang zum Wettbewerb – ein Ländervergleich
Brigitte Preissl In den 80er und 90er Jahren des letzten Jahrhunderts wurden Telekommunikationsunternehmen in Europa dereguliert, liberalisiert und privatisiert, um der für überlegen gehaltenen Logik des Marktes Raum zu geben. Die Übergänge vom Monopol zu einem Wettbewerbsregime gestalteten sich in den einzelnen Ländern sehr unterschiedlich. Das betrifft nicht nur die Gestaltung der Regulierung von Telekommunikationsunternehmen, sondern auch und besonders die industriepolitische Begleitung des Übergangs. Der folgende Beitrag vergleicht die Industriepolitik im Telekommunikationssektor in fünf europäischen Ländern zwischen 2000 und 2005 anhand ausgewählter Indikatoren1 – also eine historische Betrachtung der Unterstützung der Marktöffnung durch Industriepolitik (und nicht eine aktuelle Einschätzung industriepolitischer Maßnahmen) in Deutschland, Frankreich, Italien, Spanien und Großbritannien. Es wurden fünf Themenfelder untersucht: Steuerpolitik, Arbeitsmarkt- und Produktmarktregulierung, die Nachfrage des Staates nach Telekommunikationsleistungen und die staatliche Förderung von Telekommunikationstechnik und deren Diffusion (vgl. Tab. 1). Der Vergleich der Industriepolitik stützte sich für quantitative Merkmale auf international vergleichende Indikatoren und für qualitative Merkmale auf intensive Diskussionen unter den beteiligten Länderexperten. 1
Der Beitrag stützt sich auf eine Studie, die das Deutsche Institut für Wirtschaftsforschung 2005 für die Deutsche Telekom erstellt hat. Es wird die Meinung der Autorin und weder die der Deutschen Telekom noch die des DIW wiedergegeben; beteiligt waren folgende Länderexperten: Gèrard Pogorel, Michel Berne, Frankreich; Enzo Pontarollo, Italien; Fernando Gallardo, Teodosio Perez-Amaral, Spanien; Peter Curwen, Jason Whalley, Großbritannien; vgl. Preissl, B. (2005): Telecommunications Regulation in Comparison: Aggregated Performance Indicators. I: Industrial Policy Indicators, Berlin.
34
Brigitte Preissl
Steuererleichterungen Ein Instrument zur Förderung der Verbreitung neuer Technologien ist deren Bevorzugung bei der Besteuerung. In der Telekommunikation wird diese Maßnahme jedoch in den meisten Ländern kaum angewandt, da die vom Markt gesteuerte Kaufentscheidung nicht beeinflusst werden soll. Einzig Italien bildet hier eine Ausnahme. In Deutschland gab es im Beobachtungszeitraum keine technologie-spezifischen steuerlichen Fördermaßnahmen.2 Die – im Vergleich zu anderen dauerhaften Wirtschaftsgütern – relativ Tabelle 1. Überblick über die verwendeten Indikatoren Indikator
Definition
Datenquelle
Steuerpolitik Steuererleichterungen
Steuererleichterungen für den Kauf von Steuergesetze IuK-Gütern
Staatsnachfrage E-Government
Zahl der online verfügbaren staatlichen Dienste; Grad der Realisierung
EU BenchmarkStudie zu E-Government
Regulierung Produktmarktregulierung Gütermarktregulierung, administrative Hürden, Unternehmensgründung
OECD
Beschäftigungsflexibilität Hauptanschlüsse pro Beschäftigtem
eigene Berechnungen
Arbeitsmarktregulierung
OECD /WEF
Arbeitsmarktregulierung
Telekommunikationsförderung Indirekte Subventionen
Maßnahmen zur Förderung der Nachfra- IKT Programme ge nach Telekommunikationsdiensten World Economic Forum
Infrastrukturförderung
Öffentliche Investitionen in Telekommunikationsinfrastruktur, PublicPrivate-Partnerships
Regierungsprogramme
FuE-Förderung 5. Rahmenprogramm
Beteiligung von Forschungsinstitutionen an FuE-Projekten
EU DG Research
FuE
Öffentliche FuE Förderung für IuK
nationale Quellen
2
Institut für Weltwirtschaft an der Universität Kiel (2003): Eine Strategie zum Abbau der Subventionen, Kiel.
Industriepolitik und Telekommunikationsmärkte
35
kurze Abschreibungsfrist für Computer von drei Jahren kann in Bezug auf die tatsächliche Nutzungsdauer als gerade noch angemessen betrachtet werden. Pläne, diese Frist auf vier Jahre zu erhöhen, um die Stimmigkeit des Steuersystems insgesamt zu verbessern, wurden zwar diskutiert, aber wieder verworfen. Die in Frankreich wie in Deutschland für eine Übergangszeit bestehenden Steuervorteile für Telekommunikationsdienstleistungen, die vom ehemaligen Monopolisten bereitgestellt wurden (keine Mehrwertsteuer), können zum einen als Wettbewerbsvorteil für den Incumbent angesehen werden, der die Entwicklung eines wettbewerbsorientierten Marktes hinausgezögert – was Ineffizienzen zur Folge hat. Andererseits profitierte die Nachfrage, solange noch keine Marktneulinge Angebote unterbreiteten, durchaus von den niedrigeren steuerbefreiten Preisen, was sich insgesamt aufgrund von Netzwerkeffekten positiv ausgewirkt haben könnte. In Italien war der Kauf von IuK-Gütern für mehrere Jahre steuerbegünstigt. Die fiskalischen Anreize umfassten Sonderabzüge vom zu versteuernden Einkommen in Höhe von zehn Prozent der Investitionskosten in FuE und in digitale Technik sowie zehn Prozent der Kosten für Praktika in diesem Bereich. Das führte dazu, dass insgesamt 110 Prozent dieser Kosten abzugsfähig waren. Außerdem konnten Unternehmen, die ihre Investitionen in IuK-Technik im Vergleich zu den drei Vorjahren erhöhten, 30 Prozent der Differenz zusätzlich vom zu versteuernden Einkommen abziehen. Allerdings durfte die erzielte Steuerersparnis 20 Prozent des durchschnittlichen Einkommens der letzten drei Jahre nicht überschreiten.3 Um einen Investitionsschub zu erreichen, galten diese Vergünstigungen nur für das Jahr 2004. Nach Schätzungen des Industrieverbands Confindustria konnten damit etwa 3,3 Prozent der Investitionen mit staatlicher Unterstützung finanziert werden, was einem Gesamtbetrag von etwa 200 Mio. € entsprach.4 Unternehmen, die in elektronischen Handel investierten, erhielten zusätzliche Steuervergünstigungen für bis zu 60 Prozent der Kosten der Projekte. Insgesamt wurden dafür zwischen 2001 und 2003 190,3 Mio. € bereitgestellt, von denen 13 Mio. € nicht abgerufen wurden. In Frankreich ließen sich – neben der erwähnten Mehrwertsteuerbefreiung – keine besonderen steuerlichen Bevorzugungen für IuK-bezogene Investitionen oder Ausgaben ermitteln. Spanische Unternehmen können seit 2003 bei Investitionen in IuK-Technik zehn Prozent der investierten Summe von der Steuerschuld abziehen. 3 4
DPR 22/12/1986 n. 917 – Testo Unico delle Imposte sui Redditi. Mündliche Auskunft, November 2005.
36
Brigitte Preissl
Das gilt für Investitionen in die Erhöhung der Übertragungskapazität und andere Verbesserungen der IuK-Ausstattung.5 Konsumenten erhalten keine Steuervergünstigungen beim Kauf von IuK-Gütern oder -dienstleistungen. Lediglich die Region Rioja erlaubt die schrittweise Abschreibung von Computern zur Förderung der IuK-Nutzung in privaten Haushalten. Hier können jährlich bis zu 100 € abgesetzt werden. Von April 2000 bis März wurden in Großbritannien Steuerabzüge für den Kauf von Computern, Peripheriegeräten, Software und web-fähigen Mobiltelefonen gewährt. Sie konnten im ersten Jahr bis zu 100 Prozent abgesetzt werden, es entstanden also Liquiditätsvorteile und Zinsgewinne. Bildungseinrichtungen können in gewissem Umfang niedrigere Mehrwertsteuersätze beim Kauf von informationstechnischen Geräten in Anspruch nehmen. Das gilt aber nur für bestimmte Gebiete, wie z. B. die medizinische Forschung. Eine so genannte Home Computing Initiative wurde im Januar 2004 ins Leben gerufen. Unternehmen, die ihren Angestellten Computer ausleihen, damit diese damit zu Hause arbeiten können, dürfen pro Gerät unmittelbar 500 £ steuerlich geltend machen. Die großzügigste Gewährung von Steuervorteilen für Informations- und Telekommunikationsgüter finden wir also in Italien. Spanien und England weisen immerhin einige steuerbezogene Fördermaßnahmen auf, während Deutschland und Frankreich die Steuergesetzgebung hier nicht als industriepolitisches Instrument einsetzen.
Die Nachfrage des Staates Der Staat ist auf nationaler, regionaler und lokaler Ebene selbst ein großer Nachfrager von Telekommunikationsleistungen. Die Ausstattung mit Kommunikationstechnik und die Erledigung von Routinefunktionen öffentlicher Institutionen ergeben insgesamt substantielle Potentiale für Kommunikationsnachfrage. Eine frühe und umfassende Anwendung neuer Technologien in den Behörden hat auf verschiedene Weise einen positiven Einfluss auf Technikdiffusion und damit auf die Märkte: ņ durch die entstehende Nachfrage nach Technik und netzbasierten Anwendungen wird die kritische Masse für neue Dienste schneller erreicht;
5
Gesetz zur Besteuerung von Unternehmen, Kap IV. 2003. Art 34.
Industriepolitik und Telekommunikationsmärkte
37
ņ die Kommunikationspartner staatlicher Einrichtungen (Unternehmen und Bürger) werden motiviert, Netzdienste zu nutzen; ņ es werden Demonstrationseffekte erzeugt, die Anwendungen stimulieren und Adoptionsbarrieren abbauen; ņ die Anwendung durch den Staat beschleunigt die Suche nach Lösungen für technische und juristische Probleme (z. B. elektronische Signatur, Verschlüsselung, Datenspeicherung, Zugangsmanagement). Leider liegen keine Informationen über die Ausgaben der einzelnen Staaten für den Kauf von IuK-Ausstattung und -Dienstleistungen vor. Die Nachfrage des Staates verbirgt sich hier entweder in Ausgaben für Gebäudemodernisierung, für Büroausstattung oder für Weiterbildung. Auch Telekommunikationskosten werden selten getrennt ausgewiesen. Daher wird hier die Umsetzung von E-Government als Proxyvariable für die Staatsnachfrage verwendet. Es kann angenommen werden, dass dieser Indikator die Bereitschaft der Regierungen zum Ausdruck bringt, in fortschrittliche Kommunikationstechnik zu investieren. Das impliziert, dass alle Länder ungefähr die gleiche Summe aufwenden müssen, um einen bestimmten E-Government Service zu realisieren, und dass die einzelnen Dienste in jedem Land jeweils einen etwa gleichen Impuls in den Telekommunikationsmarkt hinein geben. Das sind restriktive Annahmen, die jedoch eine hohe Plausibilität besitzen. Die Daten wurden einer Studie entnommen, die Capgemini für die Europäische Kommission (GD Informationsgesellschaft und Medien) erstellt hatte. Capgemini verglich die Umsetzung der Online-Bereitstellung für 20 öffentliche Dienstleistungen in 27 Ländern; zwölf sind an Bürger gerichtete Tabelle 2. E-Government: Online verfügbare Dienste für Bürger und Unternehmen6 Indikator
Frankreich Italien
Spanien
UK
Dienste für Bürger
53.34
67.13
59.77
59.31
85.86
Dienste für Unternehmen
83.43
84.38
89.54
94.27
82.14
100 % online
47.40
50.00
52.60
55.00
58.80
184.17
201.51
201.91
208.58
226.80
Insgesamt
6
Deutschland
Capgemini (2005): Online-Verfügbarkeit der Dienstleistungen der öffentlichen Hand: Wer schreitet in Europa voran? Ergebnisse der fünften Erhebung.
38
Brigitte Preissl
Dienste, acht betreffen in erster Linie Unternehmen. Zudem wurde gefragt, ob der jeweilige Vorgang vollständig online durchgeführt werden konnte. Insgesamt konnten für jeden Subindikator 100 Punkte erzielt werden. Nach Ansicht der an unserer Studie beteiligten Länderexperten überschätzt die Erhebung von Capgemini die Umsetzung von E-Government: Zum einen werden Regierungsstellen befragt, die selbst für die E-Government-Projekte verantwortlich sind; deren Angaben werden sich eher am oberen Rand der Einschätzung bewegen. Zum andern lässt sich die tatsächliche Verfügbarkeit insbesondere auf regionaler und lokaler Ebene kaum vollständig erfassen, und einfache Stichproben bei einigen Ämtern zeigten, dass Dienste zwar angekündigt, aber oft nicht tatsächlich verfügbar waren. Da das aber für alle fünf Länder galt, wurde angenommen, dass die Abweichungen sich hier etwa gleich verteilten. Wenig überraschend erzielt England die höchsten Werte, da dort konsequent die Computerisierung und elektronische Vernetzung als Element der Reform der öffentlichen Verwaltung eingesetzt wurden. Unerwartet gut ist das Abschneiden Spaniens. Es ist nicht auszuschließen, dass hier Schwierigkeiten bei der Erhebung der Daten die Vergleichbarkeit zusätzlich einschränkten. Die Unterschiede zwischen den Ländern signalisieren auch Prioritäten in der Finanzierung. Die für IuK in den Kommunalverwaltungen vorhandenen Budgets sind im Vereinigten Königreich deutlich höher als in Frankreich und Deutschland; zudem gilt das Land als „Technologieführer“ im Bereich E-Government. Im öffentlichen Dienst besteht hier ein vergleichsweise hohes Qualifikationsniveau, was den Umgang mit IuKTechnik angeht – etwa verglichen mit Deutschland und Frankreich. Kommunalverwaltungen haben in England im Beobachtungszeitraum in erheblichem Umfang in Innovationen an der Schnittstelle zum Bürger investiert und stellten dann ihre Back-Office Bereiche auf die neue Technik um.7 Das ist eine deutlich andere Strategie, als sie in der Regel in Deutschland verfolgt wird. Hier generierten relativ niedrige IuK-Budgets die paradoxe Situation, dass öffentliche Einrichtungen nicht in der Lage waren, in technische und organisatorische Innovationen zu investieren, die letztendlich größeren Spielräumen für die Modernisierung der Verwaltung und damit zu Kosteneinsparungen geführt hätten; es bestand also ein geringerer Anreiz für Modernisierung.
7
E-Government News, February 24th, 2005.
Industriepolitik und Telekommunikationsmärkte
39
Regulierung von Produkt- und Arbeitsmärkten Die Entwicklung von Wettbewerbsmärkten aus einer Monopolsituation heraus verlangt zum einen flexible Arbeitsmärkte, die eine schnelle Umschichtung von Arbeitskräften vom ehemaligen Monopolisten auf neue Tätigkeiten erlaubt, zum anderen flexible Gütermärkte, die sowohl geringe Markteintrittsbarrieren als auch günstige Bedingungen für Unternehmensgründungen aufweisen. Bei dieser Indikator-Gruppe wurden im Wesentlichen Daten der OECD zur Regulierung von Märkten verwendet, ergänzt um eigene Berechnungen zur Beschäftigungssituation in den ehemaligen Monopolunternehmen. Produktmarktregulierung Der These folgend, weniger regulierte Märkte würden eine höhere Wachstumsdynamik entfalten, als stärker regulierte, wurden Indikatoren der OECD zur Produktmarktregulierung8, zu administrativen Hürden sowie zu den Bedingungen der Unternehmensgründung herangezogen. Die für 1999 bis 2003 verfügbaren Indikatoren beziehen sich auf einen Zeitraum, der in den betrachteten Ländern relevant für die Marktöffnung im Telekommunikationssektor ist. Ergänzend zu den Daten für 2003 wurde die Entwicklung seit 1999 erfasst, um Deregulierungstrends abzubilden.9 Der OECD Indikator weist den Ländern mit der geringsten Regulierungsdichte den niedrigsten Wert zu. Wie erwartet, erzielt das Vereinigte Königreich auch hier das „beste“ Ergebnis, weist also die geringste Marktregulierung auf, gefolgt von Italien, Frankreich, Spanien und schließlich Deutschland. Die größten Fortschritte wurden zwischen 1999 und 2003 in Frankreich und Italien gemacht, wo insbesondere die Subindikatoren für administrative Hemmnisse und für Unternehmensgründungen in vier Jahren etwa halbiert wurden.
8
9
Zur Konstruktion der Indikatoren s. OECD 2005, http://www.oecd.org/ dataoecd/25/9/34634249.xls. Die von de OECD erfassten Tatbestände beziehen sich nicht auf die üblicherweise im Telekommunikationssektor geltenden Regulierungen der vom ehemaligen Monopolisten bereitgestellten Netze. Durch Monopolrechte noch bestehende Marktzutrittsbarrieren zu Telekommunikationsmärkten sind jedoch erfasst.
40
Brigitte Preissl
Tabelle 3. Produktmarktregulierung nach OECD. 1 = geringste, 7 = höchste Regulierungsdichte10 2003 Deutschland
Frankreich
Italien
Spanien
UK
PMR
1,4
1,7
1,9
1,6
0,9
Verwaltungshemmnisse
1,9
1,6
1,6
2
0,8
Unternehmensgründung
1,6
1,6
1,4
1,6
0,8
Deutschland
Frankreich
Italien
Spanien
UK
PMR
1,9
2,5
2,8
2,3
1,1
Verwaltungshemmnisse
2,5
3,2
3,1
2,8
1,2
Unternehmensgründung (1998)
2
2,8
2,7
2,3
1,1
1999
Beschäftigungsflexibilität Der für die Flexibilität der Beschäftigungsstrategie des Incumbent gebildete Indikator beruht auf der Beobachtung, dass in der Regel Monopolisten einen Beschäftigungsüberhang aufbauen, da Ineffizienzen nicht vom Wettbewerb sanktioniert werden. Für den schnellen Aufbau eines dynamischen Telekommunikationssektors kommt es nun darauf an, den notwendigen Beschäftigungsabbau möglichst reibungslos zu vollziehen. Während die Incumbents in Italien, Spanien und England nicht mit durch Verbeamtung garantierten Beschäftigungsverhältnissen belastet waren, mussten für Deutschland und Frankreich Lösungen gefunden werden, die die Rechte der Arbeitnehmer berücksichtigten, aber den Aufbau effizienter Strukturen nicht behinderten. In Frankreich gelang das durch weitgehende Übernahme von beamteten Beschäftigten von France Telecom durch staatliche Institutionen sowie durch Überführung der Beamtenverhältnisse in private Beschäftigung.11 In Deutschland wurden hingegen komplizierte Konstruktionen gewählt, die letztendlich die Deutsche Telekom zu erheblichen Anteilen weiterhin mit einem Personalüberhang belasteten. Die durch diese Politik eingeschränkte Flexibilität des Incumbent in der Personalpolitik dürfte 10 11
OECD Employment Outlook 2004. 1=geringste, 7= höchste Regulierungsdichte. Conseil d’Etat (1993): Avis n° 355 255 du 18 novembre 1993, Paris.
Industriepolitik und Telekommunikationsmärkte
41
weder für die Qualität der Netze und Dienste noch für die Etablierung eines fairen regulierten Wettbewerbs vorteilhaft gewesen sein. Diese Überlegungen führten zu folgender Indikatorkonstruktion: Es wird angenommen, dass sich bei weitgehend flexibler Personalstrategie bei gegebener Technik die Umsätze pro Beschäftigtem in den einzelnen Ländern angleichen müssten. Daher gibt die Relation zwischen geschalteten Hauptanschlüssen (als Proxy für Umsatz) und Beschäftigung einen Hinweis darauf, wie gut die Anpassung der Beschäftigung an die neue Marktsituation und den mittlerweile erzielten technischen Fortschritt gelungen ist. Für die Indikatorbildung wurden daher die Veränderungsraten der Relationen herangezogen, um für den Zeitraum 1999 bis 2004 die Handlungsspielräume der Incumbents bei der Umsetzung des technischen Fortschritts in Effizienzgewinne auszuloten. Offensichtlich gelang es British Telecom am besten, arbeitssparenden technischen Fortschritt umzusetzen. Trotz umfangreicher staatlicher Hilfe bei der Umsetzung von Beschäftigten wies France Telecom im Jahr 2004 noch einen relativ hohen Beschäftigungsstand auf. Das deutet darauf hin, dass auch die Regulierung des Arbeitsmarktes insgesamt Einfluss auf den Verlauf der Etablierung einer neuen Marktordnung hat. Der von der OECD berechnete Indikator „Employment Regulation and Legislation“ (ERL) bildet Schwierigkeiten bei Einstellungen und Entlassungen, Kündigungsfristen, Abfindungen und den Anteil der befristeten Arbeitsverträge an allen Beschäftigungsverhältnissen ab.12 Tabelle 4. Hauptanschlüsse pro Beschäftigtem13; 1) 2003 1999
2001
2004
Deutsche Telekom
349
409
454
France Télécom
280
291
3061)
Telecom Italia
348
447
491
Telefónica
412
505
566
British Telecom
235
346
403
12
13
Der Indikator ist wegen seiner einseitigen Orientierung auf Marktliberalisierung und Abbau von Arbeitnehmerrechten umstritten. Er wird hier nicht im Sinne überlegener Industriepolitik verwendet sondern im Sinne hoher Flexibilität zur Umsetzung struktureller Veränderungen. Jahresberichte der jeweiligen Unternehmen; telefonische Auskünfte.
42
Brigitte Preissl
Tabelle 5. Arbeitsmarktregulierung14; 1=geringste, 7=höchste Regulierungsdichte EPL 2003
EPL 1990
Deutschland
2,5
2,6
Frankreich
2,9
2,8
Italien
2,4
3,1
Spanien
3,1
3,0
UK
1,1
1,0
Die Unterschiede, die hier in Bezug auf Arbeitsmarktflexibilität dokumentiert werden, liefern einen Anhaltspunkt für die schnellere Umstellung von British Telecom im Vergleich zu France Télécom und der Deutschen Telekom.
Industriepolitische Unterstützung des Telekommunikationsmarktes Direkte Subventionen für den Telekommunikationssektor existieren meist nicht, da es sich um einen starken und dynamischen Wirtschaftszweig handelt, in dem Staatseingriffe nicht gerechtfertigt werden könnten.15 Nichtsdestoweniger gibt es Maßnahmen, die indirekt auf eine Förderung des Marktes hinauslaufen. Dazu gehören etwa Programme, die die Verbreitung von Informationstechnik unterstützen. Indirekte Subventionen werden für Maßnahmen geleistet, die den Kenntnisstand über neue Technologien erhöhen; sie sind relativ weit verbreitet. Im Wesentlichen konzentrieren sich die entsprechenden Programme auf eine Verbesserung des Informationsstandes in der Bevölkerung. Dennoch haben verschiedene Regierungen eine Reihe von Maßnahmen ergriffen, die ihr Bestreben ausdrücken, die Entwicklung und Anwendung von IuK-Techniken zu forcieren. Das World Economic Forum misst den Erfolg von Regierungen bei entsprechenden Initiativen durch zwei Indikatoren: IKT Förderung (Government Success in ICT Promotion) sowie die Prioritätensetzung bei der IKT (government prioritisation of ICT) (World Economic Forum 2004). 14 15
OECD Employment Outlook 2004. Vgl. z. B. Spanish Telecom Act 2003; Department of Trade and Industry: The State Aid Guide; Subventionsbericht der Bundesregierung 2005.
Industriepolitik und Telekommunikationsmärkte
43
Tabelle 6. Staatliche Unterstützung für die Verbreitung von IKT16; anders als bei den OECD Indikatoren, signalisieren niedrige Werte geringen, hohe Werte hingegen großen Erfolg Deutschland
Frankreich
Italien
Spanien
UK
IKT Anwendungsförderung
4,1
4,5
3,6
3,5
4,3
Prioritätensetzung
4,9
4,7
3,9
4,5
5,0
1=erfolglos; 7= sehr erfolgreich
England, Frankreich und Deutschland zeichnen sich durch eine relativ aktive Förderung aus, während die italienische und die spanische Regierung hier weniger präsent sind. Infrastrukturmaßnamen sind ein weiteres Feld, in dem sich staatliche Aufgaben mit der Förderung des Telekommunikationssektors überlappen. In Deutschland wird die Telekommunikationsinfrastruktur im Untersuchungszeitraum als Sache des Privatsektors angesehen. Der Infrastrukturausbau soll durch wettbewerbsfördernde Regulierung stimuliert werden. Darüber hinaus soll die Unterstützung der Anwendung von Telekommunikationsdiensten positive Signale in Richtung Infrastrukturfirmen senden, z. B. durch die Projekte „Schulen ans Netz“ und „LKW-Maut“. PublicPrivate-Partnerships gibt es allenfalls auf kommunaler Ebene.17 In Frankreich bestehen ebenfalls keine direkten Subventionen. Bemerkenswert sind jedoch durch den Europäischen Strukturfonds finanzierte Projekte sowie insbesondere verschiedene als Public-Private-Partnership organisierte regionale Projekte. Insgesamt wurden hier bis 2005 in 62 Projekten etwa 1,2 Mrd. € investiert.18 In Italien wird traditionell die Infrastrukturversorgung stärker als in anderen Ländern als staatliche Aufgabe gesehen. Das gilt auch für den Breitbandausbau, insbesondere in den weniger entwickelten Regionen 16
17
18
World Economic Forum (2004): The Global Competitiveness Report 2004-2005, Genf. Siehe auch Bereszewski, M. (2005): PPP: Public Private Problemships, in: Informationweek 03/2005; Bertelsmann Stiftung, Initiative D21 (Hrsg.): Prozessleitfaden Public Private Partnership, in: PPP für die Praxis, http://www. initiatived21.de/themen/egovernment_pppleitfaden/doc/ 16_1057764682.pdf. ART (2005): Synthèse de l’étude internationale sur l’intervention publique dans le secteur des télécommunications, 29 avril 2005, Paris.
44
Brigitte Preissl
des Südens. Eine eigens gegründete Gesellschaft (Infratel) hat zum Ziel, die technologische Lücke zwischen den verschiedenen italienischen Regionen durch Breitbandinfrastruktur schließen zu helfen. Für die Glasfasernetze in 30 süditalienischen Städten sollen über mehrere Jahre 30 Mio. € ausgegeben werden. Auch in Spanien wird die Infrastruktur indirekt über die Förderung der Breitbanddiffusion unterstützt. Zudem wurden einige Public-PrivatePartnership Projekte durchgeführt, bei denen sowohl Telefónica als auch dessen Wettbewerber mit staatlichen Institutionen kooperierten. Die eingesetzten Instrumente sind zinslose Kredite über zehn Jahre mit einem Tilgungsmoratorium von drei Jahren sowie nicht rückzahlbare Subventionen. Nach der Privatisierung von British Telecom gab es keine staatliche Infrastrukturfinanzierung im Vereinigten Königreich. Das änderte sich mit dem Ausbau des Breitbandnetzes. Hierfür stellte die Regierung über einen „Breitbandfonds“ 30 Mio. ǧ zur Verfügung. Auch in England investiert der Staat in erheblichem Umfang in Breitbandanschlüsse für die öffentliche Verwaltung. Hier sollen bis zu einer Mrd. ǧ investiert werden.19
Forschung und Entwicklung In allen Ländern werden öffentliche Mittel für Forschung und Entwicklung (FuE) zur Verfügung gestellt, um den technischen Fortschritt und das Innovationsvermögen zu fördern.20 Da die Mittel zumeist institutionell und für komplexe Projekte vergeben werden, ist es kaum möglich, aus den staatlichen FuE Budgets exakt die Anteile zu identifizieren, die für Telekommunikation verausgabt werden. Um die industriepolitische Forschungsförderung genauer einschätzen zu können, wurde die Präsenz einzelner Länder im 5. Rahmenprogramm der Europäischen Kommission herangezogen. Grundlage ist die These, dass nur bei exzellenter Kompetenz im Bereich Telekommunikationsforschung Wissenschaftler in einem Land in der Lage sind, Fördermittel von der EU zu erhalten. Hinzu kommt, dass viele Programme eine Co-Finanzierung aus nationalen Mitteln vorsehen. Die Bereitschaft nationaler Regierungen, Telekommunikationsforschung zu fördern, zeigt sich daher auch im Erfolg 19
20
Broadband Stakeholder Group (2003): The Impact of Public Sector Interventions on Broadband in Rural Areas, London, S. 1. Vgl. z. B. Acs, Z. / D. Audretsch / M. Feldman (1992): Real Effects of Academic Research: Comment, in: American Economic Review, 82, S. 363-367.
Industriepolitik und Telekommunikationsmärkte
45
von Forschern eines Landes auf EU-Ebene.21 Betrachtet man den Anteil eines Landes am Gesamtfördertopf des 5. Rahmenprogramms, gewichtet mit dem Anteil des jeweiligen Bruttosozialprodukts an der Wirtschaftsleistung der EU insgesamt, ergibt sich, dass Forscher aus Italien und England erfolgreicher als ihre Kollegen und Kolleginnen aus anderen Ländern sind. Deutsche Wissenschaftler kommen deutlich seltener zum Zuge als andere. Das kann zwar damit zusammenhängen, dass durch relativ gute Forschungsbedingungen im Land wenig Notwendigkeit besteht, Gelder auf EU-Ebene einzuwerben, es kann aber auch ein Indiz dafür sein, dass wenig nationale Unterstützung für die internationale Vernetzung geleistet wird.
Industriepolitik für Telekommunikation im Vergleich Die Untersuchung führte zu dem überraschenden Ergebnis, dass die industriepolitische Förderung des Telekommunikationssektors in zwei Ländern am intensivsten ist, die traditionell an entgegen gesetzten Enden industriepolitischer Ansätze zu stehen scheinen (vgl. Tabelle 7). In England wird seit vielen Jahren eine bewusst marktliberale Strategie verfolgt, während in Italien eine eher interventionistische Politik üblich ist, insbesondere in der Regional- und Infrastrukturförderung. Offensichtlich ist, dass nach der Deregulierung der Telekommunikationsmärkte auch in Ländern mit ausgeprägt marktwirtschaftlicher Orientierung die Entwicklung des Marktes nicht den Marktkräften alleine überlassen wird. Zwei Faktoren rechtfertigen industriepolitische Eingriffe: der hohe Stellenwert einer modernen und stetig aktualisierten Infrastruktur für die Ausnutzung der Potentiale der Telekommunikationstechnik sowie die auf Netzwerkeffekten beruhende große Bedeutung kritischer Massen bei der Diffusion neuer Techniken und Anwendungen. Auffallend ist, dass die Fördermaßnahmen nicht eindeutig als „interventionistisch“ oder „liberal“ klassifiziert werden können. Die Liberalisierung des Arbeitsmarktes und der Abbau bürokratischer Hürden bei der Unternehmensgründung sind ebenso förderlich für die Marktentwicklung wie staatliche Unterstützung für Infrastruktur und Diffusion von Techniken und Diensten. 21
Vgl. Johnston, P. et al. (2003): European Research Co-Operation as a SelfOrganising Complex Network – Implications for Creation of a European Research Area. DG Research, Brüssel, H:/Jonston/evaluation/IST monitoring2002/IST Research lins 13-1-03.doc.
46
Brigitte Preissl
Tabelle 7. Industriepolitik für Telekommunikation: Intensität der Förderung Deutschland
Frankreich
Italien
Spanien
UK
Steuervorteile
o
o
xx
x
x
Staatsnachfrage
o
x
x
x
xx
Produktmarktregulierung
–
x
x
-
xx
Beschäftigungsflexibilität
o
o
x
x
xx
Arbeitsmarktregulieung
o
o
o
o
xx
Staatliche Förderung
x
x
o
o
x
Infrastrukturförderung
–
xo
xx
o
x
FuE-Förderung
xx
x
x
o
ox
EU Rahmenprogramm
o
o
x
o
x
xx intensive Förderung; x mittlere Intensität; o geringe Intensität; – unbedeutende oder keine Maßnahmen.
Es hat sich auch gezeigt, dass mit der Liberalisierung des Marktes der Staat in allen betrachteten Ländern über die allgemein akzeptierte, sich aus der Übergangssituation sowie aus dem Netzwerkcharakter der Telekommunikation ergebende Regulierung hinaus industriepolitisch tätig wird. Das geschieht in unterschiedlichem Ausmaß und mit unterschiedlichen Instrumenten. Dabei vermischen sich verschiedene Zielsetzungen: die Förderung kleiner und mittlerer Unternehmen, Regionalpolitik und Technikdiffusion sowie Innovationsförderung und Infrastrukturpolitik stehen jeweils zu unterschiedlichen Zeitpunkten im Vordergrund.
Über die Autorin Dr. Brigitte Preissl promovierte in Volkswirtschaftslehre an der JohannWolfgang-Goethe Universität in Frankfurt am Main. Von 1984 bis 2005 war sie als Wissenschaftlerin am Deutschen Institut für Wirtschaftsforschung in Berlin tätig. In diese Zeit fielen längere Forschungsaufenthalte an der University of Warwick, Coventry, der Aston University, Birmingham, sowie an der University of California in Berkeley und an der Università Cattolica del Sacro Cuore in Mailand. Von Ende 2005 bis Ende 2007 war sie bei der Deutschen Telekom im Bereich „Corporate Academic Relations“ als Senior Economist beschäftigt. Seit Oktober 2007 ist sie Chef-
Industriepolitik und Telekommunikationsmärkte
47
redakteurin für die Zeitschriften „Wirtschafsdienst“ und „Intereconomics“ bei der Zentralbibliothek für Wirtschaftswissenschaften in Hamburg. Sie ist zudem Vizepräsidentin der International Telecommunications Society.
Universaldienste und Next Generation Networks
Patrick Xavier, Dimitri Ypsilanti Vor wenigen Jahren noch operierten Mediendienste in getrennten Netzen, die zu verschiedenen Zwecken konstruiert wurden: Sprachkommunikation bestimmte die Gestaltung des Festnetzes; Rundfunknetze wurden für die Ausstrahlung von Radio und Fernsehen an ein disperses Publikum optimiert; und das Internet folgte den Ansprüchen des Transports digitaler Datenpakete. Mit der Konvergenz medialer Infrastrukturen geht eine „Verflechtung“ der digitalen Informationen einher, die über diese Netze laufen. Die schrittweise Ablösung der „klassischen“ Netze durch „Next Generation Networks“ (NGN), die Fernsehen, Telefonie, OnlineSpiele und mehr auf der Basis des Internetprotokolls (IP) verbreiten, gewinnt in vielen Ländern an Bedeutung – in integrierten, nicht-separierten Netzen und unter dem Dach einzelner Anbieter, die ganze MediendienstPakete schnüren können (und bei denen etwa Sprachübertragung nur ein Dienst unter vielen wäre). Vor diesem Hintergrund wird diskutiert, ob eine Verpflichtung zu Universaldiensten (etwa allgemeiner Zugang, Qualitätsstandards), wie sie den „klassischen“ Netzen zum Teil auferlegt wurde, noch dem modernen Wettbewerb, dem Wandel von Verbreitungswegen, Technologien und Angeboten gerecht wird – und, wenn ja, wie solche Verpflichtungen konkret aussehen könnten, wer sie zu finanzieren habe und wem sie auferlegt werden sollten. Diese Debatte wird hier aufgegriffen und vertieft.1 Im Mittelpunkt stehen Fragen der Verfügbarkeit, des prinzipiellen und erschwinglichen Zugangs zu Netzen und solche der Finanzierung. Diskutiert werden verschiedene Policy-Überlegungen, wobei schließlich argumentiert wird, dass staatliche Förderung und/oder Subventionierungen zur Sicherstellung von Universaldiensten durchaus notwendig werden könnten. 1
Aus dem Englischen von Klaus Kamps.
50
Patrick Xavier, Dimitri Ypsilanti
Grundlegung: Universaldienste im Kontext von NGN Wesentliche Merkmale von NGN Mit Konvergenz wird umschrieben, dass einzelne, IP-basierte Netze Kombinationen aus Daten, Stimmübertragung und Bildern zur Verfügung stellen können; das ermöglicht den Basisnetzen (etwa dem Telefonnetz oder Kabelfernsehen) ähnliche Dienste anzubieten bzw. entsprechende Angebotsstrategien zu entwickeln. Auf der Basis der Voice-over-IP-Technologie (VoIP) können dann beispielsweise neue Provider Telefonie zu konkurrenzfähigen Konditionen offerieren; Marktzugangsbarrieren werden kleiner, die Zahl der Diensteanbieter steigt – insgesamt herrscht größerer Wettbewerb auf dem Telefonie-Markt. Dabei bleibt die Bereitstellung von Diensten weitgehend unabhängig vom Netz selbst, so dass neue Anbieter mit etablierten Netzbetreibern konkurrieren können. Die Dienste sind nicht mehr an einen einzelnen physischen Verbreitungsweg gebunden. Alle denkbaren Kombinationen aus Daten, Tönen und Bildern können über das Kabel, das Festnetz oder eine Mobilfunk-Plattform verbreitet werden. Und auch die Endgeräte werden entsprechend gestaltet. Dieser Konvergenz also – der Verschmelzung von Inhalten, Diensten, Infrastruktur und Endgeräten – ist das Potential von Wettbewerb und Konsumvielfalt inhärent. Schichtung: Abbildung 1 zeigt das Schichtenmodell eines IP-Netzes. Danach benötigen IP-Dienste immer auch eine physische Schicht. So brauchen etwa VoIP-Dienste die Infrastruktur eines Anlagenbetreibers. Und da sich alle Möglichkeiten von NGN erst mit einem BreitbandZusammenarbeit
Nachrichten, Reisen usf.
Informationsdienste
Mailbox, SMS, Rundfunk
Zusatzdienste
Weiterleitung, Quality of Service, Mobilität, Zusammenschaltung
Netzdienste
Zugang, Sendung
Infrastruktur
Entwickler von Anwendungen und Diensteanbieter für Dritte
Z.B. andere Netzbetreiber, Provider, Glasfasernetze
Abb. 1. Schichtarchitektur in NGNs. In: Australian Communications Industry Forum (2004). Final Report, Canberra.
Universaldienste und Next Generation Networks
51
Internet-Zugang erschließen, kommt der prinzipiellen Verfügbarkeit von Breitband eine zentrale Rolle zu. Breitband wird gegenwärtig meist über die herkömmliche Infrastruktur angeboten, also DSL-Technologie und Kabelfernsehnetze, könnte dies prinzipiell aber auch über neue Infrastrukturen, stationär und drahtlos. Die Vorteile neuer Plattformen liegen dabei in der größeren Bandbreite (optische Leiter), Flexibilität (WLAN), Reichweite (Satellit) und Mobilität (3G und folgende). Vor allem drahtlose Technologien erweisen sich zunehmend als attraktive Alternativen zur Abdeckung ländlicher Regionen, in denen die Modernisierung der existierenden Infrastruktur besonders kostspielig wäre. Bei einem konvergierten NGN sollte allerdings nicht nach der ZugangsTechnologie unterschieden werden. Wo verschiedene Geräte Telekommunikation ermöglichen, würden monetäre Anreize zur Unterstützung einzelner Plattformen die technologische und wettbewerbliche Neutralität verletzen. Da Nutzer recht verschiedene Ansprüche an NGN-Dienste stellen, sollten diese Dienste so flexibel wie möglich gestaltet werden. Und da künftige Technologien in ihren Leistungen und Kosten variieren werden, stellt sich der plattform-basierte Wettbewerb asymmetrisch dar: unterschiedliche Plattformen werden zielgruppenorientiert unterschiedliche Dienste und Leistungen anbieten. Damit könnte innerhalb eines Marktsegments der Wettbewerb nur einige wenige oder gar eine einzelne Plattform favorisieren.2 Übergang vom Festnetz zu NGN Bereits der Übergang vom Festnetz zu NGN wirft hinsichtlich der Universaldienste kritische Fragen auf. So ist es recht wahrscheinlich, dass dieser Übergang bestimmte Konsumenten oder geographische Räume diskriminieren wird. Zahlungskräftigere Kunden dürften früher statt des Festnetzes NGN nutzen; zugleich werden immer weniger Kunden mit ihren Beiträgen das Festnetz finanzieren, womit sich die durchschnittlichen Kosten pro Anschluss erhöhen dürften – und das u. U. bei qualitativ schlechteren Diensten. So könnten Festnetze durchaus unrentabel werden, was ihre Schließung nahe legt (es sei denn, Universaldienstverpflichtungen stünden dem entgegen). In der Tat würde die Einstellung der herkömmlichen Festnetze 2
Australian Competition & Consumer Commission (ACCC) (2005): A Strategic Review of the Regulation of Fixed Network Services. Discussion Paper, December.
52
Patrick Xavier, Dimitri Ypsilanti
insofern Klarheit schaffen, als die Vorteile der Kostenreduzierung durch Migration in NGN nur von Betreibern aufgefangen werden können, die nicht durch „alte“ Netze belastet sind. Damit stellen sich unmittelbar Fragen zu Universaldiensten. Aus Gründen des Wettbewerbs mag ein Regulierer dem Incumbent noch einige Zeit auferlegen, ein Festnetz zu unterhalten.3 Aber selbst dort, wo es nicht einfach abgeschaltet werden darf, könnten Fragen eines neuen „Digigal Divde“ aufkommen: einer Kluft zwischen jenen, die bereits über die Dienstequantität und -qualität der NGN verfügen und jenen, die weiterhin auf das Festnetz angewiesen wären. Folgen von NGN für Entwicklungsländer Entwicklungs- oder Schwellenländer, die in der Lage wären, NGN-Infrastrukturen aufzubauen, könnten darüber ihren „technologischen Abstand“ zu den Industriestaaten verringern. So glaubt beispielsweise der indische Telekommunikationsregulierer: „In the Indian context, NGN offers scope for meeting an important national objective of rural connectivity. It may be possible that with optimal network planning and innovative applications, NGN access could provide affordable converged services (multimedia including voice, e-education, e-employment, e-health, e-governance) in small towns and rural areas at lower costs.“4 Wie erwähnt ist eine NGNInfrastruktur allerdings Voraussetzung für NGN-Dienste. Der Aufbau eben dieser Infrastruktur wird eine Herausforderung für Entwicklungs- und Schwellenländer sein, besonders natürlich für solche, deren Bevölkerung bislang kaum Zugang zur Telekommunikation hatte. Entsprechend wäre zu befürchten, dass der Übergang zu NGN eher dazu führt, die technologische Kluft zwischen den Ländern noch zu vergrößern – und zugleich die innerhalb eines Landes: ländliche, wenig bewohnte Regionen in den Entwicklungsländern sind unter kommerziellen Gesichtspunkten für die Entwicklung einer NGN-Infrastruktur äußerst unattraktiv. Andererseits nehmen optimistischere Analysten an, dass bislang unberührte ländliche Räume und abgelegene Märkte ausgesprochen dynamisch sein können, insbesondere unter den Bedingungen einer angemessenen Regulierung. Beispielsweise sieht die indische Regulierungsbehörde in der 3 4
Vgl. ACCC (Fn. 2). Telekom Regulatory Authority of India (TRAI) (2006): Consultation Paper on Issues pertaining to Next Generation Networks (NGN), 12th January 2006, Consultation Paper No: 2/2006, S. 23.
Universaldienste und Next Generation Networks
53
Popularität des indischen Kabelfernsehens einen Beleg dafür, dass auch ärmere Bevölkerungsschichten in ländlichen Räumen bereit sein könnten, für einen Dienst, den sie schätzen, auch zu zahlen.5 Damit könnte die Entwicklung von konvergenten Dienstepaketen, also etwa Triple-Play, auch in solchen Regionen rentabel werden.6 Darüber hinaus – wie erwähnt – sind Investitionen in IP-Infrastrukturen auch deshalb attraktiv, weil sie mittelfristig die Unterhaltskosten der Netze senken. Eine absehbare technologische Entwicklung stützt diese optimistischere Sichtweise, insbesondere mit Blick auf ländliche Räume: WiFI und WiMax, drahtlose Telekommunikationstechnologien mit einer Reichweite von rund 50 Kilometern, könnten den unterversorgten Regionen preisgünstigen Zugang zum Internet ermöglichen – und damit die wirtschaftliche Entwicklung dieser Regionen unterstützen. Aber auch das benötigt eine Umgebung, in der die Marktkräfte Innovationen und kreative Geschäftsideen fördern. Argumente, dass gerade Universaldienst-Programme nicht den Markteintritt von neuen Technologien und Diensten be- oder verhindern sollten, sind für die Entwicklung von NGN besonders relevant: Barrieren sollten abgebaut und künstliche Differenzierungen zwischen Technologien, Diensten und Märkten verworfen werden.
Erschwinglichkeit und Zugang Inwiefern sind vom Übergang vom Festnetz zu NGN nun auch Universaldiensteverpflichtungen betroffen, also etwa Erschwinglichkeit und Zugang? Wie stellt sich der Markt hier auf – und welche Folgen hat das für Fragen der Regulierung? Wenn man mehr auf „Verfügbarkeit“ abhebt, könnten spezifische Kostensysteme entwickelt werden, die Bedürftige unterstützen und ihnen Zugang zu NGN verschaffen. Einige Länder haben solche – kleineren – Programme bereits aufgelegt: die USA „Lifeline“ und „Link-Up“, Großbritannien „Low User“, die Telekommunikationsdienste für Ältere, Benachteiligte, Behinderte und Haushalte mit niedrigem Einkommen fördern, etwa durch geringere monatliche Anschlussgebühren. In Großbritannien muss der Universaldienst-Provider spezielle Dienste z. B. für Blinde oder Taube anbieten. Auch in der EU 5 6
Vgl. TRAI (Fn. 4). Vgl. Melody, W. / E. Sutherland / T. Reza (2005): Convergence, IP Telephony and Telecom Regulation: Challenges & Opportunities for Network Developement, with particular reference to India, Paper prepared for infoDev, New Dehli.
54
Patrick Xavier, Dimitri Ypsilanti
können besondere Tarifprogramme aufgelegt werden, um etwa Haushalten mit niedrigem Einkommen den Zugang zur Telekommunikation zu gewährleisten. Eine der Zielgruppen der EU-Initiative i2010 sind Menschen mit Behinderungen; sie machen etwa 15 Prozent der arbeitenden Bevölkerung in der EU aus7 – ein wesentlicher Prozentsatz, der nicht von wichtigen Produkten und Dienstleistungen ausgeschlossen werden darf; entsprechende Aktionen werden allerdings eher ermutigt denn mandatiert. Die neuen IP-basierten Netze eröffnen nun den Anbietern die Gelegenheit, Produkte und Dienstleistungen auch jenseits der üblichen Telekommunikations-Produktpaletten zu entwickeln. So können Provider eine Vielzahl von Diensten allen Nutzern von Anfang an zugänglich machen. Also können auch die Bedürfnisse von z. B. Menschen mit Behinderung von vornherein im Entwicklungsprozess bedacht werden – was gegenüber einer späteren Implementierung zudem kostengünstiger sein dürfte. Eine solche Strategie der frühen Berücksichtigung von Universaldiensten wurde auch von vielen Experten bei einer Anhörung der Britischen Telekommunikationsbehörde OFCOM angeregt.8 Anzunehmen ist jedenfalls, dass die neuen, über NGN ermöglichten Kommunikationsdienste die Fähigkeit von Menschen mit Behinderung steigern wird, effektiv zu kommunizieren – etwa über Text-Relay-Dienste, Speech-to-Text-Dienste und mehr.
Funktionaler Internet-Zugang in einer NGN-Umgebung Universaldienstverpflichtungen: Zugang zu Netzen und Diensten Das gegenwärtige System der Universaldienstverpflichtungen hat seine Ursprünge in Zeiten, als sowohl Zugang zum Netz als auch Dienste einem einzigen Anbieter zu verdanken waren. Mit NGN werden Netze und Dienste getrennt, möglich ist die Bündelung ehemals separierter Kommunikationsdienste über ein und dieselbe Plattform. Die Frage steht im Raum, ob man sich in einem NGN-Szenario (mit etwa einer größeren Verfügbarkeit einer auch billigeren Sprachübertragung) hinsichtlich der 7
8
European Commission (EC) (2006): European Electronic Communications Regulation and Markets 2005, 11. Report, COM(2006)68 final. Ofcom Submission to the European Commission (2005): On the Review of the Scope of Universial Service in Accordance with Article 15 of Directive 2002/22/EC, (COM(2005)203).
Universaldienste und Next Generation Networks
55
Universaldienste mehr auf das – preiswerte – Zur-Verfügung-Stellen von Breitbandzugängen konzentrieren sollte. Anders ausgedrückt: Sollten sich entsprechende Überlegungen darauf beschränken, Zugang zu ermöglichen (ggf. mit kleinen Übertragungsraten), also sich von Universaldiensten zu Universalzugängen wandeln? Ist das überhaupt möglich? Nach einer Auffassung sind Nutzer im Grunde genommen gar nicht am Zugang interessiert, sondern nur an den Diensten; der Zugang selbst habe im Kern für sie keinen Wert. So argumentiert z. B. Vodafone in einer Anhörung der EU-Universaldienste-Kommission: „The focus should be on services, because social exclusion derives from lack of access to services rather than from not having access to specific communications infrastructure. For example, the satisfaction of the demand for real-time, two-way communication between individuals can be met by several technologies other than simply voice communications over a fixed line. In a data environment, it is even more important to retain the focus on the services that are considered essential for participation in society, rather than any particular delivery infrastructure. There is a high risk of market distortion if there were a bias through intervention towards a particular type of infrastructure access.“9 Demgegenüber hat das britische „Departement of Trade and Industry“ in seiner Einlassung zum selben Thema ausgedrückt: „We are somewhat attracted to the idea of moving towards an environment where it is the access (to perhaps broadband connection) that is specified as an obligation rather than a specific service“.10 Auch das OFCOM glaubt durchaus, Beides sollte voneinander getrennt werden, verweist aber auf weitere einschlägige Argumente: Zum einen könnte sich die Annahme als voreilig erweisen, die Dienste selbst könnten sicherstellen, sie würden nach Universaldienste-Standards zugänglich und erschwinglich sein. Zum anderen müsste eine Bewertung der „Erschwinglichkeit“ auch Kosten jenseits des eigentlichen Dienstes berücksichtigen, also z. B. die der Endgeräte. Im Prinzip und unter bestimmten Voraussetzungen scheint eine Verlagerung hin zu einem „Universalnetzzugang“ sinnvoll.11 Zunächst aber 9
10 11
Vodafone (2005): Submission to European Commisson’s Consultation On the Review of the Scope of Universal Service in accordance with Article 15 of the Directive 2002/22/EC, COM(2005)203, S. 4. Vgl. European Commission (Fn. 7). Für eine detailliertere Analyse vgl. Xavier, P. (2008): From Universal Service to Universal Network Access?, in: Info – The Journal of Policy, Regulation and Strategy for Telecommunications, Information and Media. Special Issue on Universal Service, Vol. 10, 5/6.
56
Patrick Xavier, Dimitri Ypsilanti
sollte es keine Minderung der herkömmlichen Universaldienste geben – z. B. hinsichtlich der schlichten Möglichkeit, Notrufe absetzen zu können. Die Verlagerung zu VoIP könnte eben das in Frage stellen. Daneben muss – wie schon erwähnt – aufmerksam eine „neue digitale Kluft“ im Auge behalten werden. Sollte Breitband Teil der Universaldienstverpflichtungen sein? Breitband ist Voraussetzung und damit der Schlüssel für einen umfassenden Zugang zu NGN-Diensten. Zu fragen wäre also, ob und inwieweit der Zugang zur ganzen Palette der Dienste in einer NGN-Umgebung als Breiband-Zugang gefördert werden soll. Jedes Land sollte das in Anbetracht seiner eigenen Situation überlegen. Käme man zu dem Schluss, Breitband sollte nicht notwendigerweise als Universaldienstverpflichtung definiert werden, heißt das aber auch nicht, der Staat könnte nicht doch über andere Instrumente die Verbreitung von Breitband unterstützen – nur eben nicht als direkte Universaldienstverpflichtung. Da die Verfügbarkeit von Breitband – zumindest in den entwickelten Ländern – rasch ansteigt, ist die regelmäßige, systematische Evaluation dieser Frage durchaus berechtigt. Selbst wenn der Zugang zu NGN verbessert wäre, müsste zugleich auch die Frage der besonderen Unterstützung für körperlich benachteiligte Menschen aufgeworfen werden. Wo immer möglich sollte solche Hilfe genau definiert, transparent und technologieneutral benannt werden. Die Europäische Union hat bereits den „funktionalen Zugang“ zu Daten (wenngleich bei geringen Übertragungsraten) in die Definition von Universaldiensten in seine gegenwärtige Universaldienste-Richtlinie aufgenommen. Umfasst aber ein derartiger „funktionaler Zugang“ in einer NGN-Umgebung notwendigerweise auch explizit den Breitband-Zugang? Zumindest gegenwärtig noch liegen kaum überzeugende Argumente vor, Breitband als Universaldienst zu definieren. Sicherlich können Vorteile genannt werden – etwa einen signifikant schnelleren Internetzugang, höhere Attraktivität von neuen interaktiven Diensten und E-Commerce. Fraglich scheint aber, ob jene, die keinen entsprechenden Zugang haben, als „sozial ausgeschlossen“ betrachtet werden könnten – was eine Universaldienstverpflichtung legitimieren könnte. Breitband-Trends Die Verbreitung von Breitband steigt in den entwickelten Ländern rapide, und gegenwärtige Trends zeigen sogar eine Beschleunigung dieser Verbreitung. Der Wettbewerb sorgt bereits jetzt für geringere Preise und steigende
Universaldienste und Next Generation Networks
57
Verfügbarkeit. Eine weiter steigende Annahme von Breitband am Markt könnte künftig die Betrachtung von Breitband als potentiellen Universaldienst wieder rechtfertigen. Soziale Inklusion Doch liegt derzeit die Marktpenetration von Breitband weit unter einem Wert, der es nahe legen würde, einen nicht-versorgten Haushalt als „sozial ausgeschlossen“ zu betrachten. Zudem ist schwerlich zu argumentieren, die gegenwärtig über Breitband erhältlichen Dienste seien essentiell für die gesellschaftliche Integration eines Haushaltes. So kam die Europäische Union zu dem Schluss: „Broadband has not yet become necessary for normal participation in society, such that lack of access implies social exclusion“12. Dennoch dürfte sich die Situation in der NGN-Welt weiter verändern, besonders dann, wenn der Staat bestimmte Bildungs- oder Gesundheitsangebote oder ähnliches über Breitband anbietet. Daher sollte ein regelmäßiges Monitoring der Breitband-Verfügbarkeit eingerichtet werden – hinsichtlich verschiedener Regionen oder unterschiedlicher sozialer Schichten. Benachteiligungen beim Breitband als Symptom einer sozialen Kluft? Argumentiert wird auch, Fragen des Breitbandzugangs unterschieden sich nicht wirklich von solchen der unterschiedlichen Nutzung anderer Technologien, sei es das Individuum oder Haushalte betreffend, sei es regionale oder bildungs- oder geschlechtsspezifische Unterschiede. Außerdem zeige der Umstand, dass unter Kabelfernseh-Nutzern besonders viele aus den unteren Einkommensschichten kommen, dass solche Schichten auch beim Breitband eine Finanzierung zustande bringen würden – sobald sie es als wichtig erachteten. Demnach würden die Marktkräfte früher oder später für eine vernünftige Verbreitung von Breitband sorgen – und das auch zu erschwinglichen Preisen. Und: obwohl in manchen Ländern, z. B. in Großbritannien, für über 98 Prozent der Anschlussleitungen Breitband zur Verfügung steht, setzen viele Nutzer immer noch auf einen schmalbandigen Zugriff auf das Internet. Andererseits wiederum wird argumentiert, eine „Breitband-Kluft“ sei letztlich nur ein Symptom für lange schon existierende, viel tiefer gehende soziale, wirtschaftliche und bildungsspezifische Klüfte. Warum also soll12
Europäische Kommission (2005): On the Review of the Scope of Universal Service in Accordance with Article 15 of the Directive 2002/22/EC, COM (2005)203, 24. Mai, Brüssel.
58
Patrick Xavier, Dimitri Ypsilanti
ten dann spezielle Programme aufgelegt werden für einen breitbandigen Internet-Zugang? Und dort, wo bestimmten soziodemographischen Gruppen Unterstützung zuteil wird – warum sollten spezielle BreitbandFördermittel jenseits der bedarfsorientierten allgemeinen Sozialprogramme aufgelegt werden? In der Tat haben Studien gezeigt, dass von einem pauschalen Universaldienste-System häufig Menschen mit höherem Einkommen profitieren – und eben nicht Haushalte mit niedrigem Einkommen.13 Verhinderung des Markteintritts Der Zwang, im Rahmen von Universaldienstverpflichtungen Breitband national anzubieten, dürfte die Position des Incumbent stärken, da er derzeit alleine in der Lage sein dürfte, Breitband landesweit anzubieten. Beispielsweise kam die in Australien zuständige Behörde bei einer entsprechenden Evaluation zu dem Schluss: „Finding 8.1: To some extent the current [USO] funding arrangements reduce the incentives for market entry, market growth or maintenance of market share by non-Telstra service providers, and this is a factor reinforcing Telstra’s dominance in the residential access market. Finding 8.2: The current [USO] funding arrangements potentially inhibit the development of advanced services in regional, rural and remote areas, and raise efficiency concerns in the design and implementation of non-USO programs and initiatives.“14 Auch eine andere Australische Untersuchung kam zu dem Schluss, eine Universaldiensteverpflichtung sei „not an effective mechanism to provide broad consumer access to an increased range of services into the future“15 – eine Position, die von der Australischen Regierung übernommen wurde. Argumente von OFCOM Die britische Regulierungsbehörde OFCOM hat eine ähnlich gelagerte Untersuchung angestrengt und schloss: „as yet, the efficiency case for a broadband USO is not compelling“ da „…still limited take-up, the dangers 13
14
15
Vgl. Xavier, P. (2003): Universal Service Obligation and Broadband, in: Info – The Journal of Policy, Regulation and Strategy for Telecommunications, Information and Media, Mai. Australian Department of Communications, Information Technology and the Arts (2004): Review of the Universal Service Obligation and Customer Service Guarantee, Canberra. Australian Regional Telecommunications Inquiry Report (2002): Connecting Regional Australia, Canberra.
Universaldienste und Next Generation Networks
59
of distorting the market (through non-technology neutral intervention at an early stage of market development), the lack of convincing efficiency or social policy arguments for universal broadband access and the number of existing private and public broadband initiatives“.16 Ganz ähnlich argumentiert die Broadband Stakeholders Group: „Heavy-handed intervention, either through the imposition of a universal service obligation or through large-scale subsidies would be inappropriate at this stage.“17 Zwar sagt die derzeit herrschende Meinung, Breitband sei nicht in Universaldienstverpflichtungen aufzunehmen18; man sollte aber im Auge behalten, dass sich die künftige NGN-Umgebung gerade erst entwickelt und dass entsprechende Fragen bald wieder aktuell sein könnten. Doch sollte man gegenwärtig wohl vorsichtig sein mit einer pauschalen Universaldienstverpflichtung, die den Wettbewerb stören oder Investitionsanreize hemmen könnte. Daneben bedeutet eine derartige Position nicht, der Staat könne nicht andere Anreize überdenken, um die Verbreitung von Breitband zu unterstützen – nur dass dies eben nicht durch eine Universaldienstepflicht geschehen sollte. Die EU z. B. erlaubt durchaus entsprechende Initiativen, soweit sie auch nicht aus den Mitteln für Universaldienste gefördert werden.
Grundlegende Abhängigkeit vom Markt Der technologische Wandel erhöht die Chancen einer generellen Verfügbarkeit von Telekommunikationsdiensten, auch in ländlichen Räumen. Vor diesem Hintergrund ist es an der Zeit, über Marktkräfte nachzudenken, über ein Monitoring und Kosten-Nutzen-Analysen. Ein solcher Zugang sollte Fragen der nachhaltigen Regulation in einem dynamischen, kompetativen und konvergenten Kommunikationssektor berücksichtigen sowie Investitionsanreize, Folgen von Universaldienstverpflichtungen auf den Wettbewerb, Markteintrittsbarrieren und den Umstand, dass Subventionsprogramme: 16
17
18
UK Office of Communications (2005): Review of the Universal Service Obligation, 10 January, abrufbar unter: http://www.ofcom.gov.org.uk. Broadband Stakeholders Group (2005): Third Annual Report and Strategic Recommandations. January. Vgl. auch Feijoo, C. / C. Milne (2008): Re-Thinking Universal Service Policy for the Digital Era: Setting the Scene – An Introduction to the Special Issue on Universal Service, in: Info – The Journal of Policy, Regulation and Strategy for Telecommunications, Information and Media. Special Issue on Universal Service, 10, 5/6, S. 4-11.
60
Patrick Xavier, Dimitri Ypsilanti
ņ den Wettbewerb im ländlichen Raum behindern können; ņ mögliche Marktteilnehmer angesichts eines subventionierten Anbieters abschreckt; ņ Marktsignale und damit Marktentwicklung verhindern können; ņ soweit nicht bedarfsorientiert (wie im Falle von Universaldienstverpflichtungen) solche Menschen bevorzugen, die keine Unterstützung brauchen; ņ in einem pauschalen Ansatz („one size fits all“) am Bedarf vorbei operieren können, da die Kunden verschiedene Bedürfnisse haben ņ steigende Kosten für Konsumenten mit sich bringen können. Diese Ineffizienzen zeigen, dass Regulation nur so weit wie nötig implementiert werden sollte; und sie legt einige grundlegende Regeln für Universaldienstverpflichtungen in einer NGN-Umgebung nahe: Generell sollte marktorientierten Ansätzen vertraut werden; Universaldiensteverpflichtungen sollten nicht den Markt beherrschen, sondern allein auf Marktentwicklungen reagieren. Subventionen sollten so gering wie möglich gehalten werden. Regulation sollte Wandel und technologische und infrastrukturelle Entwicklung ermöglichen, sie nicht behindern und sich eher im Sinne einer „light-touch“ Regulation zurückhalten. Die Folgen eines solchen Ansatzes sollten genau beobachtet werden, insbesondere hinsichtlich der Erschwinglichkeit und des allgemeinen Zugangs. Wichtig ist, dass in einer NGN-Umgebung mit vielen Plattformen Konsumenten ganz nach ihren Bedürfnissen die Wahl zwischen verschiedenen Anbietern und Technologien haben.
Zur Förderung von Universaldienstverpflichtungen in einer NGN-Umgebung Mit rückläufigen Profitmargen (aufgrund steigenden Wettbewerbs und fallender Preisen) steigen wiederum die Begehrlichkeiten für Fördermittel zur Verbreitung von NGN, da die Telekommunikationsbetreiber sich weniger in der Lage sehen, von sich aus Universaldienste anzubieten. Eine Reihe von Förderquellen sind hier denkbar, einschließlich19 – etwa – einer Steuer 19
Jede dieser Optionen wird detaillierter diskutiert bei Xavier, P. / D. Ypsilanti (2007): Universal Service in an NGN-Environment, in: Info – The Journal of Policy, Regulation and Strategy for Telecommunications, Information and Media, 19, 1.
Universaldienste und Next Generation Networks
61
für jede Telefonnummer, einer zusätzlichen Gebühr für internationale Anrufe, der Unterstützung aus allgemeinen Fördermitteln, Beiträge der Kommunen, Beiträge durch Privatisierung und Auktionen oder etwa Public-Privat-Partnerships. Pragmatisch betrachtet mag es realistisch sein, eine Kombination solcher Instrumente heranzuziehen, insbesondere kurzfristig. Langfristig aber spricht einiges dafür Universaldienstverpflichtungen aus allgemeinen Steuermitteln zu fördern. Da letztlich die Politik entscheiden muss, welche Universaldienste garantiert werden sollen, ist es angebracht, solche Verpflichtungen auch mit anderen staatlichen Vorgaben in Wettbewerb zu stellen. Da es politische Vorteile bringen dürfte, Universaldienstverpflichtungen auf Kosten von Betreibern und/oder Konsumenten zu erlassen, ist eine zurückhaltende Universaldienstverpflichtung (die Innovationen stimulieren könnte) eher nicht zu erwarten. Eine staatliche Förderung würde die Entscheidung für diesen oder jenen Universaldienst eher auch an die finanziellen Folgen dieser Entscheidung binden. Das könnte helfen, exzessive politische Forderungen an die Anbieter zu unterbinden.
Schluss Befürchtungen hinsichtlich der Universaldienste in kompetativen Märkten haben sich als weitgehend unbegründet erwiesen. Das Fazit dieses Beitrages ist dann auch, dass in einer NGN-Umgebung Marktkräfte vornehmlich die Ziele von Universaldienstverpflichtungen bestimmten sollten, während nur die wirklich Bedürftigen unterstützt werden sollten. Regulation scheint in geringem Umfang notwendig und sollte nur dort eingesetzt werden, wo sie unter strengen Gesichtspunkten notwendig erscheint. Universaldienste sollten also nicht den Markt beherrschen sondern allein auf Markteffekte reagieren. Im Prinzip und unter bestimmten Vorraussetzungen scheint ein Wechsel zu einem universellen Netzzugang angebracht. In NGN-Umgebungen werden Netze und Dienste separiert, dem folgt eine größere Auswahl für die Konsumenten und der Wettbewerb könnte Verfügbarkeit und Zugang sichern. In einem solchen NGN-Szenario sollte Netzzugang als Universaldienst nur auf der Ebene geringerer Übertragungsgeschwindigkeiten angedacht werden. Damit könnten dann zu einem späteren Zeitpunkt Universaldienstprogramme Dienste vom Zugang trennen und sich allein auf den Zugang konzentrieren.
62
Patrick Xavier, Dimitri Ypsilanti
Zugang zur ganzen Palette der NGN-Dienste, einschließlich etwa VoIP, erfordert einen Breitbandanschluss. Sollte also – was hier ebenfalls diskutiert wurde – Breitbandzugang als Universaldienst verpflichtend eingeführt werden? Das wird hier zurückhaltend betrachtet; allerdings sollte auf diesem sehr dynamischen Feld ein regelmäßiges Monitoring klären, inwiefern Breitband nicht in der Tat als Universaldienst seine Berechtigung hätte. Hinsichtlich der Förderung argumentieren wir, dass die Unterstützung aus allgemeinen Steuermitteln die staatliche Entscheidung und ihre finanzielle Folgen näher aneinander bindet.
Über die Autoren Patrick Xavier Prof. Dr. Patrick Xavier ist Direktor für Informations- und Kommunikationsstrategien sowie Professor für Kommunikationsökonomie am Centre for Communications Economics and Electronic Markets der Curtin University of Technology in Perth, Australien. Er berät nationale und internationale Organisationen, darunter die OECD, die Weltbank, Apec und die ITU. Dimitry Ypsilanti Dimitri Ypsilanti ist Leiter der Abteilung Telekommunikations- und Informationspolitik der OECD. Er studierte Wirtschaftswissenschaften an der Bristol University, Großbritannien, der Memorial University und der Queens University in Kanada. Seine Arbeit umfasst Aspekte rund um die Telekommunikationswirtschaft, einschließlich ökonomischen Analysen, Regulierungsfragen und Policy-Beratung – so z. B. in Zentraleuropa und den Transformationsstaaten Osteuropas. In jüngster Zeit setzt er sich vornehmlich mit Fragen der Konvergenz und der Next Generation Networks auseinander. Er ist Mitglied im Editorial-Board von „Telecommunications Policy“ und „Info“.
Wie geht es weiter nach DSL? Entwicklungsperspektiven der Versorgung mit Breitband-Internet
Franz Büllingen
Entwicklung der Internetnutzung in Deutschland In nur wenigen Bereichen der Nachfrage nach Dienstleistungen wurde bislang das Verhalten der Nutzer in so durchschlagender Weise von Technologieangeboten und deren Qualitätsmerkmalen geprägt wie im Telekommunikationssektor und hier speziell beim Internetzugang. In den 90er Jahren dominierte zunächst das Analog-Modem mit Geschwindigkeiten zwischen 9,6 und 56 kbit/s und heftete dem Internet das Image an, primär ein Medium einer kleinen, technikaffinen Gemeinde zu sein. Entsprechend langsam entwickelte sich in dieser Phase die Nachfrage nach Internetbasierten Diensten. Aus heutiger Sicht erscheint es kaum mehr vorstellbar, dass bereits damals bei den geringen Bandbreiten vergleichsweise hoch verdichtete Informations- und Suchportale wie etwa die von Lycos, Yahoo oder AOL bei den Kunden großen Zuspruch auslösten. Ende der 90er Jahre erfolgte dann der Quantensprung von der Schmalin die Breitbandigkeit: In mehreren deutschen Großstädten erfolgte erstmals die Vermarktung der Digital Subscriber Line (DSL) mit Bandbreiten von 768 kbit/s durch den Incumbent Deutsche Telekom. Da der Zugangsdienst zu Breitband-Internet für alle im Festnetzbereich aktiven Spieler die Möglichkeit bot, die durch sinkende Preise für Telefondienste schwindenden Margen zu kompensieren, wurde die Telekom durch regulatorische Schritte gezwungen, ihren Wettbewerbern entsprechende Vorleistungsprodukte in diesem neu entstehenden Marktsegment anzubieten. Seither sind die Nutzerzahlen – beinahe parallel mit dem Angebot wachsender Bandbreiten – jährlich im zweistelligen Prozentbereich gestiegen. Von den 82,3 Mio. Einwohnern verfügten 2008 rund 52 Mio. über einen
64
Franz Büllingen
Zugang zum Internet. Das entspricht einer Penetrationsrate von 64 Prozent. Bezogen auf die Zahl der Haushalte bedeutet das: von den rund 40 Mio. deutschen Haushalten verfügen bereits 23 Mio. (58 %) über einen Breitband-Internetanschluss. Im internationalen Vergleich ist diese Penetrationsrate trotz des noch geringen intermodalen Wettbewerbs zwischen Festnetz und Fernsehkabel beachtlich und Deutschland nimmt hier den sechsten Rang ein.1 Ende 2008 entfielen rund 20,7 Mio. Anschlüsse auf die DSL-Technologie (90 %), während 2,2 Mio. über das Breitbandkabel (9 %), 60 000 über Satellit und 10 000 Anschlüsse über Powerline geschaltet waren. Unterdessen schreitet der Zuwachs an Bandbreite bei nahezu allen Anschlusstechnologien fort. Wurden noch vor zwei Jahren von den meisten Internet Service Providern (ISP) zwei MBit/s als Standardprodukt vermarktet, so dürften die meisten Kunden heute bereits über einen Anschluss mit durchschnittlich sechs MBit/s verfügen. In vielen Regionen werden mit der Migration nach ADSL2+ bereits bis zu 18 MBit/s an Privatkunden vermarktet. Große Kabelnetzbetreiber wie z. B. unity media bieten ihren Kunden heute Anschlüsse mit bis zu 32 MBit/s an, und der Trend zeigt auf Grund des Technologievorsprungs des Koaxialkabels sowie der Umstellung auf DOCSIS 3.0 steil nach oben mit Bandbreiten von bis zu 200 MBit/s. Der Trend zu immer höheren Bandbreiten dürfte damit zumindest in den städtischen Zentren und den Ballungsräumen anhalten. 2006 wurde von der Deutschen Telekom der Einstieg in eine weitergehende Ausbaustrategie ihres Festnetzes in Aussicht gestellt. Danach will die Deutsche Telekom ihre Netze in über 50 Städten bis zum Jahr 2009 mit der VDSL-Technologie ausrüsten. Durch VDSL sollen Bandbreiten von bis zu 50 MBit/s pro Anschluss und entsprechend hochbitratige Dienste wie z. B. IPTV oder Video-on-Demand vermarktet werden. Einzelne City Carrier wie etwa Netcologne haben damit begonnen, 100 MBit/s im Privatkundengeschäft anzubieten. Im internationalen Vergleich ist in Ländern wie Japan oder Südkorea der Ausbau der Glasfaser bis zum Haus oder Gebäude (Fibre to the Home, Fibre to the Building, Fibre to the Curb etc.; FTTx) bereits weit vorangeschritten. Dort stehen vielen Privatkunden bereits heute Anschlussgeschwindigkeiten von bis zu 100 MBit/s zur Verfügung für Entgelte, deren Höhe unwesentlich über den Kosten für einen in Deutschland üblichen DSL-Anschluss liegt. Ein wichtiger Antriebsfaktor für diese sehr dynamische Entwicklung des Breitbandmarktes besteht, wie bereits angedeutet, zum einen in der durch 1
Vgl. www.internetworldstats.com/top20.htm.
Wie geht es weiter nach DSL?
65
die Regulierung herbeigeführten Bereitstellung von günstigen Vorleistungen. So musste die Deutsche Telekom ihren Wettbewerbern neben dem entbündelten Netzzugang (TAL), Resale und Line Sharing zuletzt auch ein Angebot für den Bitstream Access unterbreiten. Der 12. „Implementation Report“ der EU-Kommission macht deutlich, dass sich die Konditionen für die Wettbewerber, die auf der Grundlage der Vorleistungen der Deutschen Telekom in Deutschland Zugänge zu Breitband-Internet anbieten, in den letzten Jahren stark verbessert haben und somit deutliche ökonomische Anreize für das Angebot wettbewerblicher Produkte bestehen.2 Als zweiter wichtiger Treiber hat sich auf dem Markt für Internetzugangsdienste in Deutschland ein intensiver Wettbewerb der ISP herausgebildet. Der Anteil des ehemaligen Marktführers T-Online auf dem DSLMarkt betrug im 4. Quartal 2008 noch knappe 43 Prozent, während die Wettbewerber in den vergangenen Jahren deutlich Marktanteile hinzugewonnen und den Incumbent – bezogen auf den Gesamtmarktanteil – inzwischen überrundet haben (United Internet 13 %, Arcor 13 %, Hansenet 11 %, Freenet 5 %, Versatel 3 %, Netcologne 2 %). Bezieht man alternative Breitbandzugangstechnologien wie die auf dem Breitbandzugangsmarkt stark wachsenden Kabelnetze mit Quartalszugewinnen von bis zu 20 Prozent Neukunden in die Betrachtung mit ein, liegt der Marktanteil der Telekom sogar noch darunter. Ein dritter wesentlicher Faktor für die Marktpenetration von BreitbandInternet besteht in der Entwicklung der Preise, die sowohl für die Nachfrageentwicklung im Massenmarkt als auch für Unternehmen von besonderer Bedeutung sind. Niedrige Preise gelten als ein wesentlicher Motor für die schnelle Verbreitung und intensive Nutzung von Breitband-Internet. In Deutschland sind die Preise für Breitbandanschlüsse in den letzten Jahren deutlich gesunken. Allein von 2003 bis 2007 sind sie um mehr als 42 Prozent gefallen. Ein Internetzugang mit bis zu 16 MBit/s kostete 2008 weniger als ein 1-MBit/s-Anschluss vier Jahre zuvor. Breitbandanschlüsse sind heute oft schon für unter 20 Euro im Monat zu erhalten und werden in der Regel mit preisgünstigen Festnetz- bzw. Mobilfunktelefoniediensten im Bündel als Flatrate angeboten. Auch wenn Flatrateangebote bezogen auf die konkreten Kommunikationsprofile vieler Kunden häufig überdimensioniert sind, so ermöglichen sie die Kontrolle ihrer Kommunikationsbudgets, schaffen Sicherheit vor unliebsamen Überraschungen beim Inkasso der Rechnungen und treiben so die Nachfrage vor2
Vgl. Europäische Kommission (2007): 13th Report on the Implementation of the Telecommunications Regulatory, S. 108 f.
66
Franz Büllingen
an. Der Branchenverband VATM erwartet, dass auf Grund des durch die Kabelnetzbetreiber forcierten Wettbewerbs die Preise bei steigender Bandbreite auch künftig weiter fallen werden.3 Deutschland gehört damit zu den Ländern, die über die niedrigsten Anschlusskosten für Massenmarktprodukte in Europa verfügen.
Breitband-Internet als Standortfaktor Die enorme Verbreitungsgeschwindigkeit breitbandiger Internetanschlüsse hat wie kaum ein anderes Segment des Telekommunikationsmarktes in den letzten Jahren Wirtschaftsverbände, Parlamente sowie Regierungen auf den Plan gerufen. Im Zuge der Liberalisierung der Telekommunikationsmärkte und den damit verbundenen positiven gesamtwirtschaftlichen Effekten wurde Breitband-Internet sukzessive ein immer höherer Einfluss auf das (nationale) Wirtschaftswachstum und die Standortqualität zugemessen. Manche Institutionen wie etwa die OECD, die ITU oder die EU-Kommission und ihre Beratergremien gingen sogar soweit, die wirtschaftliche und soziale Bedeutung von Breitband-Internet auf eine höhere Stufe als die klassischen Infrastrukturen zu stellen.4 So heißt es beispielsweise in einem Bericht der eEurope Advisory Group von Juni 2004, dass „Breitband einen deutlich höheren Einfluss auf die Entwicklung ländlicher Gebiete haben (kann) als jegliche andere Infrastruktur (Telefon, Eisenbahn, Straßen)“5. Obwohl derartige Aussagen weitgehend spekulativ sind, so haben sie der flächendeckenden Versorgung der Bevölkerung mit Breitband-Internet als Politikum nach und nach den Weg in die Arena der bedeutendsten gesellschaftspolitischen Themen geebnet. Neben der Wahrung der Chancengleichheit und dem Ausgleich des Stadt-Land-Gefälles spielen in diesem Diskurs die wirtschaftlichen Effekte eine zentrale Rolle. Die meisten ökonomischen Studien sind auf Grund der breiten Streuung der gesamtwirtschaftlichen Effekte, der grundsätzlichen methodischen Probleme sowie der Zurechenbarkeit der direkten und indirekten Wohlfahrtswirkungen im Lauf der Jahre immer wieder zu eher vorsichtigen und meist zurückhalten3
4 5
Vgl. VATM (2007): Entwicklung der ADSL-Endkunden-Preise im Vergleich zur nachgefragten Bandbreite; http://www.vatm.de/content/studien/inhalt/1306-2007.pdf. Vgl. ITU (2003): Birth of Broadband – ITU Internet Reports, September 2003. eEurope Advisory Group (2004): Work Group 1, Digital Divide and Broadband Coverage, S. 4, Übersetzung durch den Autor.
Wie geht es weiter nach DSL?
67
den Schätzungsergebnissen6 gekommen. So heißt es z. B. zuletzt in einem von der Europäischen Kommission beauftragen Gutachten: „According to the model, process improvement, increased specialization in knowledgeintensive activities and broadband-based development of innovative markets resulted in a growth of the European Gross Value Added (GVA) of 82.4 bn Euros per year (+ 0,71 %) in 2006. The impact of broadband on national economies depends on the level of broadband development: in the most advanced European countries, broadband-related GVA growth reaches 0,89 %, whereas in the countries with less-developed broadband, this growth is limited to 0,47 %.“7 Gleichwohl gibt es triftige Annahmen dafür, dass derartige Zahlen mehr über die Grenzen der Erfassbarkeit der Marktvolumeneffekte, der Nutzeneffekte sowie der dynamischen Effekte und die mangelnde Aussagekraft der betrachteten Zeiträume aussagen als über die tatsächlichen wirtschaftlich erwartbaren Effekte.8 Langfristig betrachtet sind die gesamtwirtschaftlichen Produktivitätsschritte vermutlich beachtlich und dürften sich durch ihre Breitenwirkung in den nächsten Jahren immer deutlicher auch einzelund gesamtwirtschaftlich bemerkbar machen. Diese Effekte sind besonders gut an Wirtschaftszweigen wie z. B. der so genannten Kultur- und Kreativwirtschaft zu erkennen, deren Leistungspotenzial in besonderem Maße auf der Erstellung, Produktion und der Distribution von kreativen Gütern und Dienstleistungen beruht. Im Abschlussbericht der Enquete-Kommission des Deutschen Bundestages „Kultur in Deutschland“ wird deutlich, dass dieser Bereich mit einem sehr hohen Anteil an Selbständigen, über 1 Mio. Beschäftigten und einem Umsatz von über 120 Mrd. Euro in besonderer Weise vom Vorhandensein einer gut ausgebauten Breitbandinfrastruktur profitiert: Mit jedem breitbandig angeschlossen Haushalt wachsen die externen Effekte und es besteht die Möglichkeit, die Reichweite für die Verbreitung kulturwirtschaftlicher Inhalte 6
7
8
Vgl. Crandall, R. W. et al. (2003): The Effect of Deregulating Broadband on Investments, Jobs and the U. S. Economy, Criterion Working Paper; Fornefeld et al. (2008): The Impact on Broadband on Growth and Productivity, A study on behalf of the European Commission. Vgl. MICUS (2008): The Impact of Broadband on Growth and Productivity. A study on behalf of the European Commission (DG Information Society and Media), Short version – selected extracts from the full text, S. 6. Vgl. z. B. Institut für Siedlungs- und Wohnungswesen et al. (2008): Bedeutung der Infrastrukturen im internationalen Standortwettbewerb und ihre Lage in Deutschland, Münster, S. 17 f.
68
Franz Büllingen
bis in den letzten Haushalt hinein zu steigern. Das gilt einmal mehr in Hinblick auf den „self generated content“ im Web 2.0, der inzwischen nicht nur über die Hälfte des Internetverkehrs ausmacht, sondern beginnt, neue Geschäftsmodelle der etablierten Akteure anzustoßen. Der immer kostengünstigere Zugriff und die Nutzung von Informationen und Daten in privaten Haushalten, Wirtschaftsunternehmen und Verwaltungsorganisationen, die allmähliche Integration von Internetdiensten in viele Elemente der Wertschöpfung und der Prozessketten, die zunehmende Implementierung in Bildung und Ausbildung, in die Gesundheitswirtschaft, die Werbewirtschaft oder in die Beschaffung (E-Procurement) lassen vermuten, dass die meisten Effekte einer steigenden Produktivität aus heutiger Sicht eher noch am Anfang stehen, sich häufig in schwer messbaren Parametern wie z. B. Flexibilitäts- und Zeitgewinnen („time to market“) ausdrücken oder (noch) nicht vollständig erfasst werden können. Dabei wurde gerade erst damit begonnen, die vielfältigen Anwendungshürden etwa im Bereich E-Commerce durch die Implementierung von neuen Bezahldiensten, von IT-Sicherheit und Datenschutz oder elektronischen Signaturen in kleinen Schritten zu beseitigen und „Vertrauen“ als Basisressource für jedweden elektronischen Geschäftsprozess zu implementieren.9 Noch sind die meisten geschäftlichen und privaten Nutzer ein gutes Stück davon entfernt, auf diese Enabler-Funktionen wie selbstverständlich zuzugreifen. Die Empirie zeigt aber, dass Breitband-Internet über das Mehr an Convenience die meisten Anwender deutlich zur Mehrnutzung motiviert und die alltägliche Nutzung selbstverständlicher macht. Mehr Breitbandigkeit wird demnach die (zu) frühe Einführung von zahlreichen E-Business-Anwendungen neu beleben und durch Ausschöpfung von Effizienzvorteilen zu Produktivitätsverbesserungen führen. Schließlich steht mit der Integration des mobilen Internet, also der Mobilisierung der Wertschöpfungsaktivitäten und der Integration von mobilen Geschäftsanwendungen in die Prozesse von Unternehmen und Verwaltungsorganisationen, die nächste Innovationswelle bevor. Auf der Einführung dieser konvergenten, als „Mobile Business-Solutions“ bezeichneten Anwendungen ruhen seit einigen Jahren hohe Erwartungen von EndgeräteHerstellern, Netzbetreibern, Diensteanbietern sowie Systemintegratoren, und ihre Bedeutung reicht quer über alle Branchen. Mit der Aufrüstung der Netze durch EDGE, HSPA (und perspektivisch LTE), der Verfügbarkeit immer größerer Bandbreiten (auch in Gebäuden) sowie geeigneter Endge9
Vgl. Klumpp, D. / H. Kubicek / A. Rossnagel / W. Schulz (2008): Informationelles Vertrauen für die Informationsgesellschaft, Berlin, Heidelberg.
Wie geht es weiter nach DSL?
69
räte wurden in den letzten Jahren die Weichen für eine breite Marktdurchdringung gestellt.10 Derzeit dominieren meist noch einfache Anwendungen wie SMS, E-Mail oder Sprachtelefonie die mobile Geschäftskommunikation. Viele Hersteller und Dienstleister aber befinden sich bereits auf dem Weg zum Einsatz komplexerer Anwendungen und gleichen von unterwegs mit Hilfe von Mobile Office Termine ab, greifen auf Unternehmensdaten zu oder erfassen neue Aufträge beim Kunden durch mobile Clients. Damit zeichnen sich erste mobile Lösungen ab, die eine Optimierung von Geschäftsprozessen über die gesamte Wertschöpfungskette hinweg erlauben. Prozessinnovationen durch „Mobile Business-Solutions“ kommt demnach eine Art Schlüsselfunktion zu, mit denen sich die Kundenbeziehung verbessern, die Zufriedenheit der „Mobile Worker“ erhöhen als auch die Flexibilität und der Einsatz der Außendienstler optimieren lassen. Experten erwarten, dass derartige Dienste einen erheblichen Beitrag zur Verbesserung der Effizienz, zur Verbesserung der Servicequalität und zur Kommunikation mit dem Kunden leisten.11
Wenn aus „weißen Flecken“ „graue Flecken“ werden Für den Begriff Breitbandigkeit gibt es weder im nationalen noch internationalen Rahmen eine einheitliche Festlegung oder Konvention, bei welcher Downstream-Bitrate Breitbandigkeit genau beginnt. Die mit den Investitionen in bestehende Netzinfrastrukturen meist einhergehende Steigerung der Übertragungsgeschwindigkeit verdeutlicht, dass eine Definition von Breitbandigkeit zum einen den dynamischen Einflüssen der technischen Entwicklung folgt. Diese Dynamik verläuft – meist in Abhängigkeit von der allgemeinen wirtschaftlichen und technologischen Leistungsfähigkeit der Netzinfrastrukturen sowie der vermarkteten Dienste – in den meisten Ländern sehr unterschiedlich. Zum anderen kann der Ausbaustand der Infrastruktur in einzelnen Ländern, Regionen oder selbst in Ortschaften sehr heterogen sein. So reicht das Spektrum möglicher Downstream-Bitraten innerhalb der OECDStaaten im Massenmarkt von 56 kbit/s in den ländlichen Regionen bis hin 10 11
Vgl. z. B. www.simobit.de. Büllingen, F. (2006): Mobile Enterprise-Solutions – Stand und Perspektiven mobiler Kommunikationslösungen in kleinen und mittleren Unternehmen, Bad Honnef.
70
Franz Büllingen
zu 100 MBit/s etwa in Japans urbanen Zentren. Auch in Deutschland gibt es auf Grund der heterogenen Situation in den Ortsnetzen noch rund 15 Prozent unterversorgter Gemeinden, in denen bestimmte Haushalte beim Zugang zum Internet z. B. auf ISDN (64/128 kbit/s) oder auf DSL-Light (386 kbit/s) angewiesen sind, während nur wenige Straßenzüge weiter auf Grund kürzerer Leitungslängen zum Hauptverteiler eine Bandbreite von zwei MBit/s oder mehr zur Verfügung steht. Angesichts der unterschiedlichen infrastrukturellen und versorgungstechnischen Voraussetzungen sieht daher die Bundesnetzagentur (BNetzA), aber auch z. B. die britische Regulierungsbehörde OFCOM, die durch Kanalbündelung erzielbare doppelte ISDN-Geschwindigkeit von 128 kbit/s und mehr als Grenze an, oberhalb derer von Breitbandigkeit gesprochen werden kann.12 Diese Definition von Breitbandigkeit wurde auch dem Breitbandatlas des Bundesministeriums für Wirtschaft und Technologie (BMWi) zu Grunde gelegt: Der 2005 veröffentlichte Breitbandatlas und das Breitband-Portal des BMWi bezeichnen in Abstimmung mit den ITKBranchenverbänden eine Download-Übertragungsrate von mehr als 128 kbit/s als breitbandig. Bereiche oder Regionen, deren Versorgungsqualität darunter liegt, werden seither als „weiße Flecken“ bezeichnet. Seit der Veröffentlichung des Breitbandatlas sowie weiterer InternetAtlanten etwa der Bundesländer Berlin oder Brandenburg hat sich unter dem Druck der Öffentlichkeit die flächendeckende Versorgung insbesondere der ländlichen Regionen sukzessive fortentwickelt. Durch zahlreiche Maßnahmen der Anbieter, aber auch durch Fördermaßnahmen der Gemeinden, der Länder und des Bundes hat sich – gemäß der oben erläuterten Breitband-Definition – die Zahl der 2005 noch unversorgten Haushalte von ca. acht Prozent auf heute etwa zwei bis drei Prozent verringert. Da die Erschließung der restlichen zwei bis drei Prozent an die Grenzen eines wirtschaftlich vertretbaren Ausbaus stößt, hat der Ruf nach öffentlichen Beihilfen zur Unstützung von Investitionen oder zu Abfederung von Risiken zunehmend auch Gehör bei den politischen Institutionen gefunden. So werden Maßnahmen von Bundesregierung und Bundesländern etwa im 12
Mit 144 kbit/s setzt die EU Kommission ihre Definition von Breitbandigkeit nur geringfügig höher an. Die amerikanische Regulierungsbehörde FCC sieht Breitbandigkeit bei einer Übertragungsgeschwindigkeit von 200 kbit/s und mehr als gegeben an, während die OECD oberhalb von 256 kbit/s von Breitbandigkeit ausgeht. Die Internationale Fernmeldeorganisation ITU (ITU-T I.113) schließlich spricht erst bei Bitraten von mehr als 1,5 bzw. zwei MBit/s von Breitbandigkeit.
Wie geht es weiter nach DSL?
71
Rahmen der GAK-Förderung13 mittelfristig dazu führen, dass die „weißen Flecken“ von der Breitbandlandkarte fast vollständig verschwinden und damit das Menetekel der „Digitalen Spaltung“ definitorisch von der politischen Agenda getilgt wird. Würde jedoch die Definition von Breitbandigkeit bei (heute selten vermarkteten) zwei MBit/s angesiedelt, dann würden nur 70 Prozent der deutschen Haushalte einen Breitband-Internetanschluss erhalten können. Das (absehbare) Verschwinden der „weißen Flecken“ hat in der Konsequenz zu dem bei vielen Breitbandveranstaltungen verwendeten Argument geführt, dass auch Bandbreiten im unteren Bereich (z. B. 128 KBit/s) im Prinzip ausreichen, um alle wichtigen Anwendungen wie VoIP, E-Mails, Informationssuche, zeitunempfindliche Downloads etc. zu realisieren, und dass deshalb auch die bestehende Definition für Breitband-Internet ausreiche, um die politisch gewollte Mindestversorgung bzw. Basisversorgung auch in den ländlichen Regionen herzustellen. Das (allmähliche) kollektive Aufatmen in vielen Länderparlamenten und Gemeinden über das absehbare Verschwinden der „weißen Flecken“ darf jedoch nicht darüber hinwegtäuschen, dass mit jedem KBit/s an Bandbreitenzugewinn sich zugleich auch drei entscheidende Parameter des Breitbandmarktes und der Nachfrage verändern: Zum ersten folgt die digitale Ausgestaltung der Webinhalte, der Homepages und des gesamten distribuierten Contents den angebotenen Bandbreiten im Anschlussbereich, indem etwa Bilder mit immer höherer Auflösung oder Audio- und Videoclips in bestehende Portale integriert werden. Kommunikationsdienste wie Instant Messenger Service, File Sharing, E-Mails (einschließlich Spam) und auch die Abwehrmaßnahmen gegen Missbrauch (etwa durch tägliche Updates von Filter- und Virensoftware) stellen immer höhere Anforderungen an die Übertragungskapazität.14 Gleichzeitig werden ganze Bibliotheken digitalisiert und zum Download ins Netz gestellt, neue Geschäftsmodelle kreiert wie z. B. IPTV in HDTVQualität oder Service as a Software (SAS). Neue Dienste wie YouTube bieten das Web-Hosting von Datenfiles für Privatkunden umsonst oder zu sehr geringen Kosten an, so dass es nur eine Frage der Zeit scheint, bis das 13
14
Fördermaßnahme im Rahmen der Gemeinschaftsaufgabe Verbesserung der Agrarstruktur und des Küstenschutzes (GAK) von Breitbandmaßnahmen mit agrarstrukturellem Bezug durch die Bundesregierung. Bundesanteil (60 %) mit einem Volumen von zehn Mio. Euro pro Jahr ab 2008. Z. B. stellt DE-CIX beim dem von ihr betriebenen Internet Exchange-Übergabepunkt eine Verfünffachung des Verkehrsvolumens von 2006 bis 2008 fest.
72
Franz Büllingen
Outsourcing der Datenvorhaltung den Massenmarkt erreicht. Besonders hohe Bandbreitenanforderungen stellen künftige Anwendungen wie beispielsweise der Einkaufsbummel in virtuellen Einkaufszentren, der bereits in Japan und Hongkong zu besichtigen ist. Experten gehen davon aus, dass diese Art von Anwendungen, die auf virtuellen Realitäten basieren, eine Bandbreite von bis zu 100 MBit/s in Echtzeit benötigen, um Kunden eine möglichst hohe Erlebnisqualität zu vermitteln. Zum zweiten lösen sich die traditionellen Grenzen zwischen Arbeit und Freizeit, zwischen Büro- und Heimarbeit, zwischen Schule/Unterricht und Selbststudium, zwischen stationärer Patientenbehandlung und ambulanter Beratung immer mehr auf und als mediatives Bindeglied treten unterschiedliche Formen einer Web-basierten Vermittlung dazwischen. Das gilt besonders für die vielen kleinen und mittlere Unternehmen und die SmallOffice/Home-Office-Betriebe, die als Kulturschaffende und Freiberufler häufig versuchen, die Standortnachteile ländlicher Regionen mit modernen Kommunikationslösungen zu kompensieren. Noch haben sich die meisten Formen Web-basierter Unterrichtseinheiten, elektronischer Mandantenberatung, der Übermittlung von Steuerformularen oder die Nutzung von Meldevorgängen nicht vollständig den Weg in den Massenmarkt geebnet. In einigen Jahren jedoch werden viele Anwendungen zum Repertoire sozial verbindlicher Nutzungsstandards gehören und das Anspruchsniveau der Versorgungsqualität mit Breitband-Internet auf ein neues Niveau treiben. Zum dritten spricht die Beobachtung des Kundenverhaltens dafür, dass selbst stark erhöhte Übertragungsgeschwindigkeiten nicht dauerhaft als Fortschritt empfunden werden. Der mit zunehmender Bandbreite zunächst empirisch feststellbare Zuwachs an Bequemlichkeit wird im Zeitablauf rasch durch Gewöhnungseffekte aufgezehrt durch ein sich rasch veränderndes Kommunikationsprofil. Kunden mit höheren Downloadraten beginnen oft schon nach wenigen Wochen, neue datenintensive Dienste wie z. B. Web-Hosting, Fotoentwicklung und -abzüge, Audio- oder Video-onDemand, Podcasts etc. in ihren Kommunikationsalltag zu integrieren. Das konkrete Kundenverhalten führt demnach dazu, dass der Zuwachs von Bandbreite schon nach kurzer Zeit zur habitualisierten Selbstverständlichkeit „degeneriert“ und den Wunsch nach weiterer Steigerung auslöst. Es ist daher nicht überraschend, dass mit steigender Übertragungsgeschwindigkeit zugleich die Bequemlichkeit und die Nutzungsintensität des Internet überproportional zunehmen. Der Wunsch nach Bequemlichkeit kann daher – neben den sinkenden Preisen – als einer der wesentlichen Treiber des Marktes für breitbandige Anschlüsse angesehen werden.
Wie geht es weiter nach DSL?
73
Während in den Städten und urbanen Regionen derartigen Entwicklungen und Anwendungsszenarien angesichts der dort schon heute vermarkteten Bandbreiten von bis zu 100 MBit/s mit einer gewissen Gelassenheit entgegengesehen werden kann, werden die ländlichen Regionen, in denen die Einführung von „DSL-light“ noch bis zum Ende dieses Jahrzehnts als großer Erfolg bewertet werden wird, erneut schon bald erneut das Nachsehen haben: Die Schere in der Breitbandversorgung zwischen städtischen und ländlichen Regionen öffnet sich bei stark gestiegenem Anspruchsniveau und der Abstand wird im Prinzip sogar größer als zuvor.15 Aus den „weißen Flecken“ werden mithin „graue Flecken“ werden, die im Prinzip die gleichen Regionen betreffen und die mit Blick auf das Stadt-LandGefälle in ihren siedlungsstrukturellen und demografischen Auswirkungen kaum zu unterschätzen sind.16 Es ist daher absehbar, dass selbst nach der Schließung der Versorgungslücken das Problem der Unterversorgung der ländlichen Räume, aber auch mancher städtischer Regionen, künftig – auf höherem Niveau – fortbestehen wird. Viele der heute verfolgten Lösungen stellen in der Perspektive der oben skizzierten Anwendungsszenarien kaum mehr als Interimslösungen dar, die sich aus heutiger Sicht zwar pragmatisch an den Erfordernissen vieler Nutzer orientieren und kurzfristig einen wichtigen Versorgungsbeitrag insbesondere in der Fläche leisten. Schon mittelfristig aber wird durch den ständig steigenden Bandbreitenbedarf – insbesondere auch in Upstream-Richtung – aus der Sicht der meisten Kunden das bestehende Versorgungsniveau als unzureichend empfunden werden.
Was kommt nach DSL? Die Entwicklungen im Breitbandmarkt verdeutlichen, dass nachfrageseitig schon bald der Druck auf die politischen Institutionen wieder steigen wird, im Rahmen einer neuen, die Werte stark zu erhöhenden Definition von „Breitbandigkeit“ das Thema des partiellen „Versagens der Marktkräfte“ 15
16
Vgl. Büllingen, F. / P. Stamm (2008): Breitband für jedermann – Infrastruktur für einen innovativen Standort. Gutachten im Auftrag des Ministerium für Wirtschaft, Verkehr, Landwirtschaft und Weinbau Rheinland-Pfalz, S. XI. Vgl. z. B. die Warnung des Deutschen Städte- und Gemeindebundes: „DStGB warnt vor Landflucht aufgrund mangelnder Telekom-Infrastruktur“, mit dem Hinweis, dass mehr als die Hälfte der 3,5 Mio. deutschen Unternehmen ihren Standort auf dem Land haben; www.portel.de vom 5.11.2008.
74
Franz Büllingen
und der Versorgungsqualität erneut auf die Agenda zu setzen. Der bisher eher defensiv und ordnungspolitisch motivierte Ansatz, durch ein zu frühes politisches Eingreifen in den Markt falsche Anreize zu setzen und Investitionen durch private Initiative zu verhindern, hat in gewisser Weise zur Entstehung der heutigen Situation beigetragen, in der DSL zum alleinigen Maßstab der Versorgung mit breitbandiger Infrastruktur geworden ist. In der sich bereits am Horizont abzeichnenden Post-DSL-Phase muss es darum gehen, möglichst rasch und möglichst flächendeckend den Umstieg auf die Next Generation Access Networks (NGAN) zu bewerkstelligen und dadurch neuen Geschäftsmodellen eine Perspektive zu geben.17 Weitgehend unbemerkt von der breiten Öffentlichkeit zeichnet sich im Markt für Breitband-Dienste ein Wettlauf ab zwischen innovativen Regiound City-Carriern sowie Stadtwerken auf der einen und dem Incumbent und weiteren etablierten Carriern auf der anderen Seite. Auch wenn dieser Wettlauf derzeit noch punktuellen Charakter besitzt, so wird deutlich, dass es hierbei nicht mehr nur um die graduelle Verbesserung der bestehenden Infrastruktur (Erschließung der Hauptverteiler bzw. der Kabelverzweiger mit Glasfaser) und um die marktüblichen Bitraten, sondern um den direkten Anschluss von Gebäuden und Haushalten durch Glaserfaser mit Bandbreiten von bis zu zehn GBit/s geht.18 Ausgehend von den als zu hoch empfundenen 10,50 Euro für die TALMonatsmiete haben eine Reihe von City-Carriern damit begonnen, eine eigene Infrastruktur auf der Basis von Glasfaser direkt in die Haushalte ihrer Kunden zu verlegen. Die Konkretisierung von FttH-basierten Geschäftsmodellen etwa der Stadt Schwerte („Ruhrpower“), der Hansenet in Norddeutschland oder der MNet in München belegen, dass Glasfaser mittlerweile eine wettbewerbsfähige Anschlusstechnik darstellt, die Anbietern wirtschaftliche und nachhaltige Geschäftsmodelle ermöglicht, Kunden hingegen eine durch nichts limitierte Kommunikationsinfrastruktur für ein denkbar breites Spektrum an Anwendungen und Diensten zur Verfügung stellt. Basierend auf diesen Erfahrungswerten zeigt sich, dass ein Anschluss 17
18
Vgl. Lehmann, A. / U. Trick / S. Oehler (2008): NGN und Mehrwertdienste – Geschäftsmodelle und Szenarien, in: ntz Heft 1/2008, S. 22-25, sowie Dies. (2007): NGN und Mehrwertdienste – Herausforderung und Chancen, in: ntz Heft 6/2007, S. 22-25. Bei dieser Migration spielen Kupferleitungen allenfalls als KupferkoaxialHybrid-Netze künftig noch eine Rolle. Auch werden Funknetze auf der Basis von Long Term Evolution (LTE) mit Bitraten von bis zu 50 MBit/s im nächsten Jahrzehnt die dominierende Rolle spielen.
Wie geht es weiter nach DSL?
75
durchschnittlich mit rund 1 500 Euro an Investitionskosten zu Buche schlägt. Darauf basierende Modellrechnungen ergeben, dass ein flächendeckender bundesweiter Ausbau mit Glasfaser bzw. LTE rund 60 Mrd. Euro erfordern würde.19 Die letzten Jahre der Breitbanddiskussion haben gelehrt, dass die meisten „weißen Flecken“: ņ in erster Linie mangels verfügbarem Wissen über die wirtschaftliche und soziale Bedeutung des Breitband-Internet, ņ in zweiter Linie mangels verfügbarer Informationen über die technischen Alternativen und vorhandenen Infrastrukturen, ņ in dritter Linie mangels notwendiger übergreifender Initiativen und Kooperationen und ņ erst in vierter Linie mangels finanzieller Mittel nicht erschlossen wurden. Mit diesem Erfahrungswissen im Hintergrund dürfte der nächste Schritt in Richtung eines flächendeckenden NGN bereits eine der wichtigsten Hürden genommen haben. Es fehlt bislang an einem hinreichenden öffentlichen Bewusstsein dafür, dass an der Glasfaser bzw. LTE kein Weg vorbei führt. Viele Entscheidungsträger insbesondere auf den nachgeordneten politischen Ebenen sind derzeit noch geprägt von den (zermürbenden) Diskussions- und Bargaining-Prozessen bei den Kreisen und Gemeinden. Deshalb gibt es bislang auch noch kein flächendeckendes politisches Bewusstsein und ein entsprechendes Momentum, um den Umbau der Netzinfrastruktur so schnell und so konsequent wie möglich zu verwirklichen.20 Angesichts der erforderlichen Summen ergibt sich zwangsläufig, dass ein derartiger Umbau nicht alleine vom Incumbent, dem die meisten der Ortsanschlussnetze noch gehören, finanziert werden kann. Das gilt besonders vor dem Hintergrund, dass enge regulatorische Rahmenbedingungen für das marktbeherrschende Unternehmen, die Diskussion um den Zugang zu VDSL und sinkende Margen im Breitbandmarkt es wenig attraktiv erscheinen lassen, derartig umfangreiche Mittel in den Ausbau einer neuen 19
20
Vgl. ITG-Tagung (2008): Der Breitbandanschluss an die Zukunft erfolgt per Glasfaser, Berlin. Nach Auffassung des Autors bewegen sich diese Schätzungen jedoch am unteren Rand, da die Kosten für Grabungsarbeiten auf dem Land nicht hinreichend hoch veranschlagt worden sind. Vgl. Stanossek, G. (2008): Breitband mit 10 Gbit/s ist machbar – in ganz Deutschland! In: TKNews 41/08, 6.10.2008.
76
Franz Büllingen
Infrastruktur fließen zu lassen. Da die Telekom jedoch durch die Investitionsaktivitäten der Regio- und Citycarrier gezwungen wird, den Generationenwechsel zwischen ihren Netzen so schnell wie möglich zu vollziehen, dürfte zunehmend die Bereitschaft bestehen, zu neuen Kooperationsformen mit den Wettbewerbern, aber auch mit den politischen Instanzen auf der Ebene der Kommunen, der Länder, des Bundes und der Europäischen Kommission zu einer gemeinsamen Migrationsstrategie zu finden. Zahlreiche Initiativen aus dem In- und dem Ausland zeigen außerdem, dass Bürgerinitiativen eine viel zu stark vernachlässigte Größe sind und ermutigt werden sollten, in diesem Zusammenspiel und beim konkreten Ausbau mitzuwirken. Hat die Wirtschaftspolitik in der DSL-Ära eine eher informierende und moderierende Rolle eingenommen, so kann eine künftige NGA-Welt angesichts der Reichweite der Umgestaltung auf eine aktiv gestaltete Public Private Partnership (PPP) durch den Staat kaum verzichten. Natürlich besteht – wie bei DSL – die Option, dass Investoren nach wirtschaftlichen Kriterien darüber entscheiden, in welchen Regionen bestimmte Angebotsqualitäten realisiert werden. In einem solchen Fall wird die Glasfaser irgendwann einmal auch in den abgelegenen Gemeinden ankommen. Das Gefälle in der Versorgungsqualität wird dann jedoch – ähnlich wie in den letzten Jahren – vor Ort zu Friktionen führen und die Standortqualität nachhaltig beeinträchtigen. Es wird vor diesem Hintergrund deutlich, dass die koordinatorischen und gestalterischen Herausforderungen zu groß sind, als dass auf eine gezielte normative und proaktive Rahmensetzung, kommunikative Intervention und mediatorische Bündelung aller relevanten Aktivitäten durch die Bundesregierung im Rahmen eines nationalen Masterplans verzichtet werden könnte. Ein erster wichtiger Schritt hierbei sollte in der Neudefinition von Breitbandigkeit bestehen: ein flächendeckendes Hochgeschwindigkeits-Internet mit beispielsweise 50 MBit/s sollte als politische Zielgröße vorgegeben werden, um die derzeitige Aufbruchstimmung bei der Verbesserung der Infrastruktur zu nutzen. Weitere wichtige Schritte sollten in der Schaffung von Awareness hinsichtlich der wirtschaftlichen und sozialen Bedeutung von Hochgeschwindigkeits-Internet, der Beseitigung von Informationsdefiziten, der Erstellung von Glasfaser- und Lehrrohrkatastern oder Schaffung von Investitionsanreizen im Rahmen von PPP bestehen. Nicht zuletzt sollten regulatorische Hindernisse beseitigt werden. Das gilt z. B. für die Konzeptualisierung von Geschäftsmodellen beim Aufbau von Netzstrukturen durch gemeinsame Aktivitäten oder durch neutrale
Wie geht es weiter nach DSL?
77
Dritte wie z. B. Stadtwerke.21 In diesem Fall könnte ein Open AccessModell den organisatorischen Rahmen für die Umsetzung sogar wettbewerblicher Geschäftsmodelle bilden. Dem Eigentümer eines Netzes käme die Rolle eines neutralen Betreibers zu, der die vorhandene Infrastruktur gegen Entgelt zu transparenten, nicht-diskriminierenden Bedingungen jedem interessierten Akteur zur Verfügung stellen würde. Es sollte im Rahmen des Masterplans jedoch festgeschrieben werden, dass (zunächst) nicht der Wettbewerb, sondern die Versorgungsabsicht das zentrale Motiv aller Aktivitäten sein sollte.
Über den Autor Dr. Franz Büllingen war nach einem Studium der Soziologie und Volkswirtschaftslehre in Bielefeld und Berlin als Projektleiter tätig bei der Enquete-Kommission „Technikfolgenabschätzung“ beim Deutschen Bundestag sowie bei der Deutschen Forschungsanstalt für Luft- und Raumfahrt (DLR). Seit 1994 ist er Leiter der Abteilung „Kommunikation und Innovation“ der WIK GmbH. Er führte eine Vielzahl von Forschungs- und Beratungsprojekten für Telekommunikationsunternehmen, Behörden und Institutionen. Seine Arbeitsschwerpunkte liegen in der Analyse und Prognose von Marktentwicklungen und -strukturen, in der Regulierungs- und Wettbewerbspolitik, der Nachfrage von TK-Diensten, in der Innovations- und Diffusionsforschung sowie der Risikokommunikationsforschung.
21
Vgl. hierzu WestLB Equity Research (2008): Breitband – Tot oder lebendig? Sektortrends, Düsseldorf, 24. April 2008, S. 26 ff.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
Kai Seim
Entscheidungsdilemma Ländlicher Raum? In Deutschland existiert derzeit ein geteilter Markt der BreitbandInfrastruktur: Während in den Städten und Metro-Regionen ein Infrastruktur-Wettbewerb und entsprechende Marktwirtschaft herrscht, fehlt im Ländlichen Raum jeder Wettbewerb. Im internationalen Vergleich zeichnet sich ab, dass die deutsche Netzinfrastruktur vor allem im Anschlussbereich an Boden verliert, geografischen wie technisch: Während – geografisch – in den großen und mittleren Städten über zahlreiche Hauptverteiler und Kabelverzweiger auch mittels Kupfertechnologie immerhin bis zu 16 MBit/s angeboten werden, sind im Ländlichen Raum schon zwei MBit/s eine Seltenheit. Zugleich ist weitgehend unstrittig, dass ein glasfaserbasierter Zugang in das Haus mit Bandbreiten bis zu einem GBit/s künftigen technologischen Ansprüchen gerecht wird – was weder von Funktechnologien noch vom so genannten KVZ-Überbau1 auf Kupferbasis behauptet werden kann. Nun kennzeichnet sich der Teilmarkt „Ländlicher Raum“ mehr als die umkämpften Märkte der Großstädte dadurch, dass sich die Politik in jüngster Zeit interessiert zeigt, die Erschließung (auch) durch alternative Anbieter und Technologien voranzutreiben: „Die Versorgung mit Breitbandanschlüssen ist längst zum unverzichtbaren Faktor geworden, an dem sich sogar Standort- und Investitionsentscheidungen orientieren. Es ist keine Frage, die Breitbandversorgung gehört zur Grundausstattung wie Wasser,
1
KVZ-Überbau meint den Aufbau aktiver (DSL-)Technik „über“ die alten Kabelverzweiger, die vorher mittels Glasfaser erschlossen wurden.
80
Kai Seim
Strom und Wärme.“2 Zentrales Anliegen des Bundes und seiner Länder ist eine (möglichst) flächendeckende Breitbandversorgung. Neben der Stärkung des Wirtschaftsstandortes wird diese Versorgung auch unter dem Gesichtspunkt der Chancengleichheit angemahnt: „Das im Grundgesetz verankerte Ziel der Schaffung gleichwertiger Lebensbedingungen in Stadt und Land erfordert, nicht nur die Ballungsräume, sondern auch den Ländlichen Raum mit einer leistungsfähigen Kommunikationsinfrastruktur zu vertretbaren Bedingungen zu versorgen.“3 Allerdings kann der Staat auf keiner seiner Ebenen einen flächendeckenden Ausbau voll finanzieren; er stellt jedoch Fördermittel bereit (allein, nach „alter“ Planung, für Baden-Württemberg fast 20 Mio. € für 2008 und 2009), u. a. um innovative Technologien zu fördern und Wirtschaftlichkeitslücken zu schließen. Viele Bundesländer verfolgen ähnliche Initiativen, wobei ein erhebliches Kompetenzgefälle (wissens- sowie umsetzungsbezogen) auf lokaler Ebene zu beobachten ist. Ein erfolgreicher Markteintritt muss diese Situation berücksichtigen – auch unter strategischen Gesichtspunkten. Das unspezifische Förderziel von 50 MBit/s bis 2018, das im Koalitionspapier für das zweite Konjunkturpaket beschrieben wird, reicht nicht aus – und es fehlt (wie fast immer) die Umsetzungsplanung, um den Begriff „Strategie“ nicht überzustrapazieren. Der folgende Beitrag analysiert das Szenario „Glasfaservollausbau im Ländlichen Raum“. Insbesondere soll der scheinbare Widerspruch zwischen politischen Forderungen und Systemeingriffen auf der einen und den marktwirtschaftlichen Forderungen und Strukturen auf der anderen Seite diskutiert werden. Im Kern geht es um die Frage, ob ein Ausbau der (Breitband-)Infrastruktur im Ländlichen Raum politischen und/oder marktwirtschaftlichen Regeln folgt. Zwei Thesen werden dabei näher betrachtet4: Erstens die Annahme, dass die Kapitalverzinsung entgegen andersgearteten Vermutungen doch attraktiv genug ist, um Kapital zu akquirieren. 2
3
4
Andreas Krautscheid, Minister für Bundesangelegenheiten, Europa und Medien in NRW, anläßlich der Tagung Breitbandversorgung in NRW – Standortqualität für ländliche Regionen, Düsseldorf, 12. Juni 2008. Peter Hauk, Minister für Ernährung und ländlichen Raum, Baden-Württemberg, Kongress „Standortfaktor Breitband“, 12. November 2007. Die Thesen beruhen auf den Erfahrungen des Autors beim Aufbau eines „Dorfcarriers“, der „UnserNetz“, sowie einer Vielzahl von Beratungsmandaten für Kommunen und Gebietskörperschaften im Ländlichen Raum. „UnserNetz“ realisiert profitable Glasfaserinfrastrukturen („Fiber to the Home“) in Ländlichen Räumen.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
81
Zweitens: die Infrastruktur stabilisiert das gesellschaftliche Gesamtsystem; würde sie fehlen, wäre ein Gleichgewicht zwischen Stadt und Land nicht mehr gegeben – die Politik muss also handeln. Beide Thesen schließen sich nicht aus, sondern bedingen bzw. stützen einander.
Geteilter TK-Markt Stadt-Land-Gefälle Der deutsche Telekommunikationsmarkt weist ein Gesamtvolumen von 67,5 Mrd. € auf, wobei die Wachstumsraten in den einzelnen Produktmärkten variieren. Die Umsätze bei traditionellen PSTN-Diensten (der analogen Telefonie) schrumpfen; hingegen weisen internetbasierte breitbandige Anwendungen zweistellige Wachstumsraten auf. Die Analyse der Technologien und der Abdeckungsgrade zeigt jedoch die oft beklagte Heterogenität der verfügbaren Bandbreiten im Sinne eines „Stadt-Land-Gefälles“. Während in Metropolen und Großstädten durch die starke Wettbewerbsintensität eine sehr gute Versorgung mit hohen Bandbreiten gewährleistet ist, bleibt doch etwa ein Viertel der deutschen Haushalte „unterversorgt“: Fast sechs Millionen Bürger (etwa 3 bis 3,5 Mio. Haushalte) sind gänzlich ohne Zugang zu Breitband. Weitere drei bis vier Millionen Haushalte erhalten nur Angebote mit niedriger Bandbreite, beispielsweise DSL basic5 oder light bis hin zu 1000er DSL. Tabelle 1. Stadt-Land-Gliederung Deutschlands und Marktpotential6 Fläche km2
Einwohner
Pro km2
Fläche %
Einwohner %
32 212,20
40 270 497
1 250
9,02
48,81
Kleinstadt
132 537,59
29 537 164
223
37,12
35,80
Land
192 295,85
12 693 188
66
53,86
15,39
Summe
357 045,64
82 500 849
231
100,00
100,00
Deutschland Stadt
5
6
DSL Basic oder Light bezeichnet einen Anschluss, der eine Download-Bandbreite von 384 KBit/s bietet und einen Upload von ca. 60 KBit/s; 1000er DSL bezeichnet umgangssprachlich einen DSL-Anschluss mit einem MBit/s Download- und ca. 100 KBit/s Upload-Vermögen. Destatis 2006.
82
Kai Seim
Es ist inzwischen „Common Sense“, dass sich der Bandbreitenbedarf der neuen Internet-Dienste massiv erhöhen wird, so dass für die nächste Generation dieser Dienste eine neue Infrastruktur notwendig wird. Bereits heute steigt der Bedarf bereits um etwa ein Drittel jährlich. Etablierte Techniken (DSL, Koax sowie Funk) decken ihn schon mittelfristig nicht ab.7 Mittlerweile wird es in den Ortsnetzen immer schwieriger, neue DSL-Anschlüsse zu schalten. Spätestens 2010 wird in vielen Netzen die Kapazitätsgrenze erreicht. Damit sind übrigens entsprechende Investitionen nur zu rechtfertigen, wenn von einem kurzen Zeithorizont der Nachhaltigkeit und Verzinsung des Kapitals ausgegangen werden kann. Etablierte Anbieter: Fokus auf Städte Im Gegensatz zu den Städten wird der Ländliche Raum heute und in den nächsten Jahren durch etablierte Telekommunikationsanbieter nur unzureichend mit Breitbanddiensten versorgt, ein Infrastrukturwettbewerb fehlt. Daran ändern auch die Verlautbarungen der Netzbetreiber wenig. Die Investitionspläne der Deutschen Telekom AG und die ihrer Wettbewerber sind auf die TOP 1 und 2 Standorte ausgerichtet. Standorte der 3. bis 5. Ordnung sind für diese Unternehmen (bisher) uninteressant.8 Die Potenziale im Ländlichen Raum werden also gegenwärtig nicht ausgeschöpft, wobei prinzipiell die kupferbasierten Netze der Telekom präsent sind, andere Wettbewerber nur vereinzelt und mit begrenztem Leistungsspektrum. Anbieter konzentrieren technische Innovationen ausschließlich bzw. vorrangig auf die Großstädte. Die Investitionspläne von Telekom und Arcor als bundesweit agierende Unternehmen sind auf die Top-50 Städte ausgerichtet. Hansenet (Alice) beschränkt sich hinsichtlich einer eigenen Netzinfrastruktur auf Hamburg und Lübeck (einschl. Randbezirke). QSC, das wie Arcor bundesweit in Infrastruktur investiert, will mit dem Ausbau von etwa 2 000 Hauptverteilern (von ca. 7 200 in Deutschland) 70 Prozent der deutschen Bevölkerung erschließen – allesamt Stadtbevölkerung. Die Kabelnetzbetreiber beschränken sich auf ihre jeweiligen Netze und konzentrieren sich mangels Kapitalausstattung auf große und mittelgroße 7
8
Vgl. die Studie der West LB „Breitband – tot oder lebendig? Was nach DSL kommt“ aus April 2008 oder auch den ePerformance Report 2008 des Bundesministeriums für Wirtschaft und Technologie. Top 1: Metropolen wie z. B. Berlin, Hamburg, München; Top 2: sonstige Landeshauptstädte und Großstädte, Top 3: Städte mit 50 bis 100 000 Einwohnern, Top 4: 25 bis 50 000 Einwohner, Top 5 < 25 000.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
83
Städte. Telefonica (hierzulande O2) hatte massive technische Probleme und orientiert sich an den Top-40-Prozent der Hauptverteiler.9 Die meisten Wettbewerber (außer NetCologne, M-Net und EWE – alle für Stadtgebiete) setzen dabei (immer noch) auf DSL statt Glasfaser.10 Damit sind viele Dienste für Geschäftskunden technisch nicht realisierbar – ein wichtiges Marktsegment bleibt kaum adressierbar. Und schlussendlich: niemand hat bisher konkrete Pläne veröffentlicht, Breitband flächendeckend im Ländlichen Raum anzubieten, im gleichen Atemzug werden aber für einen eventuellen Ausbau staatliche (und auch stattliche) Subventionen gefordert.
Kosten und Nutzen – Ist es wirklich so teuer? Ländlicher Raum: Erhebliches Umsatzpotential liegt brach In den Diskussionen über den flächendeckenden Ausbau der deutschen Breitband-Infrastruktur wird regelmäßig argumentiert, die Kosten würden den Rahmen sprengen. „Eigentlich“ sei „Glasfaser für Alle“ das richtige Ziel – „aber das könne man sich nicht leisten“. Ist das so? Die aktuelle Situation des Marktes charakterisiert sich zwar durch immensen Preiswettbewerb zwischen weitgehend gleichförmigen und technisch betrachtet relativ „schmalen“ Produkten. Trotzdem sprechen wir beim Festnetzmarkt (mit Breitband als Teilsegment) über ein Marktvolumen von 35 Mrd. € (2008).11 Das Investitionsvolumen betrug im selben Jahr 6,5 Mrd. € bei insgesamt 23,9 Mio. Breitbandanschlüssen, überwiegend DSL (21,9 Mio.). Davon wiederum hatten 3,7 Mio. eine Bandbreite unter zwei MBit/s (etwa 16,9 %). Der Markt ist also groß und umfasst doch nicht ganz Deutschland – er ist ausbaufähig. Hier eröffnet ein Angebot auf Glasfaserbasis die Chance, höhere Preise12 (für ein besseres Produkt) 9
10
11 12
In unserer täglichen Arbeit stoßen wir in der Regel nur auf die DTAG, in Ausnahmefällen auch auf einen meist lokalen Anbieter, z. B. EWE, Kabel BW. Darunter verstehen wir auch das VDSL-Netz der DTAG. Die letzte Meile verbleibt bei diesem Architekturansatz als Kupfer-Doppelader (KuDA), mit den entsprechenden Bandbreitenbegrenzungen und asymmetrischen Bandbreiten für Up- und Download. Zehnte gemeinsame Marktanalyse 2008, VATM, Dialog Consult. Aktuelle Untersuchungen der Yankee Group zeigen für FttH-Netze einen um 30 Prozent höheren ARPU (= Average Revenue Per User; durchschnittlicher Monatsumsatz pro Kunde).
84
Kai Seim
zu erzielen, und damit die Gelegenheit, einem zum Teil ruinösen Wettbewerb auszuweichen.13 Grundlage der folgenden Überlegungen zum möglichen Umsatzvolumen sind folgende Annahmen: 25 Prozent der Haushalte in Deutschland entsprechen 8,25 Mio. Haushalten. Ausgehend von einem monatlichen Durchschnittsumsatz von 50 € für die Breitbandverbindung je Haushalt (was einer Preisprämie von ca. 15 % auf das heutige Preisniveau entspricht), ergäbe sich ein mögliches Gesamtvolumen von ca. 4,95 Mrd. € im Jahr. Dabei ist das Umsatzpotential mit Geschäftskunden noch nicht enthalten. Insgesamt dürfte man dann von einem Umsatzpotential von ca. sechs Mrd. € ausgehen. Das entspricht etwa 17 Prozent des heutigen Gesamtumfangs des Festnetzes in Deutschland – konservativ geschätzt. Erfolgreiche Glasfaser-Infrastrukturen müssen also einen direkten Wettbewerb (Aufbau einer parallelen Infrastruktur) nicht fürchten, besonders wenn die Netze gegen angemessene Vergütung jedem Wettbewerber geöffnet werden – und wenn nur zu dem Zweck, rechtlichen Auseinandersetzungen aus dem Weg zu gehen. Investitionen als KO für Profitabilität? Eine Gesamterhebung der derzeit in Deutschland laufenden FttH-Projekte14 schätzt den Kapitalbedarf für die Erschließung von 8,25 Mio. Haushalten auf zehn bis 14 Mrd. €, wobei von einem durchschnittlichen Kapitalbedarf je Haushalt in Höhe von 1 700 € ausgegangen wird. Das entspricht Kosten zur Erschließung der einzelnen Gebäude in Höhe von ca. 2 500 €. Diese Annahmen zu Investitionskosten liegen – bei den Haushalten – bis zu 100 Prozent über den Durchschnittswerten für Gesamtdeutschland und ca. 20 Prozent über den Durchschnittswerten für Kosten zur Gebäudeerschließung. Damit könnte eine EBITDA-Marge zwischen 40 und 45 Prozent bei einer 50-prozentigen Marktpenetration erzielt werden. Die EBIT-Marge liegt bei diesen Annahmen zwischen 30 und 37 Prozent.15 Aktuell erwirtschaften deutsche Festnetzbetreiber EBITDA-Margen zwischen 34,2 (DTAG) und 10,4 Prozent (QSC) bzw. EBIT-Margen zwischen 13
14 15
Das ist m. E. mit ein Grund dafür (neben der viel zu teuren TAL), dass Stadtnetzbetreiber wie NetCologne, MNet, Stadtwerke Schwerte, WilhelmTel, HeliNet etc. in eigene Glasfaser-Infrastruktur investieren. Fibre in Germany – Market Survey, Seim & Partner, März 2009. Diese Werte beziehen sich immer auf das dritte und vierte Betriebsjahr, in der Anlaufphase liegen sie weit niedriger.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
85
14,3 (DTAG) und –3,2 Prozent (QSC).16 Damit wäre eine interne Verzinsung des Eigenkapitals in Höhe von etwa zehn Prozent realistisch – bei konservativer Berechnung der Fremdkapitalkosten.17 Höhere Verzinsungen sind gegebenenfalls möglich, wenn für unwirtschaftliche Teilnetze Fördermittel einkalkuliert werden können. Kalkulationen für Teilnetze zeigen teilweise zwar stark abweichende Werte. Doch darf man nie außer Acht lassen: Netzinfrastruktur lebt von der Quersubventionierung (Stadt Æ Land, Geschäftskunde Æ Privatkunde) und den bekannten Skaleneffekten. Daher führt die Betrachtung (maximal) kleiner Teilnetze oft zur falschen Annahme einer fehlenden Rentabilität. Sobald man aber den Horizont leicht erweitert, sieht die Rechnung schon anders aus. Und hinsichtlich der Vermarktung darf man einen Aspekt nicht unterschätzen: die Kunden bemerken die gezielte Auswahl „lohnender Ziele“ – und goutieren sie nicht durchweg. Warum also die zögerliche Haltung der etablierten Netzbetreiber bei der Breitband-Erschließung des Ländlichen Raums? Möglicherweise liegt ein wichtiger Grund dafür in der Struktur ihrer Bilanzen. QSC ist eben erst dabei, sich nach einer langen Durststrecke zu konsolidieren. Man wird sehen, ob das tatsächlich gelingt. Telefonica ist immer noch mit der Integration der alten, kleinen Festnetzsparte mit der vergleichsweise großen O2 beschäftigt. Versatel – als „geborener“ Dritter und im Besitz wichtiger Wegerechte und Faserinfrastruktur in Städten – hat eine so stark gehebelte Bilanz, dass ein profitabler Weiterverkauf für die Anteilseigner von größerem Interesse sein dürfte. Anders bei der Deutsche Telekom: sie ist so sehr mit sich, den Abwehrkämpfen nach innen wie außen beschäftigt, dass gezielte Aktivitäten in Richtung Glasfaser-Ausbau nicht realistisch erscheinen. Und doch beginnen erste Städte mit Ausbauprojekten: Oldenburg, Norderstedt, Hamm, Schwerte, Köln, München. Aber auch hier sind die Investitionen immer verknüpft mit konservativen Rechnungen einerseits und stärkeren Synergieeffekten mit den (lokalen) Versorgerunternehmen (EWE, Stadtwerke in Hamm und Schwerte, Köln, München etc.). Im Ländlichen Raum hingegen ist man sehr zurückhaltend – vor allem sind es die Banken. Rein eigenkapitalfinanzierte Projekte im Telekommunikationsmarkt sind unbekannt – unabhängig von der eingesetzten Technik. Für die Fremdkapitalseite ist das Problem: es gibt keinen Markt für Netze – damit 16
17
Alle Angaben basieren auf den veröffentlichen Jahresabschlüssen des Geschäftsjahres 2007 bzw. internen Kalkulationen. Basis ist ein Modellannahme, die u. a. elf Prozent durchschnittliche Verzinsung (Eigen- und Fremdkapital gemischt) und zwei Prozent Zins für die ewige Rente unterstellt, berechnet auf zehn Jahre.
86
Kai Seim
ist eine mögliche Verwertbarkeit im Falle des Scheiterns nicht gesichert. Das ist Hauptursache für die aktuelle Kreditklemme, es sei denn, die öffentliche Hand bürgt.
Handlungsoptionen der Politik Grenzen des Subsidiaritätsprinzips? Seit einigen Jahren sind von Ländern aufgestellte Breitbandinitiativen (Baden-Württemberg, Bayern, Rheinland-Pfalz, Niedersachsen, Schleswig-Holstein, Brandenburg) zu beobachten, daneben auch kommunal oder privat initiierte Aktivitäten. Neben dem Betrieb des Breitbandatlasses überlegt das BMWi den Aufbau eines Breitband-Kompetenzzentrums des Bundes, dessen Aufgaben und Kompetenzen derzeit noch definiert werden. Neben dem Förderprogramm im Rahmen der GAK18 des BMLV existieren Förderprogramme auf Länder-, Bundes- und EU-Ebene. Sie sind jedoch oft der allgemeinen Wirtschaftsförderung zuzuordnen, als der Förderung von Infrastruktur zur Telekommunikation. Durch diese Aktivitäten kommt zwar Dynamik in den Breitbandausbau, doch bleiben die bisherigen Studien und Expertenäußerungen auf einer theoretischen Ebene verhaftet – und in der Umsetzung werden die dort wenig diskutierten Details wichtig. Entsprechende Schwachstellen werden im Folgenden skizziert, Handlungsoptionen beschrieben. Kapitalausstattung und Bürgschaften Infrastruktur kann – zum Teil – im Ländlichen Raum nicht wirtschaftlich bereitgestellt werden. Oft fehlen entsprechende (insbesondere von der EU notifizierte) Fördermittel. Privatwirtschaftliche Institute, Banken, stellen aufgrund (noch) fehlender Geschäftsmodelle ohne Garantieerklärung keine Kredite zur Verfügung. Und doch gibt es Technologien und Finanzierungsmodelle, die einen Ausbau in ländlichen Regionen wirtschaftlich ermöglichen.19 Eine Lösung wäre z. B. die Schaffung eines Rechtsrahmens für die Bereitstellung von Fördermitteln durch den Bund, etwa durch die KfW oder 18 19
Gemeinschaftsaufgabe Agrar- und Küstenschutz. Siehe z. B. die Websites www.unsernetz.de sowie www.unsernetz.blogspot.com, die Details näher beschreiben.
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
87
einen ähnlichen Wirkmechanismus (notifiziertes Förderprogramm) – bei einer Beschränkung der Förderung auf prinzipiell (also operativ) positive Geschäftspläne und hier wiederum auf den Investitionsanteil. Ein weiteres Lösungselement wäre die Gewährung von Bürgschaften anstelle von Krediten etwa durch die Bürgschaftsbanken der Länder, um die Unternehmen in die Lage zu versetzen, das nötige Fremdkapital für die Investitionen zu bekommen. Umsetzbar wäre das z. B. durch Auflegen eines speziellen Förderprogramms durch die EU (allgemein gibt es das bereits). Kurzfristig muss eine Evaluation der Förderstrategie auf Bundesebene und Erarbeitung detaillierter Vergabekriterien für die Fördermittel bzw. Bürgschaften zur bestmöglichen Nutzung der Mittel erfolgen. Dabei müssen noch einige Fragen geklärt werden, z. B.: Sollen die Mittel nur an Bedarfsträger Kommune/Landkreis vergeben werden oder auch an Unternehmen, die die Infrastruktur aufbauen oder betreiben? Standardisierung Durch den dezentralen Ansatz („unbalancierter Föderalismus“) zum Breitbandausbau und speziell zur Förderung entwickeln sich unterschiedliche technologische Standards. Statt eines durchgängig geplanten „Networks“ entsteht ein „Patchwork“. Das führt zu Problemen im späteren Betrieb der Netze: Es mangelt an Effizienz und Interoperabilität, was den Zugang erschwert bzw. aufwändiger macht. Analoges gilt für die Netzzusammenschaltung zwischen Betreibern. Endgeräte sind gegebenenfalls nicht in allen Netzen einsetzbar, der Netzabschluss beim Nutzer erfolgt unterschiedlich. Zugleich fehlen bei den beteiligten Akteuren (Unternehmen wie öffentliche Hand) Ressourcen für die Entwicklung und Durchsetzung von Standards in Deutschland und auf europäischer Ebene. Die Festlegung und Durchsetzung internationaler Standards dürfte hier weiter helfen. Dazu bedarf es Mittel zur professionellen Definition dieser Standards und ihrer Implementierung. Der Bund könnte die bereits laufender Standardisierungsbemühungen im Rahmen des VDE20 unterstützen – ca.-Volumen 500 000 €. Kurzfristig sollten zudem Arbeitsgruppen auf europäischer Ebene zur Definition der internationalen Standards koordiniert werden. Denkbare wäre zudem ein mit einem entsprechenden Finanzrahmen ausgestattetes Verbundprojekt (Unternehmen, Öffentliche Hand vertreten durch BNetzA, BMWi, BMBF). 20
Der Autor bezieht sich dabei insbesondere auf die laufenden Arbeiten zu den Normen EN 50510 und EN50173.
88
Kai Seim
Koordinierung grundlegender Technikthemen Der gegenwärtige Ausbau der Infrastruktur berücksichtigt übergreifende Aspekte nicht ausreichend und folgt allein den betriebswirtschaftlichen Zwängen des jeweiligen Netzbetreibers. Das betrifft etwa die Anzahl der Netzebenen, die Netztopologie (z. B. Ringstrukturen auf der letzten Netzebene zur Realisierung von Redundanzkonzepten) und Notfallfunktionen. Anders als bei Kupferkabel ist bei Glasfaser keine Stromversorgung gewährleistet, so dass bei Stromausfall kein Notruf möglich ist. Als Lösung bieten sich auch hier Standards an: ein Katalog von Mindestanforderungen (generell oder bei Vergabe von Fördermitteln). Sie sollten in einem moderierten Prozess kurzfristig erarbeitet werden. Effektivität und Effizienz des Ausbaus sichern Mit einer zentralen Koordinationsstelle könnte der Breitbandausbau effizienter und auch effektiver gestaltet werden. Durch die dezentrale Planung der verschiedenen Wettbewerber werden die Investitionen nicht immer zukunftsfest vorgenommen, da kurzfristige Zwischenlösungen das Geld für den langfristigen Ausbau verschlingen. Hilfreich wäre eine zentrale Koordinationsstelle. Dazu ließe sich auch der Geschäftsauftrag des Kompetenzzentrums Breitband erweitern bzw. den der Bundesnetzagentur. Alternativ wäre die Schaffung eines rechtlichen Rahmens für den koordinierten Netzausbau (Stichwort: „angemeldetes Netz-Kartell“). Kurzfristig müsste eine Konzeption des Aufgaben- und Kompetenzgebiets einer entsprechenden Koordinationsstelle erarbeitet werden, um sie anschließend einzurichten. Eine der ersten Aufgaben wäre die Beurteilung der Machbarkeit einzelner Technologien einschließlich einer Kosten-Nutzen-Analyse. Lernen und Dialog Die laufenden Aktivitäten zum Breitbandausbau, insbesondere auf Länderaber auch auf EU-Ebene (Niederlande, Frankreich, Skandinavien), sind nicht durch ein Dialog- oder Diskussionsforum miteinander verbunden. Die Bundesländer haben recht unterschiedliche Ansätze gewählt (Förderung der Beratung der Kommunen vs. Förderung des konkreten Ausbaus für Gebietskörperschaften). Die Erfahrung zeigt, dass einige Ansätze anderen überlegen sind. Auch in Österreich gibt es eine Breitband-Initiative, deren Erfahrungen genutzt werden könnten. Es gibt allerdings aktuell kein Forum, in dem diese Kenntnisse ausgetauscht werden (können). Es sollte
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
89
kurzfristig ins Leben gerufen werden. Kurzfristig sollten bereits bekannte „Lessons Learned“ erfasst und kommuniziert werden, und zwar über die vorhandenen Beispiele im Breitbandatlas hinaus.
Grundidee des Dorfcarriers Dorfcarrier als Lösungsbeitrag der Wirtschaft Wie kann nun die Wirtschaft ihren Beitrag leisten? Zunächst muss ein Perspektivenwechsel vorgenommen werden: Der Ländliche Raum ist kein uninteressanter Markt – das Gegenteil ist der Fall. Der strategischer Ansatz ist, in einem vermeintlich saturierten, wettbewerbsintensiven Markt vernachlässigte, gleichwohl lukrative Teilsegmente zu identifizieren und als Erster profitabel zu erschließen (vgl. die Erfolge von Wal Mart oder Enterprise Rent a Car). Wo andere nur ein Problem sehen, besteht die Chance im deutschen Telekommunikationsmarkt, den Ländlichen Raum mit Leistungen als Kunden zu gewinnen. Dieser Markt ist ein stark vernachlässigtes Segment mit insgesamt über acht Millionen Haushalten, die mit den Leistungen/Bandbreiten der etablierten Anbieter unzufrieden sind und nach Alternativen suchen. Relevante Verhandlungspartner für die Markterschließung sind Gebietskörperschaften, sprich die Gemeindeverwaltungen und Landkreise mit den politischen Entscheidungsträgern, die den breitbandigen Infrastrukturausbau als politischen Auftrag angenommen haben, der von EU, Bund und Ländern massiv eingefordert wird. Marktakteure können das Dilemma des fehlenden Wettbewerbs im Ländlichen Raum prinzipiell selber lösen. Die Politik ist nur gefordert, den Wettbewerb durch geeignete Hilfestellungen zu ermöglichen – und das rechtlich abgesichert und in einem transparenten und offenen Verfahren21. Für die Umsetzung benötigt man gegenüber den Gemeinden einen Generalunternehmer zur Realisierung einer individuell geplanten, technologisch offenen Glasfaser-Infrastruktur: von der Planung und Projektierung (Linientechnik sowie Netzequipment) über Bau, Betrieb, Vertrieb bis zur Finanzierung (einschl. des Einwerbens von Fördermitteln) muss alles aus einer Hand kommen. Reinen Beratungsunternehmen und Dienstleistern fehlt die Kompetenz eines Netzbetreibers; TK-Unternehmen sind in der 21
Also auch keine einseitige Bevorzugung von Großunternehmen wie z. B. DTAG oder Vodafone.
90
Kai Seim
Regel an eine Technologie gefesselt und lassen ergebnisoffene Beratungskompetenz vermissen. Adäquate Profitabilität wird durch zusätzliche marktbedingte und strukturelle Kostenvorteile gesichert. Im Ländlichen Raum erlauben die netzbezogenen Kostenfunktionen keine parallele profitable Glasfaserinfrastruktur, es entsteht eine regionale Monopolsituation mit der Möglichkeit entsprechender Profite. Die vorgeschlagene Unternehmensstruktur (Obergesellschaft als Betreiber-Gesellschaft und lokale Netzbesitz-Gesellschaften) ermöglicht Kostendegression durch Zentralisierung der dafür geeigneten Aufgaben. Die Einbindung der Gemeinden in die lokale Finanzierung ermöglicht niedrigere Fremdkapitalzinsen und Risikoprämien. Lokale Vermarktungs- und Vertriebsansätze (Mund-zu-Mund-Propaganda) erfordern geringere Kundengewinnungs- und -bindungskosten Unternehmensstruktur Die Unternehmensstruktur eines Dorfcarriers muss auf mehrere Gesichtspunkte Rücksicht nehmen. Sie braucht die Akzeptanz durch private Kapitalgeber und sie muss lokale Interessen und Interessenten (z. B. von Gewerbetreibenden oder Privatleuten, die in ihrer Gemeinde sicherstellen wollen, dass die neue Infrastruktur entsteht) einfach integrieren können. Und letztlich braucht sie die Akzeptanz durch staatliche Aufsichtsbehörden, etwa Regulierer (BNetzA), Kommunalaufsicht, Rechnungshöfe, Vergabestellen – also die Anschlussfähigkeit an Organisationsmodelle für öffentliche Aufgaben. Vor diesem Hintergrund wird eine Struktur aus einer Muttergesellschaft und jeweils lokalen Gesellschaften für das Netzeigentum vorgeschlagen. Die Obergesellschaft ist Anteilseigner der lokalen Gesellschaften, die ihrerseits individuell eigentumsrechtlich strukturiert sind. Die lokalen Gesellschaften erlauben es der lokalen Politik, entsprechend der jeweiligen Bedürfnisse Einfluss auf das Unternehmen auszuüben. Diese Struktur bringt einige Vorteile, insbesondere Kostensynergien durch Zentralisierung, bei gleichzeitiger Wahrung des „Lokalkolorits“. Sie erlaubt eine skalierbare Kostendegression durch sukzessive Bündelung lokaler Aufgaben – und dadurch wiederum eine Verbesserung der Profitabilität auf lokaler Ebene und in der Obergesellschaft. Auch besteht die Chance, strategische und Finanz-Investoren in der Obergesellschaft aufzunehmen. Und ganz banal können Themen wie eine zentrale IT (SAP – Zentrale + Mandanten, Reporting, Bereitstellungs- und Betriebsprozesse etc.), das Management der lokalen Beteiligungen, bessere Einkaufsbedingungen
Breitband für den Ländlichen Raum – Dorfcarrier als Modell?
91
durch erhöhte Marktmacht umgesetzt werden. Zugleich werden die lokale Flexibilität und Spezifika der Gemeinden bewahrt.
Fazit Es ist mittlerweile allgemeiner Konsens – und wird durch viele Studien bestätigt –, dass der Ausbau der Breitbandinfrastruktur einer der Schlüssel zur zukünftigen Wettbewerbsfähigkeit der Volkswirtschaft ist und deshalb massiv vorangetrieben werden muss. Insbesondere der Ländliche Raum, in dem etwa 15 Prozent der Bevölkerung leben, gilt als dramatisch unterversorgt, wobei er meist fünf km vom nächsten Hauptverteiler entfernt beginnt und somit auch – was gelegentlich übersehen wird – Stadtbezirke umfasst. Die Bundesregierung hat den Breitbandausbau zu einem der wichtigsten Ziele der Wirtschaftsförderung erklärt. Letztendlich geht es bei Investitionen in dieser Art immer darum, dass sich das Gesellschaftssystem entscheidet, durch diese Investitionen das Gesamtsystem zu stabilisieren. Immerhin besteht die Gefahr, dass Deutschland als Wirtschaftsstandort den Anschluss verliert.
Über den Autor Kai Seim, geb. 1962, Diplom Informatiker (TU Berlin); Gründer und Geschäftsführer der Seim & Giger Beratungsgesellschaft mbH; Schwerpunkte Netzplanung, Netzarchitektur und IT für Breitbandnetze. Langjährige Beratungstätigkeit in der IT- und TK-Branche, u. a. Leiter Engeneering der Geschäftskunden-Plattformen der DTAG. Er publiziert regelmäßig zu Breitband- und Glasfaserthemen und leitet zwei VDE-Arbeitsgruppen.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
Herbert Kubicek
Ehrgeizige Ziele bei schlechter Datenlage Im Februar 2009 hat die Bundesregierung ihre Breitbandstrategie verabschiedet, in der sie sich nach eigener Einschätzung zwei ehrgeizige Ziele setzt: Bis Ende 2009 sollen die Lücken in der Breitbandversorgung geschlossen und flächendeckend leistungsfähige Breitbandanschlüsse verfügbar sein. Bis 2014 sollen bereits für 75 Prozent der Haushalte Anschlüsse mit Übertragungsraten von mindestens 50 Megabit pro Sekunde zur Verfügung stehen.1 Die dazu entwickelte Vier-Säulen-Strategie betrifft (1) die Nutzung von Synergien beim Infrastrukturausbau, (2) eine unterstützende Frequenzpolitik, (3) eine wachstums- und innovationsfreundliche Regulierung, (4) erforderliche finanzielle Fördermaßnahmen. Insgesamt werden 15 Maßnahmen angekündigt. Die ersten drei betreffen die Nutzung von Synergien beim Infrastrukturausbau und beinhalten den Aufbau eines Infrastrukturatlasses und einer Baustellendatenbank, damit Unternehmen ergänzend zu vorhandenen informationspolitischen Maßnahmen – wie dem Breitbandatlas des BMWi – eine netzübergreifende Datengrundlage erhalten, um ihre Ausbauprozesse zu optimieren.2 Solche Informationen über die Inputseite der Breitbandversorgung sind ohne Zweifel zielfördernd. Sie sind allerdings nur eine notwendige, keine hinreichende Voraussetzung für Ausbauentscheidungen. Dasselbe gilt für die in Aussicht gestellten Fördermittel und Zuschüsse. Entscheidend ist letztlich der festgestellte Bedarf bzw. die erwartete Nachfrage. Eine Strategie, 1
2
Bundesregierung (2009): Breitband-Strategie der Bundesregierung. Kräfte binden für Deutschlands Zukunft: Wege zu einem schnellen Internetzugang bis in jedes Haus, Berlin, 27. Februar 2009, S. 3. Ebd. S. 6.
94
Herbert Kubicek
die die Marktkräfte aktivieren soll, muss sich auch der Verbesserung der entsprechenden Datenlage widmen. Hier weist das insgesamt umfassend angelegte Strategiepapier Lücken auf, die die Umsetzung beeinträchtigen könnten. So ist an verschiedenen Stellen von „weißen Flecken“ und Versorgungslücken die Rede. Unklar bleibt, wie sie identifiziert werden sollen und können und welche Informationen über diese Gebiete für Ausbauentscheidungen relevant sind. Derzeit weiß niemand, um wie viele unterversorgte Haushalte es geht. Der Breitbandatlas des BMWi nennt zum 1. Januar 2008 eine Zahl von zwei Mio. Haushalten ohne DSL-Zugangsmöglichkeit und von 730 000 Haushalten ohne jeden Breitbandzugang. Die Initiative Kein-DSL behauptet, je nach Lesart sei für bis zu fünf oder sechs Mio. Menschen kein DSLoder anderer Breitbandzugang verfügbar. Zu einem ähnlichen Ergebnis kommt auch der Deutsche Städte- und Gemeindebund.3 Es ist erstaunlich, dass die Frage nach der Messung der Versorgung und der Nutzung in Deutschland nicht stärker thematisiert wird. Denn ohne vollständige und valide Daten über die Versorgungslücken können Unternehmen die mit einer Versorgung verbundenen Kosten nicht schätzen, staatliche Stellen Zuschüsse nicht bedarfsgerecht vergeben und Politik und Öffentlichkeit den Fortschritt der Zielerreichung nicht verfolgen. Der seit 2004 vom Bundesministerium für Wirtschaft und Technologie (BMWi) im Internet veröffentlichte Breitbandatlas4 soll die konkrete Verfügbarkeit angeben, kann das aber aus vielerlei Gründen nur näherungsweise. Einzelne Bundesländer haben eigene Datenbanken und Online-Karten ins Netz gestellt. „Kein-DSL“ bietet einen Schmalbandatlas an, in den interessierte Verbraucher ihren unmittelbaren Bedarf unter Angabe ihres Standortes eintragen und für potenzielle Anbieter sichtbar machen können. Diese Daten erlauben jedoch keine Bestimmung eines Versorgungsgrades. Versorgung oder Verfügbarkeit sind auch nur notwendige, keine hinreichende Bedingungen für den Erwerb eines Anschlusses und seine Nutzung. Wenn die volkswirtschaftliche Bedeutung von breitbandigen Internetzugängen betont wird, dann ist die Verfügbarkeit auf lokaler Ebene zwar als Standortfaktor für die Ansiedlung von Unternehmen relevant. Wirtschaftliches Wachstum entsteht jedoch vor allem aus Umsätzen mit Dienstleistungen und Produkten bei der Nutzung dieser Zugänge. Bei einer Verfügbarkeit von 92 bis 98 Prozent und einer Anschlussrate von ca. 30 bis 60 Prozent Ende 2008, je nachdem welche Bandbreite als „breit“ definiert 3 4
DSTGB / VATM (2008): Breitbandversorgung von Kommunen, 2. Aufl. http://zukunft-breitband.de/BBA/Navigation/breitbandatlas.html.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
95
wird, verdient neben der Versorgungslücke die Nachfrage- und Nutzungslücke mindestens die gleiche Beachtung. Die Europäische Kommission hat im September 2008 einen Broadband Performance Index veröffentlicht, der mehrere Aspekte integriert, weil die bisher im Zentrum der Ländervergleiche stehenden Anschlusszahlen keine Schlussfolgerungen für Verbesserungen zulassen. In den Index gehen Daten zur Versorgung ländlicher Gebiete, zu Geschwindigkeiten und Preisen, zum Wettbewerb auf dem Anbietermarkt, zu Nutzungsschwerpunkten und zum sozioökonomischen Kontext ein. Der erste Bericht zeigt, dass diese gute Absicht noch auf eine Reihe großer Schwierigkeiten stößt, die die Aussagekraft dieser Daten bisher erheblich beeinträchtigen. Alle diese Datenaufbereitungen basieren auf freiwilligen Angaben und sind sehr lückenhaft. Weitgehend vollständig sind nur die von der Bundesnetzagentur auf gesetzlicher Basis erhobenen Daten zu den Anschlusszahlen auf nationaler Ebene. Für die Erhebung kleinräumigerer Daten gibt es derzeit keine gesetzliche Ermächtigung. Auf freiwilliger Basis wird es mit zunehmender Granulierung immer schwerer, aussagekräftige Daten zu beschaffen, da der mit der Generierung oder Aufbereitung verbundene Aufwand und/oder wettbewerbsstrategische Bedenken der Anbieter mindestens proportional zunehmen. In den USA wurde 2008 mit dem Broadband Data Improvement Act eine detailliertere Berichtspflicht gesetzlich verankert. Dort hatte schon zuvor die Public-Private-Partnership „Connected Nation“ für einige Bundesstaaten eine deutliche Verbesserung der Datenlage auf freiwilliger Basis bewirkt, indem die Zahlen der Anbieter um sozio-ökonomische Daten ergänzt wieder zurückgegeben werden und so ein Mehrwert für Markterschließungsanalysen geschaffen wird. Vor diesem Hintergrund sollen im Folgenden zunächst die unterschiedlichen Fragestellungen an eine handlungsrelevante Breitbandberichterstattung und die erforderlichen Daten systematisiert, die Anforderungen an eine verlässliche Datenbasis formuliert und die Defizite des derzeitigen Breitbandatlasses aufgezeigt werden. Danach wird anhand des Broadband Performance Index der EU-Kommission und des Ansatzes von „Connected Nations“ in den USA die Notwendigkeit einer inhaltlichen Erweiterung der Datenbasis verdeutlicht. Da das Hauptproblem die aus der freiwilligen Meldung resultierende Unvollständigkeit der Daten ist, wird anschließend am Broadband Data Improvement Act in den USA gezeigt, wie eine solche inhaltliche Erweiterung der Berichtspflichten gesetzlich gestaltet werden kann. Auf dieser Basis werden dann Empfehlungen für die zukünftigen Informationsgrundlagen im Rahmen der Breitbandstrategie unterbreitet.
96
Herbert Kubicek
Anforderungen an eine verlässliche und handlungsrelevante Datenlage Ein Atlas enthält mehrere Karten für einen geographischen Raum, auf denen die Verteilung unterschiedlicher Sachverhalte in verschiedenen Maßstäben dargestellt werden (z. B. Höhen der Landschaft, geologische Gegebenheiten, Verkehrswege, Klima usf.), sich aber alle auf dieselben Geokoordinaten beziehen.
Abb. 1. Elemente einer umfassenden Breitband-Berichterstattung
In Abbildung 1 wird der Gesamtkomplex der Breitbandberichterstattung skizziert. Von der EU-Kommission über die Bundesregierung und Landesregierungen bis zur Bundesnetzagentur als Regulierungsbehörde sowie Industrie- und Kommunalverbänden besteht ein Bedarf an Daten, der durch Erhebungen bei Anbietern und Nutzern mehr oder weniger befriedigt wird. Gegenstand der Erhebungen sind die Anbieter selbst, die von ihnen angebotenen Zugangstechniken und deren Preise sowie Angaben zu Nutzern (= Anschlüsse), versorgten Haushalten (Verfügbarkeit) und nicht versorgten Haushalten bzw. Orten. Die versorgten Haushalte sollen mit Hilfe eines Breitbandatlasses Anbieter und Angebote auswählen und in nicht versorgten Gebieten ihren Bedarf anmelden können. Für Ausbauentscheidungen der Anbieter sind die technische Infrastruktur einschließlich Leerrohre und Kabel anderer Eigentümer sowie soziodemographische und sozioökonomische Daten relevant,
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
97
die das Nachfrage- und Nutzungspotenzial charakterisieren. Bürgermeister, Landräte, politische Gremien von Gebietskörperschaften wollen wissen, wie gut die Versorgung in ihrem Bereich ist, um ihn als Standort attraktiv darzustellen bzw. bei Versorgungslücken Förderanträge zu stellen. Ob diese unterschiedlichen Sachverhalte letztlich in einem einzigen Atlas von einer Stelle zusammengefasst und präsentiert werden sollen, ist schwer zu entscheiden. Wenn unterschiedliche Stellen damit befasst werden, sollte auf jeden Fall die Konsistenz zwischen den verschiedenen Aspekten gesichert werden; Doppelerhebungen sollten vermieden werden, um den Aufwand insbesondere der Anbieter nicht unnötig zu erhöhen. Alle ausgewiesenen Daten sollen relevant, vollständig, aktuell und richtig sein. Wie gut das gelingt, hängt stark von der Aggregationsebene und den Handlungszielen ab. Wenn bestehende geographische Versorgungslücken geschlossen werden sollen, sind kleinräumige Bezugseinheiten (Straße/Hausnummer und/oder Gauß-Krüger-Koordinaten) am besten geeignet. Ersatzweise kann bei der DSL-Versorgung ein Versorgungsradius um einen Hauptverteiler oder Outdor-DSLAM gezogen und der davon nicht abgedeckte Bereich bestimmt werden. Wenn die Verfügbarkeit anderer Techniken berücksichtigt wird, stößt man auf das Problem, dass Mobilfunkanbieter die geographische Abdeckung anders angeben als Kabelnetzbetreiber. Werden sozioökonomische Daten aus der amtlichen Statistik hinzugezogen, sind deren Analyseeinheiten zu berücksichtigen. Man benötigt also Bezugseinheiten, auf die die vorhandenen Daten umgerechnet werden können. Das sind in der Regel Gemeinden, Ortsteile, Postleitzahlgebiete oder Ortsnetzkennzahlen. Letztlich muss eine zuverlässige Verfügbarkeitsabfrage aber auf Straße und Hausnummer bezogen werden. Dasselbe gilt für Bedarfsmeldungen und Feedback zur Versorgungsqualität. Die zentrale Verrechnungseinheit sollten jedoch stets die Geokoordinaten sein. Eine zentrale Anforderung an Verfügbarkeitsdaten ist die Vollständigkeit der Datenbasis in Bezug auf die jeweiligen Erhebungs- und Analyseeinheiten: Wenn für eine Region eine Karte mit den verfügbaren Zugangstechniken angeboten wird, sollte sie alle Anbieter aller relevanten Techniken im jeweiligen Gebiet für alle dortigen Analyseeinheiten umfassen. Wenn die Angaben nicht vollständig sind oder wenn noch nicht einmal bestimmt werden kann, wie viele Angaben fehlen, können aus den Daten keine zuverlässigen Schlussfolgerungen gezogen werden. Während Verfügbarkeit und Nutzer bzw. Anschlüsse bei den Anbietern erfasst werden können, kann der Bedarf nur bei den Verbrauchern erhoben werden. Bei ihnen kann jedoch keine Vollständigkeit erzielt werden, sondern bestenfalls eine Erhebung in einer repräsentativen Stichprobe.
98
Herbert Kubicek
Eine weitere Anforderung betrifft die Aktualität der Daten und damit den Aktualisierungs- und Erhebungsrhythmus. Die Nutzer wünschen möglichst aktuelle Daten. Die Stellen, bei denen die Daten erhoben werden, möchten die Anzahl der Erhebungen so gering wie möglich halten. Schließlich ist die Validität der Angaben zu gewährleisten. Sie hängt von der Erhebungsmethode sowie der Kompetenz und der Zuverlässigkeit der Quellen ab. Daten, die auf Messungen oder Zählungen beruhen, können als valider gelten als Schätzungen. Validität kann durch Plausibilitätskontrollen und stichprobenartige Überprüfungen getestet werden. Aber auch Einträge und Kommentare von Verbrauchern können dazu beitragen. Gemessen an diesen Anforderungen ist die Datenlage in Deutschland völlig unzureichend. Ein Bericht für die EU-Kommission zum Broadband Performance Index zeigt, dass das in den meisten Mitgliedstaaten nicht besser ist.5 In den USA sind im vergangenen Jahr hingegen gesetzliche Schritte zur Verbesserung der Datenlage eingeleitet worden.
Der Breitbandatlas des BMWi Wenn sich die Bundesregierung und die Telekommunikationsindustrie ihrer Erfolge beim Breitbandausbau rühmen, tun sie das entweder auf der Basis der von der Bundesnetzagentur veröffentlichten Anschlusszahlen und/oder der Verfügbarkeitszahlen des vom BMWi in Auftrag gegebenen Breitbandatlasses. Danach waren zum Stichtag 1. Januar 2008 in Deutschland bei einem Versorgungsgrad von 98,1 Prozent nur noch 730 000 Haushalte ohne Zugang zu einem „bezahlbaren, vollwertigen BreitbandInternetanschluss“, d. h. dass an ihren Standorten weder DSL noch HSDPA, TV-Kabel oder Funk verfügbar sind. Und es gelten nur noch 612 Gemeinden als nicht versorgt. Doch wie verlässlich sind diese Daten? Die Qualität der Daten Erfreulicherweise wird in den veröffentlichten Berichten zum Breitbandangebot das Verfahren der Datenerhebung und -aufbereitung sehr transpa-
5
Communications Committee (2008): Broadband Access in the EU. Situation at 1. July 2008. Working Document COCOMO8-41. European Commission, Brussels, 28. November 2008.
Bessere Daten für eine bessere Breitbandversorgung und -nutzung
99
rent dargestellt und die Qualität von den Autoren selbstkritisch bewertet.6 Insgesamt wurden von 2005 bis Mai 2008 fünf Erhebungen nach derselben Methode durchgeführt und vier Versionen des Breitbandatlasses im Internet veröffentlicht. Den Benutzern wurde eine Abfrage der Verfügbarkeit mit verschiedenen Breitbandzugangstechniken nach Gemeindenamen oder Postleitzahlgebieten angeboten. Obwohl viel Mühe in die Erhebung der Daten investiert wurde, erfüllte dieser Breitbandatlas die oben definierten Anforderungen nicht und wurde im Lauf des Jahres 2008 auf eine Abfrage von Anbietern nach Gemeindenamen oder Postleitzahlgebieten sowie eine Reihe von Verfügbarkeitskarten mehrerer Bundesländer reduziert. Bei der Erstellung der ersten Version 2005 hat das Planungsbüro PLAN Online mit sechs Branchenverbänden zusammengearbeitet und 477 anbietenden Unternehmen einen Fragebogen geschickt, in dem das Angebot verschiedener Techniken (DSL, Glasfaser, TV-Kabel, Powerline, Satellit, UMTS, WiMAX, WLAN und WLL) nach Postleitzahlgebieten, Gemeindegrenzen oder Hauptverteilern mit Preisangaben für drei verschiedene Nutzerprofile (