Zensur und Extraprofite statt Netzneutralität: Das Internet, wie wir es kennen und lieben, ist ein Auslaufmodell.
Text: Anton Waldt aus De:Bug 123


Foto: heiwa

Was hat die Zensur in China mit dem Video-Angebot der Deutschen Telekom gemeinsam? Beide wollen dem freien Internet an den Kragen. Denn das Internet ist kein statisches Gebilde, im Gegenteil das Netz der Netze ist äußerst lebendig und verändert permanent seine Gestalt – Und das nicht zwingend zum Guten.

Das Internet, wie wir es kennen und lieben gelernt haben, ist ein Auslaufmodell. Seine heute noch weitgehend offene Struktur wird in Zukunft durch Filter, Barrieren und Mautstationen eher einem Labyrinth ähneln, dessen Durchlässigkeit sich je nach Staatszugehörigkeit, Liquidität und Hartnäckigkeit des Nutzers unterscheidet. Das Szenario ist zwar noch kein ausgemachte Sache, aber es wird immer wahrscheinlicher. Denn zum einen wächst bei den entscheidenden Akteuren das Bedürfnis den anarchischen Datenfluss zu kontrollieren. Netzbetreiber, Rechteinhaber und Serviceanbieter versprechen sich davon neue Einnahmenquellen, während Staaten ihre feuchten Überwachungsträume verwirklichen wollen.

Und entgegen der Legende vom renitenten Netz, dessen Architektur eine effiziente Überwachung verhindert, sind die Kontrollwünsche heute zunehmend technisch machbar. Die entsprechenden Lösungen sind zwar nicht besonders elegant, aber sie funktionieren dank explodierender Rechenkapazitäten immer besser. Womit auch schon die Ursache für den Aufstieg des offenen Internets und seine düstere Zukunft benannt wäre: Das freie Netz ist nämlich schlicht das Produkt einer historischen Mangelsituation und seine viel gepriesene Offenheit vor allem ein Ausdruck äußerster Effizienz. Denn als vor drei Jahrzehnten verschiedene Computer-Netze zum Internet zusammenwuchsen, war Speicherplatz knapp, Rechner und Software liefen eher wackelig als stabil und die Prozessorgeschwindigkeiten waren ein müder Witz.


Foto: heiwa

Um ein so kühnes Vorhaben wie ein weltumspannendes Meta-Netz zu verwirklichen, konnte daher nur eine ausgeklügelt effiziente Methode Erfolg haben. Inzwischen stehen die einstmals knappen Ressourcen Speicherplatz, Bandbreite und Rechengeschwindigkeit allerdings reichlich zur Verfügung, womit auch komplizierte, uneffiziente Konstruktionen wie Schlüsselwort-Filter möglich werden. Die Freiheit im Netz als Ausdruck nötiger Effizienz hat ihre Daseinsberechtigung verloren.

Das Zwischen-Netz
Kurz gefasst geht die Geschichte des Internets so: Vor ein paar Jahrzehnten bekamen Wissenschaftler den Auftrag, ein Datennetz auszuknobeln, in dem Informationen möglichst zuverlässig von A nach B gelangen. Dabei sollten A und B Computer sein, und weil Computer sich dauernd verändern, war die erfolgreichste Lösung diejenige, die sich weder um die Beschaffenheit von A und B kümmert noch darum, welche Informationen von A nach B geschickt werden.

Das Zwischen-Netz definiert daher nur die Verbindung zwischen zwei Punkten und hält sich ansonsten fein raus. Das Internet erweist sich in der Folge als wahnsinnig beliebt, erfolgreich und dynamisch, es wächst rasend schnell zu einem Netz für alle und alles. Dabei schwindet der Einfluss der Wissenschaftler rapide, dafür übernehmen Wirtschaft und Politik das Ruder. Und da sich die Anforderungen von Unternehmen und Staaten fundamental von denen der Wissenschaftler unterscheiden, wird das Internet gerade gründlich umgebaut. Aus dem freien wird ein kontrollierter Informationsfluss. Es geht nicht mehr um die Verteilung, sondern um die Verarbeitung von Daten.

Wenn das Spiel schlecht ausgeht, wird uns das Internet von heute in zehn Jahren ähnlich unglaublich, fantastisch und faszinierend vorkommen, wie die Tatsache, dass in den 70ern wildfremde Leute ohne Kondom Sex hatten. Gerade haben wir uns an die Existenz des Internets gewöhnt, da soll es verstopft, zensiert und verstümmelt werden. Die Vorstellung ist natürlich richtig unerquicklich und empörend, vor allem wenn man dem Klischee nachhängt, dass das Internet irgendwie unzerstörbares Allgemeingut ist – Erdacht um Atomschlägen zu trotzen und Licht in die fundamentalen Menschheitsfragen zu bringen.

Kontrolle statt Neutralität
Aber auch jenseits der populären Halbwahrheiten zum Ursprung des Über-Netzes, stellen sich natürlich die Fragen: Dürfen die das überhaupt? Können Unternehmen und Staaten einfach hergehen und das Internet nach ihren Vorstellungen ummodeln? Die Antwort lautet auf absehbare Zeit wohl: Ja, denn die Technik ist willig und Superhelden gibt es nur in der Nerd-Phantasie. Schon heute steht es jedenfalls deutlich schlechter um die Freiheit des Internets, als der gemeine DSL-Surfer erwarten würde. Totalitäre Staaten bekommen das angeblich so anarchische Netz nämlich schon beängstigend gut in den Griff.


Foto: heiwa

Gleichzeitig ändert sich das Gebaren der Netzbetreiber fundamental: Sie beginnen Daten selektiv zu behandeln, statt sie einfach von A nach B zu transportieren. Damit wandeln sich Zugangsanbieter tendenziell zu Anbietern von Inhalten, und entsprechend dieser neuen Ausrichtung ändert sich auch das Verhältnis der Netzbetreiber untereinander. Sie schotten ihre Netze vermehrt gegeneinander ab, liebenswerte Gentlemen’s Agreements weichen knallharter Konkurrenz. Diese Veränderungen spielen sich allerdings auf einer Ebene ab, die von der Öffentlichkeit kaum wahrgenommen wird – jedenfalls noch nicht. Hier dürfte erst mit dem Auftauchen des “Premium-Zugangs” das böse Erwachen kommen – mit dem wir eines Tages für vermeintliche Selbstverständlichkeiten wie schnellen Transfer und globale Erreichbarkeit zur Kasse gebeten werden könnten.

Taschenkontrolle
Einfacher nachzuvollziehen ist zunächst aber die politisch motivierte Zensur, allen voran die chinesische “Great Firewall”. Denn Chinas Nachfrage nach Zensur- und Filtertechnik beeinflusst die Entwicklung neuer Netzinfrastruktur maßgeblich. Dabei geht es um Router, also Kästen, die gut bewacht in Rechenzentren stehen und die der Nutzer nie zu sehen bekommt. Aber jede E-Mail wird durch die diensteifrigen Kästen auf den richtigen Weg vom Rechner des Absenders zum Postfach des Empfängers gelotst, jede aufgerufene Web-Seite auf den Monitor.

Nach reiner Internet-Lehre sollten Router eigentlich nichts weiter tun, als die Zieladresse eingehender Datenpakete zu lesen und sie in die richtige Richtung weiterzuschicken. Praktisch konnten Router auch lange Zeit nicht viel mehr. Datenpaket rein, Adresse lesen, Datenpaket raus. Ziemlich blöd für einen digitalen High-Tech-Kasten dieser Tage. Aber mehr war bis vor wenigen Jahren auch schlicht nicht drin, eine genauere Betrachtung der Daten hätte das Web schlimmer gewürgt als jedes Einwahlmodem, YouTube-Filmchen wären so zu einer Daumenkino-Vorstellung eines Valiumabhängigen verkommen. Aber Geschwindigkeit ist in der digitalen Welt bekanntlich besonders relativ, was gestern noch unpackbar schnell war, ist heute nur noch müdes Gekreuche.

Daher war es nur eine Frage der Zeit, bis auch die dicken Internet-Router beim Datenweiterschubsen ohne spürbare Verlangsamung sehr viel mehr als die Adressen lesen können: Was für eine Datensorte da des Weges kommt, also ob es sich um den Teil einer Webseite, einer E-Mail oder eines File-Transfers handelt. Aber auch wie Absender und Empfänger der Mail mit vollem Namen heißen. Oder die Überschrift eines Webartikels. Oder auch gleich den ganzen Inhalt.

Mao ist schuld
Dass die Router an den dicken Backbone-Leitungen heute so genau im Blick haben können, welche Daten daherkommen, ist wohl tatsächlich den Chinesen zu verdanken. Denn das autoritäre Regime ist heftig an technischer Aufrüstung interessiert, aber der dadurch entfesselte Datenstrom soll bitteschön außer der Ökonomie nichts in Wallungen bringen. Die chinesische Regierung steht also aufs Internet, weil es so schön beim Prosperieren hilft, gleichzeitig widerspricht sein Wesen allen Werten der regierenden Kader: Dahergelaufene As und Bs, die ungehindert Informationen austauschen, sind in der stalinistisch-maoistischen Tradition erst einmal verdächtige Elemente, die ins Lager gehören.


Foto: heiwa

Das Politbüro hat aber nicht nur äußerst schizophren anmutende Interessen, sondern auch mehr Glück als Verstand. Da wackelt die Glückskatze ordentlich mit der Pfote: Just als das Internet drohte, zu einem Problem zu werden, stand genug Rechenleistung zur Verfügung, um das Netz ordentlich zu würgen, ohne dass es daran erstickt. Der Fairheit halber muss an dieser Stelle gesagt werden, dass die Chinesen zwar am unerfreulichen Stand der Dinge schuld sind, aber nicht für die allgemeine Tendenz der Entwicklung. Denn auch ohne den Zensurapparat für 1,3 Milliarden potentielle User hätte man den dummen Routern Verstand eingehaucht, alleine schon weil die Nerds in den Entwicklungsabteilungen es nicht aushalten, wenn einer ihrer Kästen dumm bleibt.

Das Grundprinzip der Netzneutralität, die Datenbeförderung ohne Bewertung von A, B und den ausgetauschten Informationen, ist am Ende des Tages schlicht der Machbarkeit zum Opfer gefallen: Wir können die Daten im Fluss selektieren und verschieden behandeln? Dann schauen wir doch am besten gleich mal nach, was sich damit alles anstellen lässt! Und in so einer Situation sind Kunden, die schon eine Anwendung mitbringen, natürlich hochwillkommen, auch wenn es sich um fiese Apparatschiks aus China handelt.

Tschüss Netzneutralität
Die Netzneutralität wurde also letztendlich vom technischen Fortschritt gekillt, der eine differenzierte Behandlung der Datenströme im Internet möglich macht. Und auch wenn viele die Netzneutralität als heiligen Gral der Digitalwelt betrachten, ist die Änderung des Prinzips an sich nicht satanisch: Weil es eben immer darauf ankommt, was man daraus macht. Und mit der Klassifizierung und Ungleichbehandlung der zu transportierenden Daten kann man eine Menge feiner Sachen machen, die allen Beteiligten vom Provider bis zum Nutzer wohlfein sein dürften.

Man kann zum Beispiel Internet-Telefonie-Daten immer den Vortritt lassen, weil niemand auf abgehackte Gespräche steht. An zweiter Stelle könnten dann Daten vom Video-Streaming kommen, weil niemand aufs Ruckeln im Film steht. Dahinter kämen dann Websites, danach E-Mails und zuletzt der File-Schwertransport via FTP. Diese Priorisierung der Datensorten hätte zur Folge, dass Engpässe nicht bei zeitkritischen Anwendungen zu Verzögerungen führen würden, sondern bei Anwendungen, bei denen es auf eine zehntel Sekunde nicht ankommt. Und die positiven Auswirkungen einer solchen Priorisierung reichen noch deutlich weiter, denn mit ihr verlieren periodische Engpässe ihren bisherigen Schrecken.


Foto: heiwa

Wenn es im Netz klassischer Bauart einmal knirscht, leiden eben alle Anwendungen, was zu unschönem Beef zwischen Kunden und Providern führen kann. Daher werden Netze klassischer Bauart so dimensioniert, dass sie die heftigsten Belastungsspitzen aushalten, aber im Normalbetrieb zu weniger als einem Viertel ausgelastet sind. Diese Verschwendung von Ressourcen kann man durch eine vernünftige Priorisierung der Daten bequem beenden, wovon Provider und Kunden gleichermaßen profitieren könnten.

Filtern & verarschen
Man könnte die Sache auch so betrachten: Die Möglichkeit der Daten-Priorisierung ist der erste große Versionssprung des Internets, seitdem es so rasend erfolgreich und einflussreich geworden ist. Eigentlich kein Drama, nur dass die aktuellen Player die Gelegenheit nutzen, um die Machtverhältnisse zu ihren Gunsten zu verschieben.

Die großen Netzbetreiber denken nämlich gar nicht daran, es bei einer vernünftigen Rangfolge verschiedener Anwendungen zu lassen. Denn mit der Priorisierung kann man auch jenseits des Effizienz-Gewinns Profit machen. Zum Beispiel indem Premium-Nutzer Premium-Preise zahlen und dafür immer schneller unterwegs sind als alle anderen. Wobei auch dieses Vorgehen nicht prinzipiell zu verdammen ist, schließlich ist es für Unternehmen deutlich problematischer, wenn der Datenfluss mal hakt, als es bei den meisten Privatnutzern der Fall ist.

Aber das Prinzip Geschwindigkeit gegen Bezahlung birgt natürlich auch bombastische Missbrauchspotentiale, beispielsweise wenn Google dafür bezahlen würde, dass die Videos seiner Tochter YouTube Vorrang haben und die Videos der Konkurrenz gleichzeitig ganz nach unten wandern in der Prioritätenliste. Oder wenn die Deutsche Telekom die Rationalisierungs-Gewinne kleinerer Netzdimensionen voll mitnimmt und im Falle eines Engpasses die Transitdaten anderer Netzbetreiber langsamer fließen.

Inhalt statt Transport
Letzteres ist zwar spekulativ, aber der börsennotierte Post-Nachfolger ist trotzdem ein unschönes Beispiel dafür, wie sich die Rolle der Internet-Provider allmählich ändert: Die Telekom hat sich nämlich nicht nur ein temporäres Monopol für die schnellen DSL-Leitungen der neuesten Generation gesichert, sie verkauft über das so genannte VDSL auch TV-Empfang und Video-On-Demand. Damit gibt es für den Konzern endgültig keine “neutralen” Daten mehr, sondern nur noch solche mit hoher und solche mit niedriger Rendite.

Und genau hier kommt die Eingangs erwähnte Verhaltensänderung unter den Providern wieder ins Spiel: Während der Boom-Phase des Internets war es nämlich für alle Netzbetreiber tendenziell am sinnvollsten, möglichst offene Schnittstellen zu anderen Netzen zu unterhalten. Das entsprechende Prinzip heißt “Peering” und bedeutet vereinfacht gesagt, dass man jeden Verkehr aus dem Partnernetz akzeptiert und dafür auch jeden Verkehr dorthin leiten kann.


Foto: heiwa

Mit zunehmender Marktkonsolidierung und der Renditebewertung der Daten sieht dieses Fair-Play-Prinzip allerdings zusehends alt aus. Stattdessen greift die Einstellung um sich, jedem Datentransport einen Preis zu verpassen. Ungehemmtes Hauen und Stechen bleibt dabei noch aus, weil der Renditedrang von vielen schrecklichen Gleichgewichten im Zaun gehalten wird. Zur Illustration stelle man sich vor, dass das Telekom-Marketing tatsächlich Google damit droht, dass seine Dienste nur gegen Bezahlung flott bei den Telekom-Kunden ankommen. Der Suchmaschinenkonzern würde darauf wahrscheinlich die Gegendrohung aufmachen, die Kunden der Deutschen Telekom ab sofort besonders langsam zu bedienen, woraufhin diese massenhaft zur Konkurrenz wechseln würden.

Tier 1 regiert
Das beschriebene Gleichgewicht des Schreckens funktioniert aber nur in einem Teil des Internets, denn bei diesem Spiel können längst nicht mehr alle Akteure mitspielen, sondern nur noch die Großen. Und bezeichnenderweise definiert sich die Gruppe der größten Netzbetreiber seit jeher darüber, dass sie untereinander ausschließlich Peering-Abkommen haben.

Unter den Platzhirschen herrscht das offene, faire Tauschprinzip, alle kleineren müssen im Zweifelsfall Transitgebühren zahlen (Die Gruppe wird übrigens ohne jedes Augenzwinkern “Tier 1” genannt. Die Deutsche Telekom gehört nicht zu diesem erlauchten Kreis). Mit diesen Transit- oder Einlassgebühren bewegen sich die Provider übrigens wieder in Richtung der beengten Zustände, aus denen wir durch das Internet befreit wurden: Die Kleinstaaterei der Telefonnetze, in denen jeder Netzbetreiber argwöhnisch darüber wacht, dass kein Informations-Fitzelchen durch seine Leitungen huscht, ohne dass dafür bezahlt wird.

Pro Minute Ferngespräch, pro SMS oder eben pro Spielfilm. Besonders perfide wird diese Telekom-Tradition durch die strikte Vermeidung jeglicher Preistransparenz. Hier wird immer das Maximum abkassiert, das sich abkassieren lässt. Anschaulich wird dieses Prinzip beim Preis für den Versand einer SMS, die mit 160 Zeichen nur 1,12 KBit groß ist. Trotzdem gelten 10 Cent für den Versand dieses Daten-Bäuerchens heute als normaler Preis, auch wenn ein einmaliger Aufruf der Seite http://www.de-bug.de zu den gleichen Konditionen etwas mehr als 500 Euro kosten würde.

Neutrale Innovation
Sollten die üblen Verhältnisse der Telekom-Vergangenheit eine Renaissance erleben, wird das lustige Internet-Leben zunächst also teurer. Wobei diese Teuerung nicht unbedingt über die Monatsgebühren kassiert werden muss. Sie können auch schlicht dadurch realisiert werden, dass bei gleichbleibenden Kosten der geboten Service eingedampft wird.

Der Nutzer hockt plötzlich in einem isolierten Teilnetz, das von den meisten anderen Netzen abgeschnitten ist, und kann daher nur eingeschränkt Mails verschicken, während beispielsweise kostenpflichtige Musik-Downloads mangels Konkurrenz im Teilnetz hanebüchen teuer sind. Und die Nutzer wären nicht einzigen Leidtragenden dieses Szenarios: Es gilt vielmehr als ausgemachte Sache, dass eine erneute Fragmentierung des Internets auch gesamtwirtschaftlich ein großer Griff ins Klo wäre. Denn erst der freie Zugang jedes Dienstanbieters führt zur erstaunlichen Dynamik, mit der im real existierenden Internet immer neue, überraschende Services entstehen, die aus Studenten über Nacht Konzernlenker machen können.


Foto: heiwa

In geschlossenen Netzen gibt es für solche Märchen dagegen weder Raum noch Bedarf: Schließlich verdient hier der Netzbetreiber durch seine Monopolstellung genug, weshalb er wenig Interesse an neuen Services hat, und schon gar nicht an junger, aufstrebender Konkurrenz. Die Gretchenfrage nach dem Ende der Netzneutralität lautet daher: Wie heftig muss das Internet verkrüppelt werden, damit es seine Dynamik verliert?

Wem gehört das Netz?
An Warnungen, dass mit der freien Struktur des Internets auch seine Innovationskraft verschwindet, mangelt es nicht. Hierzulande beispielsweise durch die Berliner Juristin Barbara van Schewick, die 2005 in einer Arbeit den direkten und kausalen Zusammenhang zwischen der offenen Netzarchitektur und dem Innovationspotential des Netzes nachwies. Fast wortgleich machte sich 2006 die Netzrecht-Koryphäe Lawrence Lessig für einen besonderen Schutz der freien Internet-Architektur stark, als er vor dem US-Senat zum Thema sprach: Offene Strukturen sorgen für Dynamik, von der alle profitieren, während die Abschottung der Netze nur einigen Unternehmen Extraprofite beschert, aber gesamtwirtschaftlich große Schäden anrichtet.

Und genau hier liegt der Hund begraben, für viele Infrastruktureigentümer verspricht eine Abschottung ihrer Netze nämlich gute Geschäfte, allerdings auf Kosten der Allgemeinheit. Und wer soll nun diesen Interessenskonflikt fair und objektiv schlichten? Natürlich die Politik, also die gleichen Regierungen, die dem offenen Internet dieser Tage mit ihren Überwachungsbegehrlichkeiten arg zusetzen.

Faule Nutzer
Der Staat, der die Provider gerade zu Hilfsdiensten bei der Überwachung der Online-Kommunikation machen will, soll die gleichen Provider dazu anhalten, gegen ihre wirtschaftlichen Interessen zu handeln. Der Staat, der für sich das Recht in Anspruch nimmt, unsere Rechner über die Internet-Verbindung heimlich auszuspähen, soll für freien Netzzugang sorgen.

In Europa muss es das sogar, hier regelt unter anderem die EU-Zugangsrichtlinie zur Netzneutralität die Details: “Die nationalen Regulierungsbehörden fördern und garantieren (…) einen angemessenen Zugang und eine geeignete Zusammenschaltung sowie die Interoperabilität der Dienste und nehmen ihre Zuständigkeit in einer Weise wahr, die Effizienz fördert, den Wettbewerb stimuliert und den Endnutzern größtmöglichen Nutzen bringt.” Dazu kommt noch ein ganzes Bündel von Freiheitsrechten, die in Europa zu respektieren sind, die Meinungsfreiheit der Inhaltsanbieter, die Informationsfreiheit der Nutzer sowie die Berufsfreiheit der Internetprovider. Mehr Paradox war selten.

Ob das Internet zum chinesischen Trauerspiel wird, in dem Profitinteressen und Repression herrschen, hängt also davon ab, welche Kompromisse zukünftig ausgehandelt werden. Ein entscheidender Punkt ist dabei die Frage, ob auch die Nutzer Stimme und Gehör finden. Derzeit knobeln nämlich Regierungen und Netzbetreiber die Sache weitgehend unter sich aus, womit faule Kompromisse programmiert sind. Den Nutzern muss dazu klar werden, dass ihre Interessen über eine DSL-Flatrate für 19,90 Euro hinausgehen.


Foto: heiwa

About The Author

Elektronische Lebensaspekte.

2 Responses