IT+Technik Warum die Netzneutralität ein Mythos ist

  • INSIDER
Netzwerkkabel

Netzwerkkabel© vschlichting - Fotolia.com

Nach dem Prinzip der Netzneutralität sollen eigentlich alle Daten im Internet gleich behandelt und gleich schnell transportiert werden. "Dem ist natürlich nicht so", sagt Unternehmer und impulse-Blogger Sebastian von Bomhard und räumt mit gängigen Mythen über das Thema auf.

„Netzneutralität“ – schon mal gehört? Vermutlich ja, aber wer weiß schon, worum es da geht? Liest man die Meldungen, erhält man ebenso schnell wie berechtigt den Eindruck, dass es vielen so geht: Kaum einer weiß, wovon wirklich die Rede ist. Das geht schon bei der Definition der Netzneutralität los – da gibt es nämlich keine neutrale Version.

Immer wieder gern genommen wird die Definition „Gleichbehandlung von Daten bei der Übertragung im Internet, unabhängig von Sender und Empfänger, dem Inhalt der Pakete und der Paketanwendung“. Das hört sich gut an. Das hört sich sogar so an, als ob es hier um Chancengleichheit ginge und dass, wer sich nicht daran hält, eine Art Digitalrassist oder schlimmer ist.

Anzeige

Datendiskriminierung und andere Mythen

Dem ist natürlich nicht so. Daten werden in den seltensten Fällen im Internet gleich behandelt. Das beginnt beim Sender: Gelangt ein (guter) Internetprovider zur Erkenntnis, dass sich gerade ein Angriff auf einen seiner Kunden vollzieht, so sperrt er, wenn möglich, die Senderadresse. Manuell oder automatisch, in jedem Fall aber nicht neutral im Sinne dieser Definition. Oder wir reden vom Inhalt der Pakete: Unsere Kunden bezahlen dafür, dass wir beispielsweise Viren in Datenpaketen „sehen“ und die Pakete verwerfen. Das ist schön für den Empfänger, aber sehr „diskriminierend“ für den Sender. Harmloser ist da schon die Paketanwendung: Ob eine Mail eine Sekunde früher oder später eintrifft merkt keiner. Aber bereits eine Verzögerung von 300 Millisekunden ist bei einer Telephonverbindung ein Mangel – im schlimmsten Fall versteht man den Partner nicht mehr oder das Gespräch bricht ab. Bei einem HD-Video, das gepuffert abgespielt wird, sind starke Schwankungen der Netzgüte völlig harmlos. Noch harmloser ist es, wenn der Film lediglich geladen wird, um später angesehen zu werden. Hier kommt es nicht einmal mehr auf Minuten an. Ganz anders wieder eine Videokonferenz: Hier sollte die Qualität nicht schwanken.

Ich denke, das klärt die Sache – es ist geradezu Merkmal eines guten Internetproviders, dass er das Netz optimiert. Verfolgt er damit keine wettbewerbsverzerrenden Absichten, ist alles in Ordnung. Dazu weiter unten jedoch mehr.

Die Überholspur

Häufig hört man auch, es dürfe keine Überholspur im Internet geben. Das ist putzig, denn zuweilen wird noch draufgesetzt, daß sich Daten nicht vordrängeln dürften, auch wenn jemand dafür bezahlt. Das ist Mummpitz, fällt aber heute vor lauter political correctness kaum jemandem mehr gleich auf. Natürlich spielt es eine Rolle, wieviel Geld man für Datenübertragung ausgibt. Es kostet einfach nicht das selbe, ob ich nun einen Ein-Mann-Haushalt anschließe, ein 100-Mann-Unternehmen oder einen kompletten Internetprovider. Da ist keine Diskriminierung zu sehen – es sei denn, man fordert auch für alle Arten von Verkehrsmitteln die gleiche Anzahl Sitze, PS, Kofferraumgröße und Endgeschwindigkeit.

So sei das nicht gemeint gewesen? Mag sein, aber von dieser Überholspur, die es nicht geben dürfe, ist dennoch ständig die Rede.

Woher kommt also diese Forderung?

Um zu verstehen, was hinter der ganzen Diskussion steckt, muss man sich erst einmal anschauen, wie Abrechnung im Internet funktioniert und wer die Akteure sind. Fangen wir mit letzteren an: Es gibt

  • Leitungsanbieter (Carrier): Diese bieten neben Punkt-zu-Punkt-Anbindungen für unterschiedlichste Entfernungen auch komplette Netze und Infrastruktur an.
  • Infrastrukturanbieter (Letzte Meile, Last-Mile-Provider): Diese liefern das letzte Stückchen Verbindung vom Netz an die einzelnen Teilnehmer, also typischerweise an die Haushalte. Die Dienstleistung wird in der Regel mit weiteren Telekommunikationsdienstleistungen gekoppelt, also Telephonie oder Fernsehen und Rundfunk.
  • Rechenzentren (Hoster): Die Inhalte des Internet müssen ja irgendwoher kommen. Auch die Cloud schwebt nicht nur abstrakt durch die Luft – irgendwer muss sie „erden“. Das sind Rechenzentren unterschiedlichster Größe. Allen (guten) Anbietern ist gemeinsam, dass sie eine möglichst gute Internetverbindung brauchen, typischerweise direkt über einen Leistungsanbieter.
  • Contentprovider: Das sind die Lieferanten der Inhalte, die in einem eigenbetriebenen oder angemieteten Rechenzentrum ins Internet eingespeist werden.
  • Internetserviceprovider (ISP): Sammelbegriff für alle Anbieter von Datentransport und Serverversorgung mit Internet.
  • Peeringpunkte: Typischerweise haben Sender und Empfänger eines Datenpakets im Internet unterschiedliche Internet-Serviceprovider. Damit das Internet funktioniert, müssen sich die ISPs die Daten gegenseitig übergeben. Dabei ist jeder für seinen Teil des Internet verantwortlich, also auch für seine Kosten. Um nicht mit tausenden Internetprovidern auf der ganzen Welt Verträge machen zu müssen, gibt es technische Austauschpunkte, an welche sich die ISPs anschließen, um dort die Datepakete auszutauschen. Das nennt man peering, der bekannteste deutsche Peeringpunkt heißt DE-CIX und ist in Frankfurt/Main.

Die Abrechnung im Netz ist im Grunde genommen einfach: Normalerweise bezahlt jeder seinen Teil am Internet. „Das Internet“ gibt es ohnehin nicht, es handelt sich vielmehr um viele kleine und große Netze, die mit einer gemeinsamen Technik und einer gemeinsamen Adressstruktur zu einem großen Netz zusammengefasst sind.

Netzneutralität ist also Quatsch?

Hierin liegt ein möglicher Konflikt. Durch einen mörderischen Wettbewerb sind kostendeckende Preismodelle für Internetanschlüsse kaum noch durchzusetzen. Wer in der wettbewerbsfähigen Preisklasse, also beim Kampf um die Haushalte mitmischen will, kann sich nur wenig Service leisten und ist damit konfrontiert, dass der Bandbreitenhunger der Internetnutzer koninuierlich ansteigt. In den 80ern war das schnelle amerikanische Wissenschaftsnetz NSFNet insgesamt 56 kBit/s schnell. Das ist weniger als ein einzelner Kanal eines einzelnen ISDN-Anschlusses und reichte für einen ganzen Kontinent. Die 128 kBit/s eines vollen ISDN-Anschlusses waren die 90er, dann kam DSL, zunächst noch unter einem MBit/s. Heute sind 100 MBit-Anschlüsse für Haushalte nichts besonderes mehr. Diese Bandbreiten werden nur genutzt, wenn ein entsprechendes Angebot vorliegt. Für letzteres sorgen die Content-Provider und alle anderen Technikanbieter, die dem Netz eigentlich erst seinen Sinn verleihen. Die Nutzer sind durchaus qualitätsbewusst und man muss immer bedenken, daß die Übertragungsgeschwindigkeit nicht am Anschluss, sondern an der langsamsten Stelle gemessen werden muss. Somit steigert sich der Druck auf alle Teilnehmer, mit jeder neuen Anwendung, das Netz weiter auszubauen. Der Contentanbieter beauftragt das Rechenzentrum, der Anschlusslieferant baut ebenfalls aus. Das Rechenzentrum erhöht die Preise, soweit ist also alles gut. Nur auf der Anschlussseite, da gibt es ein Problem: Der Anbieter ist zu billig, traut sich nicht, die Preise zu erhöhen, weil ihm entweder die Kunden den Rücken kehren, oder aber die Regulierungsbehörde die Zustimmung verweigert. Aus dieser Ecke kommt also der Vorwurf, die Contentanbieter zahlten nicht für das Netz. Dass diese Behauptung irreführend und falsch ist, haben wir gerade gesehen.

Das Argument wird auch nicht richtiger, wenn es immer wieder wiederholt wird. Dennoch bin ich überzeugt, dass es einigen Konzernstrategen bei den großen Mischkonzernen der Telekommunikation durchaus gelegen kommt, dass das Thema Netzneutralität so blauäugig diskutiert wird. Dadurch gehen echte Forderungen nach einer Stabilisierung des Netzanbietermarkts unter.

Schauen wir uns das Peering an: Die Deutsche Telekom weigert sich grundsätzlich, am Peering teilzunehmen. Das bedeutet, dass jeder, der Kunden hat (Webserver, Mailserver, Webradio, was auch immer), die von Telekomnutzern gesehen werden sollen, auch an die Telekom bezahlen muss. Was die Preise für Nicht-Telekom-Hostingkunden erhöht. Dass also Hoster trotz tendentiell höherer Preise überhaupt Kunden haben, muß mit dem Service zu tun haben. Gerecht ist es nicht. Versucht man über dieses Thema zu diskutieren hört man schnell: Wenn unsere Kunden Ihren Kunden nicht erreichen, ist es Ihr Problem. Wenn Ihre Kunden unseren Kunden nicht erreicht, ebenfalls. Für so eine Kaltschnäuzigkeiz braucht man ein Quasimonopol.

Noch krasser ist folgender Fall: Es genügt nicht, Geld zu verlangen, dass man die Daten überhaupt entgegennimmt. Allen voran denken amerikanische Carrier laut darüber nach und haben bereits erste Vereinbarungen geschlossen, Daten der Kunden ihrer Kunden unterschiedlich schnell zu befördern. Wer einen großen Internetdienst betreibt, für den Geschwindigkeit eine Rolle spielt, muss also nicht nur seinen Provider bezahlen, sondern darüber hinaus alle weiteren Provider, über die seine Datenpakete noch laufen. Das ist weichgespült formuliert wettbewerbsrechtlich bedenklich oder einfacher ausgedrückt Wegelagerei. Solange ein vernünftiger Markt existiert, ist das alles kein Problem, dann routet man eben um den Rambokonzern herum und dessen Kunden haben einen Nachteil, aber wie das Beispiel Deutsche Telekom zeigt, passiert es schnell, daß in einem Land der Löwenanteil aller DSL-Anschlüsse von einem Anbieter oder einem seiner zahlreichen Wiederverkäufer kommt, und schon gibt es für einen großen Anteil an Teilnehmern keine Alternative mehr.

Also doch Netzneutralität fordern?

Richtig verstanden ist die Netzneutralität ein wichtiges Gut im Internet. Allerdings sehen wir sogar das in Deutschland offiziell anders, nachdem der Staat durchaus selbst an ungesunden Eingriffen in die Netzneutralität beteiligt ist. Die Neutralität wurde beispielsweise bei jener Stoppschildaktion der damaligen Familienministerin von der Leyen verletzt (Stichwort „Zensursula“). Oder wenn wir von einer Haftung von WLAN-Anschlussbesitzern ausgehen, dürfen wir natürlich nicht mehr fordern, dass der WLAN-Betreiber sich neutral verhält. Kein Wunder also, dass von unserer Regierung an die Adresse der Vereinigten Staaten bereits ein klares „Nein“ signalisiert wurde.

Dennoch denkt „man“ in Berlin weiter nach, denn so ganz umpopulistisch will man mit einer oft gehörten Forderung nicht umgehen. Das läßt uns hoffentlich aufhorchen: Die krassesten Auswüchse der Verletzungen der Netzneutralität werden vom Markt bereinigt, solange es einen gibt. Sollte der Markt nicht mehr funktionieren, muss die Gesellschaft tätig werden. Dann gibt es aber immer noch jede Menge Gesetze, die man erst einmal anwenden sollte, bevor man mit neuen Gesetzen das Versagen des Systems konstatiert. Gerade bei der vermutlich sogar überregulierten Telekom wäre eine Besserung duch sanften Druck in Richtung Peering keine Herkulesaufgabe. Die Alternative, ein Gesetz zur Netzneutralität ohne dringenden Bedarf zu stricken, darf man ruhig analog sehen zur Gabe von Antibiotika an jemanden, der möglicherweise Schnupfen hat. Kein Nutzen, nur Schaden.

Und was wäre der Schaden? Ganz einfach: So ein Gesetz, wie es derzeit diskutiert wird, schreibt vor, dass jeder technische Handgriff nachvollziehbar sein muss, sozusagen beweisbare Nichtdiskrimierung. Eine Vervielfachung des administrativen Aufwands, die nach heutigem Stand viele Marktteilnehmer nicht mehr zu leisten imstande wären. Das Netzwerkgeschäft würde außer Haus gegeben – genau also das Gegenteil dessen, was mit der Netzneutralität erreicht werden soll. Das wäre dann nach der Dokumentationspflicht zum Mindestlohn und der Neuauflage der Arbeitsstättenverordnung der nächste Zentnersack, der mittelständischen Anbietern auferlegt wird. Was ich wirklich ehrlich als Warnung verstanden wissen will, nicht als billige politische Polemik.

Hinterlassen Sie einen Kommentar

(Kommentare werden von der Redaktion montags bis freitags von 10 bis 18 Uhr freigeschaltet)

Bitte beantworten Sie die Sicherheitsabfrage (Anti-Spam-Schutz): * Time limit is exhausted. Please reload CAPTCHA.