Der “Kapitalismus” lässt das Internet nicht scheitern (zumindest nicht in diesem Fall)

Auf golem.de schreibt Sebastian Grüner in einem Meinungsbeitrag Wie das Internet am Kapitalismus scheitert. Er behandelt die Ausfälle einiger großer Cloud und CDN-Anbieter (Fastly, Amazon, …) die weite Teile des WWW außer Gefecht setzten. Die Hauptthesen des Beitrags ist, “dass der Aufbau der aktuellen Internet-Infrastruktur immer mehr von Konsolidierung und damit von kapitalistischen Zwängen geprägt ist.” Und bevor eine Lösung in Sicht ist, “muss das Problem deutlich werden; vielen Nutzern, Betreibern, politischen Enscheidungsträgern ist es das nämlich nicht.”

Lieber Herr Grüner, oft stimme ich Ihnen zu, und auch hier stimmt vieles: viele Organisationen verlassen sich zu sehr auf einzelne “Cloud”anbieter ohne Alternativen in Betracht zu ziehen. So weit, so gut. Aber wenn diese Anbieter ausfallen und das eigene Geschäft offline ist, dann ist das erstmal nicht das Problem der Nutzer (im Sinne von Endnutzern), Betreibern (you get what you pay for) oder politischen Entscheidungsträgern (was sollte hier reguliert werden?), sondern der beauftragenden Organisation selber.

Das hier die Keule des Kapitalismus geschwungen wird, ist vermutlich clickbait. Mit Kapitalismus hat es nämlich nichts zu tun, dass Kunden sich auf einen großen Anbieter verlassen (die produzierenden Genossenschaften in der DDR waren größer und mindestens genauso dünne Flaschenhälse für die Supply Chain). Und Sparsamkeit ist nun wahrhaftig keine Tugend des Kapitalismus. 1958 hat Walter Ulbricht als 7. von 10. Geboten der sozialistischen Moral verkündet: “Du sollst stets nach Verbesserung Deiner Leistung streben, sparsam sein und die sozialist. Arbeitsdisziplin festigen.”
Abgesehen davon ist unklar, ob eine solche Konzentration auf große CDNs in einem “öffentlichen” Internet nicht ebenso stattgefunden hätte. Gegenfrage: sind die Serviceanbieter in Kuba zuverlässiger?
Zumindest bei meinem Arbeitgeber, einer Universität und Anstalt des öffentlichen Rechts, bricht zu Semesterbeginn regelmässig die Studieninfrastruktur zusammen, weil der (einzige?) Datenbankserver überlastet ist, wenn sich mehr als eine Handvoll Personen gleichzeitig über das neue Semester informieren. Genug vom Kapitalismus.

Das eigentliche Argument dass ich Herrn Grüner nicht abkaufe, ist dieses:

Die [für Cloud und CDN Dienstleistungen] nötigen Vorab-Investitionen in Hardware und Infrastruktur sind aber derart riesig, dass es wohl allein deshalb schon zu einer Art natürlicher Konsolidierung kommt. […]

Ebenso ist es unwahrscheinlich zu erwarten, dass sich die Seitenbetreiber selbst um Redundanz in den von ihnen gebuchten Dienstleistern bemühen. Eine parallele Infrastruktur für Ausfälle zu betreiben, die im Zweifel nur wenige Stunden im Jahr umfassen, ist wirtschaftlich oft nicht zweckmäßig.

Zum ersten Absatz: Ja, wenn man ein globales CDN aufziehen will, sind die Investitionen groß. (Wobei die BBC es sich vielleicht leisten könnte, im Vereinigten Königreich einen 2. oder 3. Server aufzustellen und seine Leser in Togo im Ernstfall für ein paar Stunden zu vernachlässigen). Aber es ist auch unnötig, dass ottos-schnuersenkel-shop.de ein globales CDN aufbaut. Wenn man das Risiko minimieren will, kann man a) redundante Datenzentren auch bei einem Anbieter buchen, oder b) einen zweiten CDN mit einbeziehen. Amazon verlangt keinen exklusiv-CDN Vertrag. Und Plattformen lassen sich auch auf mehren Anbietern hosten, ohne ein eigenes CDN Datencenter aufbauen zu müssen. Wenn der Bedarf dafür da ist, wird es auch Dienstleister geben, die über mehre Cloudanbieter gestreute High-Availability Server anbieten, ohne dass Onkel Otto eigene Server im Keller seines Schnürsenkelgeschäfts installieren muss.

Zum zweiten Absatz: wenn sich Seitenbetreiber nicht um die Redundanz der von Ihnen gebuchten Dienstleistungen bemühen, dann ist das schlicht kalkuliertes Risiko, und ein Ausfall ist einfach eine Folge dieser Kosten/Nutzenrechnungen. Und das kann man auch der BBC zumuten. Rechnungen der Art, “wie viel Reserve braucht man wenn man bei einer Ausfallwahrscheinlichkeit von X%, eine Servicequalität von Y% aufrecht erhalten will”, habe ich im 1. Semester ausrechnen müssen, dass ist wahrlich kein Hexenwerk.
Wenn die Mannschaft der Feuerwehr keinen Helm bekommt, dann ist eine Verletzung auch keine Machenschaft des Kapitalismus, sondern eine Folge von unsäglicher Kosten/Risikoabschätzung. Wenn etwas “wirtschaftlich nicht zweckmäßig” ist, dann sind die Kosten des Risikos per Definition geringer. Ansonsten *wäre* es eben wirtschaftlich zweckmässig. Wenn Seitenbetreiber hier auf Risiko setzen, ist das wirklich nicht das Problem der Gesellschaft, der Politik oder der Endnutzer. Genug medienwirksame Augenöffner bezüglich der Risken aus der letzten Zeit hat der Beitrag ja eindrücklich beschrieben.

Ihr Argument wird allerdings gültiger, je weiter weg man vom direkten Impact auf “Webseiten” kommt. Die Redundanzen der grundlegenden Infrastruktur (ich rede nicht vom Webhosting und CDN) sondern von den OSI Schichten 1-3, kosten Geld und ein Ausfall lässt sich nur sehr bedingt einzelnen Inzidenzen zuordnen, bzw. von Privatakteuren stemmen. Und ein Seitenanbieter im Süden Neuseelands ist nun mal nur durch zwei Unterseekabel mit dem Norden (und dieser durch wenige mit dem Rest der Welt) verbunden und hat wenig Wahl- oder Einflussmöglichkeiten.

Die Lösung des Problems? Betreiber müssen sich überlegen welche Cloud/CDN-Servicequalität sie benötigen. Und wenn ein Ausfall teurer ist als eine redundantere Infrastruktur, dann sollte man in diese investieren. Gerade bei gut zuzuordnenden Dienstleistungen auf die Servicequalität und bei leicht wechselbaren Anbietern (es ist ja kein Monopol) ist das durchaus möglich.