Essay: Wir müssen zurück zum wilden Internet

Das Internet ist zu einer ausbeuterischen und fragilen Monokultur geworden. Aber wir können es renaturieren, indem wir die Lehren von Ökologen nutzen.

Mehrere Monitore, die überwuchert von Pflanzen im Urwald stehen
Das Internet war einst ein wilder Ort – und könnte es wieder sein – Midjourney

Der Text ist die Übersetzung des englischsprachigen Beitrags „We Need To Rewild The Internet“, der am 16. April im Noema Magazine erschienen ist. 

„Das Wort für Welt ist Wald“ – Ursula K. Le Guin

Im späten 18. Jahrhundert begannen Beamte in Preußen und Sachsen damit, ihre vielschichtigen und vielfältigen Wälder in geradlinige Reihen mit nur einer Baumart umzugestalten. Für die dort lebenden Menschen waren die Wälder bis dahin eine Quelle für Nahrung, Weideland, Schutz, Medizin, Bettzeug und vieles mehr. Für den frühmodernen Staat waren sie hingegen lediglich eine Quelle für Holz.

Die sogenannte „wissenschaftliche Forstwirtschaft“ war einer der Wachstumsmotoren des Jahrhunderts, ein „Wachstums-Hack“. Sie erleichterte das Zählen, Vorhersagen und Ernten der Holzerträge und bedeutete, dass die Eigentümer nicht mehr auf qualifizierte lokale Förster angewiesen waren, um die Wälder zu bewirtschaften. An ihre Stelle traten weniger qualifizierte Arbeitskräfte, die einfache algorithmische Anweisungen befolgten, um die Monokulturen in Ordnung und das Unterholz kahl zu halten.

Informationen und Entscheidungsgewalt flossen nun direkt nach oben. Jahrzehnte später, als die ersten Plantagen abgeholzt waren, wurde Baum für Baum ein riesiges Vermögen gemacht. Die gerodeten Wälder wurden wieder aufgeforstet, in der Hoffnung, den Boom zu verlängern. Was dann geschah, wissen die Leserinnen und Leser des amerikanischen politischen Anthropologen für Anarchie und Ordnung, James C. Scott.

Die Katastrophe und ihre Folgen waren so schlimm, dass dafür ein neues Wort geprägt wurde: „Waldsterben“. Alle Bäume derselben Art und desselben Alters wurden von Stürmen niedergewalzt, von Insekten und Krankheiten heimgesucht – selbst die überlebenden Bäume waren spindeldürr und schwach. Die Wälder waren jetzt so kahl, dass sie fast tot waren. Die erste prächtige Ernte war nicht der Beginn unendlichen Reichtums, sondern eine einmalige Ausbeute von Bodenschätzen, die in Jahrtausenden durch biologische Vielfalt und Symbiose entstanden waren. Die Vielschichtigkeit der Wälder war die Gans, die goldene Eier legte, und sie wurde geschlachtet.

Diesen Drang, die Unordnung zu beseitigen, die das Leben erst widerstandsfähig macht, bezeichnen viele Naturschutzbiologen als ‚Pathologie des Befehlens und des Kontrollierens‘.

Die Geschichte der deutschen Forstwissenschaft vermittelt eine zeitlose Wahrheit: Wenn wir komplexe Systeme vereinfachen, zerstören wir sie, und die verheerenden Folgen werden manchmal erst dann erkannt, wenn es zu spät ist.

Diesen Drang, die Unordnung zu beseitigen, die das Leben erst widerstandsfähig macht, bezeichnen viele Naturschutzbiologen als „Pathologie des Befehlens und des Kontrollierens“. Heute hat derselbe Drang nach Zentralisierung, Kontrolle und Extraktion das Internet in das gleiche Schicksal geführt wie die verwüsteten Wälder.

In den 2010er Jahren, den Boomjahren des Internets, wurde vielleicht die erste glorreiche Ernte eingefahren, die eine einzigartige Fundgrube der Vielfalt ausgebeutet hat. Das komplexe Geflecht menschlicher Interaktionen, das in der anfänglichen technologischen Vielfalt des Internets gedieh, wird nun in weltumspannenden Datenextraktionsmaschinen gebündelt, die einigen wenigen ein riesiges Vermögen einbringen.

Unsere Online-Räume sind keine Ökosysteme, auch wenn die Technologie-Unternehmen dieses Wort lieben. Sie sind Plantagen – hochkonzentrierte und kontrollierte Umgebungen, die eher mit industriellen Rindermastanlagen oder Hühnerbatterien zu vergleichen sind, die die darin gefangenen Lebewesen in den Wahnsinn treiben.

Wir alle kennen das. Wir erleben es jedes Mal, wenn wir zum Smartphone greifen. Die meisten Menschen übersehen jedoch, dass diese Konzentration bis tief in die Infrastruktur des Internets hineinreicht – die Leitungen und Protokolle, Kabel und Netzwerke, Suchmaschinen und Browser. Diese Strukturen bestimmen, wie wir das Internet jetzt und in Zukunft aufbauen und nutzen.

Ein kleiner Affe vor einem Computerbildschirm mit Codezeilen im Dschungel
Sie haben sich zu einer Reihe nahezu globaler Duopole zusammengeschlossen. Im April 2024 teilten sich beispielsweise die Internet-Browser von Google und Apple fast 85 Prozent des Weltmarktes, die beiden Desktop-Betriebssysteme von Microsoft und Apple mehr als 80 Prozent. Google wickelt 84 Prozent der weltweiten Internetsuchen ab und Microsoft rund 3 Prozent. Etwas mehr als die Hälfte aller Mobiltelefone stammen von Apple und Samsung, und über 99 Prozent der mobilen Betriebssysteme basieren auf Software von Google oder Apple. Zwei Cloud-Computing-Anbieter, Amazon Web Services und Microsoft Azure, vereinen mehr als 50 Prozent des weltweiten Marktes auf sich. Die E-Mail-Clients von Apple und Google verwalten fast 90 Prozent des weltweiten Mail-Verkehrs. Google und Cloudflare wickeln rund die Hälfte der weltweiten Domain-Namen-Systemanfragen ab.

Zwei Arten von allem mögen ausreichen, um eine fiktive Arche zu füllen und eine zerstörte Welt wieder zu bevölkern, aber sie können kein offenes, globales „Netz der Netze“ betreiben, in dem jeder die gleichen Chancen auf Innovation und Wettbewerb hat. Kein Wunder also, dass die Internet-Ingenieurin Leslie Daigle die Konzentration der technischen Architektur des Internets als „‚Klimawandel‘ des Internet-Ökosystems“ bezeichnet hat.

Ummauerte Gärten mit tiefreichenden Wurzeln

Das Internet hat die Tech-Giganten erst möglich gemacht. Ihre Dienste haben sich dank seines offenen und interoperablen Kerns weltweit verbreitet. In den vergangenen zehn Jahren haben sie jedoch daran gearbeitet, die verschiedenen konkurrierenden, oftmals quelloffenen oder kollektiv bereitgestellten Dienste, auf denen das Internet beruht, in ihre eigenen Domänen einzuschließen. Dies verbessert zwar ihre operative Effizienz, verhindert aber auch, dass potenzielle Konkurrenten jene Bedingungen für sich nutzen können, unter denen die Tech-Giganten einst florieren konnten. Für die großen der Branche ist die lange Zeit der offenen Entwicklung des Internets vorbei. Ihr Internet ist kein Ökosystem mehr. Es ist ein Zoo.

Google, Amazon, Microsoft und Meta festigen ihre Kontrolle über die zugrundeliegende Infrastruktur durch Übernahmen, vertikale Integration, den Aufbau eigener Netzwerke, die Schaffung von Engpässen und die Konzentration von Funktionen aus verschiedenen technischen Schichten in einem einzigen Silo mit Kontrolle von oben nach unten. Sie können sich das leisten, weil sie von dem enormen Reichtum profitieren, den sie aus der einmaligen Ernte des kollektiven, globalen Reichtums gewonnen haben.

Die Abschottung der Infrastruktur und die Einführung einer technologischen Monokultur blockiert unsere Zukunft. Internetfachleute sprechen gerne vom „Stack“, der mehrschichtigen Architektur aus Protokollen, Software und Hardware, die von verschiedenen Dienstanbietern betrieben werden und das tägliche Wunder der Konnektivität ermöglichen. Es handelt sich um ein komplexes, dynamisches System, in dessen Kerndesign ein grundlegender Wert integriert ist: Die wichtigsten Funktionen werden getrennt gehalten, um Ausfallsicherheit und Universalität zu gewährleisten sowie Raum für Innovation zu schaffen.

Ursprünglich vom US-Militär finanziert und von Forschenden entwickelt, um in Kriegszeiten zu funktionieren, hat sich das Internet zu einem System entwickelt, das überall und unter allen Bedingungen funktioniert und von jeder Person genutzt werden kann, die eine Verbindung herstellen möchte. Doch was einst ein dynamisches, sich ständig weiterentwickelndes Tetris-Spiel mit verschiedenen „Spielern“ und „Schichten“ war, ist heute zu einem kontinentübergreifenden System verdichteter tektonischer Platten erstarrt. Infrastruktur ist nicht nur das, was wir an der Oberfläche sehen, sondern auch die Kräfte, die darunter liegen, die Berge auftürmen und Tsunamis auslösen. Wer die Infrastruktur kontrolliert, bestimmt die Zukunft. Wer das bezweifelt, sollte bedenken, dass wir in Europa immer noch Straßen benutzen und in Städten leben, die das Römische Reich vor 2.000 Jahren gebaut hat.

Im Jahr 2019 schlugen einige Internet-Ingenieure in der Internet Engineering Task Force – dem globalen Gremium zur Festlegung von Standards – Alarm. Daigle, eine angesehene Ingenieurin und ehemalige Vorsitzende des Aufsichtsausschusses und des Internet Architecture Board, schrieb in einem Strategiepapier, die Konsolidierung bedeute eine Verknöcherung der Netzwerkstrukturen über den gesamten Stack hinweg. Dies erschwere es, die etablierten Betreiber zu verdrängen und verstoße zudem gegen ein Grundprinzip des Internets: dass es keine „dauerhaften Favoriten“ gebe. Konsolidierung verdrängt nicht nur den Wettbewerb. Sie schränkt auch die möglichen Beziehungen zwischen den Betreibern verschiedener Dienste ein.

Das komplexe Netz menschlicher Interaktionen, das in der anfänglichen technologischen Vielfalt des Internets gedieh, ist in den weltumspannenden Datenextraktionsmaschinen gefangen, die einigen wenigen ein riesiges Vermögen einbringen.

Daigle drückt es so aus: „Je mehr proprietäre Lösungen anstelle von kollaborativen, auf offenen Standards basierenden Lösungen entwickelt und eingesetzt werden, desto weniger wird das Internet als Plattform für künftige Innovationen erhalten bleiben.“ Die Konsolidierung untergräbt die Zusammenarbeit zwischen Diensteanbietern über den gesamten Stack hinweg, indem sie eine Reihe unterschiedlicher Beziehungen – wettbewerbsorientierte und kooperative – in eine einzige, räuberische Beziehung umwandelt.

Seitdem haben Organisationen, die für die Entwicklung von Standards zuständig sind, mehrere Initiativen gestartet, um die Konsolidierung der Infrastruktur als solche klar zu benennen und in Angriff zu nehmen. Allerdings sind alle Initiativen gescheitert. Die meisten Internet-Ingenieure mit ihrem technischen Detailwissen sahen den Wald vor lauter Bäumen nicht. Sie waren offenbar außerstande, sich von den Interessen ihrer Arbeitgeber und den tief verwurzelten beruflichen Werten der Vereinfachung und Kontrolle zu lösen.

Aus der Nähe erscheint das Internet zu kompliziert, um es zu entwirren, aus der Ferne zu unüberschaubar. Was aber wäre, wenn wir das Internet nicht als ein dem Untergang geweihtes „Hyperobjekt“ betrachten würden, sondern als ein beschädigtes und kämpfendes Ökosystem, das kurz vor der Zerstörung steht? Was wäre, wenn wir es nicht mit hilflosem Entsetzen über die unheimlichen Übergriffe seiner derzeitigen Beherrscher betrachten würden, sondern mit Mitgefühl, Konstruktivität und Hoffnung?

Technologen sind gut darin, schrittweise Lösungen zu finden. Aber um ganze Lebensräume zu regenerieren, müssen wir von den Ökologinnen und Ökologen lernen, die das ganze System betrachten. Ökologen wissen auch, wie man weitermacht, wenn andere einen erst ignorieren und dann sagen, es sei zu spät. Sie wissen, wie man mobilisiert und gemeinsam arbeitet. Und sie wissen, wie man Räume der Vielfalt und Resilienz schafft, die sie überdauern und Möglichkeiten für eine Zukunft im Überfluss schaffen, die sie sich zwar vorstellen, aber niemals kontrollieren können. Kurz gesagt: Wir müssen die Infrastruktur des Internets nicht reparieren. Vielmehr müssen wir sie neu verwildern lassen und damit wieder zum Leben erwecken. Im Englischen nennen wir das „Rewilding“.

Was bedeutet Rewilding?

Rewilding „zielt darauf ab, gesunde Ökosysteme wiederherzustellen, indem wilde, biodiverse Räume geschaffen werden“, so die International Union for Conservation of Nature (IUCN). Es ist ehrgeiziger und risikotoleranter als der traditionelle Naturschutz. Er zielt auf ganze Ökosysteme ab, um Raum für komplexe Nahrungsnetze und das Entstehen unerwarteter Beziehungen zwischen den Arten zu schaffen. Der Ansatz ist weniger an der Rettung einzelner bedrohter Arten interessiert. Sie sind nur Bestandteile des Ökosystems, und wenn man sich nur auf die Bestandteile konzentriert, verliert man den Blick für das Ganze. Ökosysteme gedeihen durch zahlreiche Verbindungen zwischen ihren vielen Elementen, genau wie Computernetzwerke. Und wie in Computernetzwerken sind die Interaktionen in Ökosystemen vielschichtig und generativ.

Rewilding hat Menschen, die sich für das Internet interessieren, viel zu bieten. Wie Paul Jepson und Cain Blythe in ihrem Buch „Rewilding: The Radical New Science of Ecological Recovery“ (zu Deutsch: Die radikale neue Wissenschaft der ökologischen Wiederherstellung) schreiben, achtet Rewilding „auf die sich entwickelnden Eigenschaften der Interaktionen zwischen den ‚Dingen‘ in den Ökosystemen … ein Übergang vom linearen zum systemischen Denken“.

Es ist eine grundsätzlich positive und handwerkliche Herangehensweise an ein scheinbar unlösbares Problem. Es ist kein Mikromanagement. Es schafft Raum für „ökologische Prozesse, die komplexe und sich selbst organisierende Ökosysteme fördern“. Rewilding setzt in die Praxis um, was jede gute Managerin und jeder gute Manager weiß: Stell die besten Leute ein, gib ihnen das, was sie brauchen, um zu gedeihen, und lass sie dann in Ruhe. Es ist das Gegenteil von Befehl und Kontrolle.

Die Transformation des Internets ist mehr als eine Metapher. Es ist ein Rahmen und ein Plan. Es bietet uns eine neue Sicht auf das verhängnisvolle Problem der Ausbeutung und Kontrolle sowie neue Mittel und Verbündete, um dieses Problem zu lösen. Es erkennt an, dass die Abschaffung von Internetmonopolen nicht nur ein intellektuelles Problem ist, sondern auch ein emotionales. Es beantwortet Fragen wie: Wie können wir weitermachen, wenn die Monopolisten mehr Geld und Macht haben? Wie können wir kollektiv handeln, wenn sie unsere gemeinsamen Räume, Finanzmittel und Netzwerke unterwandern? Und wie können wir unseren Verbündeten vermitteln, wie eine Lösung aussehen und sich anfühlen wird?

Rewilding ist eine positive Vision für die Netzwerke, in denen wir leben wollen, und eine gemeinsame Geschichte, wie wir dorthin gelangen. Es pflanzt einen neuen Baum auf dem müden alten Bestand der Technologie.

Was die Ökologie weiß

Die Ökologie ist mit komplexen Systemen vertraut, wovon Technologen profitieren können. Sie hat vor allem Erfahrungen damit, dass sich Grundlinien verschieben.

Wer in den 1970er Jahren geboren ist, erinnert sich wahrscheinlich an viel mehr tote Insekten auf der Windschutzscheibe des Autos der Eltern als auf der eigenen Scheibe heute. Die Populationen landlebender Insekten gehen weltweit um etwa 9 % pro Jahrzehnt zurück. Wenn du ein Geek bist, hast du wahrscheinlich deinen eigenen Computer programmiert, um einfache Spiele zu entwickeln. Sicherlich erinnerst du dich an ein Internet, in dem es mehr zu lesen gab als die gleichen fünf Websites. Vielleicht hattest du sogar ein eigenes Blog.

Aber viele Menschen, die nach dem Jahr 2000 geboren sind, halten wahrscheinlich eine Welt für normal, in der es nur wenige Insekten und wenige Umgebungsgeräusche durch Vögel gibt – und in der nur einige wenige soziale Medien und Messaging-Apps statt das ganze Internet genutzt werden. Wie Jepson und Blythe schreiben, verschieben sich die Grundlinien, „wenn jede Generation die Natur, die sie in ihrer Jugend erlebt hat, als normal ansieht und damit unwissentlich den Rückgang und die Schäden akzeptiert, die  vorangegangene Generationen angerichtet haben“. Der Schaden ist bereits vorprogrammiert. Er scheint sogar naturgegeben zu sein.

Die Ökologie weiß, dass die Verschiebung der Grundlinien die kollektive Dringlichkeit dämpft und die Gräben zwischen den Generationen vertieft. Menschen, die Monokultur und Kontrolle im Internet ablehnen, werden oft als Nostalgiker bezeichnet, die sich nach den Pionierzeiten zurücksehnen. Es ist verdammt schwierig, eine offene und wettbewerbsfähige Infrastruktur für jüngere Generationen zu schaffen, die mit der Vorstellung aufgewachsen sind, dass das Internet aus zwei oder drei Plattformen, zwei App-Stores, zwei Betriebssystemen, zwei Browsern, einem Cloud-/Megastore und einer einzigen Suchmaschine für die ganze Welt besteht. Wenn das Internet für dich ein riesiges, in den Himmel ragendes Silo ist, in dem du lebst, und das Einzige, was du von außen sehen kannst, ein anderes riesiges, in den Himmel ragendes Silo ist, wie kannst du dir dann etwas anderes vorstellen?

Ein Jaguar liegt auf einem Monitor im Dschungel

Konzentrierte digitale Macht führt zu den gleichen Symptomen, die Befehl und Kontrolle in biologischen Ökosystemen hervorrufen: akute Not, unterbrochen von plötzlichen Zusammenbrüchen, sobald Kipppunkte erreicht werden. Wie weit müssen wir gehen, damit Rewilding gelingt? Es ist eine Sache, Wölfe wieder in dem knapp 3.500 Quadratmeilen großen Yellowstone-Park wieder anzusiedeln, und eine ganz andere, etwa 20 Quadratmeilen eines Poldergebietes abzuriegeln – Land, das von einem Gewässer zurückgewonnen wurde, bekannt als Oostvaardersplassen in der Nähe von Amsterdam. Der große und vielfältige Yellowstone ist wahrscheinlich komplex genug, um sich an Veränderungen anzupassen, aber Oostvaardersplassen hat damit zu kämpfen.

In den 1980er Jahren versuchte die niederländische Regierung, einen Teil der überwucherten Oostvaardersplassen zu regenerieren. Ein unabhängiger Ökologe der Regierung, Frans Vera, prognostizierte, dass Schilf und Gestrüpp vorherrschen würden, wenn die inzwischen ausgestorbenen Pflanzenfresser sie nicht abweiden würden. Statt der alten Auerochsen führte die staatliche Forstverwaltung deutsche Heckrinder ein, die für ihre schlechte Laune bekannt sind, und statt des ausgestorbenen Steppenponys eine polnische halbwilde Rasse.

Rund 30 Jahre später, als es keine natürlichen Raubtiere mehr gab und Pläne für einen Wildtierkorridor zu einem anderen Reservat gescheitert waren, gab es viel mehr Tiere, als die spärliche Wintervegetation vertragen konnte. Die Menschen waren entsetzt über die verhungerten Kühe und Ponys, und 2018 führten die Behörden Tierschutzkontrollen und Keulungen ein.

Es reichte nicht aus, nur die Uhr zurückzudrehen. Der Teil der Oostvaardersplassen war zu klein und zu isoliert, um sich selbst überlassen und wieder verwildert zu werden. Da die Tiere nirgendwo anders hin konnten, waren Überweidung und Zusammenbruch unvermeidlich – eine ernüchternde, aber notwendige Lektion. Rewilding ist ein kontinuierlicher Prozess. Es geht nicht darum, Ökosysteme in ein mythisches Eden zurückzuversetzen. Vielmehr versuchen die Renaturierer, die Widerstandsfähigkeit der Ökosysteme wiederherzustellen, indem sie autonome natürliche Prozesse in Gang setzen und in großem Maßstab ablaufen lassen, um Komplexität zu erzeugen. „Rewilding“ ist jedoch selbst ein Eingriff des Menschen und kann mehrere Schritte erfordern, um erfolgreich zu sein.

Unsere Online-Räume sind Plantagen – hochkonzentrierte und kontrollierte Umgebungen, die eher mit industriellen Rindermastanlagen oder Hühnerbatterien zu vergleichen sind, die die darin gefangenen Lebewesen in den Wahnsinn treiben.

Was auch immer wir tun, das Internet wird nicht zu den alten, damals üblichen Schnittstellen wie FTP und Gopher zurückkehren, oder dazu, dass Unternehmen wieder ihre eigenen Mailserver betreiben, anstatt Lösungen von der Stange wie die G-Suite zu verwenden. Aber einiges von dem, was wir brauchen, ist bereits da, vor allem im Web. Schauen wir uns nur das Wiederaufleben von RSS-Feeds, E-Mail-Newslettern und Blogs an, weil wir – wieder einmal – feststellen, dass die Abhängigkeit von einer einzigen Anwendung für globale Konversationen zu einer einzigen Fehlerquelle und Kontrolle führt. Es entstehen neue Systeme, wie das Fediverse mit seinen föderierten Inseln oder Bluesky mit seiner algorithmischen Auswahl und Moderation.

Wir wissen nicht, was die Zukunft bringen wird. Unsere Aufgabe ist es, so viele Möglichkeiten wie möglich offen zu halten und darauf zu vertrauen, dass diejenigen, die später kommen, sie nutzen werden. Anstatt Reinheitstests durchzuführen, um herauszufinden, welche Art von Internet dem ursprünglichen am ähnlichsten ist, können wir Änderungen anhand der Werte des ursprünglichen Designs testen. Schützen die neuen Standards die „Allgemeinheit“ des Netzes, das heißt seine Fähigkeit, mehrere Verwendungszwecke und Anwendungen zu unterstützen, oder schränken sie die Funktionalität ein, um die Effizienz für die größten Technologieunternehmen zu optimieren?

Bereits 1985 schrieben die Pflanzenökologen Steward T.A. Pickett und Peter S. White in „The Ecology of Natural Disturbance and Patch Dynamics“, dass ein „wesentliches Paradoxon des Naturschutzes darin besteht, dass wir versuchen zu erhalten, was sich verändern muss“. Einige Internet-Ingenieure sind sich dessen bewusst. David Clark, ein Professor am Massachusetts Institute of Technology, der an einigen der ersten Protokolle des Internets mitwirkte, hat ein ganzes Buch über alternative Netzwerkarchitekturen geschrieben, die hätten entwickelt werden können, wenn die Schöpfer des Internets anderen Werten wie Sicherheit oder zentraler Verwaltung Vorrang eingeräumt hätten.

Aber unser Internet hat sich durchgesetzt, weil es als Allzwecknetz konzipiert wurde, um alle miteinander zu verbinden.

Unser Internet wurde entwickelt, um komplex und unüberwindbar zu sein, um Dinge zu tun, die wir uns noch gar nicht vorstellen können. Als wir Clark interviewten, sagte er uns: „‚Komplex‘ bedeutet ein System, in dem es ein sich entwickelndes Verhalten gibt, ein System, dessen Ergebnisse nicht modellieren werden können. Ihre Intuitionen können falsch sein. Aber ein zu einfaches System bedeutet verpasste Gelegenheiten.“ Alles, was wir gemeinsam schaffen und was es wert ist, ist komplex und damit ein wenig unübersichtlich. Die Risse sind der Ort, an dem neue Menschen und neue Ideen eintreten.

Die Internet-Infrastruktur ist ein erodiertes Ökosystem, aber sie ist auch eine gebaute Umgebung, wie eine Stadt. Ihre Unvorhersehbarkeit macht sie generativ, wertvoll und zutiefst menschlich. 1961 argumentierte Jane Jacobs, eine amerikanisch-kanadische Aktivistin und Autorin von „The Death and Life of Great American Cities“, dass gemischt genutzte Stadtviertel sicherer, glücklicher, wohlhabender und lebenswerter seien als Viertel, die den sterilen, stark kontrollierenden Entwürfen von Stadtplanern wie Robert Moses in New York nachempfunden sind.

Als eine von oben nach unten aufgebaute Umgebung ist das Internet zu etwas geworden, das uns widerfährt, und nicht zu etwas, das wir jeden Tag gemeinsam neu gestalten.

Genau wie die von Kriminalität geplagten, Le-Corbusier-ähnlichen Türme, in die Moses die Menschen pferchte, als er gemischte Stadtviertel abriss und Autobahnen durch sie hindurch errichtete, ist das heutige von oben nach unten aufgebaute, konzentrierte Internet für viele ein unangenehmer und schädlicher Ort. Seine Besitzer sind schwer zu vertreiben, und ihre Interessen stimmen nicht mit unseren überein.

Wie Jacobs schreibt: „Wie in allen Utopien hatten nur die verantwortlichen Planer das Recht, Pläne von Bedeutung zu haben.“ Als eine von oben nach unten aufgebaute Umgebung ist das Internet zu etwas geworden, das uns widerfährt, und nicht zu etwas, das wir jeden Tag gemeinsam neu gestalten.

Ökosysteme existieren, weil die Arten sich gegenseitig kontrollieren und ausbalancieren. Es gibt verschiedene Formen der Interaktion, nicht nur Extraktion, sondern auch Reziprozität, Gemeinschaft, Konkurrenz und Raubtiere. In florierenden Ökosystemen sind den Raubtieren Grenzen gesetzt. Sie sind nur ein Teil eines komplexen Netzwerks, das Kalorien weitergibt, und keine Einbahnstraße, die zum Ende der Evolution führt.

Vielfalt bedeutet Widerstandsfähigkeit

Am 18. Juli 2001 entgleisten 11 Waggons eines aus 60 Waggons bestehenden Güterzugs im Howard Street Tunnel unter dem Stadtteil Mid-Town Belvedere, nördlich der Innenstadt von Baltimore. Innerhalb weniger Minuten wurde ein Waggon beschädigt, der mit einer hochentzündlichen Chemikalie beladen war. Die auslaufende Chemikalie entzündete sich, und schon bald standen benachbarte Waggons in Flammen. Es dauerte fünf Tage, bis das Feuer gelöscht war.

Die Katastrophe vervielfachte sich und breitete sich aus. Die dicken, gemauerten Tunnelwände wirkten wie ein Ofen, und die Temperaturen stiegen auf über 1.000 Grad Celsius. Eine große Wasserleitung über dem Tunnel brach und überflutete ihn innerhalb weniger Stunden mit Millionen von Litern Wasser. Er kühlte sich nur wenig ab. Drei Wochen später sprengte eine Explosion, die mit der brennbaren Chemikalie in Verbindung gebracht wurde, Kanaldeckel in bis zu eineinhalb Kilometern Entfernung.

WorldCom, damals der zweitgrößte Ferngesprächsanbieter der USA, hatte in einem der Tunnel Glasfaserkabel verlegt, über die ein Großteil des Telefon- und Internetverkehrs verlief. Laut dem MIT-Professor Clark bedeutete die Ausfallplanung von WorldCom jedoch, dass der Datenverkehr in Erwartung eines solchen Ereignisses auf verschiedene Glasfasernetze verteilt wurde.

Auf dem Papier verfügte WorldCom über eine redundantes Netz. Doch fast unmittelbar nach der Katastrophe verlangsamte sich der Internetverkehr in den USA, und die Telefonleitungen von WorldCom an der Ostküste und über den Atlantik fielen aus. Die enge Topographie der Region hatte all diese verschiedenen Glasfasernetze auf einen einzigen Engpass konzentriert, den Howard Street Tunnel. Die Widerstandsfähigkeit von WorldCom war buchstäblich eingeäschert worden. Das Unternehmen hatte technische Redundanz, aber keine Vielfalt. Manchmal erkennen wir die Konzentration erst, wenn es zu spät ist.

Clark erzählt die Geschichte des Brandes im Howard Street Tunnel, um zu zeigen, dass Engpässe nicht immer offensichtlich sind – vor allem auf operativer Ebene – und dass riesige Systeme, die aufgrund ihrer Größe und Ressourcen sicher erscheinen, unerwartet zusammenbrechen können.

Ein roter Papagei vor einem Computerbildschirm mit Codezeilen im dichten Dschungel

Im heutigen Internet wird ein Großteil des Datenverkehrs über die privaten Netze von Technologieunternehmen abgewickelt, beispielsweise über die eigenen Unterseekabel von Google und Meta. Ein großer Teil des Internetverkehrs erfolgt über einige wenige marktbeherrschende Content-Distributionsnetze wie Cloudflare und Akamai, die ihre eigenen Netzwerke aus Proxyserver und Datenzentren betreiben. Der Datenverkehr wird auch über eine immer geringer werdende Anzahl von DNS-Auflösern (Domain Name System) geleitet, die wie Telefonbücher für das Internet funktionieren und die Namen von Websites mit ihren numerischen Adressen verknüpfen.

All dies verbessert die Geschwindigkeit und Effizienz der Netze, schafft aber auch neue und nicht offensichtliche Engpässe wie den Howard Street Tunnel. Zentralisierte Diensteanbieter behaupten, über bessere Ressourcen und mehr Erfahrung mit Angriffen und Ausfällen zu verfügen. Aber sie sind auch große und attraktive Ziele für Angreifer und potenzielle Schwachstellen im System.

Am 21. Oktober 2016 funktionierten Dutzende große US-Websites plötzlich nicht mehr. Die Domainnamen von Airbnb, Amazon, Paypal, CNN und der New York Times ließen sich nicht mehr auflösen. Sie alle waren Kunden des kommerziellen DNS-Dienstleisters Dyn, der von einer Cyberattacke betroffen war. Die Angreifer infizierten zehntausende internetfähige Geräte mit Schadsoftware und bauten ein Netzwerk gekaperter Geräte, ein so genanntes Botnet, mit dem sie Dyn mit Anfragen bombardierten, bis der Dienst zusammenbrach. Amerikas größte Internet-Marken wurden durch nichts anderes als ein Netzwerk von Babyphones, Sicherheits-Webcams und anderen Verbrauchergeräten zu Fall gebracht. Obwohl sie wahrscheinlich alle über Ausfallpläne und Redundanzen verfügten, kam es zum Zusammenbruch, weil ein einziger Engpass – in einer entscheidenden Schicht der Infrastruktur – ausfiel.

Abstürze, Brände und Überschwemmungen mögen einfach nur Entropie in Aktion sein, aber systemisch konzentrierte und riskante Infrastrukturen sind manifeste Entscheidungen – und wir können bessere treffen.

Großflächige Ausfälle aufgrund von zentralen Engpässen sind inzwischen so häufig, dass Investoren sie sogar dazu nutzen, um Chancen zu erkennen. Als im Jahr 2021 ein Ausfall des Cloud-Anbieters Fastly dazu führte, dass führende Websites nicht mehr erreichbar waren, schnellte Fastlys Aktienkurs in die Höhe. Die Anleger waren begeistert von den Schlagzeilen, die sie über einen obskuren technischen Dienstleister informierten, der offenbar einen wichtigen Dienst besetzt hatte. Der Ausfall kritischer Infrastrukturen erscheint den Investoren nicht als Verwundbarkeit, sondern als Gewinnchance.

Das Ergebnis der infrastrukturellen Monokultur ist eine eingebaute Verwundbarkeit, die wir erst nach einem Ausfall bemerken. Aber auch in unseren Such- und Navigationswerkzeugen ist die Monokultur deutlich sichtbar. Durch Suchen, Browsen und die Nutzung sozialer Medien finden und teilen wir Wissen und kommunizieren miteinander. Es handelt sich um eine kritische, globale epistemische und demokratische Infrastruktur, die nur von wenigen US-Unternehmen kontrolliert wird. Abstürze, Brände und Überschwemmungen mögen nur Entropie in Aktion sein, aber systemisch konzentrierte und riskante Infrastrukturen sind manifeste Entscheidungen – und wir können bessere treffen.

So sähe ein erneuertes Internet aus

Ein erneuertes Internet wird viel mehr Dienste zur Auswahl haben. Einige Dienste wie die Suche und soziale Medien werden aufgespalten werden, wie es bei AT&T der Fall war. Anstatt dass Technologieunternehmen die persönlichen Daten der Menschen auslesen und verkaufen, werden verschiedene Zahlungsmodelle die Infrastruktur finanzieren, die wir brauchen. Derzeit gibt es kaum explizite Regelungen für öffentliche Güter wie Internetprotokolle und Browser, die für das Funktionieren des Internets unerlässlich sind. Die großen Technologieunternehmen subventionieren sie und üben einen großen Einfluss auf sie aus.

Ein Teil des Rewildings besteht darin, das, was in den großen Tech-Stack hineingezogen wurde, wieder herauszuholen und für die tatsächlichen Kosten der Konnektivität zu bezahlen. Einige Aspekte, etwa die grundlegende Konnektivität, werden wir weiterhin direkt begleichen. Andere, wie Browser, werden wir indirekt, aber transparent unterstützen, wie weiter unten beschrieben. Das erneuerte Internet wird eine Fülle von Möglichkeiten bieten, sich miteinander zu verbinden und zueinander in Beziehung zu treten. Es wird nicht nur ein oder zwei Nummern geben, die man anrufen kann, wenn die Anführer eines politischen Putsches beschließen, das Internet mitten in der Nacht abzuschalten, wie es in Ländern wie Ägypten und Myanmar geschehen ist. Kein Unternehmen wird auf Dauer an der Spitze stehen. Ein neu verwildertes Internet wird ein aufregenderer, nutzbarerer, stabilerer und angenehmererer Ort sein.

Die Wirtschaftsnobelpreisträgerin Elinor Ostrom hat in ihrer umfangreichen Forschungsarbeit herausgefunden, dass „wenn Menschen gut über ein Problem informiert sind, mit dem sie konfrontiert sind, und darüber, wer sonst noch daran beteiligt ist, und wenn sie ein Umfeld schaffen können, in dem Vertrauen und Gegenseitigkeit entstehen, wachsen und über einen längeren Zeitraum aufrechterhalten werden können, dann werden sie oft komplexe und positive Maßnahmen ergreifen, ohne darauf zu warten, dass eine externe Autorität Regeln aufstellt, deren Einhaltung überwacht und Strafen verhängt“.  Ostrom kam zu dem Ergebnis, dass Menschen sich spontan organisieren, um natürliche Ressourcen zu bewirtschaften – von der Zusammenarbeit mit Wasserunternehmen in Kalifornien bis hin zu Hummerfischern in Maine, die sich organisieren, um Überfischung zu verhindern.

Selbstorganisation gibt es auch bei der Schlüsselfunktion des Internets: der Koordinierung des Datenverkehrs. Internet Exchange Points (IXPs) sind ein Beispiel für das Management gemeinsamer Ressourcen, bei dem sich Internet Service Provider (ISPs) darauf einigen, die Daten der anderen zu geringen oder gar keinen Kosten zu übertragen. Netzbetreiber aller Art – Telekommunikationsunternehmen, große Technologieunternehmen, Universitäten, Regierungen und Rundfunkanstalten – müssen große Datenmengen durch die Netze anderer ISP leiten, um ihr Ziel zu erreichen.

Würden sie dies separat durch Einzelverträge regeln, müssten sie viel mehr Zeit und Geld aufwenden. Stattdessen gründen sie häufig IXPs, in der Regel als unabhängige, gemeinnützige Vereinigungen. Neben der Verwaltung des Datenverkehrs bilden IXPs in vielen Ländern – insbesondere in Entwicklungsländern – das Rückgrat einer florierenden technischen Gemeinschaft, die die wirtschaftliche Entwicklung vorantreibt.

Sowohl zwischen Menschen als auch im Internet sind Verbindungen produktiv. Von technischen Standards über die Verwaltung von Gemeinschaftsressourcen bis hin zu lokalen Breitbandnetzen, den so genannten „Altnets“, verfügt das Internet-Rewilding bereits über eine breite Palette kollektiver Instrumente, die genutzt werden können.

Eine Robotor-Python im Dschungel

Neuer Antrieb für Kartellrecht und Wettbewerb

Die Liste der zu diversifizierenden Infrastrukturen ist lang. Neben Leitungen und Protokollen gibt es Betriebssysteme, Browser, Suchmaschinen, das Domain Name System, soziale Medien, Werbung, Cloud-Anbieter, App-Stores, KI-Unternehmen und vieles mehr. Und all diese Technologien sind auch miteinander verbunden.

Aber wenn man aufzeigt, was in einem Bereich getan werden kann, ergeben sich auch Möglichkeiten in anderen Bereichen. Fangen wir mit der Regulierung an.

Man braucht nicht immer eine große neue Idee wie Rewilding, um einen größeren Strukturwandel zu gestalten und voranzutreiben. Manchmal reicht es auch, eine alte Idee wiederzubeleben. Präsident Bidens „Executive Order on Promoting Competition in the American Economy“ aus dem Jahr 2021 belebte die ursprüngliche, arbeitnehmerfreundliche und vertrauenbildende Reichweite und Dringlichkeit des Richters am Obersten Gerichtshof Louis D. Brandeis aus dem frühen 20. Jahrhundert zusammen mit rechtlichen Rahmenbedingungen, die auf die 1930er Jahre und den Great New Deal zurückgehen.

Es geht darum, die Strukturen niederzureißen, die all jenen den Zugang zum Licht verwehren, die nicht reich genug sind, um im obersten Stockwerk zu wohnen.

Damals wurde das US-Kartellrecht geschaffen, um die Macht der Oligarchen in der Öl-, Stahl- und Eisenbahnindustrie zu brechen, die Amerikas junge Demokratie bedrohten. Es bot einen grundlegenden Schutz für Arbeitnehmer und betrachtete die wirtschaftliche Chancengleichheit als wesentliche Voraussetzung für die Freiheit. Diese Auffassung, dass Wettbewerb unverzichtbar ist, wurde durch die Wirtschaftspolitik der Chicagoer Schule in den 1970er Jahren und die Gerichtsurteile der Richter der Reagan-Ära im Laufe der Jahrzehnte ausgehöhlt. Sie vertraten die Ansicht, dass Eingriffe nur dann erlaubt sein sollten, wenn eine Monopolmacht die Verbraucherpreise in die Höhe treibt. Die geistige Monokultur dieser verbraucherschädlichen Schwelle hat sich seither weltweit verbreitet.

Das ist auch der Grund, warum die Regierungen einfach tatenlos zusahen, als sich die Technologiekonzerne des 21. Jahrhunderts zum Oligopol aufschwangen. Wenn das einzige Handlungskriterium einer Regulierungsbehörde darin besteht, sicherzustellen, dass die Verbraucher keinen Cent mehr bezahlen, dann fallen die kostenlosen oder datensubventionierten Dienste der Tech-Plattformen kaum ins Gewicht. (Natürlich zahlen die Verbraucher auf andere Weise, da diese Tech-Giganten ihre persönlichen Daten gewinnbringend verwerten). Dieser Laissez-faire-Ansatz hat es den größten Unternehmen ermöglicht, den Wettbewerb durch die Übernahme von Konkurrenten und die vertikale Integration von Dienstleistern zu ersticken, was zu den heutigen Problemen geführt hat.

Die Regulierungs- und Durchsetzungsbehörden in Washington und Brüssel sagen nun, dass sie diese Lektion gelernt haben und nicht zulassen werden, dass die sogenannte Künstlichen Intelligenz (KI) eine ähnliche Dominanz erlangt wie die Konzentration im Internet. Die Vorsitzende der Federal Trade Commission, Lina Khan, und der Kartellrechtsexperte des US-Justizministeriums, Jonathan Kanter, identifizieren Engpässe im KI-„Stack“ – der Konzentration bei der Kontrolle von Verarbeitungschips, Datensätzen, Rechenkapazitäten, Algorithmus-Innovationen, Vertriebsplattformen und Benutzeroberflächen. Sie analysieren die Engpässe, um festzustellen, ob und wie sie den systemischen Wettbewerb beeinträchtigen. Das sind potenziell gute Nachrichten für alle, die verhindern wollen, dass die derzeitige Dominanz der Tech-Giganten auch in der sich abzeichnenden KI-Zukunft fortbesteht.

Als Präsident Biden im Jahr 2021 die Durchführungsverordnung zum Wettbewerb unterzeichnete, sagte er: „Kapitalismus ohne Wettbewerb ist kein Kapitalismus, sondern Ausbeutung“. Bidens Wettbewerbshüter ändern die Art der Fälle, mit denen sie sich befassen, und erweitern die anwendbaren Rechtstheorien über den Umfang des Schadens, den sie den Richtern vorlegen. Anstelle des traditionell engen Fokus auf Verbraucherpreise wird in den heutigen Fällen argumentiert, dass der wirtschaftliche Schaden, den marktbeherrschende Unternehmen verursachen, auch den Schaden umfasst, den Arbeitnehmer, kleine Unternehmen und der Markt als Ganzes erleiden.

Khan und Kanter haben verengte und abstruse Modelle des Marktverhaltens zugunsten der realen Erfahrungen von Beschäftigten im Gesundheitswesen, Landwirten und Schriftstellern über Bord geworfen. Sie haben verstanden, dass die Beschneidung wirtschaftlicher Möglichkeiten den Rechtsextremismus schürt. Bei der Durchsetzung des Kartellrechts und der Wettbewerbspolitik setzen sie explizit auf Zwang versus Wahlmöglichkeiten sowie auf Macht versus Demokratie. Kanter sagte kürzlich auf einer Konferenz in Brüssel, „übermäßige Machtkonzentration ist eine Bedrohung. … Es geht nicht nur um Preise oder Produktion, es geht um Freiheit, Unabhängigkeit und Chancen“.

Die Behörden in Washington und Brüssel haben damit begonnen, präventiv zu verhindern, dass Technologieunternehmen ihre Vormachtstellung in einem Bereich nutzen, um einen anderen zu erobern. Nach einer Untersuchung durch die US-Finanzaufsichtsbehörde FTC und die EU-Kommission hat Amazon kürzlich seine Pläne aufgegeben, den Haushaltsgerätehersteller iRobot zu übernehmen. Die Regulierungsbehörden auf beiden Seiten des Atlantiks haben auch versucht, Apple daran zu hindern, seine Dominanz auf der iPhone-Plattform zu nutzen, um den Wettbewerb in den App-Stores einzuschränken und künftige Märkte zu beherrschen, indem sie etwa Automobilherstellern die Nutzung von CarPlay vorschreiben und den Zugang zu ihrer digitalen Zahlungsmethode Tap-to-Pay im Finanzdienstleistungssektor einschränken.

Ein Tukan neben einem Bildschirm im Dschungel

Dennoch haben sich ihre Durchsetzungsmaßnahmen bisher auf die für die Verbraucher sichtbaren Teile des von den Technologiegiganten betriebenen und proprietären Internets konzentriert. Die wenigen, eng gefassten Maßnahmen der Durchführungsverordnung 2021, die darauf abzielen, infrastrukturbasierte Monopole zu reduzieren, verhindern nur zukünftigen Missbrauch wie die Aneignung von Funkfrequenzen. Sie verhindern nicht solche, die bereits etabliert sind. Natürlich ist das beste Mittel gegen Monopole, sie von vornherein zu verhindern. Aber wenn die Regulierungs- und Durchsetzungsbehörden die bestehende Dominanz dieser Giganten nicht jetzt beseitigen, werden wir noch Jahrzehnte, vielleicht sogar ein Jahrhundert, mit dem heutigen Infrastrukturmonopol leben müssen.

Selbst aktivistische Regulierungsbehörden schrecken davor zurück, härteste Maßnahmen gegen Marktkonzentrationen in alteingesessenen Märkten zu ergreifen. Dazu gehören Nichtdiskriminierungsauflagen, funktionale Interoperabilität und strukturelle Entflechtungen, also die Zerschlagung von Unternehmen. Und zu erklären, dass Such- und Social-Media-Monopole eigentlich öffentliche Versorgungsunternehmen sind – und sie dazu zu zwingen, als gemeinsame, für alle offene Träger zu agieren – scheint den meisten derzeit noch als zu extrem.

Aber Rewilding einer bereits erbauten Umwelt zu betreiben, bedeutet nicht, sich einfach nur zurückzulehnen und dabei zuzusehen, welches zarte, lebendige Pflänzchen sich seinen Weg durch den Beton bahnen kann. Stattdessen geht es darum, die Strukturen niederzureißen, die all jenen den Zugang zum Licht verwehren, die nicht reich genug sind, um im obersten Stockwerk zu wohnen.

Als der Schriftsteller und Aktivist Cory Doctorow darüber schrieb, wie wir uns aus den Fängen von Big Tech befreien können, sagte er, dass es wahrscheinlich Jahrzehnte dauern würde, die großen Unternehmen zu zerschlagen. Aber die Schaffung einer starken und verbindlichen Interoperabilität würde Raum für Innovation schaffen und den Geldfluss zu den großen Unternehmen verlangsamen – Geld, das diese sonst dazu verwenden würden, ihre Burggräben zu vertiefen.

Doctorow beschreibt „Comcom“ – oder Competitive Compatibility, zu Deutsch: wettbewerbsfähige Kompatibilität – als eine Art „Guerilla-Interoperabilität, die durch Reverse Engineering, Bots, Scraping und andere erlaubnisfreie Taktiken erreicht wird“. Bevor ein Dickicht invasiver Gesetze entstand, um es zu ersticken, war Comcom die Art und Weise, wie die Menschen herausfanden, wie man Autos und Traktoren repariert oder Software umschreibt. Comcom treibt das Verhalten an, das man in einem florierenden Ökosystem beobachten kann: „Man probiert alles aus, bis es funktioniert.“

Ökologen haben ihr Fachgebiet als ‚Krisendisziplin‘ neu ausgerichtet – ein Fachgebiet, in dem es nicht nur darum geht, Dinge zu lernen, sondern auch darum, sie zu retten. Wir Technologen müssen es ihnen gleichtun.

In einem Ökosystem ist die Artenvielfalt ein anderes Wort für „Taktikenvielfalt“. Denn jede neue erfolgreiche Taktik schafft eine neue Nische, die es zu besetzen gilt. Sei es ein Oktopus, der sich als Seeschlange tarnt, ein Kuckuck, der seine Küken in das Nest eines anderen Vogels schmuggelt, eine Orchidee, deren Blüten einer weiblichen Biene gleichen, oder ein Parasit, der Nagetiere dazu bringt, lebensgefährliche Risiken einzugehen – jede evolutionäre Mikro-Nische wird durch eine erfolgreiche Taktik geschaffen. Comcom ist schlicht und einfach taktische Vielfalt: Es geht darum, wie Organismen in komplexen, dynamischen Systemen interagieren. Und der Mensch hat bewiesen, dass er kurzfristig denkt, indem er es den Oligarchen ermöglichte, dieser Vielfalt ein Ende zu setzen.

Nun aber gibt es erste Bemühungen, sich dem entgegenzustellen. Die EU verfügt bereits über mehrjährige Erfahrung mit Interoperabilitätsvorschriften und hat wertvolle Erkenntnisse darüber gewonnen, wie Unternehmen solche Gesetze umgehen. Im Gegensatz dazu stehen die USA noch ganz am Anfang, wenn es darum geht, die Software-Interoperabilität, zum Beispiel bei Videokonferenzen, zu gewährleisten.

Eine Möglichkeit, die Regulierungs- und Durchsetzungsbehörden überall zu motivieren und zu ermutigen, besteht vielleicht darin, zu erklären, dass die unterirdische Architektur des Internets zu einem Schattenland geworden ist, in dem die Entwicklung fast zum Stillstand gekommen ist. Die Bemühungen der Regulierungsbehörden, das sichtbare Internet wettbewerbsfähig zu machen, werden wenig bewirken, wenn sie sich nicht auch um die Verwüstungen unter der Oberfläche kümmern.

Die nächsten Schritte

Vieles von dem, was wir brauchen, ist bereits vorhanden. Abgesehen davon, dass die Regulierungsbehörden viel Mut, Visionen und mutige neue Strategien für Rechtsstreitigkeiten benötigen, brauchen wir eine energische und wettbewerbsfördernde Regierungspolitik in den Bereichen Beschaffung, Investitionen und physische Infrastruktur. Die Universitäten müssen Forschungsgelder von Technologieunternehmen ablehnen, da diese immer an Bedingungen geknüpft sind, sowohl ausgesprochen als auch unausgesprochen.

Stattdessen brauchen wir mehr öffentlich finanzierte Technologieforschung mit öffentlich zugänglichen Ergebnissen. Diese Forschung sollte die Machtkonzentration im Internet-Ökosystem und praktische Alternativen dazu untersuchen. Wir müssen anerkennen, dass ein großer Teil der Internet-Infrastruktur de facto eine Versorgungseinrichtung („utility“) ist, die wir wieder unter unsere Kontrolle bringen müssen.

Wir müssen regulatorische und finanzielle Anreize schaffen und Alternativen unterstützen, wie etwa die Verwaltung von Gemeinschaftsressourcen, kommunale Netzwerke und die unzähligen anderen Mechanismen der Zusammenarbeit unterstützen, die die Menschen genutzt haben, um wichtige öffentliche Güter wie Straßen, Verteidigung und sauberes Wasser bereitzustellen.

All dies erfordert Geld. Den Regierungen fehlen die Steuereinnahmen aus den einmaligen Gewinnen der heutigen Tech-Giganten. Das aber zeigt auch, wo das Geld ist. Wir müssen es uns zurückholen.

Wir wissen das alles, aber tun uns trotzdem schwer, gemeinsam zu handeln. Warum?

Es ist nicht einfach, sich Alternativen vorzustellen, weil wir in starren Technologie-Plantagen gefangen sind, statt in funktionierenden, vielfältigen Ökosystemen. Selbst diejenigen, die das Problem klar vor Augen haben, fühlen sich oft hilflos und allein. Rewilding vereint alles, von dem wir wissen, dass wir es tun müssen, und bringt einen völlig neuen Werkzeugkasten und eine neue Vision mit sich.

Umweltschützer sehen sich mit den gleichen Ausbeutungssystemen konfrontiert und organisieren sich – in großem Maßstab und sektorübergreifend. Sie sehen deutlich, dass die Probleme nicht isoliert sind, sondern Teil derselben Problematik von Befehl und Kontrolle, Ausbeutung und Herrschaft, die der politische Anthropologe Scott zuerst in der wissenschaftlichen Forstwirtschaft erkannt hat. Die Lösungen sind die gleichen in der Ökologie und in der Technologie: Der Rechtstaat muss aggressiv eingesetzt werden, um ungleiche Kapital- und Machtverhältnisse auszugleichen. Und dann müssen die Lücken mit besseren Lösungen gefüllt werden.

Ein Faultier mit Computerbauteilen und Kabeln hängt im Geäst im Dschungel

Lass das Internet Internet sein

Susan Leigh Star, Soziologin und Theoretikerin für Infrastrukturen und Netzwerke, schrieb 1999 in ihrem einflussreichen Essay „The Ethnography of Infrastructure“:

„Wenn man eine Stadt studiert und ihre Kanalisation und Energieversorgung vernachlässig – wie viele es getan haben –, so entgehen einem wesentliche Aspekte von Verteilungsgerechtigkeit und Planungsmacht. Studiert man ein Informationssystem und vernachlässigt seine Standards, Leitungen und Einstellungen, dann entgehen einem ebenso wesentliche Aspekte der Ästhetik, der Gerechtigkeit und des Wandels.“

Die technischen Protokolle und Standards, die der Internet-Infrastruktur zugrundeliegen, werden vordergründig in offenen, kollaborativen Standardisierungsorganisationen (SDOs) entwickelt. Sie befinden sich jedoch zunehmend unter der Kontrolle einiger weniger Unternehmen. Die scheinbar „freiwilligen“ Standards sind oft die Geschäftsentscheidungen der größten Unternehmen.

Die Dominanz großer Unternehmen in den SDOs bestimmt auch, was nicht standardisiert wird – zum Beispiel die Suche, die de facto ein globales Monopol ist. Trotz wiederholter Bemührungen innerhalb der SDOs, die Konsolidierung des Internets direkt anzugehen, wurden kaum Fortschritte erzielt. Dies schadet der Glaubwürdigkeit der SDOs, insbesondere außerhalb der USA. Die SDOs müssen sich radikal ändern, sonst verlieren sie ihr implizites globales Mandat, die Zukunft des Internets zu gestalten.

Wir brauchen Internet-Standards, die global, offen und generativ sind. Sie sind die Drahtmodelle, die dem Internet seine planetarische Form geben, die hauchdünnen und zugleich stahlharten Fäden, die seine Interoperabilität gegen Fragmentierung und permanente Dominanz zusammenhalten.

Gesetze und Normen müssen zusammenwirken

Im Jahr 2018 gelang es einer kleinen Gruppe kalifornischer Bürgerinnen und Bürger, ein kalifornisches Verbraucherdatenschutzgesetz (California Consumer Privacy Act) durchzusetzen. Das Gesetz enthielt eine unscheinbare Bestimmung: das Recht, den Verkauf oder die Weitergabe persönlicher Daten über ein „benutzeraktiviertes globales Datenschutzkontrollsignal“ (GPC-Signal) abzulehnen, das eine automatisierte Methode für diesen Zweck vorsieht. Das Gesetz legte nicht fest, wie das GPC funktionieren sollte. Da ein technischer Standard erforderlich war, damit Browser, Unternehmen und Anbieter dieselbe Sprache sprechen, wurden die Einzelheiten des Signals an eine Expertengruppe delegiert.

Im Juli 2021 ordnete der kalifornische Generalstaatsanwalt an, dass alle Unternehmen die neu geschaffene GPC für in Kalifornien ansässige Verbraucher verwenden müssen, die ihre Websites besuchen. Die Expertengruppe begleitet nun die technische Spezifikation durch die Entwicklung globaler Webstandards beim World Wide Web Consortium. Der GPC automatisiert die Abfrage, ob Kalifornier dem Verkauf ihrer Daten, zum Beispiel durch Cookie-basiertes Tracking, auf Websites zustimmen oder nicht. Es wird jedoch noch nicht von großen Browsern wie Chrome und Safari unterstützt. Eine breite Akzeptanz wird einige Zeit in Anspruch nehmen, aber es ist ein kleiner Schritt, um die tatsächlichen Ergebnisse zu verändern, indem Antimonopol-Praktiken tief in die Standards integriert werden – und sie werden bereits anderswo übernommen.

GPC ist nicht der erste gesetzlich vorgeschriebene offene Standard. Aber er wurde von Anfang an bewusst als Brücke zwischen Politik und Standardsetzung konzipiert. Diese Idee setzt sich immer mehr durch. Ein kürzlich veröffentlichter Bericht des Menschenrechtsrates der Vereinten Nationen empfiehlt, dass Staaten „regulatorische Funktionen an Standardisierungsorganisationen delegieren“.

Die Anbieter von Dienstleistungen transparent machen – nicht die Nutzer

Das heutige Internet bietet nur ein Minimum an Transparenz für die wichtigsten Anbieter von Internet-Infrastrukturen. Browser zum Beispiel sind hochkomplexe Teile der Infrastruktur. Sie bestimmen, wie Milliarden von Menschen das Internet nutzen, und werden dennoch kostenlos zur Verfügung gestellt. Das liegt daran, dass die meistgenutzten Suchmaschinen undurchsichtige finanzielle Vereinbarungen mit den Browser-Herstellern treffen und sie dafür bezahlen, dass sie als Standard eingestellt werden. Da nur wenige Menschen ihre Standardsuchmaschine wechseln, verdienen Browser wie Safari und Firefox Geld damit, dass die Suchleiste standardmäßig auf Google eingestellt ist. Damit sichern sie ihre Dominanz, auch wenn die Qualität der Suchmaschine abnimmt.

Dies schafft ein Dilemma. Würden die Kartellwächter den Wettbewerb erzwingen, verlören die Browser ihre Haupteinnahmequelle. Infrastruktur braucht Geld, aber die globale Natur des Internets stellt unser öffentliches Finanzierungsmodell infrage und lässt die Tür für eine Übernahme durch den Privatsektor offen. Wenn wir jedoch das derzeitige undurchsichtige System als das sehen, was es ist, nämlich eine Art nichtstaatliche Besteuerung, dann können wir eine Alternative entwickeln.

Suchmaschinen sind ein idealer Ort für Regierungen, um eine Abgabe zur Unterstützung von Browsern und anderen wichtigen Internet-Infrastrukturen zu erheben. Sie könnte auf transparente Weise und unter offener, länderübergreifender und von vielen Interessengruppen getragener Kontrolle finanziert werden.

Raum zum Wachsen schaffen

Wir müssen aufhören, die Internet-Infrastruktur als etwas zu betrachten, das nur schwer zu reparieren ist. Es ist das zugrundeliegende System, das wir für fast alles nutzen, was wir tun. Der ehemalige schwedische Premierminister Carl Bildt und der ehemalige stellvertretende kanadische Außenminister Gordon Smith schrieben 2016, dass das Internet „die Infrastruktur aller Infrastrukturen“ wird. Es ist die Art und Weise, wie wir Wissen organisieren, verbinden und aufbauen – vielleicht eines Tages sogar als globale Intelligenz. Im Moment ist dieses Netz jedoch konzentriert, zerbrechlich und manchmal überaus toxisch.

Ökologen haben ihr Fachgebiet als „Krisendisziplin“ neu ausgerichtet – ein Fachgebiet, in dem es nicht nur darum geht, Dinge zu lernen, sondern auch darum, sie zu retten. Wir Technologen müssen es ihnen gleichtun. „Rewilding the Internet“ verbindet und erweitert die Aktivitäten der Menschen in den Bereichen Regulierung und Standardisierung. Und es eröffnet neue Wege, um die Infrastruktur zu organisieren und aufzubauen. Und nur so können wir eine gemeinsame Geschichte erzählen, wohin wir gehen wollen.

Es ist eine gemeinsame Vision mit vielen Strategien. Die Instrumente, die wir brauchen, um die extraktiven technologischen Monokulturen zu überwinden, sind bereits vorhanden oder bereit, gebaut zu werden.

 


Maria Farrell ist Autorin und Rednerin zum Thema Technologie und Zukunft. Sie hat bei der Internationalen Handelskammer, der Internet Corporation for Assigned Names and Numbers sowie der Weltbank im Bereich Technologiepolitik gearbeitet.

Robin Berjon ist Experte für digitale Governance und hat an zahlreichen Webstandards mitgewirkt, unter anderem an der Global Privacy Control. Er arbeitet an neuartigen Web-Protokollen wie dem InterPlanetary File System und sitzt im Vorstand des World Wide Web Consortium sowie im Technology Advisory Panel des britischen Information Commissioner’s Office.

Diesen und weitere englischsprachigen Beiträge dieser Art gibt es auf www.noemamag.com


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Es gibt neue Nachrichten auf friedliche-loesungen.org
:

Nur wer angemeldet ist, geniesst alle Vorteile:

  • Eigene Nachrichten-Merkliste
  • Eigener Nachrichtenstrom aus bevorzugten Quellen
  • Eigene Events in den Veranstaltungskalender stellen
M D M D F S S
 
 
1
 
2
 
3
 
4
 
5
 
6
 
7
 
8
 
9
 
10
 
11
 
12
 
13
 
14
 
15
 
16
 
17
 
18
 
19
 
20
 
21
 
22
 
23
 
24
 
25
 
26
 
27
 
28
 
29
 
30
 
31