Degitalisierung: Infinite Money Glitch

Immer mehr Geld für sogenannte Künstliche Intelligenz, ohne Rücksicht auf die Konsequenzen. Dazu absurdes Marketing mit Warnungen vor Gefahren. Das ist kein Spiel, das betrifft uns am Ende alle.

Schild mit Aufschrift: "Attention. Don't throw coin in to the holy pond. Very dangerous."
Sehr gefährlich! Auf keinen Fall machen! – Gemeinfrei-ähnlich freigegeben durch unsplash.com Odd Fellow

Gehen Sie in die Kirche. Weihwasser. Spenden Sie den Mönchen so viel, dass Sie im Negativen landen. Gehen Sie aus der Kirche und sogleich wieder hinein. Weihwasser. Spenden Sie dem Bettler zwei Mal und ihre Geldsorgen haben ein Ende.

Die sonntägliche Ausgabe von Degitalisierung beginnt mit einem Trick. Einem sehr alten Trick, einem für nahezu unendlich viel Reichtum. Die beschriebene Weihwasser-Verschulde-Zeremonie hätte in bestimmten Versionen des Handelsspiels Der Patrizier von 1992 für nahezu unendlich viele Taler gesorgt, der Währung im Spiel.

Der Patrizier spielt zur Zeit der Hanse um das Jahr 1400. Das Anhäufen von großen Reichtümern ist dort erst einmal harte Arbeit. Handel mit Waren, die für gute Preise durch Nord- und Ostsee geschippert werden wollen. Matrosen, die angeheuert werden wollen – gegen Geld natürlich. Piraten abwehren, die ansonsten die eigenen Handelskonvois plündern. Schiffe, die gewartet und teuer neu gebaut werden müssen. Viel Risiko für ein paar Taler Gewinn.

Da liegt es vielleicht nahe, als Spieler*in nach einer Abkürzung zu suchen, einem Trick, einem Cheat oder auch einem Glitch. Einen Fehler im System zu finden, der einen unverhofften Vorteil verschafft. Der Patrizier hatte so einen Glitch. Einen Money Glitch.

Seit längerem macht sich Big Tech auf, seinen eigenen Money Glitch zu finden; und geht dabei ähnlich erratisch vor wie das scheinbar unlogische, aber doch irgendwie gezielte Herumklicken in Der Patrizier. Nur geht es diesmal um echtes Geld, es geht um echte Konsequenzen des Handelns und es ist kein Spiel, sondern betrifft uns alle.

Leider müssen wir in dieser Ausgabe wohl über das Thema der sogenannten Künstlichen Intelligenz und Big Tech reden. Insbesondere werden wir reden müssen: über das Erschleichen von unermesslichem Reichtum ohne Rücksicht auf die Konsequenzen für uns alle.

Stargate und Fusionsreaktoren

Soviel ausgeben, dass der Kontostand im Negativen landet – ganz so schlimm wird es für Microsoft vielleicht nicht werden, aber die Details zu Plänen neuer Rechenzentren gehen doch ziemlich ins Geld. Stargate, so der Codename für einen neuen Rechenzentrumskomplex, soll an die 100 Milliarden Dollar kosten. Komplett neue Systeme für künstliche Intelligenz, dazu passend eigene KI-Chips und eine Wertschöpfungskette „vom Silizium bis zur Dienstleistung“.

Microsofts Pläne wirken dabei trotz ihrer Monstrosität aber geradezu lächerlich im Vergleich zur Ankündigung des Chefs von OpenAI, Sam Altman. Er will Billionen Dollar in neue Chips investieren. Das sind Bereiche von 1.000 Milliarden, so als Vergleich. Nicht alle finden das realistisch. Der Google-Forscher François Chollet, einer der Beitragenden zum Machine-Learning-Framework TensorFlow, bewertet die Investitionen als um den Faktor 1.000 zu hoch.

Rechenzentren oder Supercomputer dieser Größe werden, ungeachtet ihrer Rentabilität, eine Menge Energie brauchen. Der Energieverbrauch der Rechenzentren, besonders getrieben von der KI-Industrie, ist schwer genau zu schätzen. Aber er übersteigt bereits heute wohl den gesamten Energieverbrauch von kleinen Ländern und wird wahrscheinlich allzu bald den gesamten Energieverbrauch von Ländern wie Schweden oder Deutschland übersteigen.

In den USA steigt der Energiebedarf besonders stark an. Oftmals werden nun Rechenzentren irgendwo in der Peripherie gebaut, weil dort eben noch Platz im Netz und Nähe zu Kraftwerken ist. Nur wird das nicht reichen. Allzu logisch aus kapitalistischer Sichtweise scheinen dann die Forderungen zum Erschließen neuer oder alter stabiler Energiequellen.

Microsoft etwa versucht, den Ausbau von Kernenergie zu beschleunigen – durch Mikroreaktoren und durch das Schreiben von Anträgen mit KI-Hilfe. Sam Altman wiederum investiert zusätzlich in Unternehmen zur Erforschung der Kernfusion und hofft auf deren Durchbruch in naher Zukunft.

Weil das alles aber nicht so schnell Energie bringen wird, freut sich die Fossilindustrie über die steigende Nachfrage nach Gaskraftwerken, wie etwa die Financial Times feststellt.

Der Weg in die vermeintliche Zukunft geht wohl erst mal ohne Rücksicht auf irgendwelche aktuellen Umweltschäden über das energietechnische Mittelalter.

Die Abhängigkeitsspirale

Bemerkenswert ist an so ausufernden Forderungen von Tech-Konzernen aber deren eigene Abhängigkeit von einigen wenigen Zulieferern. Klar, Microsoft etwa will, wie schon erwähnt, vermehrt eigene KI-Chips nutzen. Intel und Google steigen jeweils selbst in den KI-Chip-Markt ein, um die Abhängigkeit von Nvidia loszuwerden.

Doch aktuell hängen die großen Player in Big Tech stark an Chips von Nvidia. Nvidias gefragte H100-Chips, oftmals als der Standard für maschinelles Lernen gesehen, sind zwar aktuell wieder etwas besser verfügbar, allerdings hat Nvidia bereits die nächste Chip-Generation angekündigt. Die wiederum wird um Faktor X besser als die Vorgängergeneration sein.

Bei der Geschwindigkeit, in der Chip-Hersteller neue Chips mit neuen Leistungsrekorden vorstellen, hätte in den 80er und 90er Jahren wahrscheinlich der sogenannte Osborne-Effekt greifen müssen: Eine aktuelle Generation von Produkt verkauft sich nicht mehr so gut, weil bereits eine wesentlich leistungsfähigere Nachfolge-Produktgeneration angekündigt ist. Die Nachfrage müsste eigentlich einbrechen, weil sich so eine kurzfristige Investition in absehbar alte Hardware ja nicht mehr rentieren würde.

Nur führt der aktuelle KI-Hype in seiner Überhitzung dazu, dass auch problemlos kaum ein Jahr alte Hardware eingekauft und wiederverkauft wird, weil die Nachfrage nach KI-Beschleunigern und den dadurch möglichen Anwendungen so immens hoch ist.

Neben dem Energieverbrauch ergibt sich hier eine Unmenge von Elektromüll in absehbarer Zeit – aus oftmals seltenen und aufwändig zu produzierenden Materialien.

Aber für den Geldfluss von einigen wenigen Techunternehmen ist das erstmal herzlich egal.

Spiel ’s noch einmal, Doomer

Zum teils absurden technologischen Vorgehen der KI-Unternehmen gehört auch absurdes Marketing.

Marketing in der Form wie etwa:

Wir haben da ein Tool veröffentlicht, das ist mächtig und so menschlich und so überzeugend, dass wir es für gefährlich halten, das jetzt zu veröffentlichen. … Scherz … Machen wir dann aber später trotzdem, wollten nur die Nachfrage checken und etwas künstlich hochtreiben. Und wir wollten dabei etwas ethisch wirken. Schließlich wollen wir ja doch auch nur Geld verdienen.

Das macht OpenAI in der Form seit mindestens 5 Jahren schon, das passierte etwa bereits bei GPT-2 im Jahr 2019 in sehr ähnlicher Form.

Das macht OpenAI beim Videogenerator Sora. Das Unternehmen kündigt mehr oder weniger den Untergang Hollywoods an, kooperiert dann mit Hollywood, damit Hollywood nicht untergeht, und so weiter.

Das macht OpenAI beim Stimmgenerator Voice Engine, kündigt mehr oder weniger den Untergang der Integrität politischer Reden an, verzögert dann den Release, aber am Ende kommt das Produkt halt doch.

Medial geht das regelmäßig auf und führt zu so Stilblüten wie Beitragen an Ostersamstag in der Tagesschau. Dort wird dann die Funktionsweise eines nicht öffentlich zugänglichen digitalen Tools mit einem ähnlichen digitalen Tool zur Stimmsynthese nachgestellt, um zu zeigen, wie realistisch das sein kann – also so prinzipiell.

Normalisierung durch Aufmerksamkeit

Das Problem beim Wiederkäuen von solchen Doomer-Narrativen: Sie höhlen den kritischen Kern der eigentlichen Doomer-Szenarien aus. Die Gefahr wird zwar genannt, durch den eigens gesetzten Spin der Unternehmen aber gleich wieder entkräftet. Und bis zum Release eines Produkts hat sich die Stimmung wieder normalisiert.

Die Gefahr von Desinformation durch Deepfakes in Audio und Video wird zwar dabei ein wenig thematisiert, aber gleichzeitig wieder normalisiert, weil dem Thema ja durch etwas Bedenkzeit Aufmerksamkeit gewidmet wurde. Ohne am Ende irgendetwas am Produkt verantwortungsvoll zu verändern, es vielleicht – Achtung, Blasphemie – gar nicht weiterzuentwickeln oder sich durch irgendwelche durch Gesetze auferlegte Regulation einschränken lassen zu wollen.

Da braucht es gar keine aufgesetzten KI-Ethik-Boards mehr, die ohnehin nichts anderes machen können als Vorschläge, die aber kaum gegen das eigene kapitalistisch geprägte Unternehmenshandeln gehen werden. Das Level an ethischem Handeln von generativen KI-Systemen ist ohnehin eher sehr, sehr niedrig. Allerhand selbst auferlegte Regeln und Gesetze beim Datenbeschaffen werden komplett ignoriert.

Wir befinden uns in einem Umfeld, in dem Bildgeneratoren hemmungslos visuellen Content stehlen, der eine Bildgenerator beim anderen klaut und der vermeintlich „ethische“ Generator auch wieder nur auf den geklauten Bildern des anderen basiert, wie Bloomberg bei Adobe Firefly feststellt.

Am Ende wirkt alles das wie aufgesetztes mediales Weihwasser, mit dem man sich benetzt, damit das eigene Handeln doch irgendwie verantwortungsbewusst wirkt. Letztlich ist es eiskalt berechnet, um eine Stimmung oder eine Nachfrage zu erzeugen, die weniger negativ den eigenen Produkten gegenüber eingestellt ist. Am Ende ist alles nur ein Infinite Money Glitch, um unsere möglichen berechtigen Widerstände vor den negativen Folgen von KI zu übergehen.


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Es gibt neue Nachrichten auf friedliche-loesungen.org
:

Nur wer angemeldet ist, geniesst alle Vorteile:

  • Eigene Nachrichten-Merkliste
  • Eigener Nachrichtenstrom aus bevorzugten Quellen
  • Eigene Events in den Veranstaltungskalender stellen
M D M D F S S
 
 
1
 
2
 
3
 
4
 
5
 
6
 
7
 
8
 
9
 
10
 
11
 
12
 
13
 
14
 
15
 
16
 
17
 
18
 
19
 
20
 
21
 
22
 
23
 
24
 
25
 
26
 
27
 
28
 
29
 
30
 
31