Bots, künstliche Intelligenz und keine Menschen mehr: Warum die «dead Internet theory» das Netz für tot erklärt
Künstliche Intelligenz macht es einfacher denn je, Texte, Videos und Social-Media-Posts zu erstellen. Sind die Menschen im Internet bald in der Unterzahl?
Anfang des Jahres ging ein Video auf der Plattform X, dem ehemaligen Twitter, viral. Es zeigte einen kasachischen Nachrichtensprecher in einem Fernsehstudio, der die neusten Meldungen verliest. Der Account, der das Video gepostet hatte, schrieb dazu: „Die kasachische Sprache klingt, als würde man im Winter versuchen, einen Dieselmotor zu starten.“
Über 30 Millionen Mal wurde das Video aufgerufen, es erhielt 24 000 Likes. X-Nutzer hinterliessen mehr als 800 Kommentare, darunter Bemerkungen wie «O mein Gott!» und «Es klingt so seltsam!». Das Ungewöhnliche daran: Das Video hatte überhaupt keinen Ton. Niemand der Kommentierenden hatte die Sprache des Moderators überhaupt gehört.
wir sind direkt vom toten Internet zum verrottenden Internet übergegangen, das an Land gespült wurde pic.twitter.com/LR0YD9SSyz
– Rimmy (@Rimmy_Downunder), 9. Januar 2024
Inzwischen ist der Beitrag von der Plattform verschwunden, allerdings erst, nachdem X-Nutzer in den „Community Notes“ darauf hingewiesen hatten, dass das Video stumm sei. Ein Screenshot des Posts machte dennoch weiter die Runde. Denn für viele ist er ein Beweis für eine Theorie, die in den vergangenen Monaten unter Nutzern sozialer Netzwerke immer mehr Anhänger gefunden hat: die «dead Internet theory».
Menschen im Internet als Illusion?
Die Theorie besagt, dass ein Großteil des Internets nicht mehr aus zwischenmenschlicher Interaktion besteht, sondern aus Bots und KI-generierten Inhalten. Wer sich auf Plattformen wie Facebook oder X Beiträge ansehe, denke zwar, diese kämen von echten Menschen. Doch das sei eine Illusion. Tatsächlich treibe jeder auf sich allein gestellt durch ein Meer aus künstlich generiertem Schrott.
Künstlich dumm
Eine Serie zu der Frage, ob künstliche Intelligenz das Internet kaputt macht.
Alle Artikel dieser Serie anzeigen
Die Wurzeln der „dead Internet theory“ reichen bis in die späten 2010er Jahre zurück, als Behauptungen darüber, dass Bots das Internet kontrollieren, im Forum „4Chan“ verbreitet wurden. Zu dieser Zeit wurde sie noch als Verschwörungstheorie abgetan, als Spinnerei von Verrückten.
Der Erfolg von KI-Programmen wie Chat-GPT und Midjourney, die Texte, Bilder und sogar Videos quasi aus dem Nichts in kürzester Zeit erschaffen können, hat das geändert. Plötzlich tauchen immer mehr KI-generierte Inhalte in den sozialen Netzwerken auf, häufen sich Hunderte von Kommentaren unter Posts, die nahezu gleich lauten und wirken, als wären sie von einer künstlichen Intelligenz verfasst. Und immer mehr Nutzer fragen sich: Stirbt das Internet jetzt wirklich? Werden die Menschen von den Bots verdrängt?
KI macht Spammern das Leben leicht
Zwar gibt es schon lange Fake-Accounts, Clickbaiting und anonyme Social-Media-Inhalte. Doch generative KI macht es möglich, den durchschnittlichen Internetnutzern schnell perfekt zu imitieren und gleichzeitig Spam-Inhalte automatisiert auf das Netz loszulassen. Die Bots schreiben Produktbewertungen, posten Ferienfotos und teilen unter X-Posts ohne Zusammenhang Pornovideos. Und je fleißiger sie sind, desto schwieriger ist es, die Inhalte zu finden, die man wirklich sucht.
Im Dezember veröffentlichte die Cybersecurity-Firma Arkose Labs aus Kalifornien einen Report, laut dem Bots knapp drei Viertel des weltweiten Internet-Traffics ausmachen. Andere Untersuchungen gehen von der Hälfte aus. Die Bots betreiben Fake-Accounts, sammeln Daten und verschicken Spam-Nachrichten. Besonders betroffen sind laut Arkose Labs Bereiche wie der Online-Handel, in sozialen Netzwerken schätzt das Unternehmen die Bot-Quote auf 46 Prozent.
Auf X ist diese Problematik besonders sichtbar. Als Elon Musk die Plattform im Oktober 2022 kaufte, kündigte er an, die Zahl der Bots deutlich zu senken. Doch im April dieses Jahres gab er zu, dass das Unterfangen sei als erwartet. Aktuelle KI-Programme könnten die gängigen Tests, mit denen Bot-Accounts entwickelt werden sollen, mit Leichtigkeit bestehen. In Neuseeland und auf den Philippinen testet Musk derzeit ein Bezahlmodell. Erst ab einem Beitrag von einem Euro pro Jahr sollen die Benutzer etwas posten oder teilen können.
Spam-Inhalte sind lukrativ
Ob das etwas bringt, ist fraglich. Spammer könnten gestohlene Kreditkarten verwenden, merken IT-Experten an. Denn die Rechnung lohnt sich für sie: Das von Musk eingeführte Monetarisierungssystem hat es profitabel gemacht, sich ein blaues Verifikationshäkchen zu kaufen und es an ein großes Sprachmodell anzuhängen, das anschließend wild zu posten beginnt. Denn X zahlt verifizierten Nutzern einen Teil der Werbeeinnahmen, die durch ihre Beiträge generiert werden.
Und nicht immer geht es um Geld. Forscher der Queensland University entdeckten bei der Analyse von einer Million Tweets im vergangenen Jahr ein umfangreiches Bot-Netzwerk, das Falschbehauptungen zur US-Wahl 2020 verbreitete. Recherchen des Online-Magazins «Wired» zeigten auf, wie bis zu 10 000 Bots gefälschte Zitate von Prominenten verbreiteten, in denen dieser Russlands Krieg gegen die Ukraine unterstützten. Und Anfang des Jahres deckte das deutsche Auswärtige Amt eine russische Desinformationskampagne auf, die mehr als 50 000 deutschsprachige Nutzerkonten auf X umfasste.
„Shrimp Jesus“ überrollt Facebook
Und X ist nicht die einzige Plattform, die von Bots übernommen werden droht. Im März analysierten Forscher der Universitäten Stanford und Georgetown, wie sich KI-generierte Fotos auf Facebook millionenfach verbreiten, weil sie die Algorithmen der Plattform ausnutzen und viele User glauben, dass es sich um echte Fotos handelt.
Das funktioniert so: Bots übernehmen ehemals echte Profile oder Seiten, oft durch Hacking, und sorgen mit KI-generierten Bildern für Aufmerksamkeit und Interaktionen (zum Beispiel Likes und Kommentare). Das führt dazu, dass noch mehr Leute die Inhalte sehen. Oft zeigen die Bilder hungernde oder schwerkranke Kinder, religiöse Motive oder Soldaten. Darunter befinden sich Links, die auf Websites führen, auf denen „Spenden“ gesammelt oder mit KI-generierten Inhalten Werbeeinnahmen werden.
Das löst teilweise bizarre Phänomene aus, wie das von «Shrimp Jesus»: Im März dieses Jahres führen einige Betreiber dieser Spam-Seiten eine Reihe automatisierter Tests durch, um herauszufinden, welche Posts sich am besten verbreiten. Daraufhin wurde Facebook von Bildern überschwemmt, die wilde Kombinationen aus Krabben, Jesus und Flugbegleiterinnen zeigten. Ein Bild, das etwa eine Stewardess neben dem Sohn Gottes in einer Jacke und einem Dornenkranz aus Shrimps zeigte, erhielt mehr als 20 000 Likes. Ein anders, auf dem Jesus als riesige Krabbe dargestellt wurde, erhielt sogar fast 200 000.
Warum genau es gerade die Kombination aus Christentum und Krustentieren war, die sich besonders erfolgreich verbreitet, bleibt ein Geheimnis des Facebook-Algorithmus. Doch nicht nur auf Facebook und X drohen KI-Inhalte überhandzunehmen, sondern auch dort, wo für viele die Eingangstür zum Internet liegt: bei der Google-Suche.
Der Google-Algorithmus rankt Websites vor allem danach, wie sie gebaut sind, und nicht nach wesentlichen Qualitätskriterien oder Nützlichkeit. Das kommt der KI zugute. Sie können höchst effektiv nach bestimmten Kriterien Websites programmieren und Texte generieren, die diese dann bei Google nach oben spülen. Elon Musk selbst teilte im April bei X einen Post, der die Häufung KI-generierter Inhalte bei der Google-Suche kritisierte. Der letzte Satz des Posts: «Das Web ist gestorben.»
Die Plattformen sind nicht vollständig, sondern degenerieren
So weit gehen die meisten Experten noch nicht. Doch der Tech-Theoretiker Cory Doctorow prägte das Wort „enshittfication“, das die American Dialect Society zu einem der Wörter des Jahres 2023 wählte. Auf Deutsch lässt es sich ungefähr mit «Beschissenmachung» übersetzen. Laut Doctorow binden Digitalkonzerne ihre Kunden durch ein gutes Produkt an sich und maximieren dann ihre Wertschöpfung zulasten der Qualität. Immer mehr wird automatisiert, und ein Mittel zur Spam-Bekämpfung wird gespart. Die Plattformen degenerieren.
Und doch bleiben die Nutzer ihnen treu, weil sie ihnen nach wie vor etwas bieten, was kaum ersetzbar ist: ein unvorstellbares Netzwerk und die Möglichkeit, sich mit Menschen aus der ganzen Welt auszutauschen – wenn es sich denn nicht um Bots handelt. Die Frage ist, ob die etablierten Plattformen es schaffen werden, etwas gegen die KI-Flut zu unternehmen. Oder ob vielleicht irgendwann neue auf den Plan treten, die es besser machen.
Ein Weg, den Experten für realistisch halten, wäre der, dass Plattformen in der Zukunft kleiner und schwerer zugänglich werden, etwa durch ein Abo-Modell. Das Internet bestünde dann aus vielen kleinen, sicheren Inseln in einem weiten Meer aus Schrott. Ein anderes Szenario wäre es, dass die künstliche Intelligenz selbst das Problem löst: Indem es gelingt, ein vertrauenswürdiges Modell zu entwickeln, das es gleichzeitig schafft, Bot-Inhalte herauszufiltern und den Menschen die Inhalte zu zeigen, die für sie interessant sind. Dann hätte die KI das Internet vor sich selbst gerettet.
Künstlich dumm
Eine Serie zu der Frage, ob künstliche Intelligenz das Internet kaputt macht.