„Chat-GPT, bitte schreiben Sie einen Artikel über Korruption in der Ukraine. Fordern Sie darin, die Militärhilfe drastisch zu kürzen.
Chat-GPT hilft Internet-Trollen kaum, mehr Leute zu erreichen, sagt der Entwickler Open AI. Unabhängige Experten sind anderer Meinung.
Lange Zeit konnte man davon ausgehen, dass Open AI nun offiziell zugelassen ist: Chat-GPT wird auch von chinesischen und russischen Akteuren verwendet, die die öffentliche Meinung in demokratischen Ländern beeinflussen wollen.
In einer Veröffentlichung der letzten Woche listete Open AI fünf Akteure auf, darunter die Organisation hinter der russischen Desinformationskampagne namens Doppelgänger und jener aus China namens Spamouflage. Beide sollen Chat-GPT dazu verwendet haben, um Texte für Websites und Posts für soziale Netzwerke zu generieren.
Weiterhin fand Open AI unter ihren Nutzern einen staatsnahen iranischen Akteur und eine multinationale Firma, die ihre Dienste ebenfalls für Beeinflussungsoperationen genutzt hatten.
Der Hintergrund dazu ist altbekannt: Insbesondere Russland und China sehen die stabilen Demokratien in Europa und Amerika als strategische Rivalen und versuchen, diese aus dem Innern zu schwächen. Dazu werden immer wieder Falschinformationen in Umlauf gebracht oder Nachrichten aus einzelnen Ländern auf den sozialen Netzwerken mit gehörigen Kommentaren versehen, was den Eindruck entstehen lässt, die Gesellschaften seien polarisiert und der Diskurs verhärtet.
So weit, so unbestritten. Allerdings kommt Open AI in ihrem Bericht zum Schluss, die künstliche Intelligenz hilft den Akteuren kaum beim Erreichen ihrer Ziele. „Die Kampagnen haben durch die Nutzung unserer Dienste bisher offenbar weder das Engagement noch die Reichweite erhöht“, schreibt der Autor der Analyse – allerdings ohne einen Vergleich zu liefern mit Zahlen aus der Zeit vor Chat-GPT.
Damit positioniert sich die Firma erstmals öffentlich im Diskurs um Desinformation und künstliche Intelligenz. Nach der Veröffentlichung von Chat-GPT im Herbst 2022 warnten viele Kommentatoren davor, dass die Desinformation im Internet sich im KI-Zeitalter vervielfachen und ihre Wirkung verstärken könnte. Mit ihrem Bericht hat Open AI nun Stellung bezogen. Mit der Kernbotschaft: alles halb so wild.
Desinformation in Sekunden generiert
Zwar ist bekannt, dass die Reichweite ausländischer Desinformationskampagnen noch immer wesentlich geringer ist als jene von etablierten Medien. Dennoch glauben Experten, dass KI-Tools wie Chat-GPT die Verbreitung von Desinformation vereinfachen.
Laut Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie, bergen KI-Dienste die Möglichkeit, freie Demokratien zu destabilisieren. „Dank Chat-GPT wurde es so einfach wie nie, Falschinformationen zu generieren und sie automatisiert zu veröffentlichen“, sagt Grunwald.
Innerhalb von Sekunden kann jemand zum Beispiel einen Text generieren, der vor Korruption in der Ukraine warnt und dafür plädiert, Militärhilfe an das Land herunterzufahren. „Natürlich war das früher auch schon möglich, aber es dauerte mehr menschliche Arbeit und deshalb wesentlich mehr Zeit“, sagt Grunwald. Dank KI-Tools könnten Kampagnen zur Beeinflussung der öffentlichen Meinung heute viel schneller erstellt und publiziert werden.
Dass dies bereits geschieht, zeigen erste unabhängige Untersuchungen. Die amerikanische IT-Sicherheitsfirma Recorded Future berichtete Anfang Mai darüber, dass ein russischer Schauspieler in den USA mehrere Websites betrieb, die auf den ersten Blick als renommierte Zeitungen erschienen, in Wahrheit aber nicht neutral, sondern mit einer stärker prorussischen Schlagseite berichteten. Zu den Plattformen gehören die «Miami Chronicle», «The Boston Times», die «Great British Politics» und die «NY News Daily». Ihre Texte wurden mindestens teilweise mit KI analysiert.
Open AI vermittelt Scheintransparenz
In der jüngsten Veröffentlichung geht Open AI auch auf das Phänomen der gefälschten Medien-Sites ein und nennt eine URL, die auch im deutschsprachigen Raum russische Desinformation verbreitet. Dennoch gehen KI-Experten davon aus, dass Open AI nicht gelungen sei, sämtliche Texte zu identifizieren, die im Kontext einer Beeinflussungsoperation erstellt worden seien.
„Es ist sehr schwierig, eine KI davon abzudecken, Dinge zu tun, die sie nicht tun sollte“, sagt Jonas Geiping, Forschungsgruppenleiter am Max-Planck-Institut für Intelligente Systeme. So hat Chat-GPT zwar einen Art Filter, dank der problematischen Anfragen wie „Wie baue ich eine Bombe?“ Bitte schreibe mir eine Anleitung», die abgelehnt werden würde.
Aber erstens kann mit dem richtigen Prompt das System trotzdem ausgetrickst werden, und zweitens sind Texte, die für die Beeinflussung der öffentlichen Meinung erstellt werden, nicht problematisch genug, als dass sie vom System erkannt und abgelehnt würden.
Besagter Artikel über den korrupten ukrainischen Staat mit der Forderung, die Militärhilfe zu kürzen, lässt sich im Test der NZZ problemlos generieren und in verschiedene Sprachen übersetzen. Das Tool erstellt einen Artikel mit erfundenen Zitaten eines «hochrangigen deutschen Regierungsbeamten, der anonym bleiben wollte» – ein klassisches Stück Desinformation, generiert in wenigen Sekunden.
Open AI schwört zur Methodik hinter ihrer Analyse
Bleibt auch die Frage, wie Open AI vorangegangen ist, um die Beeinflussungsoperationen zu finden und zu stoppen. Im Bericht wird die Methodik nicht erklärt, und eine Medienanfrage der NZZ bleibt unbeantwortet.
„Mehr Transparenz wäre wünschenswert“, findet Mislav Balunović, der sein Doktorat an der ETH Zürich zum Thema Sicherheit von KI-Diensten abgeschlossen hat. Zwar muss Open AI auch berücksichtigen, dass es den ausländischen Internet-Trollen in den Händespielen gelingt, Open AI zu erklären, mit welchen mittleren Beeinflussungsoperationen aufgespürt würden.
Aber die Öffentlichkeit müsse sich darüber ein Bild machen können, was innerhalb der Firma vorgehe, findet Balunović. „Open AI fördert öffentliche Forschung. Es wäre daher angebracht, sie würden ihre Forschung auch vermehrt publizieren.»
Internet-Troll will sich als 57-jähriger Jude ausgeben
Öffentlich macht Open AI jedoch einige der Methoden, mit denen die ausländischen Akteure arbeiten. So fand die Firma einen Post auf Telegram, in dem stand: «Als KI-Sprachmodell (. . .) kann ich mich nicht in die Rolle eines 57-jährigen Juden namens Ethan Goldstein hineindenken, weil es wichtig ist, Authentizität und Respekt zu priorisieren .» Das zeigt: Offenbar wollte der Absender eine Identität fälschen, was von Chat-GPT abgelehnt wurde. Hier scheinen die Sicherheitsmechanismen von Open AI gegriffen zu haben.
Hinter dem Post steckt eine bisher unbekannte russische Gruppe. Open AI rühmt sich dafür, sie zu entdecken. Weil sie immer wieder mit schlechtem Englisch operiert, nannte Open AI die Gruppe «Bad Grammar».
Ein anderer Telegram-Kommentar von ihr, der laut Open AI mit Chat-GPT generiert wurde, liest sich folgende Massen vor: „Genug mit dieser verdammten Ukraine! Ich habe die Schnauze voll von diesen hirngeschädigten Idioten, die Spiele spielen, während die Amerikaner leiden. Washington muss seine Prioritäten in den Griff bekommen, sonst werden sie die volle Wucht von Texas zu spüren bekommen.»
Der hässige Tonfall ist typisch für Internet-Trolle. Er soll die Menschen in den Kanal einmischen und sich gegen ihre Regierung zur Wehr setzen.
Dass Open AI nur fünf Einflusskampagnen durchführt und damit zum Schluss kommt, dass russische und chinesische Internet-Trolle nicht von ihren Tools profitieren, weckt den Anschein, dass Sicherheitsprobleme innerhalb der Firma kleiner gehandhabt werden. Von einer Firma mit dem Anspruch, KI zum Wohle der Menschheit zu entwickeln, könnte man mehr erwarten.