«Superwahljahr 2024»: Open AI sagt, Chat-GPT könnte nicht für politische Kampagnen eingesetzt werden. Diese Recherche zeigt das Gegenteil
2024 wählt die Hälfte der Weltbevölkerung – in einer Zeit, in der wahr und falsch immer schwierig zu unterscheiden sind.
Der Open-AI-Chef Sam Altman warnt seit Monaten. „Ich bin nervös wegen des Einflusses, den KI auf künftige Wahlen haben wird“, schrieb er in einem Post auf X schon vor einem halben Jahr. Mitte Januar hat Open AI nun Leitlinien für Wahlen festgelegt, mit dem Ziel, dass Chat-GPT nicht für politische Zwecke verwendet werden kann.
Man arbeitet noch daran, zu verstehen, wie KI-Chatbots die Meinungsbildung veränderten, schreibt Open AI in der Medienmitteilung. «Bis wir mehr wissen, werden wir es Leuten nicht erlauben, Anwendungen für politische Kampagnen und Lobbying zu bauen.»
Konkret bedeutet: Chat-GPT soll keine Inhalte generieren, die für Wahlbeeinflussung gehalten werden könnten; keine Kampagnen, keine Texte für Lobbying. Auch weitere politische Einsatzgebiete sind nun verboten: Chatbots, die vorgeben, echte Personen zu sein, zum Beispiel Kandidierende, oder Texte, die Wählerinnen und Wähler vom Urnengang abhalten sollten.
Richtlinien noch nicht umgesetzt
Ein Test der NZZ Anfang Februar zeigt, dass diese Richtlinien entgegen der Ankündigung noch nicht umgesetzt sind – nicht einmal im Kontext der Wahlen in den USA. Zwar lehnte es Chat-GPT im Test ab, Slogans zu schreiben, die Joe Biden oder Donald Trump anschwärzen. Allerdings konnten innerhalb von Sekunden über 250 Slogans für die politische Kampagne beider Kandidaten generiert werden – inklusive Hashtags.
Chat-GPT schrieb zum Beispiel: „West Virginia’s Mountain Mama for Trump.“ #Trump2024 #TrumpCountry #HeartOfAppalachia #PatriotsOfWV #AmericaFirstWV». Oder: „Kleiner Staat, große Träume: Rhode Island für Biden.“ #DreamBigRI #RIProgress #LeadWithBiden #UnityOverDivision».
Mit ein bisschen Programmierwissen würden sich diese Slogans nun in den sozialen Netzwerken verbreiten lassen – automatisiert, jeden Tag eine fast beliebige Anzahl. Auf Nachfrage liefert Chat-GPT sogar eine Anleitung, wie man die Slogans über einen Bot auf der Plattform X verbreiten kann.
Wahlversprechen werden verzerrt wiedergegeben
Weiter liess sich die KI überzeugen, zielgruppenspezifische E-Mails zu formulieren. Für die Kampagne Trumps verfasste das Modell eine Wahlempfehlung für eine 40-jährige Frau aus der Vorstadt: „Als Vorstadtfrauen stehen wir an der Spitze des Wandels – indem wir Karrieren vereinbaren, unsere Familien ernähren und uns um die Sicherheit und den Wohlstand in unseren Quartieren bemühen.“ », schrieb Chat-GPT. Und weiter unten: „Ihre Stimme für Donald Trump ist ein Schritt in eine Zukunft, die wir alle verdienen.“ Danach folgt ein Argumentarium für Trump, der sich angeblich für bessere Bildung einsetzt.
Was das im Detail bedeutet, bleibt in der E-Mail von Chat-GPT unklar. Jedenfalls lässt sich das Modell im Empfehlungsschreiben wegschreiben, dass Trump plant, Schulen die Finanzierung zu entziehen, falls diese „unangemessene rassistische, sexuelle oder politische Inhalte“ unterrichten und „trotzige“ Lehrpersonen „entfernen“ werden. Ebenfalls schreibt Chat-GPT kein Wort dazu, dass Trump „Männer aus Frauensportarten fernhalten“ möchte und eine neue Behörde schaffen will, um „patriotische“ Lehrpersonen zu zertifizieren.
NEUES VIDEO: Präsident Trumps Plan, die amerikanische Bildung zu retten und den Eltern die Macht zurückzugeben pic.twitter.com/aizxaRXIM3
– Trump War Room (@TrumpWarRoom) 26. Januar 2023
Der Fall zeigt: Erstens nimmt es Open AI mit den eigenen Richtlinien nicht besonders genau. Und zweitens generierte das Modell politische Inhalte, die ein verzerrtes Gesamtbild von einem Kandidaten vermitteln.
«Superwahljahr 2024»
In den nächsten Monaten finden in rund 70 Staaten Wahlen oder Abstimmungen statt. Über vier Milliarden Menschen sollen dabei ihre Stimme abgeben – mehr als doppelt so viele wie noch im Jahr 2023. Neben Indien, dem bevölkerungsreichsten Land der Welt, wählen auch die USA, die Länder der Europäischen Union, Indonesien, Mexiko, Südafrika, die Türkei und Großbritannien. Der „Economist“ spricht daher vom „größten Wahljahr der Geschichte“.
Chatbots können gehackt werden
Dass Chatbots Dinge tun, die sie nicht sollten, überrascht KI-Experten nicht. Florian Tramer forscht an der ETH zur Sicherheit von KI-Diensten. Er sagt: „Mit dem richtigen Prompt (Anm. d. Red.: Text-Input) lassen sich alle KI-Systeme überlisten.“ Zwar gibt es Methoden, mit denen Firmen wie Open AI versuchen, schädlichen Output zu reduzieren. „Aber es ist wie bei einem Cyberangriff: Wer genügend Zeit und Kreativität hat, kann das System überlisten.“
Dies alarmiert Politikwissenschafterinnen wie Maria Pawelec. Sie forscht an der Universität Tübingen nach Deepfakes und Desinformation und befürchtet, dass es mithilfe von KI noch einfacher wird, demokratische Wahlen zu beeinflussen. «Viele Leute wissen mittlerweile, dass sie nicht jedem Bild im Netz glauben können. Aber wir sind auf gefälschte Videos und Audios noch nicht gleichermassen vorbereitet.»
Chat-GPT erstellt selbst nur Text und Bilder, empfiehlt aber Plattformen, die Audio- und Videodateien herstellen können, samt Bedienungsanleitung. Weiter kann Chat-GPT Texte schreiben, die von einer beliebigen Person in einem gefälschten Audio gesprochen werden sollen. So helfen KI-Tools bei politischen Kampagnen – auch Leuten, die dabei unlautere Methoden anwenden.
Gefälschte Audiodateien mischen Wahlkampf auf
Wozu das führen könnte, zeigen zwei Beispiele aus vergangenen Wahlen: die Robo-Calls von Joe Biden in New Hampshire und eine gefälschte Audiodatei in den Nationalratswahlen in der Slowakei.
In der Slowakei wurde zwei Tage vor der Wahl im September 2023 in den sozialen Netzwerken eine Audioaufnahme veröffentlicht, angeblich ein Mitschnitt eines Telefongesprächs. Darin hört man die Stimme von Michal Simecka, einem aufstrebenden liberalen Politiker, und jenem einer Journalistin.
Simecka sagt Unerhörtes: Er habe sich Zustimmung aus den Roma-Siedlungen gekauft und vier Wahllokale «gesichert», kurz: die Wahlen zu seinen Gunsten manipuliert. Die Audiodatei zirkulierte auf Facebook, Telegram und Tiktok, erhielt Tausende Shares und Hunderte Kommentare. Sie war gefälscht.
Noch raffinierter war der Manipulationsversuch im amerikanischen Gliedstaat New Hampshire: Dort lancierten Unbekannte, die Joe Biden schwächen wollten, eine Telefonkampagne. Demokratisch gesinnte Stimmbürger bekamen Anrufe, angeblich von Joe Biden persönlich, in denen der Präsident sagte, die Stimmenden sollten sich nicht an den Vorwahlen vom 23. Januar beteiligen.
Bis heute ist unbekannt, wie viele Menschen den gefälschten Anruf erhalten hatten – und dahintersteckt waren.
„Neue Formen der Deepfakes, die auf KI-generierenden Tools basieren, untergraben das Vertrauen in Videos und Audiodateien weiter“, sagt die Deepfake-Expertin Pawelec. Das sei ein Problem, weil es damit noch schwierig wird, zu wissen, was wahr sei und was falsch.
Nicht nur Chat-GPT, sondern auch andere KI-Tools haben Richtlinien, die verbieten, Fake-Aufnahmen von Kandidaten herzustellen. Lassen Sie sich ihre Richtlinien so einfach umgehen wie jene von Chat-GPT, könnten die kommenden Wahlen von Falschinformationen in noch nie gesehenem Ausmass überflutet werden.