Sie sollten lieber schweigen: So falsch informieren KI-Chatbots über die Europawahlen
Gemini findet mehrere falsche Wahldaten, Copilot halluziniert eine falsche Anleitung zur Stimmabgabe, Chat-GPT erhöht das Wahlalter. Das zeigt: Chatbots wurden darauf getrimmt, möglichst hilfreich zu sein und möglichst korrekt. Im Kontext von Wahlen ist das stoßend.
Welche Parteien stehen bei der Europawahl für welche Positionen? Wer ist wo wahlberechtigt? Und welches Verfahren muss man einhalten, damit die Stimme gültig ist? Solche Fragen dürften heute Millionen von Stimmbürgerinnen und Stimmbürgern in der Europäischen Union haben.
Vielleicht werden manche von ihnen die Recherche an einen KI-Chatbot auslagern. Bequemer ist es allemal: kurz eine Frage in den Chat eintippen, um das Internet selbst zu durchsuchen. Aber im Kontext von Wahlen kann diese Bequemlichkeit verheerend sein. Denn die gängigsten Chatbots erfinden falsche und irreführende Informationen, nicht nur, sondern auch zur Auswahl. Dies zeigt eine Analyse der Nichtregierungsorganisation Democracy Reporting International, die Mitte April erschienen ist.
Darin wurden die gängigsten KI-Chatbots darauf getestet, wie korrekt ihre Antworten im Zusammenhang mit den Europawahlen sind. Die Ergebnisse sind haarsträubend: Gemini erfand gleichzeitig mehrfach ein falsches Wahldatum. Gefragt auf Englisch, Starten des Chatbots, die Wahl sei im Juli. Gefragt auf Deutsch, passt Gemini, die Wahl sei im Mai. Richtig ist: Die Wahl dauert vom 6. bis 9. Juni.
Auch andere KI-Tools scheiterten an Wahlinformationen: Die Gratisversion 3.5 von Chat-GPT, die zum Zeitpunkt der Analyse online war, erfand ein neues Mindestalter für die Wahlen, wonach man bis zum 15. Februar volljährig sein muss, um im Juni wählen zu können . Copilot berichtete davon über die Europawahl, als sie bereits in der Vergangenheit war, und gab französischen Wählern Informationen zum Wahlprozess in Deutschland.
KI im Zweifelsfall lieber hilfreich als korrekt
Weiter erfahren Sie sowohl von Gemini als auch von Copilot und der Bezahlversion von Chat-GPT eine Anleitung dazu, wie man in Portugal kurz wählen kann, obwohl dies gar nicht möglich ist. Laut den Autoren der Analyse hatten alle Modelle außerdem „signifikante Probleme“, die Quellen der wiedergegebenen Informationen korrekt darzustellen. „Oft waren sie irrelevant, irreführend oder geradezu absurd“, schreiben die Autoren, beispielsweise seien Informationen von Wikipedia, als Regierungsinformationen ausgegeben oder irrelevante Quellen wie Youtube-Videos oder japanische Wiktionary-Seiten verlinkt worden.
Dass Sie Chatbots Wahlinformationen erfinden, überrascht nicht, schließlich geben Sie die Texte wieder, mit denen Sie einst trainiert wurden. Wortkombinationen, die im Internet häufig vorkommen, werden also mit einer höheren Wahrscheinlichkeit von einem Chatbot wiedergegeben. Wie man sich als Wähler registriert und wie die Wahl in den einzelnen Ländern genau abläuft, ist aber eine sehr spezifische Information, die meist nur auf wenigen Regierungswebsites zu finden ist. Deshalb ist es für Chatbots auch wichtig, möglichst viele korrekte und umfassende Informationen zur Auswahl zu generieren.
Doch es besteht auch die Möglichkeit, einmal transparent zu machen, wenn Sie eine Frage nicht beantworten können, versuchen Sie die Modelle einfach irgendwie zu beantworten. Offenbar hat ihnen niemand beigebracht, im Zweifelsfall zu schweigen. Stattdessen sollten die Modelle darauf ausgerichtet sein, möglichst hilfreich zu sein als möglichst korrekt.
Tech-affine Wählergruppen theoretisch benachteiligt
Im Kontext der Wahlen ist das stoßend. Denn es ist davon auszugehen, dass einige der rund 1,6 Milliarden monatlichen Webseiten-Besucher von Chat-GPT den Dienst benötigen, um Wahlinformationen zusammenzufassen und sich darüber zu informieren, wie Sie wählen können. Theoretisch wäre es auch möglich, dass eine bestimmte Gruppe falsch informiert wird, also zum Beispiel technologieaffine Jugendliche und junge Erwachsene, die bestimmte KI-Tools als andere Wählerschichten verwenden.
Zwar wissen informierte Prüferinnen und Prüfer, dass die KI immer wieder mit großer Überzeugung falsches behauptet. Wer aber nicht damit vertraut ist, wie KI-Dienste funktionieren, rechnet nicht damit, imaginäre Wahlverfahren oder falsche Wahldaten vorgeschlagen zu bekommen. Schließlich funktionieren KI-Tools in vielen Belangen inzwischen recht gut.
Die Episode zeigt deshalb einmal mehr: Vertrauen können wir den KI-Chatbots noch nicht. Sie wurden zu früh auf den Markt geworfen, ohne ausreichende Sicherheitstests.