Kindesmissbrauch, Deepfakes, Falschinformationen zu Wahlen: Tech-Firmen müssen bei der Sicherheit ihrer KI-Tools nachbessern
KI-Dienste wurden mit dem Prinzip Hoffnung auf den Markt geworfen: Man publiziert und hofft, die negativen Auswirkungen mögen nicht allzu groß sein. Dabei rühmen sich die Herausgeber bei jeder Gelegenheit für ihre angeblich hohen ethischen Standards.
Hat mit Chat-GPT ein Tool veröffentlicht, das Falschinformationen zu Wahlen erfindet: Sam Altman vor einem Ausschuss des amerikanischen Senats im Mai 2023.
Sieg McNamee/Getty
Auch Sam Altman, CEO des KI-Startups Open AI, liegt manchmal wach im Bett und grübelt. Auf einer Konferenz in Indien sagte er jüngst, was ihm den Schlaf raubte: «die hypothetische Idee, dass wir etwas wirklich Schlechtes gemacht haben, als wir Chat-GPT veröffentlichten».
«Hypothetisch?», würde man gerne zurückfragen, schließlich ist klar, dass KI-Tools wie Chat-GPT erstens auch für schädliche Zwecke wie Desinformationskampagnen verwendet werden und zweitens die frühe Veröffentlichung des Tools im November 2022 eine Kaskade auslöste, in denen Firmen wie Google und Microsoft ihre KI-Tools auf den Markt gebracht, bevor sie ausreichend auf die Sicherheit getestet wurden.
Natürlich ist KI nicht inhärent schlecht, sondern eine Technologie, die wie viele andere für gute und für schädliche Zwecke verwendet werden kann. Deshalb liegt es in der Verantwortung der Firmen, die schädlichen Auswirkungen ihrer Produkte so gut wie möglich abzufedern. In den letzten zwei Jahren ist dies nicht ausreichend geschehen.
Das wohl erschreckendste Beispiel dafür ist der KI-Bildgenerator Stable Diffusion. Er konnte in einer Vorgängerversion Bilder von sexuellem Kindesmissbrauch erstellen. Das ist eine Straftat – und war nur möglich, weil das Modell bereits mit Bildmaterial aus illegaler Pornografie trainiert worden war.
Stability AI, die Herausgeberin von Stable Diffusion, hat diesen Fehler in der aktuellen Version korrigiert. Aber die Vorgängerversion zirkuliert noch immer im Darknet, inklusive einer Bedienungsanleitung, wie man kinderpornografische Bilder herstellen kann.
Die Verantwortlichen müssten sich mehr Zeit nehmen, um ihre Trainingsdaten nach illegalen Inhalten wie Bildern von Kindsmissbrauch zu durchsuchen. Die Nachlässigkeit, KI-Tools ohne diese grundlegenden Sicherheitschecks zu veröffentlichen, ist fahrlässig. Für diesen Skandal zur Rechenschaft gezogen wurde niemand.
Chatbot halluziniert Informationen zu Wahlen
Die Fehler anderer KI-Tools sind vielleicht weniger störend, aber ebenfalls bedenklich. Sowohl Chat-GPT als auch Gemini von Google und Copilot von Microsoft antworten auf Fragen nach den anstehenden Europawahlen teilweise so falsch, dass sie riskieren, Nutzerinnen und Nutzer von der Wahl abzuhalten.
Weiter wurde Mitte Mai nachgewiesen, dass KI-Textgeneratoren verwendet werden, um russische Propaganda im Westen zu verbreiten.
Dazu kommt: In sozialen Netzwerken wie Facebook zirkulieren Fakes zu Tausenden ohne Kennzeichnung, neben normalen Fotos. Sogar Pressebildagenturen wie Alamy, die von der Reputation leben, echte Fotos für journalistische Medienportale zur Verfügung zu stellen, scheitern manchmal daran, computergenerierte Bilder als solche zu erkennen und zu kennzeichnen.
Und weil dubiose Nachrichten-Websites, die sich einen journalistischen Anstrich geben, aber alles andere als neutral berichten, ihre erfundenen Storys in den sozialen Netzwerken verbreiten, wird für durchschnittliche Internetnutzer immer unklarer, was echt ist und was nicht.
Gemeinsame Faktenbasis erodiert täglich weiter
Das hat einen Einfluss auf die Demokratie. Denn in Zeiten erhöhter Unsicherheit tendieren viele Menschen dazu, insbesondere jenen neuen Informationen zu glauben, die ihre bisherige Weltanschauung bestätigen. Das gemeinsame Verständnis von Fakten, das es braucht, um in einer Demokratie Kompromisse aushandeln zu können, wird damit kleiner. Aus der Politikforschung weiß man, dass dabei auch das Vertrauen der Menschen in den Staat und in die Demokratie an sich sinken kann.
Die Tech-Firmen wissen um den Umstand. Am Rande der Münchner Sicherheitskonferenz im Februar versprachen unter anderem Google, Open AI, Tiktok, Linkedin, Meta und Stability AI ein gemeinsames Vorgehen, um Herkunftsnachweise in KI-Bilder einzubauen. Dazu braucht es sowohl sichtbare KI-Tags in den Metadaten als auch unsichtbare Muster in KI-Bildern, die nur mit großem Aufwand und viel technischem Wissen fälschbar sind.
Auch wenn sich damit sicher nicht hundert Prozent aller Deepfakes erkennen lassen, würden immerhin die Tausenden Fotos, die heute im sozialen Netzwerk als echt ausgegeben werden, als künstlich markiert.
Seit dem Versprechen sind Monate vergangen, doch ein gemeinsames Vorgehen der Tech-Firmen lässt auf sich warten. Das ist stossend, schliesslich weibeln Gesetzgeber und Regierungsstellen aus den USA und der EU schon seit Jahren für Wasserzeichen, und technische Lösungen dazu gibt es auch. Man hätte erwarten können, dass die Tech-Firmen gerade im Superwahljahr 2024 bei solchen sicherheitsrelevanten Themen schneller vorwärtsmachten.
Die Geschichte wiederholt sich
Das Verrückte dabei ist: Das ist alles nicht neu. Wir sahen Ähnliches schon bei der Erfindung der sozialen Netzwerke. Die Vorreiter der Branche, wie Mark Zuckerberg, versprachen in den null Jahren, die Welt zu vernetzen und damit zu einem besseren Ort zu machen. Schnell wurde aber klar, wie die Plattformen auch noch wirken: Sie beschleunigen den Verlust der Privatsphäre und bieten ausländischer Propaganda eine weitere Plattform. Bis heute kämpfen Firmen wie der Facebook-Konzern Meta mit solchen Problemen.
Nun hätten Meta oder Google eine zweite Chance, ihre umfassenden Marketingversprechen in die Tat umzusetzen. Damit das gelingt, sollten die Tech-Firmen innerhalb kurzer Zeit bessere Sicherheitsstandards in ihre KI-Tools einbauen.
Den Tech-Firmen ist dies bewusst, schließlich haben sie ethische Verantwortung, über die Auswirkungen ihrer Tools nachzudenken. Die Frage ist aber, ob diese vor allem für die Imagepflege der Firmenforschung betrieben werden oder ob sie ihre Erkenntnisse tatsächlich in die Produkte einfließen lassen können.
Keine Garantie für Korrektheit
Dass viele Firmen den Rat ihrer eigenen Ethik-Experten leicht fassen können, hat praktische Gründe. Wer ein neues Tool erstmals auf den Markt bringt, wird es, wenn es perfekt und sicher ist, wohl noch nie veröffentlichen. Denn man kann einem KI-System zwar beibringen, möglichst gute Quellen zu nutzen und möglichst ausgewogen zu antworten. Aber ob das Programm danach auf jede Anfrage eine wahre Antwort generiert, ist dennoch nicht garantiert, schließlich hat die KI keinerlei Verständnis vom Kontext und reiht sich in einer gigantischen Wahrscheinlichkeitsrechnung ein Wort an andere ein.
Dass da wesentliche Fehler passieren, liegt auch in der Natur der Sache. Manchmal verpassen es die Firmen, mögliche Schäden vorauszusehen und ihre Tools dennoch ausreichend zu testen. Anders kann man sich den Fehltritt von Google nicht erklären, dessen Bild-KI im Februar plötzlich Päpste mit schwarzer Hautfarbe und weiblichen Gesichtszügen darstellte. Damals war die KI offenbar lieber möglichst «woke» als möglichst korrekt.
Tech-Firmen arbeiten mit dem Prinzip Hoffnung
Dass ein solches halbreifes Produkt trotzdem publiziert wird, hat wirtschaftliche Gründe. Nachdem Open AI mit der Veröffentlichung von Chat-GPT vorgeprescht war, wollten Unternehmen mit ihren KI-Tools nachziehen, um im Wettbewerb um Marktanteil und Bekanntheit bestehen zu können. Es geht also auch um Geld: Firmen haben Angst, auf potenzielles Einkommen verzichten zu müssen, falls nur die Konkurrenz besteht, aber nicht selbst beim KI-Rennen mitmachen. Risiken und Nebenwirkungen Ihrer Produkte nehmen Sie damit beim Kauf wahr.
Aus der Logik einer Firma ist das verständlich. Aus der Logik der gesamten Gesellschaft ist das aber dauerhaft. Und im Grunde unnötig. Andere Branchen testen ihre Produkte umfassend, bevor sie sie verkaufen, zum Beispiel Medikamente oder Fahrzeuge. KI-Tools wurden hingegen mit dem Prinzip „Hoffnung auf den Markt geworfen“: Man publizierte und hofft, die negativen Auswirkungen könnten nicht allzu groß sein.
Für Firmen, die auf der ganzen Welt bekannt und erfolgreich sind, ist das ein Armutszeugnis. Nun hätten sie die Chance, sich an ihr eigenes Versprechen zu übermitteln, der Gesellschaft Gutes zu tun. Dafür müssen sie sicherstellen, dass sie keine illegalen Trainingsdaten verwenden, ihre Chatbots beibringen, lieber zu schweigen, als falsche Anleitungen für Wahlen und Abstimmungen zu halluzinieren, und einen Branchenstandard für die Kennzeichnung von neuen KI-Bildern hervorbringen. Technologisch sollte dies machbar sein, und ausreichend Geld haben die Firmen. Bleibt sie weiterhin untätig, heisst das nur eines: Den Firmen fehlt der Wille.