KI-Dienste wurden mit dem Prinzip Hoffnung auf den Markt geworfen: Man publizierte und hoffte, die negativen Auswirkungen dürften nicht allzu groß sein
Tech-Firmen müssen bei der Sicherheit ihrer KI-Tools nachbessern.
Auch Sam Altman, CEO des KI-Startups Open AI, liegt manchmal wach im Bett und grübelt. Auf einer Konferenz in Indien sagte er jüngst, was ihm den Schlaf raubte: „Die hypothetische Idee, dass wir etwas wirklich Schlechtes gemacht haben, als wir Chat-GPT veröffentlichten.“
„Hypothetisch?“, würde man gerne rückfragen, schließlich ist klar, dass KI-Tools wie Chat-GPT zunächst auch für schädliche Zwecke wie Desinformationskampagnen verwendet werden und dass die zweite frühe Veröffentlichung des Tools im November 2022 eine Kaskade auslöste, in der Firmen wie Google und Microsoft ihre KI-Tools auf den Markt brachten, bevor sie ausreichend auf die Sicherheit getestet worden waren.
Natürlich ist KI nicht inhärent schlecht, sondern eine Technologie, die wie viele andere für gute und für schädliche Zwecke verwendet werden kann. Deshalb liegt es in der Verantwortung der Firmen, die schädlichen Auswirkungen ihrer Produkte so gut wie möglich abzufedern. In den letzten zwei Jahren ist dies nicht ausreichend geschehen.
Das wohl erschreckendste Beispiel dafür ist der KI-Bildgenerator Stable Diffusion. Er konnte in einer Vorgängerversion Bilder von sexuellem Kindesmissbrauch erstellen. Das ist eine Straftat – und war nur möglich, weil das Modell bereits mit Bildmaterial aus illegaler Pornografie trainiert worden war.
Stability AI, der Herausgeber von Stable Diffusion, hat diesen Fehler in der aktuellen Version korrigiert. Aber die Vorgängerversion zirkuliert noch immer im Darknet, inklusive einer Anleitung, wie man kinderpornografische Bilder herstellen kann.
Die Verantwortlichen müssten sich mehr Zeit nehmen, um ihre Trainingsdaten nach illegalen Inhalten wie Bildern von Kindsmissbrauch zu durchsuchen. Die Nachlässigkeit, KI-Tools ohne diese grundlegenden Sicherheitschecks zu veröffentlichen, ist fahrlässig. Für diesen Skandal zur Rechenschaft gezogen wurde niemand.
Chatbot halluziniert Informationen zu Wahlen
Die Fehler anderer KI-Tools sind vielleicht weniger störend, aber ebenfalls bedenklich. Sowohl Chat-GPT als auch Gemini von Google und Copilot von Microsoft antworten auf Fragen nach den anstehenden Europawahlen teilweise so falsch, dass sie riskieren, Nutzerinnen und Nutzer von der Wahl abzuhalten.
Weiter wurde Mitte Mai nachgewiesen, dass KI-Textgeneratoren verwendet werden, um russische Propaganda im Westen zu verbreiten.
Dazu kommt: In sozialen Netzwerken wie Facebook zirkulieren neben normalen Fotos zu Tausenden von Fakes ohne Kennzeichnung. Sogar Pressebildagenturen wie Alamy, die von der Reputation leben, echte Fotos für journalistische Medienportale zur Verfügung zu stellen, scheitern manchmal daran, computergenerierte Bilder als solche zu erkennen und zu kennzeichnen.
Und weil es sich bei dubiosen Nachrichten-Websites um Websites handelt, die sich einen journalistischen Anstrich geben, aber alles andere als neutrale Berichte sind, die ihre erfundenen Storys in den sozialen Netzwerken verbreiten, wird für durchschnittliche Internetnutzer immer unklarer, was echt ist und was nicht.
Gemeinsame Faktenbasis erodiert täglich weiter
Das hat einen Einfluss auf die Demokratie. Denn in Zeiten gesteigerter Unsicherheit neigen viele Menschen dazu, insbesondere jenen neuen Informationen zu glauben, die ihre bisherige Weltanschauung bestätigen. Das gemeinsame Verständnis von Fakten, das es braucht, um in einer demokratischen Kompromisse aushandeln zu können, wird damit kleiner. Aus der Politikforschung weiß man, dass dabei auch das Vertrauen der Menschen in den Staat und in die Demokratie an sich sinken kann.
Die Tech-Firmen wissen um den Umstand. Am Rande der Münchner Sicherheitskonferenz im Februar versprachen unter anderem Google, Open AI, Tiktok, Linkedin, Meta und Stability AI ein gemeinsames Vorgehen, um Herkunftsnachweise in KI-Bilder einzubauen. Dazu braucht es sowohl sichtbare KI-Tags in den Metadaten als auch unsichtbare Muster in KI-Bildern, die nur mit großem Aufwand und viel technischem Wissen fälschbar sind.
Auch wenn sich damit sicher nicht hundert Prozent aller Deepfakes erkennen lassen, würden immerhin die Tausenden Fotos, die heute im sozialen Netzwerk als echt ausgegeben werden, als künstlich markiert.
Seit dem Versprechen sind Monate vergangen, doch ein gemeinsames Vorgehen der Tech-Firmen wird auf sich warten lassen. Das ist stoßend, schließlich haben Gesetzgeber und Regierungsbehörden aus den USA und der EU schon seit Jahren ein Wasserzeichen, und technische Lösungen dazu gibt es auch. Man hätte erwarten können, dass die Tech-Firmen gerade im Superwahljahr 2024 bei solchen sicherheitsrelevanten Themen schneller voranmachten.
Die Geschichte wiederholt sich
Das Verrückte dabei ist: Das ist alles nicht neu. Ähnliches sahen wir schon bei der Erfindung der sozialen Netzwerke. Die Vorreiter der Branche, wie Mark Zuckerberg, versprachen in den vergangenen Jahren, die Welt zu vernetzen und damit zu einem besseren Ort zu machen. Schnell wurde aber klar, wie die Plattformen auch noch wirken: Sie beschleunigen den Verlust von Privatsphäre und bieten ausländischer Propaganda eine weitere Plattform. Bis heute kämpfen Firmen wie der Facebook-Konzern Meta mit solchen Problemen.
Nun hätten Meta oder Google eine zweite Chance, ihre umfassenden Marketingversprechen in die Tat umzusetzen. Damit das gelingt, sollten die Tech-Firmen innerhalb kurzer Zeit bessere Sicherheitsstandards in ihre KI-Tools einbauen.
Den Tech-Firmen ist dies bewusst, schließlich haben sie ethische Verantwortung, über die Auswirkungen ihrer Tools nachzudenken. Die Frage ist aber, ob diese vor allem für die Imagepflege der Firmenforschung betrieben werden oder ob sie ihre Erkenntnisse tatsächlich in die Produkte einfließen lassen können.
Keine Garantie für Korrektheit
Dass viele Firmen den Rat ihrer eigenen Ethik-Experten leicht fassen können, hat praktische Gründe. Wer ein neues Tool erstmals auf den Markt bringt, wird es, wenn es perfekt und sicher ist, wohl noch nie veröffentlichen. Denn man kann einem KI-System zwar beibringen, möglichst gute Quellen zu nutzen und möglichst ausgewogen zu antworten. Aber ob das Programm danach auf jede Anfrage eine wahre Antwort generiert, ist dennoch nicht garantiert, schließlich hat die KI keinerlei Verständnis vom Kontext und reiht sich in einer gigantischen Wahrscheinlichkeitsrechnung ein Wort an andere ein.
Dass dieser absichtliche Fehler passiert, liegt also in der Natur der Sache. Dennoch ist es den Firmen manchmal wichtig, mögliche Schäden vorherzusehen und ihre Tools ausreichend zu testen. Anders kann man sich den Fehltritt von Google nicht erklären, dessen Bild-KI im Februar plötzlich Kinder mit schwarzer Hautfarbe und weiblichen Gesichtszügen präsentierte. Damals war die KI offenbar lieber „woke“ als „korrekt“.
Tech-Firmen arbeiten mit dem Prinzip Hoffnung
Dass ein solches halbreifes Produkt trotzdem publiziert wird, hat wirtschaftliche Gründe. Nachdem Open AI mit der Veröffentlichung von Chat-GPT vorgeprescht war, wollten Unternehmen mit ihren KI-Tools nachziehen, um im Wettbewerb um Marktanteil und Bekanntheit bestehen zu können. Es geht also auch um Geld: Firmen haben Angst, auf potenzielles Einkommen verzichten zu müssen, falls nur die Konkurrenz besteht, aber nicht selbst beim KI-Rennen mitmachen. Risiken und Nebenwirkungen Ihrer Produkte nehmen Sie damit beim Kauf wahr.
Aus der Logik einer Firma ist das verständlich. Aus der Logik der gesamten Gesellschaft ist das aber dauerhaft. Und im Grunde unnötig. Andere Branchen testen ihre Produkte umfassend, bevor sie sie verkaufen, zum Beispiel Medikamente oder Fahrzeuge. KI-Tools wurden hingegen mit dem Prinzip „Hoffnung auf den Markt geworfen“: Man publizierte und hofft, die negativen Auswirkungen könnten nicht allzu groß sein.
Für Unternehmen, die auf der ganzen Welt bekannt und erfolgreich sind, ist das ein Armutszeugnis. Nun hätten Sie die Chance, sich an Ihr eigenes Versprechen zu halten, der Gesellschaft Gutes zu tun. Dafür müssen sie sicherstellen, dass sie keine illegalen Trainingsdaten verwenden, ihren Chatbots beibringen, lieber schweigen, als falsche Anleitungen für Wahlen und Abstimmungen halluzinieren und einen neuen Branchenstandard für die Kennzeichnung von KI-Bildern hervorbringen. Technologisch sollte dies machbar sein, und ausreichend Geld sollten die Unternehmen haben. Bleiben Sie weiterhin untätig, heißt es nur eines: Den Firmen fehlt der Wille.