KI kann auch Bilder von sexuellem Kindsmissbrauch generieren. Ein Albtraum für den Kinderschutz – und die Polizei
Computergenerierte Bilder von illegaler Pornografie können heute nicht mehr von echten Fotos ersetzt werden. Wie soll die Polizei nach Opfern suchen, wenn sie nicht mehr weiß, hinter welchen Bildern echte Kinder stecken?
Bilder von Kindern produzieren, die sexuell missbraucht werden – auch das kann künstliche Intelligenz inzwischen. Und zwar so gut, dass man die KI-Bilder nicht mehr von echten Fotos unterscheiden kann. „Glückwunsch zum Fotorealismus“, schrieb ein Täter im September in einem Darknet-Forum für KI-Bilder von Kindsmissbrauch, „das ist der Wahnsinn.“
Im Darknet zirkulieren heute Tausende KI-generierte Bilder von Kindsmissbrauch, etwas, das man früher – beschönigend – Kinderpornografie nannte. Für den Kinderschutz ist das eine Katastrophe. Zum einen, weil auch hinter KI-Bildern echte Opfer stecken, zum anderen, weil die Polizei dann nicht mehr weiß, welchen Fährten sie nachgehen soll. Dass es plötzlich so viele Missbrauchsbilder online gibt, ist massgeblich auf den KI-Bildgenerator Stable Diffusion zurückzuführen, doch dazu später mehr.
Missbrauchsbilder sind zur Dienstleistung geworden
Um das Phänomen besser zu verstehen, hat die Internet Watch Foundation (IWF) eine Untersuchung in einem Darknet-Forum durchgeführt. Innerhalb eines einzigen Monats wurden dort über 20 000 künstlich generierte Bilder geteilt. Etwas mehr als die Hälfte davon zeigt Kinder in potenziell sexuellen Szenen, etwa 3000 Bilder klassifizierten die IWF als strafbare Inhalte. So schrieb es die Organisation in einem Bericht, aus dem auch das Zitat am Anfang dieses Textes stammt.
Die Untersuchung zeigt auch: Das Feld hat sich professionalisiert. Gewisse Nutzer bieten im Darknet an, ein beliebiges Kind in einer beliebigen Pose abzubilden, und lassen sich für die Herstellung dieser Bilder bezahlen. Andere teilen ihre KI-Modelle in Foren, schreiben Anleitungen dazu, wie man die Sperre für Kindsmissbrauch aushebelt, und beraten sich gegenseitig, wie sie bessere Ergebnisse erhalten.
„Es ist erschreckend, wie schnell sich das Feld weiterentwickelt hat“, sagt Dan Sexton, Technologiechef der Internet Watch Foundation, einer von nur drei privaten Organisationen weltweit, die Bilder von Kindsmissbrauch im Netz aktiv aufspüren. «Vor einem Jahr fanden wir noch keine KI-Missbrauchsbilder. Jetzt sind es Tausende.»
Hinter KI-Bildern stecken echte Kinder
Hinter jedem dieser KI-Bilder stecken unzählige Fotografien von echten Missbräuchen. „Entweder sind die Fotos in das Training des Algorithmus eingeflossen, oder sie werden für das Finetuning von einem bestehenden KI-Modell verwendet“, erklärt Sexton. „Damit werden bereits missbrauchte Kinder erneut zum Opfer.“
Weiter erschweren die computergenerierten Bilder die Arbeit der Ermittlungsbehörden. „Vermutlich werden Ermittler künftig nach Opfern suchen, die gar nicht existieren“, befürchtet Sexton. „Oder – im Umkehrschluss – die Polizei wird nicht aktiv, weil sie glaubte, ein Bild sei von einer KI produziert, dabei steckt ein echtes Kind dahinter.“ Tatsächlich bestätigen mehrere Schweizer Kantonspolizeien auf Anfrage, dass KI die «Identifikation von möglichen Opfern zusätzlich erschwert».
Ausserdem befürchtet Sexton, dass die Masse an neuen KI-Missbrauchsbildern Fachstellen überfordert. Tatsächlich können Kriminelle nun in kürzester Zeit Hunderte neue Missbrauchsbilder herstellen, während die Fachstellen noch weitgehend manuell arbeiten: Bei ihnen müssen Menschen entscheiden, ob es sich um ein illegales Bild handelt, und dann die Website-Betreiber darum gebeten, das Material zu löschen. Das dauerte viel Zeit. Die KI verschiebt auch das Verhältnis zwischen Tätern und Fahndern zugunsten der Täter.
Lieber KI-Bild als echtes Opfer?
Nun zitierte der IWF-Bericht aber auch Täter, die suggerieren, KI-generierte Missbrauchsbilder würden dem Kinderschutz helfen. „Wer bisher sagte, dass er Missbrauchsbilder braucht, um einem unwiderstehbaren Verlangen zu folgen, wird keine Entschuldigung mehr haben“, schrieb ein Nutzer im Darknet-Forum. Die Logik hinter dem Argument: Lieber zu computergenerierten Kinderbildern masturbieren, als Bilder mit echten Opfern anzuschauen.
Diese Argumentation möge im Einzelfall zwar richtig sein, sagt Fanny de Tribolet, die Leiterin der Präventionsstelle Pädosexualität der Psychiatrischen Universitätsklinik Zürich, aber Bilder von Kindsmissbrauch seien in jedem Fall illegal, egal ob sie echte Opfer zeigen oder mit einem Computer generiert wurden. «Und das mit gutem Grund: Wir wollen nicht, dass sich der Kindsmissbrauch normalisiert.»
„Werde es normal, KI-Missbrauchsbilder zu sehen, änderte auch unseren Blick auf Kinder“, sagt de Tribolet. Denn bisher wurden viele Missbrauchsbilder in schlechter Qualität aufgenommen, zum Beispiel Videos, die mit kleinen Kameras verdeckt gefilmt wurden. KI-Bilder können nun eine Qualität bieten, die davor selten erhältlich war. Weiter können Bildgeneratoren neue Formen von extremem Missbrauch darstellen, beispielsweise eine Penetration von sehr kleinen Kindern.
Ob solche Bilder bei den Konsumenten die Lust anheizen würden, im echten Leben ein Kind zu missbrauchen, sei nicht erforscht, sagt de Tribolet. Allerdings stelle sie im Therapiealltag immer wieder fest, dass es ein gröberer Schritt sei vom Konsum illegaler Pornografie zum sexuellen Missbrauch von Kindern im echten Leben. «Für eine Hands-on-Tat braucht es eine gewisse Empathielosigkeit: Der Täter muss sich wissentlich über die Grenzen des Kindes hinwegsetzen. Das macht bei weitem nicht jeder, der zu Missbrauchsbildern masturbiert.»
Bildgeneratoren schaffen eine neue Realität im Kindsschutz: Jedes beliebige Kind kann in jeder beliebigen Pose abgebildet werden. „Für Betroffene ist das schrecklich“, sagt de Tribolet.
Ein KI-Bildgenerator wurde mit Missbrauchsbildern trainiert
Dass die Herstellung von Missbrauchsbildern so einfach geworden ist, liegt insbesondere an einem Programm: Stable Diffusion. Der Programmcode hinter der Bild-KI ist Open Source, wurde ebenfalls zur freien Verwendung veröffentlicht. Das bietet zwar unzählige Chancen für Innovationen, aber auch das Risiko, dass Kriminelle das Tool missbrauchen.
Nun hat es Stable Diffusion den Kriminellen aber besonders leicht gemacht, denn das Modell wurde gar mit Bildern von Kindsmissbrauch trainiert. Dies konnte das Stanford Internet Observatory in einer Mitte Dezember veröffentlichten Studie nachweisen.
Hintergrund ist ein riesiger Bilddatensatz mit dem Namen Laion-5B. Er umfasst über 5,8 Milliarden Bilder von allen möglichen Objekten, Tieren und Personen. KI-Modelle müssen anhand von vielen Beispielen lernen, wie ein Mädchen aussieht und wie eine Hand. Nur so können sie später ein korrektes Bild einer Mädchenhand generieren. Welche Bilder in der Trainingsphase in ein KI-Modell einfliessen, wird auch weitgehend bestimmt, was der Bildgenerator später herstellen kann.
Nun enthielt der Datensatz Laion-5B mindestens 2200 Bilder von Kindsmissbrauch. Zwar filtert Laion, die Herausgeberin des Datensatzes, das Material vor der Publikation auf illegale Inhalte. Doch offenbar sind in diesem Prozess Tausende Missbrauchsbilder unentdeckt geblieben. Als dies am 19. Dezember bekannt wurde, nahm Laion den Datensatz vorübergehend offline, in einem „Übermaß an Vorsicht“, wie die Organisation in einer Mitteilung schrieb, und stellte die Löschung der illegalen Bilder in Aussicht.
Stable Diffusion, die Bild-KI, die mit Laion-5B trainiert worden war, weiß nun aber bereits, wie Missbrauchsbilder aussehen. In seiner heutigen Version hat der Bildgenerator zwar Hürden eingebaut, damit Missbrauchsmaterial jedenfalls nicht einfach zu generieren ist. Doch im Darknet wird eine alte Version des Modells herumgeboten, mit der dies noch einfacher geht.
Die NZZ hatte von Stability AI, der Firma hinter Stable Diffusion, gerne erfahren, warum sie das KI-Modell vor der Publikation nicht ausreichend auf Missbrauchsbilder getestet hatte. Eine entsprechende Anfrage blieb bis zum Redaktionsschluss unbeantwortet.