Künstliche Intelligenz macht das Erstellen von Nacktbildern kinderleicht. Die Opfer sind häufig minderjährig – die Täter ebenso
Laut der europäischen Polizeibehörde werden immer mehr pornografische Bilder und Videos von Kindern und Jugendlichen im Internet verbreitet. Häufig kommt dabei KI zum Einsatz. Für Ermittler ist das ein Problem.
Immer mehr missbräuchliche Bilder von Kindern im Netz wurden mithilfe von künstlicher Intelligenz erstellt oder verändert.
Basak Gurbuz Derma / Getty
In einer spanischen Kleinstadt zirkulieren Nacktbilder junger Mädchen in den sozialen Netzwerken und auf Whatsapp. Die Mädchen sind entsetzt und verängstigt. Denn sie haben keine Nacktbilder von sich verschickt, die zirkulierenden Bilder wurden mithilfe von KI generiert. Die Täter: Mitschüler, zwischen 13 und 15 Jahren alt.
Der Fall aus dem September 2023 illustriert zwei Trends, die die europäische Polizeibehörde Europol in ihrem neuesten Bericht zur Cyberkriminalität hervorhebt. Mehr und mehr Minderjährige werden über das Internet zu Opfern von sexualisiertem Missbrauch oder Erpressung. Zugleich werden mehr und mehr Minderjährige zu Tätern bei solchen Verbrechen.
Künstliche Intelligenz Verbrechen erleichtert
Beides hat mit KI zu tun. Denn diese macht es kinderleicht, pornografisches Material zu erzeugen. Die Produktion von Material, das einen sexuellen Missbrauch von Kindern darstelle, sei breit zugänglich und erfordere kein hohes Niveau bei den technischen Kenntnissen, schreibt Europol dazu in seinem neuesten Bericht. Die Zahl und auch das Spektrum möglicher Täter sei somit gewachsen.
Bei dem Missbrauchsmaterial kann es sich um echte Fotos handeln, die mithilfe von KI verändert wurden, wie es bei den Mädchen in Spanien der Fall war. Mit einer App hatten die Mitschüler aus harmlosen Profilbildern der Mädchen fotorealistische Nacktbilder gemacht.
Immer größtes kinderpornografisches Material im Internet auch vollständig von KI erstellt. Dann zeigt das Bild zwar kein echtes Kind. Doch solche KI-generierten Bilder basieren letztendlich auf Fotos echter Opfer, die in das Training der Modelle eingegangen sind. Und sie normalisieren die Sexualisierung von Kindern.
Auch um an echte Nacktbilder heranzukommen, nutzen die Sexualstraftäter immer öfter KI. Chatbots helfen ihnen, ihre Opfer online in jeder Sprache anzusprechen und zum Erstellen und Verschicken expliziter Fotos zu überreden.
Ein wesentlicher Teil des Materials, das einen sexuellen Missbrauch von Jugendlichen darstelle, sei von diesen selbst erstellt worden, heisst es in dem Bericht von Europol. Haben die Täter erst explizite Bilder oder Videos ihrer Opfer erworben, benutzt sie diese häufig, um den Opfern zu drohen oder sie zu erpressen.
Die Täter werden identifiziert
All das dürfte erst der Anfang sein. Die Polizeibehörde geht davon aus, dass sich die Nutzung von KI in der Cyberkriminalität in der nahen Zukunft noch deutlich ausbreiten wird.
Denn nicht nur wird KI immer mächtiger und leichter zu bedienen, laut Europol werden auch immer mehr auf illegale Aktivitäten spezialisierte KI-Modelle über das Darknet verbreitet. Diese sind im Gegensatz zu den verfügbaren Modellen wie Chat-GPT oder Gemini nicht mit Schutzmechanismen versehen, die das Erstellen von Missbrauchsmaterial verhindern. Manchmal wurden sie sogar gezielt weiter trainiert, um dieses Material noch realitätsgetreuer darzustellen.
Für die Polizei stellt das ein großes Problem dar. Denn derzeit steigt durch KI die Zahl illegaler Bilder und Videos von Kindesmissbrauch im Internet. Das macht es schwierig für die Behörden, den einzelnen Fällen nachzugehen. Andererseits sind die mit KI erstellten oder veränderten Bilder schwierig bis unmöglich von echten Fotos zu unterscheiden. „Es wird immer komplizierter, echte Opfer und Täter zu identifizieren“, schreibt Europol.
Es benötigen daher geeignete Werkzeuge, um zu erkennen, welche Audio-, Bild- und Videoinhalte oder Teile davon Deepfakes sind. Wie genau solche Werkzeuge aussehen könnten, lässt der Bericht offen. Im Hinblick auf die in vielen Fällen minderjährigen Täter muss man auch einen stärkeren Fokus auf die Täterprävention legen.
In der Zukunft wird es mehr Ressourcen brauchen, um zu verhindern, dass Kinder zu Opfern von Missbrauch werden – oder zu Tätern.