«KI, mach mir ein Nacktfoto meiner Nachbarin»: wie künstliche Intelligenz das Internet gefährlicher macht
Mit KI können Stimmen echt gefälscht täuschen oder in Sekundenschnelle Nacktbilder erzeugt werden. Das wissen auch Kriminelle immer mehr für sich zu nutzen.
Hören und abonnieren Sie den Podcast «NZZ Akzent» auch auf Spotify, Apple Podcasts oder Castbox.
Haben Sie ein Feedback zum Podcast? Sagen Sie uns Ihre Meinung.
In dieser Podcast-Folge:
Jennifer DeStefano war sich sicher, dass es ihre Tochter Briana war, die sie am Telefon hörte und die rief: „Hilf mir, hilf mir!“ Es war ihre Stimme. Danach hörte DeStefano eine Männerstimme, die drohte, ihre Tochter mit Drogen vollzupumpen, wenn sie sich nicht an die Anweisungen halte und Geld bezahle.
Doch wie sich später herausstellte: DeStefanos Tochter ging es gut. Ihre Stimme war von Kriminellen mit künstlicher Intelligenz gefälscht worden. Dazu genügen einige Sekunden Audio, zum Beispiel von einem Social-Media-Video, erzählt die Technologie-Redaktorin Gioia da Silva im Podcast. Die gefälschte Stimme ist erstaunlich gut und kann dann alles sagen, was man ihr vorgibt. Trickanrufe werden dadurch unglaublich überzeugend.
Auch Bild-KI wird mittlerweile von Kriminellen genutzt. So lassen sich auf Knopfdruck Hunderte Nacktbilder herstellen. Damit können Opfer erpresst werden. Wenn alle diese Techniken ausgereift sind und kombiniert werden, ist das Risiko noch größer, dass die Fälschungen nicht erkannt werden.
Alle Episoden von «NZZ Akzent» finden Sie in dieser Übersicht.