KI-generierte Nacktbilder: Eine neue Dimension von Deepfakes

Gefälschte Videoaufnahmen, sogenannte Deepfakes, sind keine Seltenheit mehr: Sie zeigen zum Beispiel Donald Trump in der Papstrobe oder Mona Vetsch, die für zweifelhafte Finanzseiten wirbt. Doch jetzt erreichen sie eine neue Dimension.
Deepfakes sehen immer echter aus und die Maschen der Betrüger werden immer perfider. So auch im Fall von Markus. Kurz nachdem er einen unbekannten Facetime-Anruf annimmt, erhält er ein Video zugeschickt. Es zeigt ihn beim Masturbieren. Die Betrüger hatten das Video mit KI so manipuliert, dass die Szene echt wirkte. Dann drohen sie ihm, es zu verschicken, wenn er nicht zahlt.
Auch an einer Schweizer Schule wurde kürzlich ein Fall bekannt, in dem Oberstufenschüler KI-generierte Nacktbilder von Mitschülerinnen über Snapchat verbreiteten.
Wie funktionieren Deepfakes? Was bedeuten solche Aufnahmen für die Betroffenen? Und was können Behörden dagegen tun? Das erklärt Oliver Zihlmann, Leiter des Tamedia Recherchedesks in einer neuen Folge des täglichen Podcasts «Apropos».
Host: Alexandra Aregger
Produzentin: Valeria Mazzeo
Mehr zu Deepfakes
- Die Recherche von Oliver Zihlmann zum Fall von Markus
- Der KI-Nacktbild-Skandal an einer Schweizer Schule
- So ist die Rechtslage in der Schweiz bei Deepfakes
Unser Tagi-Spezialangebot für Podcast-Hörer:innen: tagiabo.ch
Habt ihr Feedback, Ideen oder Kritik zu «Apropos»? Schreibt uns an podcasts@tamedia.ch
Hosted by Simplecast, an AdsWizz company. See pcm.adswizz.com for information about our collection and use of personal data for advertising.