Kindesmissbrauch-Scanning auf iPhones – warum das so gefährlich ist | #heiseshow
Apple hat angekündigt, direkt auf iPhones und iPads nach Darstellungen von Kindesmissbrauch ("Child Sexual Abuse Material", kurz CSAM) suchen und Funde an Behörden melden zu wollen. Die Kritik an den Plänen, die anfangs nur in den USA umgesetzt werden sollen, ist laut und ziemlich einhellig, bislang weicht der US-Konzern aber nicht zurück. Versuchte Apple bisher, sich als Verteidiger der Privatsphäre und des Datenschutzes zu präsentieren, geht es hier "um nichts weniger als im System verankerte Wanzen", lautet die Kritik. Zwar geht es hier um Darstellungen von Kindesmissbrauch, aber weitere Sachverhalte könnten hinzukommen, wird befürchtet. Worum es technisch geht und was hier auf dem Spiel steht, besprechen wir.
Was genau hat Apple vor, wie soll das Scanning funktionieren? Wie begründet Apple die Pläne? Wie lassen sich die Reaktionen zusammenfassen und gibt es abseits der vielen Kritik auch Lob? Was genau wird kritisiert? Welche Gefahren sind mit dem Scanning verbunden? Wie hat Apple auf den Widerspruch reagiert? Apple geht es um die Foto-Bibliothek, was ist mit Apps? Losgehen wird es in den USA, sollen andere Staaten folgen? Was bedeutet der Schritt direkt für Nutzer und Nutzerinnen? Welche weitere Entwicklung scheint absehbar?
Darüber und über viele weitere Fragen auch aus dem Publikum sprechen Jürgen Kuri (@jkuri) und Martin Holland (@fingolas) mit heises Senior Fellow Security Jürgen Schmidt (@ju916) und Leonhard Becker von Mac&i (@fscklog) in einer neuen Folge der #heiseshow.