Vergangenes Jahr hatte Apple das Vorhaben angekündigt, zum Schutz von Kindern ein CSAM-(Child Sexual Abuse Material)-Erkennungstool in iCloud Fotos zu integrieren. Nun rudert der Konzern zurück und kippt das Feature zugunsten des Datenschutzes.
Apple legt umstrittenen Plan zur Erkennung von CSAM in iCloud Fotos ad acta Bedenken von Datenschützern wurden gehört
Bedenken von Datenschützern wurden gehört