Apple legt umstrittenen Plan zur Erkennung von CSAM in iCloud Fotos ad acta Bedenken von Datenschützern wurden gehört

Bedenken von Datenschützern wurden gehört

Vergangenes Jahr hatte Apple das Vorhaben angekündigt, zum Schutz von Kindern ein CSAM-(Child Sexual Abuse Material)-Erkennungstool in iCloud Fotos zu integrieren. Nun rudert der Konzern zurück und kippt das Feature zugunsten des Datenschutzes.

Weiterlesen


EFF fordert: Apple soll CSAM-Verfahren komplett einstellen Kinderschutz wird verschoben

Kinderschutz wird verschoben

Nachdem es in den letzten Wochen große Kritik an Apples Vorgaben zum Kinderschutz gegeben hatte, gab der Konzern Ende der vergangenen Woche bekannt, die Pläne in Bezug auf CSAM (Child Sexual Abuse Material) nach hinten zu verschieben. Mit dem Vorhaben sollen wirksame Maßnahmen zum Schutz gegen Kindesmissbrauch geschaffen werden, unter anderem durch eine automatische Erkennung von CSAM-Material in der Fotos-App.

Weiterlesen

Apple verschiebt Foto-Scan auf Kinderpornografie nach hinten Einführung soll erst später stattfinden

Einführung soll erst später stattfinden

Anfang August hat Apple angekündigt, dass noch in diesem Jahr Funktionen eingeführt werden, um die Verbreitung von Material über sexuellen Kindesmissbrauch einzudämmen. Apple möchte aktiv Fotos scannen und auf verdächtiges Material prüfen.

Weiterlesen

Copyright © 2024 appgefahren.de