EFF fordert: Apple soll CSAM-Verfahren komplett einstellen Kinderschutz wird verschoben

Kinderschutz wird verschoben

Nachdem es in den letzten Wochen große Kritik an Apples Vorgaben zum Kinderschutz gegeben hatte, gab der Konzern Ende der vergangenen Woche bekannt, die Pläne in Bezug auf CSAM (Child Sexual Abuse Material) nach hinten zu verschieben. Mit dem Vorhaben sollen wirksame Maßnahmen zum Schutz gegen Kindesmissbrauch geschaffen werden, unter anderem durch eine automatische Erkennung von CSAM-Material in der Fotos-App.

Weiterlesen


Apple verschiebt Foto-Scan auf Kinderpornografie nach hinten Einführung soll erst später stattfinden

Einführung soll erst später stattfinden

Anfang August hat Apple angekündigt, dass noch in diesem Jahr Funktionen eingeführt werden, um die Verbreitung von Material über sexuellen Kindesmissbrauch einzudämmen. Apple möchte aktiv Fotos scannen und auf verdächtiges Material prüfen.

Weiterlesen

Copyright © 2021 appgefahren.de