Apple legt umstrittenen Plan zur Erkennung von CSAM in iCloud Fotos ad acta

Bedenken von Datenschützern wurden gehört

Vergangenes Jahr hatte Apple das Vorhaben angekündigt, zum Schutz von Kindern ein CSAM-(Child Sexual Abuse Material)-Erkennungstool in iCloud Fotos zu integrieren. Nun rudert der Konzern zurück und kippt das Feature zugunsten des Datenschutzes.

Ursprünglich sollte das geplante Tool, das bekannte Bilder der Kategorie CSAM erkennen und melden sollte, die in iCloud Fotos verwahrt werden, in einem Update von iOS 15 bereitgestellt werden. Feedback von Kunden, Anwälten, Wissenschaftlern und anderen hatten bis dato jedoch dazu geführt, dass die Implementierung des Features immer wieder verschoben wurde. Nun hat sich Apple entschieden, das Tool gar nicht mehr einzubauen.


In einem offiziellen Statement von Apple, das gestern in WIRED erschienen ist, heißt es:

„Nach ausführlicher Beratung mit Experten zu den von uns im letzten Jahr vorgeschlagenen Ideen zum Schutz von Kindern, steigern wir unsere Investitionen in die Funktion für Kommunikationssicherheit, die wir erstmals im Dezember 2021 zur Verfügung gestellt haben. Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud-Fotos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchforsten. Wir werden weiterhin mit Regierungen, Kinderschützern und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen.“

Apple war für sein geplantes CSAM-Tool in die Kritik geraten, weil Datenschützer durch das Feature die Möglichkeit einer Hintertür befürchteten, durch die Regierungen und Sicherheitsbehörden Nutzerinnen und Nutzer leichter überwachen könnten. Zusätzlich bestand die Sorge, das Tool könne Bilder flaggen, die eigentlich nicht zu der CSAM-Kategorie zählten und somit Accounts fälschlicherweise melden. Durch das Kippen des Features hat Apple den Befürchtungen nun Rechnung getragen.

Anzeige

Kommentare 5 Antworten

  1. Absolut richtig! 👍 Auch wenn ich zu eintausend Prozent hinter der Aussage stehe, das das Leben unserer Kinder stets zu schützen und lebenswert zu gestalten ist!
    Wenn ich aber bedenke, was ich für Fotos von meinem Kleinen auf dem iPhone und damit auch respektive in der iCloud habe, wäre ich wohl mitunter ein lohnendes Ziel für CSAM… (Die erste Wanne, Trollend im Planschbecken im Garten etc.) 😬

    1. Nach der Panne letzten, wo auf Windows Geräten mit den iCloud Dienst fremde Fotos auftauchten, wären auch die potenzialen Ziele für das CSAM wegen deiner Fotos.

      Solche Pannen geben mir regelmäßig zu bedenken ob es wirklich sinnvoll ist für Fotos eine Cloud zu nutzen.

    2. Dein Ernst?! Du findest das Einknicken Apples richtig, weil du befürchtest, sonst wegen deiner harmlosen Kinderfotos ins Visier zu geraten?! Das ist ja wohl der erbärmlichste Grund für ein Dagegensein.

      Ich finde es absolut traurig, dass Apple hier seine Pläne fallengelassen hat. Datenschutz ist wichtig, sollte aber in seiner Struktur und Umsetzung an den neuen Gegebenheiten angepasst werden. Wenn wir hier nicht bereit sind, Kompromisse einzugehen, werden wir der Entwicklung von Kinderpornografie, Terrorismus oder Straftaten im Allgemeinen nicht mehr Herr werden.

      Es darf nicht sein, dass die Gesetzgebung der Straftaten hinterherhinkt!

      1. @codeblack: Im Prinzip richtig. Du darfst aber bitte nicht vergessen, dass KiPo und Terrorismus die Standard-Vorwände praktisch aller Regierungen ist, um noch umfangreichere Überwachungs- und Kontrollmechanismen einzuführen. Bargeld-Abschaffung, Vermögensregister, die Beispiele sind zahllos.
        Sicher gibt es KiPo und sicher muss man etwas dagegen tun (tut man ja auch), allerdings bezweifle ich stark, dass es die Ausmaße hat, wie das Stichwort von der Politik bemüht wird.

  2. Andere Cloud-Anbieter scannen schon seit Mitte der 90-er und verpixeln Bilder. Weiß nur kaum einer, nur bei Apple regt sich die Welt auf.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Copyright © 2023 appgefahren.de