Apple scannt bereits aktiv nach Inhalten zum sexuellen Missbrauch von Kindern

iCloud Mails im Fokus

Ihr habt die Diskussion vielleicht mitbekommen: Apple strebt Überlegungen an, mit iOS 15 aktiv damit zu beginnen, Inhalten zum sexuellen Missbrauch von Kindern in iCloud Fotos zu scannen. Aussagen aus dem Gerichtsprozess zwischen Epic Games und Apple haben einen Redakteur von 9to5Mac nun dazu veranlasst, noch einmal genau nachzufragen.

Die Fragestellung: Laut eines Mitarbeiters soll Apple „die größte Plattform für die Verbreitung von Kinderpornos“ sein. Aber wie kann man das wissen, wenn man bisher keine Fotos analysiert hat?


Wie Apple nun dem Kollegen von 9to5Mac mitgeteilt hat, scannt man bereits seit 2019 eingehende und ausgehende Mails in iCloud Mail. „Apple gab auch an, dass es einige begrenzte Scans anderer Daten durchführt, wollte mir aber nicht sagen, um welche Daten es sich dabei handelt, außer dass es sich um einen winzigen Umfang handelt. Es hat mir gesagt, dass die ‚anderen Daten‘ keine iCloud-Backups umfassen“, heißt es in dem Bericht weiter.

Insbesondere die Tatsache, dass mit iOS 15 auch iCloud Fotos analysiert werden sollen, bereitet mir schon ein wenig Bauchschmerzen. Keine Frage – der Missbrauch von Kinder muss mit allen Mitteln verhindert werden. Aber was ist, wenn ich ein Foto vom meinem Kind in der Badewanne knipse? Wird auch das möglicherweise von Apples künstlicher Intelligenz als Treffer erkannt? Ab wann greifen Menschen in die Untersuchung ein und könnten einen Blick auf meine privaten Fotos werfen?

Daher bin ich sehr gespannt, welche offiziellen Informationen Apple in den kommenden Wochen rund um die Einführung von iOS 15 zu diesem Thema noch liefern wird.

Anzeige

Kommentare 32 Antworten

    1. Muahahahahahahahahahahahaha! Wenn ich so etwas lese, wird mir speiübel. Über Apple schimpfen, aber z.B. in eBay-Kleinanzeigen hinter jedem Angebot einen Betrug wittern. Leute das nenne ich Bigot! Was leben wir in einer kranken Welt.

      1. Nun, was ebay-Kleinanzeigen mit Apples Schnüffelei zu tun hat, erschließt sich mit nicht! Daher ist deine Übelkeit vermutlich gerechtfertigt.

    2. Sorry aber Android ist so offen und anfällig dass so ziemlich jede App jedem Entwickler Einsicht in alles gibt was du so auf dem Androiden Schrottphone hast.

      Und nehmen wie es mal ganz genau: Wenn ich etwas in eine Cloud lade egal wie sicher sie sein soll, 100% Sicherheit gibts nicht. Sieht das Problem von vor 2 Jahren wo durch einen Bug Leute Fotos in ihrer cloud hatten die von anderen Leuten waren. Passieren aufgrund eines Fehler kann das immer also wenn ihr so nach Datenschutz seid dann schaltet sowas aus oder nutzt eure Kompaktkamera! Und zwar die ohne Cloudsynchronisation sondern mit SD-Karte. 😁

      1. Vielleicht ist ja der Feind den ich kenne besser als Apples Heimlichtuerei. Auch Android kann man sicherer bekommen. Und – seien wir ehrlich – die Hardware der Androidgeräte ist gar nicht Mal so selten besser als die der iPhone. Und dabei sehr oft günstiger.

        1. Hardware mag ebenbürtig sein, die Software ist es bei weitem nicht. Und dabei spreche ich noch nicht mal von den integrativen Themen zwischen mehreren Geräten wie Smartphone, Tablet, etc

          1. Hast du in letzte Zeit mal mit Android 10 oder 11 gearbeitet? Mein Diensthandy ist ein Androide. Lass dir sagen: Das geht ziemlich gut. Ich gebe aber zu, an das Zusammenspiel verschiedener iDevices kommt Android nicht ran. Wer allerdings ohnehin nicht ausschließlich Apple nutzt, hat dadurch kaum einen Nachteil.

  1. Im Kampf gegen Pädophilie und zum Schutz der Kinder finde ich das nicht schlecht, wenn technische Möglichkeiten benutzt werden. Mit Sicherheit differenziert die Software den Unterschied zwischen einem badenden Kind und sexuellem Inhalt.
    Abgesehen davon sollte der Anteil der Bilder, die eigene Kinder leicht bekleidet oder nackt darstellen, einen winzigen Bruchteil der versendeten Dateien darstellen.
    Einzig macht mir Sorge, wie diese Software in den falschen Händen missbraucht werden kann.

    Wer überwacht eigentlich die Überwacher?

    1. Ich glaube du kennst nicht die Vorgehensweise der kranken Menschen. Für jene ist schon eine Sitzpose, das halten es Eis am Stil oder Blick von bekleideten – nicht mal nackten – Kids sexuell wertvoll. Und genau das macht es ja z. B. für Familien so unfassbar schwer. Das, was für nicht kranke Menschen völlig normal ist, kann für jemanden anderes der sexuelle Burner sein. Wenn Apple &Co. Fotos mit sexuellen Handlungen oder Nacktheit suchen, dann werden sie einen ganz kleinen Teil abdecken. Apple ist sich sicher bewusst, dass eine Falschanschuldigung für sie ziemliche Konsequenzen haben kann.

      1. Darüber bin ich froh, dass ich die Vorgehensweise solcher Leute nicht im Ansatz kenne.
        Jedoch kann und will ich nicht mein Kind in der Öffentlichkeit verhüllen, weil 1 von vielleicht 10000 Menschen perverse Neigungen hat und sich daran aufgeilt, wie mein Kind ein Eis isst. So lange wir das nicht mitbekommen und derjenige nicht auffällig dabei ist, ist mir das egal, kann es ja eh nicht verhindern. Die einzige Konsequenz wäre, Kinder bis zur Volljährigkeit einzusperren

        1. Ein erster Schritt wäre schon mal wenn die Eltern weniger (besser noch garkeine) Fotos ihrer Kindern ins FB oder insta Posten würden. Egal ob Otto normal oder Promi. Aber viele prominente benutzen nicht selten die Kids für mehr Reichweite.

        2. Korrekt. Man kann sich dagegen auch nicht schützen und auch nicht in Panik verfallen. Meine Überlegung geht auch ehr in die Richtung, wie es Apple vermeiden möchte einen Menschen wegen ein paar wirklich harmlose Fotos vorzuverurteilen.

    2. Kommt.. Wir wissen wenn es um solche Thema geht gibt es Verständnis dafür.

      Das ist wie eine Zauberwort für Verfolgung & Knast

  2. Ich habe vor längerer Zeit gelesen, dass Microsoft ebenfalls Maßnahmen in dieser Richtung ergreift. Im Prinzip ist das auch keine schlechte Sache. Ich glaube, da sind wir uns alle einig.

    Allerdings muss tatsächlich ein kompletter Scan über die Bilddatenbank erfolgen um auch verdächtige Daten auswerten zu können und das bereitet mir viel mehr Kopfschmerzen.

    Davon mal ganz abgesehen gehe ich nicht davon aus, das Kriminelle solche Clouds (egal ob Apple, Google oder Microsoft) nutzen.

    Am Ende stelle ich mir nur noch die Frage, ob meine persönlichen Daten auch tatsächlich persönlich bleiben. Jedenfalls arbeite ich in diesem Bereich schon lange mit einen Encryptor. Bei den Fotos ist das so natürlich nicht möglich.

  3. Ein weiterer Schritt in totale Überwachung und Unfreiheit. Die Leser merken das auch hier langsam. Für einige Kriminelle werden nun alle an die Wand gestellt und durchsucht?

  4. Ich finde es richtig den wir brauchen Kontrolle um unsere Sicherheit gewährleisten.

    Ohne die Kontrolle wäre Apple nicht wo jetzt ist 

  5. Das ist doch Quatsch was da im Artikel steht mit dem Foto der eigenen Kinder in der Badewanne! Apple scannt nicht mit AI die aktiv in die Bilder schaut sonder scannt nach Hashes der Bilder in der iCloud Bibliothek und gleicht sie gegen eine Datenbank von Hashes bekannter CP-Bilder ab….ob man (oder ich) das jetzt gut findet oder nicht sei erstmal nicht Thema hier, aber nein, das Foto in der Badewanne ist damit erstmal raus.

    Aber: diese Hashes lassen sich auch fabrizieren, und damit besteht die Gefahr jemandem Bilder unterzuschieben die gar keine CP zeigen aber von Apples Scanner als solche erkannt werden…..

    1. Ich verstehe das nicht ganz, was hashes sind. Das digitale Wasserzeichen? Würde ich also einen Screenshot von dem Bild machen, ist der Screenshot los nicht mehr auffindbar?

  6. Vom iPhone zum spyPhone. Ich habe mich bisher zurückgelehnt und Apples Privatsphäre-Werbung geglaubt. Vertrauen wird langsam aufgebaut und schnell zerstört. Dass Millionen Apple-Kunden als potentielle Pädophile verdächtigt und per Backdoor überwacht werden ist schon ein starkes Stück.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Copyright © 2021 appgefahren.de