EFF fordert: Apple soll CSAM-Verfahren komplett einstellen

Kinderschutz wird verschoben

Nachdem es in den letzten Wochen große Kritik an Apples Vorgaben zum Kinderschutz gegeben hatte, gab der Konzern Ende der vergangenen Woche bekannt, die Pläne in Bezug auf CSAM (Child Sexual Abuse Material) nach hinten zu verschieben. Mit dem Vorhaben sollen wirksame Maßnahmen zum Schutz gegen Kindesmissbrauch geschaffen werden, unter anderem durch eine automatische Erkennung von CSAM-Material in der Fotos-App.

Eigentlich hatte Apple geplant, die neuen Maßnahmen im Herbst mit dem Release von iOS 15 zu veröffentlichen, war aber nun Ende letzter Woche zurückgerudert und hatte die geplanten Schritte nach hinten verschoben. Nach Bekanntwerden des Vorhabens gab es von vielen Seiten Kritik, sogar von intern wurden die Maßnahmen und ihre Schwächen diskutiert. Die EFF (Electronic Frontier Foundation) fordert nun in einer Mitteilung eine komplette Einstellung des CSAM-Programms von Apple: Man begrüße die Aufschiebung Apples, aber dieser gehe nicht weit genug.


„Die Reaktionen auf Apples Pläne sind vernichtend: Über 90 Organisationen aus aller Welt haben das Unternehmen aufgefordert, die Pläne nicht umzusetzen, da sie zur Zensur geschützter Meinungsäußerungen führen, die Privatsphäre und Sicherheit von Menschen auf der ganzen Welt bedrohen und katastrophale Folgen für viele Kinder haben könnten. Diese Woche hat die Petition der EFF an Apple, in der das Unternehmen aufgefordert wird, seine Pläne aufzugeben, 25.000 Unterschriften erreicht. Hinzu kommen weitere Petitionen von Gruppen wie Fight for the Future und OpenMedia, die insgesamt weit über 50.000 Unterschriften erreicht haben. Die riesige Koalition, die sich zu Wort gemeldet hat, wird weiterhin fordern, dass die Telefone der Nutzer – sowohl ihre Nachrichten als auch ihre Fotos – geschützt werden und dass das Unternehmen sein Versprechen einhält, seinen Nutzern echten Datenschutz zu bieten.“

Die EFF führt darüber hinaus an, dass durch Apples Schritte eine Infrastruktur geschaffen werde, „die nur allzu leicht zu einer stärkeren Überwachung und Zensur umgelenkt werden kann. Diese Funktionen würden eine enorme Gefahr für die Privatsphäre und die Sicherheit der iPhone-Nutzer darstellen und autoritären Regierungen ein neues Massenüberwachungssystem zum Ausspionieren der Bürger bieten.“ Zudem sehe man Gefahren für bereits gefährdete Kinder, vor allem LGBTQ-Jugendliche und solche aus missbrauchenden Haushalten. Die EFF stellt darüber hinaus auch nach wie vor die Petition bereit, in die man sich eintragen und Solidarität zeigen kann. Bisher haben sich über 27.000 Personen beteiligt.

Hinweis: Dieser Artikel enthält Affiliate-Links. Bei Käufen über diese Links erhalten wir eine Provision, mit dem wir diesen Blog finanzieren. Der Kaufpreis bleibt für euch unverändert.

Anzeige

Kommentare 2 Antworten

  1. Schreibt einfach eine kurze Mail an tcook@apple.com, das dauert nicht viel länger als hier einen Kommentar zu verfassen.
    Schreibt, was ihr davon haltet und welche Konsequenzen es für euch hat, wenn Apple das CSAM-Scanning bringt.

    1. from: tcook@apple.com
      to: you
      AW: CSAM-Scanning

      Hello,

      danke für deine Nachricht.

      Für Apple Privatsphäre steht ganz vorne jedoch, Geld verdienen ist das wichtigste für uns und unseren Investoren.

      Wenn wir die Spionagefunktionen einschränken, würden uns bestimmte Märkte drohen (wie z.B. China) auszuschliessen.

      Es ist keine Vertrauenssache.Wirklich! Es geht um Sicherheit für uns alle. Wir sind doch die Guten. Deshalb wir kämpfen für die Rechte von Negro Peoples, the White LGBT Community oder Think Green.

      Vielen Dank

      Regrets,

      Dein tcook@apple.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Copyright © 2024 appgefahren.de