Apple sieht sich mit einer Gegenreaktion gegen ein neues Scan-Tool konfrontiert, das Bilder von sexuellem Missbrauch von Kindern erkennt
Nach der Reaktion von Mitarbeitern und politischen Entscheidungsträgern hat Apple angekündigt, dass es seine Pläne zum Scannen von iPhones weiter verfeinert, um Bilder von Kindern zu erkennen, die sexuell missbraucht werden.
Letzte Woche kündigte Apple an, eine Funktion für iPhones einzuführen, die das Gerät automatisch nach Fotos scannt, die Kindesmissbrauch darstellen. Diese Scans würden stattfinden, bevor Bilder in die iCloud hochgeladen werden. Darüber hinaus kündigte Apple an, dass, wenn ein explizites Bild gefunden wird, es dem US National Center for Missing and Exploited Children (NCMEC) gemeldet wird. Das NCMEC ist die einzige Organisation, mit der Apple diese Vereinbarung abgeschlossen hat.
Die Ankündigung verursachte immense Gegenreaktionen von großen technologiepolitischen Gruppen sowie von den eigenen Mitarbeitern. Beide Gruppen äußerten Bedenken, dass Apple seinen Ruf für den Schutz der Privatsphäre der Verbraucher riskiere. Außerdem eine anonyme Person schrieb an Reuters letzte Woche, um die Bedenken der Mitarbeiter zu äußern und detailliert darzulegen, dass Apple-Mitarbeiter einen internen Kanal auf Slack besucht haben, um ihre Meinung zum Scanner zu äußern, mit über 800 Nachrichten auf dem Kanal.
Craig Federighi, Senior VP of Software Engineering des Unternehmens, verteidigte das neue System in einem Interview mit dem Wall Street Journal und betonte, dass private Informationen durch „mehrere Ebenen der Hörbarkeit“ geschützt werden. Er sagte: „Wir, die wir uns in Sachen Datenschutz als absolut führend betrachten, sehen in dem, was wir hier tun, eine Weiterentwicklung des Stands der Technik im Bereich Datenschutz, als Ermöglichung einer privateren Welt.“
In einer Video des Interviews, sagte Federighi: „Wir finden illegale Bilder von Kinderpornografie, die in iCloud gespeichert sind. Wenn Sie sich einen anderen Cloud-Dienst ansehen, scannen sie derzeit Fotos, indem sie sich jedes einzelne Foto in der Cloud ansehen und es analysieren. Wir wollten in der Lage sein, solche Fotos in der Cloud zu erkennen, ohne uns die Fotos von Personen anzusehen, und haben dafür eine Architektur entwickelt.“ Er betonte, dass das System keine „Hintertür“ sei, die die Verschlüsselung brechen würde, und dass es „viel privater ist als alles, was in diesem Bereich zuvor gemacht wurde“. Laut Federighi wurde dieses System „auf die datenschutzfreundlichste Weise, die wir uns vorstellen können, und auf die am besten überprüfbare und überprüfbare Weise“ entwickelt.
Apple veröffentlichte zunächst keine weiteren Details zum Scan, wie z. B. die Angabe, wie viele übereinstimmende Bilder erforderlich wären, bevor sie zur Überprüfung gekennzeichnet oder den Behörden gemeldet würden. Am Freitag hieß es jedoch, dass es mit 30 beginnen würde, um diese Zahl zu senken, wenn das Scansystem verfeinert wird.
„Es ist wirklich klar, dass viele Botschaften in Bezug darauf, wie die Dinge verstanden wurden, ziemlich durcheinander gebracht wurden“, sagte Federighi gegenüber dem Wall Street Journal. „Wir hätten uns gewünscht, dass dies für alle etwas klarer herausgekommen wäre, weil wir sehr positiv und überzeugt von dem sind, was wir tun.“
WEITERLESEN:
- Apples iOS15 ändert sich: Was es für E-Mail-Marketing und Kundenerlebnis bedeutet
- Apple löst Kontroversen über Homeoffice-Verbot aus
- In Apples leistungsstarkem neuen Datenschutz in iOS 15
Dieser Scandienst soll in den USA starten. Obwohl der Schwerpunkt auf dem Scannen nach expliziten Bildern von Minderjährigen liegt, gibt es Bedenken von politischen Entscheidungsträgern und Kritikern gleichermaßen, dass die Regierung Apple dazu nutzen wird, nach anderen Inhalten, wie z. B. verbotenen politischen Bildern, zu suchen.
Vergessen Sie nicht, unser tägliches Bulletin zu abonnieren, um weitere Neuigkeiten von Top Business Tech zu erhalten!