Apple informiert die Polizei, wenn sie glaubt, dass Sie missbräuchliche Bilder auf Ihrem iPhone haben

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

iPhone-Privatsphäre

Das Berichte der Financial Times dass Apple an einem System arbeitet, das Fotos auf Ihrem iPhone nach Bildern von Kindesmissbrauch scannt und dann die Polizei kontaktiert, wenn es entdeckt wird.

Das sogenannte neuralMatch-System wurde auf einer Datenbank des Nationalen Zentrums für vermisste und ausgebeutete Kinder trainiert, und Fotos auf Ihrem Handy und auf iCloud hochgeladen werden kontinuierlich gescannt.

Wenn ein Bild entdeckt wird, das auf Missbrauch hindeutet, wird das Bild an ein Team menschlicher Prüfer weitergeleitet, die dann die Strafverfolgungsbehörden benachrichtigen, wenn ein Bild verifiziert ist.

Das System wäre zunächst nur in den USA verfügbar.

Apple macht natürlich nichts anders als andere Cloud-Storage-Unternehmen, obwohl On-Device-Scans eine Ausnahme bilden.

In ihr Begleitdokument Apple erklärt die Vorteile:

Apple erfährt nichts über Bilder, die nicht mit der bekannten CSAM-Datenbank übereinstimmen.

Apple kann nicht auf Metadaten oder visuelle Derivate für übereinstimmende CSAM-Bilder zugreifen, bis ein Schwellenwert für Übereinstimmungen für ein iCloud Fotos-Konto überschritten wird.

Das Risiko, dass das System ein Konto fälschlicherweise kennzeichnet, ist äußerst gering. Darüber hinaus überprüft Apple manuell alle Berichte, die an NCMEC gesendet werden, um die Genauigkeit der Berichte sicherzustellen.

Benutzer können nicht auf die Datenbank bekannter CSAM-Bilder zugreifen oder diese anzeigen.

Benutzer können nicht erkennen, welche Bilder vom System als CSAM gekennzeichnet wurden

Die große Sorge sind natürlich Fehlalarme und die möglichen Folgen davon. Während Apple sagt, dass das Risiko aufgrund des Gesetzes der großen Zahlen „extrem gering“ ist, würde es bedeuten, dass 1 von Apples Milliarden iPhone-Nutzern sich aufgrund des Gesetzes der großen Zahlen bei der Polizei verantworten müssten, obwohl sie es nicht tun, wenn das Risiko 1 zu 1000 Million beträgt irgendetwas falsch.

Die andere, weniger unmittelbare Sorge, ausgedrückt durch die EFF, besteht darin, dass das System durch Mission Creep oder durch Druck totalitärer Regierungen erweitert werden kann, um andere Bilder aufzunehmen, beispielsweise von Terroranschlägen oder Symbolen, die von Dissidenten verwendet werden, oder sogar LGBT-Bilder, ein beliebtes Ziel, wenn rechtsgerichtete Regierungen in Osteuropa wachsen .

Die Funktion wird als Teil von iOS 15 eingeführt.

Engadget

Mehr zu den Themen: Apfel, Datenschutz

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *