Apple повідомить поліцію, якщо вони вважають, що на вашому iPhone є образливі зображення

Значок часу читання 2 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

конфіденційність iphone

Команда Про це повідомляє Financial Times що Apple працює над системою, яка сканувала б фотографії на вашому iPhone на наявність зображень жорстокого поводження з дітьми, а потім зверталася до поліції, якщо їх виявили.

Так звану систему neuralMatch було навчено на базі даних Національного центру зниклих і експлуатованих дітей, і фотографії на вашому телефоні та завантажені в iCloud будуть постійно скануватися.

Якщо буде виявлено зображення, яке свідчить про зловживання, воно буде передано групі експертів, які потім повідомлять правоохоронні органи, якщо зображення буде перевірено.

Спочатку система діятиме лише для США.

Apple, звичайно, не робить нічого іншого, ніж інші компанії, що займаються хмарними сховищами, хоча сканування на пристрої є винятком.

In їх підтверджуючий документ Apple пояснює переваги:

Apple нічого не дізнається про зображення, які не відповідають відомій базі даних CSAM.

Apple не може отримати доступ до метаданих або візуальних похідних для відповідних зображень CSAM, доки не буде перевищено поріг збігів для облікового запису iCloud Photos.

Ризик того, що система неправильно позначить обліковий запис, надзвичайно низький. Крім того, Apple вручну перевіряє всі звіти, надіслані до NCMEC, щоб забезпечити точність звітів.

Користувачі не можуть отримати доступ або переглянути базу даних відомих зображень CSAM.

Користувачі не можуть визначити, які зображення система позначила як образи сексуального насильства

Велике занепокоєння, звичайно, викликають помилкові спрацьовування та потенційні наслідки цього. Незважаючи на те, що Apple каже, що ризик «надзвичайно низький», через закон великих чисел, якщо ризик становить 1 на 1 мільйон, це означатиме, що 1000 із мільярдів користувачів iPhone від Apple можуть в кінцевому підсумку пояснюватись поліції, незважаючи на те, що вони не роблять цього. щось не так.

Інша, менш нагальна проблема, виражений EFF, полягає в тому, що система може бути розширена шляхом розповзання місії або тиску з боку тоталітарних урядів з метою включення інших зображень, наприклад терористичних актів або символів, що використовуються незгодними, або навіть зображень ЛГБТ, улюблених цілей у разі посилення правих урядів у Східній Європі .

Ця функція стане частиною iOS 15.

через Engadget

Детальніше про теми: apple, Конфіденційність

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *