Apple каже, що «проклята меншість», яка заперечує проти сканування їхніх фотографій для поліції, «має непорозуміння»

Значок часу читання 3 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Вчора ми повідомляли, що Apple запустила ряд функцій безпеки дітей на iPhone, одна з яких включає сканування всіх ваших фотографій на наявність зображень жорстокого поводження з дітьми перед завантаженням їх в iCloud, а потім повідомлення користувачів поліції, якщо знайдено достатньо таких зображень.

Сканування хмарного сховища на наявність матеріалів сексуального насильства над дітьми (CSAM) є нормальною функцією хмарного сховища, але до цього часу Apple не впроваджувала цю функцію з міркувань конфіденційності.

Тепер Apple вважає, що вони знайшли спосіб досягти цього без шкоди для конфіденційності користувачів, але багато вчених експертів, включаючи EFF, висловили незадоволення підходом Apple, а EFF сказав Яблуко «овідкриває чорні двері у ваше приватне життя."

Apple відреагувала на звинувачення всередині себе в записці Себастьєна Маріно-Меса, віце-президента з програмного забезпечення Apple. Він пише:

Сьогодні відзначається офіційне публічне відкриття Розширеного захисту дітей, і я хотів би скористатися моментом, щоб подякувати кожному з вас за всю вашу важку роботу протягом останніх кількох років. Ми б не досягли цієї віхи без вашої невтомної відданості та стійкості.

Забезпечити безпеку дітей – така важлива місія. У справжньому стилі Apple, досягнення цієї мети вимагало глибокої міжфункціональної прихильності, яка охоплювала інженерію, GA, HI, юридичну службу, маркетинг продукції та PR. Те, що ми оголосили сьогодні, є результатом цієї неймовірної співпраці, яка надає інструменти для захисту дітей, а також підтримує глибоку відданість Apple конфіденційності користувачів.

Сьогодні ми побачили багато позитивних відгуків. Ми знаємо, що деякі люди не розуміють, і багато хто турбується про наслідки, але ми продовжуватимемо пояснювати та деталізувати функції, щоб люди розуміли, що ми створили. І хоча попереду попереду ще багато важкої роботи, щоб створити функції протягом наступних кількох місяців, я хотів би поділитися цим повідомленням, яке ми сьогодні отримали від NCMEC. Я вважаю, що це неймовірно мотивує, і сподіваюся, що ви також.

Я пишаюся тим, що працюю в Apple з такою чудовою командою. Дякую тобі!

Записка від NCMEC Sebastien посилається на та, імовірно, схвалює примітки:

Команда Apple,

Я хотів підбадьорити, щоб сказати, що всі в NCMEC ДУЖЕ ПИШАЮТЬСЯ кожним із вас і неймовірними рішеннями, які ви прийняли в ім’я пріоритетності захисту дітей.

Для всієї нашої команди було дуже приємно побачити (і зіграти в цьому невелику роль), що ви представили сьогодні.

Я знаю, що це був довгий день і що багато хто з вас, мабуть, не спали 24 години. Ми знаємо, що наступні дні будуть наповнені верескливими голосами меншості.

Наші голоси будуть голоснішими.

Наше зобов’язання підтримувати дітей, які пережили найнеймовірніше жорстоке поводження та жертви, стане сильнішим.

Протягом цих довгих днів і безсонних ночей я сподіваюся, що ви знайдете розраду, знаючи, що завдяки вам багато тисяч жертв сексуальної експлуатації будуть врятовані та отримають шанс на зцілення та дитинство, на яке вони заслуговують.

Дякуємо, що знайшли шлях до захисту дітей із збереженням конфіденційності.

Хоча Apple наполягає, що вони зберегли конфіденційність користувачів, я підозрюю, що більшість користувачів не будуть задоволені тим, що монітор постійно сканує їхні фотографії, працюючи не від їхнього імені, а від імені поліції.

Чи вважають наші читачі, що цей крок може втратити Apple репутацію конфіденційності? Дайте нам знати нижче.

через 9to5Mac

Детальніше про теми: apple, Конфіденційність

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *