Apple sẽ thông báo cho cảnh sát nếu họ tin rằng bạn có hình ảnh lạm dụng trên iPhone của mình

Biểu tượng thời gian đọc 2 phút đọc


Bạn đọc giúp đỡ ủng hộ MSpoweruser. Chúng tôi có thể nhận được hoa hồng nếu bạn mua thông qua các liên kết của chúng tôi. Biểu tượng chú giải công cụ

Đọc trang tiết lộ của chúng tôi để tìm hiểu cách bạn có thể giúp MSPoweruser duy trì nhóm biên tập Tìm hiểu thêm

quyền riêng tư trên iphone

Sản phẩm Báo cáo của Financial Times rằng Apple đang làm việc trên một hệ thống quét ảnh trên iPhone của bạn để tìm hình ảnh lạm dụng trẻ em và sau đó liên hệ với cảnh sát nếu bị phát hiện.

Hệ thống được gọi là neuralMatch đã được đào tạo trên cơ sở dữ liệu từ Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột, và các bức ảnh trên thiết bị cầm tay của bạn và được tải lên iCloud sẽ được quét liên tục.

Nếu hình ảnh gợi ý lạm dụng được phát hiện, hình ảnh đó sẽ được chuyển đến một nhóm người đánh giá, sau đó họ sẽ cảnh báo cơ quan thực thi pháp luật nếu hình ảnh được xác minh.

Hệ thống ban đầu sẽ chỉ dành cho Hoa Kỳ.

Tất nhiên, Apple không làm bất cứ điều gì khác biệt so với các công ty lưu trữ đám mây khác, mặc dù tính năng quét trên thiết bị là một ngoại lệ.

In tài liệu hỗ trợ của họ Apple giải thích những lợi ích:

Apple không tìm hiểu bất cứ điều gì về hình ảnh không khớp với cơ sở dữ liệu CSAM đã biết.

Apple không thể truy cập siêu dữ liệu hoặc các dẫn xuất trực quan cho các hình ảnh CSAM phù hợp cho đến khi vượt quá ngưỡng phù hợp cho tài khoản Ảnh iCloud.

Rủi ro hệ thống gắn cờ sai tài khoản là cực kỳ thấp. Ngoài ra, Apple sẽ xem xét thủ công tất cả các báo cáo được thực hiện cho NCMEC để đảm bảo tính chính xác của báo cáo.

Người dùng không thể truy cập hoặc xem cơ sở dữ liệu của các hình ảnh CSAM đã biết.

Người dùng không thể xác định hình ảnh nào đã được hệ thống gắn cờ là CSAM

Mối quan tâm lớn tất nhiên là dương tính giả và hậu quả tiềm ẩn của những điều này. Mặc dù Apple cho biết rủi ro là "cực kỳ thấp", do quy luật về số lượng lớn, nếu rủi ro là 1 trên 1 triệu, điều đó có nghĩa là 1000 trong số hàng tỷ người dùng iPhone của Apple có thể sẽ phải tự giải trình với cảnh sát mặc dù không làm. có gì không ổn.

Cái khác, ít quan tâm hơn ngay lập tức, do EFF thể hiện, là hệ thống có thể được mở rộng bởi sự leo thang của sứ mệnh, hoặc do áp lực của các chính phủ độc tài để đưa vào hình ảnh khác, ví dụ về các hành động khủng bố hoặc biểu tượng được sử dụng bởi những người bất đồng chính kiến ​​hoặc thậm chí hình ảnh LGBT, một mục tiêu ưa thích nếu các chính phủ cánh hữu gia tăng ở Đông Âu .

Tính năng này sẽ ra mắt như một phần của iOS 15.

thông qua Engadget

Thông tin thêm về các chủ đề: táo, Quyền riêng tư

Bình luận

Chúng tôi sẽ không công khai email của bạn. Các ô đánh dấu * là bắt buộc *