Apple จะแจ้งตำรวจหากพวกเขาเชื่อว่าคุณมีรูปภาพที่ไม่เหมาะสมบน iPhone ของคุณ
2 นาที. อ่าน
อัปเดตเมื่อวันที่
อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม
พื้นที่ รายงานไฟแนนเชียลไทมส์ ว่า Apple กำลังทำงานบนระบบที่จะสแกนรูปภาพบน iPhone ของคุณเพื่อหาภาพการล่วงละเมิดเด็ก แล้วติดต่อตำรวจหากตรวจพบ
ระบบที่เรียกว่า NeuralMatch ได้รับการฝึกอบรมเกี่ยวกับฐานข้อมูลจาก National Center for Missing and Exploited Children และภาพถ่ายในโทรศัพท์มือถือของคุณและอัปโหลดไปยัง iCloud จะถูกสแกนอย่างต่อเนื่อง
หากตรวจพบภาพที่มีการชี้นำถึงการละเมิด ภาพนั้นจะถูกส่งต่อไปยังทีมผู้ตรวจสอบที่เป็นเจ้าหน้าที่ ซึ่งจะแจ้งเตือนผู้บังคับใช้กฎหมายหากภาพนั้นได้รับการยืนยัน
ระบบนี้ในขั้นต้นจะเป็นแบบสหรัฐฯ เท่านั้น
แน่นอนว่า Apple ไม่ได้ทำอะไรที่แตกต่างจากบริษัทจัดเก็บข้อมูลบนคลาวด์อื่น ๆ แม้ว่าการสแกนในอุปกรณ์จะเป็นข้อยกเว้น
In เอกสารสนับสนุนของพวกเขา Apple อธิบายประโยชน์:
Apple ไม่ได้เรียนรู้อะไรเกี่ยวกับรูปภาพที่ไม่ตรงกับฐานข้อมูล CSAM ที่รู้จัก
Apple ไม่สามารถเข้าถึงข้อมูลเมตาหรืออนุพันธ์ของภาพสำหรับอิมเมจ CSAM ที่ตรงกันจนกว่าจะเกินเกณฑ์การจับคู่สำหรับบัญชี iCloud Photos
ความเสี่ยงของระบบตั้งค่าสถานะบัญชีอย่างไม่ถูกต้องนั้นต่ำมาก นอกจากนี้ Apple จะตรวจสอบรายงานทั้งหมดที่ทำกับ NCMEC ด้วยตนเองเพื่อให้แน่ใจว่าการรายงานมีความถูกต้อง
ผู้ใช้ไม่สามารถเข้าถึงหรือดูฐานข้อมูลของอิมเมจ CSAM ที่รู้จัก
ผู้ใช้ไม่สามารถระบุได้ว่ารูปภาพใดถูกตั้งค่าสถานะเป็น CSAM โดยระบบ
ความกังวลใหญ่คือผลบวกที่ผิดพลาดและผลที่อาจเกิดขึ้นจากสิ่งเหล่านี้ ในขณะที่ Apple กล่าวว่าความเสี่ยงนั้น "ต่ำมาก" เนื่องจากกฎหมายจำนวนมาก หากความเสี่ยงอยู่ที่ 1 ใน 1 ล้านคน ก็หมายความว่าผู้ใช้ iPhone ของ Apple กว่า 1000 ล้านคนอาจต้องอธิบายตัวเองให้ตำรวจฟังทั้งๆ ที่ไม่ได้ทำ มีอะไรผิดปกติ
อื่น ๆ ความกังวลน้อยลงทันที แสดงโดยEFFคือระบบอาจขยายกว้างขึ้นตามภารกิจที่คืบคลานหรือโดยแรงกดดันจากรัฐบาลเผด็จการให้รวมภาพอื่น ๆ เช่นการกระทำของผู้ก่อการร้ายหรือสัญลักษณ์ที่ใช้โดยผู้ไม่เห็นด้วยหรือแม้แต่ภาพ LGBT เป้าหมายที่ชื่นชอบหากเพิ่มรัฐบาลฝ่ายขวาในยุโรปตะวันออก .
ฟีเจอร์นี้จะเปิดตัวโดยเป็นส่วนหนึ่งของ iOS 15
ผ่านทาง Engadget