Google AI นำพ่อเข้าสู่การสอบสวนการล่วงละเมิดเด็กเนื่องจากการให้คำปรึกษาออนไลน์ของเด็กวัยหัดเดินภาพเปลือย

ไอคอนเวลาอ่านหนังสือ 3 นาที. อ่าน


ผู้อ่านช่วยสนับสนุน MSpoweruser เราอาจได้รับค่าคอมมิชชันหากคุณซื้อผ่านลิงก์ของเรา ไอคอนคำแนะนำเครื่องมือ

อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม

พ่อชื่อมาร์ค ซึ่งถ่ายรูปขาหนีบบวมของลูกเพื่อใช้ปรึกษาทางการแพทย์ออนไลน์ ถูกสอบสวนหลังจาก Google ติดธงภาพว่าเป็นสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) ตามรายงานจาก นิวนิวยอร์กไทม์แม้ว่าการสอบสวนจะพบว่าคดีของบิดา “ไม่เป็นไปตามองค์ประกอบของอาชญากรรมและไม่มีอาชญากรรมเกิดขึ้น” แต่ก็อาจเลวร้ายกว่านั้น ซึ่งอาจส่งผลให้เขาสูญเสียการดูแลบุตรของเขา ยิ่งไปกว่านั้น Google ยังคงยืนกรานที่จะปิดการใช้งาน (และลบในภายหลัง) บัญชีของ Mark แม้ว่าเขาจะยื่นอุทธรณ์ต่อบริษัทด้วยผลการรายงานของตำรวจเพื่อเป็นหลักฐานยืนยันความบริสุทธิ์ของเขา

เทคโนโลยียังคงมีข้อบกพร่อง แต่ความผิดพลาดไม่ควรทำให้คุณอยู่ในสภาพวิกฤติที่อาจทำให้คุณตกอยู่ในอันตราย นั่นไม่ใช่กรณีของตัวแยกประเภทการเรียนรู้ของเครื่องและเทคโนโลยีการจับคู่แฮชของ Google ที่สร้าง "แฮช" หรือลายนิ้วมือดิจิทัลที่ไม่ซ้ำกันสำหรับรูปภาพหรือวิดีโอ จึงสามารถนำมาเปรียบเทียบกับแฮชของ CSAM ที่รู้จักได้ ตาม Google เมื่อเทคโนโลยีและ "ทีมผู้เชี่ยวชาญที่ผ่านการฝึกอบรม" ตรวจพบ CSAM จะรายงานไปยัง National Center for Missing and Exploited Children (NCMEC) ซึ่งจะเริ่มการสอบสวนด้วยความช่วยเหลือของหน่วยงานบังคับใช้กฎหมาย อย่างไรก็ตาม เทคโนโลยีนี้ไม่ได้แม่นยำ 100% และความผิดพลาดที่อาจเกิดขึ้นอาจส่งผลกระทบอย่างใหญ่หลวงสำหรับทุกคน

ในอีเมลที่ส่งถึง Verge โดย Google อย่างไรก็ตาม บริษัทอ้างว่า "ทีมผู้เชี่ยวชาญด้านความปลอดภัยของเด็กตรวจสอบเนื้อหาที่ถูกตั้งค่าสถานะเพื่อความถูกต้อง และปรึกษากับกุมารแพทย์เพื่อช่วยให้แน่ใจว่าเราสามารถระบุกรณีที่ผู้ใช้อาจขอคำแนะนำทางการแพทย์" ขออภัย แม้ว่าคำอธิบายจะเหมาะกับกรณีของ Mark แต่ Google ยังคงติดธงว่าบิดาเป็นอาชญากร ซึ่งนำไปสู่การสอบสวนและทำให้เขาสูญเสียบัญชี Google และไฟล์ระบบคลาวด์ที่สำคัญอื่นๆ ในบันทึกข้างเคียง โฆษกจาก Google อธิบายกับ NYT ว่าจะทำการสแกนเฉพาะเมื่อมีการดำเนินการ "ยืนยัน" เช่น การสำรองข้อมูลรูปภาพไปยังระบบคลาวด์ของ Google

จากการวิเคราะห์เพื่อบรรลุเป้าหมายของ รายงานความโปร่งใสของ Googleได้รายงาน CSAM ทั้งหมด 621,583 คดีไปยัง NCMEC CyberTipline ส่งผลให้หน่วยงานบังคับใช้กฎหมายได้รับการแจ้งเตือนถึงปัญหา CSAM ที่เป็นไปได้ 4,260 เรื่อง (และบัญชี 270,000 บัญชีถูกปิดใช้งาน) รวมถึงคดีของ Mark อย่างไรก็ตาม หลังจากการสอบสวนในเดือนกุมภาพันธ์ พ.ศ. 2021 ที่พิสูจน์ได้ว่าไม่มีการละเมิด ทำให้เราตั้งคำถาม Google AIความสามารถในการตั้งค่าสถานะ การทารุณกรรมเด็กหรือการแสวงประโยชน์. และด้วยข้อเท็จจริงที่ว่ามันอาจส่งผลร้ายแรง เช่น สูญเสียข้อมูลและบัญชีระบบคลาวด์ของคุณ และถูกตรวจสอบโดยเจ้าหน้าที่ การถูกกล่าวหาว่าเป็นอาชญากรโดยเครื่องมือของ Google จึงเป็นความไม่สะดวกอย่างแท้จริง ที่แย่กว่านั้น อาจหมายถึงปัญหาความเป็นส่วนตัว ทำให้คุณกังวลเกี่ยวกับสิ่งที่คุณต้องการจัดเก็บไว้ในโทรศัพท์หรืออัปโหลดในระบบคลาวด์ ไม่ว่าจะด้วยเหตุผลทางการแพทย์หรือเหตุผลอื่นๆ ที่ไม่เป็นการล่วงละเมิด