هوش مصنوعی گوگل، پدر را به دلیل عکس‌های برهنه مشاوره آنلاین کودک نوپا، تحت تحقیقات کودک آزاری قرار می‌دهد

نماد زمان خواندن 3 دقیقه خواندن


خوانندگان به پشتیبانی از MSpoweruser کمک می کنند. در صورت خرید از طریق پیوندهای ما ممکن است کمیسیون دریافت کنیم. نماد راهنمای ابزار

صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب

پدری به نام مارک که از تورم کشاله ران فرزندش عکس گرفته بود تا از آن برای مشاوره پزشکی آنلاین استفاده کند، پس از آن مورد بررسی قرار گرفت. گوگل این تصاویر را به عنوان مواد سوء استفاده جنسی از کودکان (CSAM) علامت گذاری کرد. بر اساس گزارش از نیویورک تایمز، اگرچه تحقیقات نشان داد که پرونده پدر "موارد جرم را رعایت نمی کند و جرمی رخ نداده است"، ممکن است بدتر باشد که می تواند منجر به از دست دادن حضانت فرزندش شود. حتی بیشتر از آن، گوگل بر تصمیم خود مبنی بر غیرفعال کردن (و بعداً حذف) حساب مارک ثابت ماند، اگرچه او با نتیجه گزارش پلیس به عنوان اثبات بی گناهی خود از شرکت درخواست تجدید نظر کرد.

فناوری همچنان ناقص است، اما اشتباهات آن نباید شما را در شرایط بحرانی قرار دهد که ممکن است شما را در معرض خطر قرار دهد. این مورد در مورد طبقه‌بندی‌کننده‌های یادگیری ماشینی گوگل و فناوری تطبیق هش نیست که «یک «هش» یا اثر انگشت دیجیتال منحصر به فرد را برای یک تصویر یا یک ویدیو ایجاد می‌کند تا بتوان آن را با هش‌های CSAM شناخته‌شده مقایسه کرد. به گفته گوگل، زمانی که فناوری و «تیم‌های متخصص آموزش‌دیده» CSAM را شناسایی کنند، به مرکز ملی کودکان گمشده و مورد بهره‌کشی (NCMEC) گزارش می‌دهند، که با کمک مجری قانون تحقیقات را آغاز می‌کند. با این وجود، این فناوری 100٪ دقیق نیست و اشتباهاتی که ممکن است انجام دهد می تواند عواقب بزرگی برای هر کسی داشته باشد.

در ایمیل ارسال شده به در آستانه با این حال، توسط گوگل، این شرکت ادعا می‌کند که «تیم کارشناسان ایمنی کودک آن، محتوای پرچم‌گذاری‌شده را از نظر دقت بررسی می‌کنند و با پزشکان اطفال مشورت می‌کنند تا اطمینان حاصل کنیم که می‌توانیم مواردی را شناسایی کنیم که کاربران ممکن است به دنبال مشاوره پزشکی باشند». متأسفانه، در حالی که توضیحات با مورد مارک مطابقت دارد، Google همچنان پدر را به عنوان یک جنایتکار علامت گذاری می کند، که منجر به تحقیقات و از دست دادن حساب Google خود و سایر فایل های ابری مهم شد. در یادداشتی جانبی، سخنگوی گوگل به NYT توضیح داد که فقط زمانی اسکن را انجام می دهد که "اقدام مثبت" انجام شود، مانند پشتیبان گیری از عکس ها در فضای ابری گوگل.

با توجه به گزارش شفافیت گوگل، قبلاً در مجموع 621,583 مورد CSAM را به NCMEC CyberTipline گزارش کرده است که در نتیجه سازمان های مجری قانون در مورد 4,260 مشکل احتمالی CSAM (و 270,000 حساب غیرفعال شده) از جمله مورد مارک هشدار داده شده است. با این حال، پس از بررسی در فوریه 2021 که ثابت کرد هیچ تخلفی صورت نگرفته است، ما را زیر سوال می برد Google AIتوانایی پرچم گذاری کودک آزاری یا استثمار. و با توجه به اینکه می تواند منجر به عواقب جدی مانند از دست دادن داده ها و حساب ابری شما و بررسی توسط مقامات شود، متهم شدن به عنوان مجرم توسط ابزار گوگل یک ناراحتی محض است. بدتر از آن، می‌تواند به معنای مسائل مربوط به حریم خصوصی باشد، و نگرانی‌هایی را در مورد چیزهایی که می‌خواهید در تلفن خود ذخیره کنید یا در فضای ابری آپلود کنید، ایجاد می‌کند، صرف نظر از اینکه به دلایل پزشکی یا سایر دلایل غیر توهین‌آمیز باشد.