اپل در صورتی که به پلیس فکر کند تصاویر توهین آمیز روی آیفون خود دارید، به پلیس اطلاع می دهد

نماد زمان خواندن 2 دقیقه خواندن


خوانندگان به پشتیبانی از MSpoweruser کمک می کنند. در صورت خرید از طریق پیوندهای ما ممکن است کمیسیون دریافت کنیم. نماد راهنمای ابزار

صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب

حریم خصوصی آیفون

La گزارش فایننشال تایمز اپل در حال کار بر روی سیستمی است که عکس‌های آیفون شما را برای مشاهده تصاویر کودک آزاری اسکن می‌کند و در صورت شناسایی با پلیس تماس می‌گیرد.

سیستم موسوم به neuralMatch بر روی پایگاه داده ای از مرکز ملی کودکان گم شده و مورد سوء استفاده قرار گرفته آموزش دیده است و عکس های روی گوشی شما و آپلود شده در iCloud به طور مداوم اسکن می شوند.

اگر تصویری حاکی از سوء استفاده تشخیص داده شود، تصویر به تیمی از بازبینی‌کنندگان انسانی ارجاع داده می‌شود که در صورت تایید تصویر به مجری قانون هشدار می‌دهند.

این سیستم در ابتدا فقط برای ایالات متحده خواهد بود.

البته اپل هیچ کاری متفاوت از سایر شرکت های ذخیره سازی ابری انجام نمی دهد، اگرچه اسکن های روی دستگاه یک استثنا است.

In سند پشتیبانی آنها اپل مزایای آن را توضیح می دهد:

اپل در مورد تصاویری که با پایگاه داده شناخته شده CSAM مطابقت ندارند چیزی نمی آموزد.

اپل نمی تواند به فراداده یا مشتقات بصری برای تصاویر منطبق با CSAM دسترسی داشته باشد تا زمانی که از آستانه منطبق برای حساب iCloud Photos فراتر رود.

خطر پرچم گذاری نادرست یک حساب توسط سیستم بسیار کم است. علاوه بر این، اپل به صورت دستی تمام گزارش های ارائه شده به NCMEC را بررسی می کند تا از صحت گزارش اطمینان حاصل کند.

کاربران نمی توانند به پایگاه داده تصاویر شناخته شده CSAM دسترسی یا مشاهده کنند.

کاربران نمی توانند تشخیص دهند که کدام تصاویر توسط سیستم به عنوان CSAM پرچم گذاری شده اند

البته نگرانی بزرگ، مثبت کاذب و پیامدهای بالقوه آنهاست. در حالی که اپل می‌گوید این ریسک «بسیار کم» است، به دلیل قانون اعداد زیاد، اگر خطر 1 در 1 میلیون باشد، به این معنی است که 1000 نفر از میلیارد کاربر آیفون اپل ممکن است مجبور شوند علیرغم اینکه این کار را انجام نمی‌دهند، خود را به پلیس توضیح دهند. هر چیزی اشتباه است

نگرانی دیگر، کمتر فوری، توسط EFF بیان شده استاین است که سیستم ممکن است با خزش ماموریت یا با فشار دولت های تمامیت خواه برای گنجاندن تصاویر دیگر، به عنوان مثال از اقدامات تروریستی یا نمادهای مورد استفاده توسط مخالفان یا حتی تصاویر LGBT، که اهداف مورد علاقه در صورت افزایش دولت های دست راستی در اروپای شرقی است، گسترش یابد. .

این ویژگی به عنوان بخشی از iOS 15 عرضه خواهد شد.

از طريق Engadget

بیشتر در مورد موضوعات: سیب, حریم خصوصی

پاسخ دهید

آدرس ایمیل شما منتشر نخواهد شد. بخشهای موردنیاز علامتگذاری شدهاند *