אפל תודיע למשטרה אם היא מאמינה שיש לך תמונות פוגעניות באייפון שלך

סמל זמן קריאה 2 דקות לקרוא


קוראים עוזרים לתמוך ב-MSpoweruser. אנו עשויים לקבל עמלה אם תקנה דרך הקישורים שלנו. סמל טיפים

קרא את דף הגילויים שלנו כדי לגלות כיצד תוכל לעזור ל-MSPoweruser לקיים את צוות העריכה קראו עוד

פרטיות האייפון

השמיים מדווחים של Financial Times שאפל עובדת על מערכת שתסרוק תמונות באייפון שלך לאיתור תמונות של התעללות בילדים ואז תיצור קשר עם המשטרה אם יזוהה.

מערכת neuralMatch כביכול הוכשרה על בסיס נתונים מהמרכז הלאומי לילדים נעדרים ומנוצלים, ותמונות במכשיר שלך והועלו ל-iCloud ייסרקו באופן רציף.

אם תזוהה תמונה המרמזת על התעללות, התמונה תופנה לצוות של בודקים אנושיים שלאחר מכן יתריע לרשויות אכיפת החוק אם תמונה מאומתת.

המערכת תהיה בתחילה רק בארה"ב.

אפל כמובן לא עושה שום דבר שונה מחברות אחסון ענן אחרות, אם כי סריקות במכשיר הן חריגות.

In מסמך התמיכה שלהם אפל מסבירה את היתרונות:

אפל לא לומדת דבר על תמונות שאינן תואמות למסד הנתונים הידוע של CSAM.

אפל לא יכולה לגשת למטא נתונים או לנגזרות ויזואליות עבור תמונות CSAM מותאמות עד לחרוג מסף התאמות עבור חשבון iCloud Photos.

הסיכון שהמערכת תסמן חשבון באופן שגוי הוא נמוך ביותר. בנוסף, אפל בוחנת ידנית את כל הדיווחים שנעשו ל-NCMEC כדי להבטיח את דיוק הדיווח.

משתמשים לא יכולים לגשת או להציג את מסד הנתונים של תמונות CSAM ידועות.

משתמשים לא יכולים לזהות אילו תמונות סומנו כ-CSAM על ידי המערכת

הדאגה הגדולה כמובן היא חיוביות כוזבות וההשלכה הפוטנציאלית של אלה. בעוד אפל טוענת שהסיכון הוא "נמוך ביותר", בשל חוק המספרים הגדולים, אם הסיכון הוא 1 למיליון, פירוש הדבר ש-1 ממיליארד משתמשי האייפון של אפל עשויים בסופו של דבר יצטרכו להסביר את עצמם למשטרה למרות שלא עשו זאת. משהו לא בסדר.

הדאגה האחרת, הפחות מיידית, לידי ביטוי על ידי ה-EFF, היא שהמערכת עשויה להתרחב על ידי זריקת משימה, או על ידי לחץ של ממשלות טוטליטריות לכלול תמונות אחרות, למשל של פעולות טרור או סמלים המשמשים מתנגדים או אפילו דימויים להט"בים, יעד מועדף בהגדלת ממשלות ימין במזרח אירופה .

התכונה תושק כחלק מ-iOS 15.

באמצעות Engadget

עוד על הנושאים: תפוח, פרטיות

השאירו תגובה

כתובת הדוא"ל שלך לא תפורסם. שדות חובה מסומנים *