Η Google AI βάζει τον πατέρα σε έρευνα για την κακοποίηση παιδιών λόγω των γυμνών φωτογραφιών του μικρού παιδιού στο διαδίκτυο

Εικονίδιο ώρας ανάγνωσης 3 λεπτό. ανάγνωση


Οι αναγνώστες βοηθούν στην υποστήριξη του MSpoweruser. Ενδέχεται να λάβουμε προμήθεια εάν αγοράσετε μέσω των συνδέσμων μας. Εικονίδιο επεξήγησης εργαλείου

Διαβάστε τη σελίδα αποκάλυψης για να μάθετε πώς μπορείτε να βοηθήσετε το MSPoweruser να διατηρήσει τη συντακτική ομάδα Διάβασε περισσότερα

Ένας πατέρας ονόματι Mark, ο οποίος τράβηξε μια φωτογραφία της πρησμένης βουβωνικής χώρας του παιδιού του για να τη χρησιμοποιήσει για μια διαδικτυακή ιατρική συμβουλή, ερευνήθηκε μετά Google επισήμανε τις εικόνες ως υλικό σεξουαλικής κακοποίησης παιδιών (CSAM). Σύμφωνα με την αναφορά από Οι Νιου Γιορκ Ταιμς, αν και η έρευνα διαπίστωσε ότι η υπόθεση του πατέρα «δεν πληρούσε τα στοιχεία του εγκλήματος και ότι δεν συνέβη κανένα έγκλημα», θα μπορούσε να ήταν χειρότερο, γεγονός που θα μπορούσε να έχει ως αποτέλεσμα να χάσει την επιμέλεια του παιδιού του. Ακόμη περισσότερο, η Google παρέμεινε σταθερή στην απόφασή της να απενεργοποιήσει (και αργότερα να διαγράψει) τον λογαριασμό του Mark, αν και προσέφυγε στην εταιρεία με το αποτέλεσμα της αστυνομικής αναφοράς ως απόδειξη της αθωότητάς του.

Η τεχνολογία παραμένει ελαττωματική, αλλά τα λάθη της δεν πρέπει να σας φέρουν σε κρίσιμη κατάσταση που θα μπορούσε να σας βάλει σε κίνδυνο. Αυτό δεν συμβαίνει με τους ταξινομητές μηχανικής μάθησης της Google και την τεχνολογία αντιστοίχισης κατακερματισμού που δημιουργούν «ένα «κατακερματισμό» ή ένα μοναδικό ψηφιακό αποτύπωμα, για μια εικόνα ή ένα βίντεο, ώστε να μπορεί να συγκριθεί με κατακερματισμούς γνωστών CSAM». Σύμφωνα με την Google, μόλις η τεχνολογία και οι «εκπαιδευμένες ομάδες ειδικών» εντοπίσουν το CSAM, αναφέρεται στο Εθνικό Κέντρο για τα Εξαφανισμένα και Εκμεταλλευόμενα Παιδιά (NCMEC), το οποίο θα ξεκινήσει έρευνα με τη βοήθεια των αρχών επιβολής του νόμου. Ωστόσο, η τεχνολογία δεν είναι 100% ακριβής και τα λάθη που θα μπορούσε να κάνει θα μπορούσαν να σημαίνουν μεγάλες συνέπειες για οποιονδήποτε.

Σε ένα email που στάλθηκε στο Η Verge από την Google, ωστόσο, η εταιρεία ισχυρίζεται ότι «η ομάδα των ειδικών της σε θέματα ασφάλειας παιδιών εξετάζει το περιεχόμενο που έχει επισημανθεί για ακρίβεια και συμβουλεύεται παιδιάτρους για να διασφαλίσει ότι είμαστε σε θέση να εντοπίσουμε περιπτώσεις όπου οι χρήστες μπορεί να ζητούν ιατρική συμβουλή». Δυστυχώς, ενώ η περιγραφή ταιριάζει στην περίπτωση του Mark, η Google εξακολουθούσε να επισήμανε τον πατέρα ως εγκληματία, κάτι που οδήγησε σε έρευνα και έχασε τον λογαριασμό του Google και άλλα σημαντικά αρχεία cloud. Σε μια παράπλευρη σημείωση, ένας εκπρόσωπος της Google εξήγησε στους NYT ότι εκτελεί σάρωση μόνο όταν εκτελείται μια "καταφατική ενέργεια", όπως η δημιουργία αντιγράφων ασφαλείας φωτογραφιών στο cloud της Google.

Σύμφωνα με το έκθεση διαφάνειας της Google, έχει ήδη αναφέρει συνολικά 621,583 περιπτώσεις CSAM στο NCMEC CyberTipline, με αποτέλεσμα οι υπηρεσίες επιβολής του νόμου να ειδοποιούνται για 4,260 πιθανά ζητήματα του CSAM (και 270,000 λογαριασμοί έχουν απενεργοποιηθεί), συμπεριλαμβανομένης της περίπτωσης του Mark. Ωστόσο, μετά από έρευνα τον Φεβρουάριο του 2021 που απέδειξε ότι δεν έγιναν παραβιάσεις, μας προκαλεί απορία Google AIτην ικανότητα του να επισημαίνει παιδική κακοποίηση ή εκμετάλλευση. Και με το γεγονός ότι θα μπορούσε να οδηγήσει σε σοβαρές συνέπειες, όπως η απώλεια των δεδομένων και του λογαριασμού σας στο cloud και η διερεύνηση από τις αρχές, το να κατηγορηθείτε ως εγκληματίας από το εργαλείο της Google είναι μια σκέτη ταλαιπωρία. Ακόμη χειρότερα, θα μπορούσε να σημαίνει ζητήματα απορρήτου, που σας προκαλούν ανησυχίες σχετικά με τα πράγματα που θέλετε να αποθηκεύσετε στο τηλέφωνό σας ή να ανεβάσετε στο cloud, ανεξάρτητα από το αν είναι για ιατρικούς ή άλλους μη προσβλητικούς λόγους.