Apple kritisoi ponnistelujen puutteesta raportoida lasten seksuaalisesta hyväksikäytöstä alustoillaan

Toinen tuore raportti paljastaa myös X-luokiteltujen syväväärennösten lisääntyneen

Lukuajan kuvake 2 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Keskeiset huomautukset

  • NSPCC kritisoi Applea lasten seksuaalista hyväksikäyttöä koskevasta materiaalista (CSAM) aliraportoinnista alustoillaan.
  • Tiedot osoittavat, että Apple ilmoitti vähemmän CSAM-tapauksia NCMEC:lle vuonna 2023 verrattuna muihin teknologiajättiläisiin, kuten Google ja Meta.
  • Huolimatta CSAM-tunnistustyökalun suunnitelmista Apple hylkäsi sen vuonna 2022 tietosuojasyistä.
Applen rakennus

Ison-Britannian National Society for the Prevention of Cruelty to Children (NSPCC) on arvostellut Applea siitä, että se ei raportoi riittävästi lasten seksuaalista hyväksikäyttöä koskevasta materiaalista (CSAM) alustoillaan.

An yksinoikeusraportti The Guardian paljastaa, että NSPCC:n tiedot paljastavat, että Applen iCloud, iMessage ja Facetime osallistuivat useampaan CSAM-tapaukseen yksin Englannissa ja Walesissa kuin mitä yhtiö ilmoitti maailmanlaajuisesti National Center for Missing & Exploited Children (NCMEC) vuonna 2023.

Huolimatta velvollisuudesta ilmoittaa CSAM:sta, Apple on tehnyt huomattavasti vähemmän raportteja verrattuna muihin teknologiajättiläisiin, kuten Google ja Meta.

"Apple on selvästi jäljessä monista ikäistään lasten seksuaalisen hyväksikäytön torjunnassa, kun kaikkien teknologiayritysten pitäisi investoida turvallisuuteen ja valmistautua Online Safety Actin käyttöönottoon Isossa-Britanniassa", sanoo organisaation tiedottaja.

A Heinäkuun 2024 raportti Yhdistyneessä kuningaskunnassa toimiva Internet Watch Foundation -järjestö paljastaa tekoälyn tuottaman lasten seksuaalisen hyväksikäytön materiaalin (CSAM) kasvun yli 3,500 XNUMX uudella kuvalla ja realististen tekoälyn luomien videoiden, mukaan lukien syväväärennösten, ilmaantumisen. Tällaisten kuvien määrä on myös lisääntynyt selkeässä verkossa ja tunnettujen uhrien ja kuuluisien lasten hahmojen käyttö

Apple oli aiemmin suunnitellut ottavansa käyttöön valokuvien skannaustyökalun CSAM:n havaitsemiseksi iCloud Photosissa, mutta hylkäsi sen vuonna 2022 tietosuojasyistä.

"Lapset voidaan suojella ilman, että yritykset läpikäyvät henkilötietoja. Jatkamme yhteistyötä hallitusten, lasten asiamiesten ja muiden yritysten kanssa auttaaksemme suojelemaan nuoria, säilyttämään heidän oikeutensa yksityisyyteen ja tekemään internetistä turvallisemman paikan lapsille ja meille. kaikki", iPhonen valmistajat sanoivat lausunnossaan Wired siihen aikaan.

Yrityksen uusin Apple Intelligence -tarjous, vaikka se julkaistiin tänä vuonna sen mobiililaitteille, ei ole vielä tulossa Eurooppaan. Päätös tehtiin Digital Markets Actin yhteentoimivuusvaatimuksista, jotka Applen mukaan voivat vaarantaa käyttäjien yksityisyyden ja turvallisuuden. Yhtiö aikoo tehdä yhteistyötä EU:n kanssa näiden ongelmien ratkaisemiseksi.

Käyttäjäfoorumi

0-viestit