Organizația britanică anti-pornografie cu copii raportează o creștere a deepfake-urilor de inteligență artificială porno în ultimele luni

Internet Watch Foundation (IWF) există de aproape trei decenii

Pictograma timp de citire 2 min. citit


Cititorii ajută la sprijinirea MSpoweruser. Este posibil să primim un comision dacă cumpărați prin link-urile noastre. Pictograma Tooltip

Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Afla mai multe

Note cheie

  • IWF spune că deepfake-urile IA din porno sunt produse la „un ritm înspăimântător” în ultimele luni.
  • Organizația anti-pornografie cu sediul în Marea Britanie își dezvăluie descoperirea într-un raport recent publicat în iulie 2024.
  • Apple se confruntă, de asemenea, cu controverse pentru subraportarea materialului AI de abuz sexual asupra copiilor.
Hacker, ilustrație deepfake

Internet Watch Foundation (IWF), o organizație anti-pornografia infantilă cu sediul în Marea Britanie, dezvăluie o tendință tulburătoare de materiale de abuz sexual asupra copiilor generate de inteligență artificială (AI CSAM) sau așa-numitele deepfakes AI pornografice.

Raport 2024 din iulie, postat luni, spune că un astfel de conținut este produs la „un ritm înspăimântător”. Între martie și aprilie 2024, cercetătorii au descoperit nouă videoclipuri deepfake noi cu abuzuri asupra copiilor pe un forum dark web, care nu erau prezente într-o investigație anterioară, care a fost datată. octombrie 2023.

In afara de asta, studiul De asemenea, s-au găsit peste 12,000 de imagini noi generate de inteligență artificială postate într-o singură lună, dintre care peste 3,500 sunt considerate criminale și înfățișând abuzuri severe. Această tehnologie, în special modelele LoRA, permite infractorilor să creeze imagini extrem de realiste ale victimelor false și reale.

„Din păcate, legislația britanică rămâne în urmă progreselor în domeniul tehnologiei AI. Deși AI CSAM este ilegal, iar IWF poate lua măsuri pentru a-l elimina, nu același lucru este valabil și pentru modelele AI ajustate pe imagini cu abuz sexual asupra copiilor. Instrumentul pentru crearea de imagini AI ale Oliviei rămâne legal în Marea Britanie”, se arată în raport.

Raportul anterior din octombrie 2023 a găsit peste 20,200 de imagini de abuz sexual asupra copiilor generate de inteligență artificială, postate pe un forum dark web într-o lună. Dintre acestea, peste 11,100 au fost evaluate, peste 2,500 fiind clasificate drept pseudofotografii criminale și aproximativ 400 ca imagini interzise.

IFW din Marea Britanie funcționează de aproape trei decenii în urmă. În septembrie 2022, s-au lansat IFW & Pornhub chatbot-ul „reThink”. pentru a descuraja utilizatorii care caută materiale de abuz sexual asupra copiilor, implicând peste 173,000 de utilizatori în prima lună și direcționându-i către servicii de asistență.

Raportul în sine a venit pe fondul controversei recente a Apple despre subraportarea CSAM pe platformele lor, în comparație cu alți giganți tehnologici precum Meta și Google.

Societatea Națională pentru Prevenirea Crudității față de Copii (NSPCC) din Marea Britanie spune că iCloud, iMessage și Facetime de la Apple au fost implicate în mai multe cazuri de CSAM în Anglia și Țara Galilor decât ceea ce a raportat gigantul tehnologic la nivel global. Apple intenționa să încorporeze o IA pentru a scana un astfel de conținut pe iCloud, dar din cauza problemelor de confidențialitate privind colectarea datelor, planul a fost abandonat.

Forumul utilizatorilor

0 mesaje