Apple informará a polícia se eles acreditarem que você tem imagens abusivas no seu iPhone

Ícone de tempo de leitura 2 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

privacidade do iphone

A Relatórios do Financial Times que a Apple está trabalhando em um sistema que escaneia fotos em seu iPhone em busca de imagens de abuso infantil e, em seguida, contata a polícia, se detectada.

O chamado sistema neuralMatch foi treinado em um banco de dados do Centro Nacional para Crianças Desaparecidas e Exploradas, e as fotos em seu aparelho e carregadas no iCloud serão digitalizadas continuamente.

Se uma imagem sugestiva de abuso for detectada, a imagem será encaminhada a uma equipe de revisores humanos que alertarão as autoridades se uma imagem for verificada.

O sistema seria inicialmente apenas para os EUA.

É claro que a Apple não está fazendo nada diferente de outras empresas de armazenamento em nuvem, embora as varreduras no dispositivo sejam uma exceção.

In seu documento de apoio A Apple explica os benefícios:

A Apple não aprende nada sobre imagens que não correspondem ao banco de dados CSAM conhecido.

A Apple não pode acessar metadados ou derivados visuais para imagens CSAM correspondentes até que um limite de correspondências seja excedido para uma conta do Fotos do iCloud.

O risco de o sistema sinalizar incorretamente uma conta é extremamente baixo. Além disso, a Apple revisa manualmente todos os relatórios feitos ao NCMEC para garantir a precisão dos relatórios.

Os usuários não podem acessar ou visualizar o banco de dados de imagens CSAM conhecidas.

Os usuários não conseguem identificar quais imagens foram sinalizadas como CSAM pelo sistema

A grande preocupação, é claro, são os falsos positivos e a possível consequência deles. Enquanto a Apple diz que o risco é “extremamente baixo”, devido à lei dos grandes números, se o risco for de 1 em 1 milhão, isso significaria que 1000 dos bilhões de usuários de iPhone da Apple podem acabar tendo que se explicar à polícia apesar de não fazerem algo errado.

A outra preocupação, menos imediata, expresso pela EFF, é que o sistema pode ser ampliado por missão desleixada, ou por pressão de governos totalitários para incluir outras imagens, por exemplo, de atos terroristas ou símbolos usados ​​por dissidentes ou mesmo imagens LGBT, alvos favoritos se aumentar os governos de direita na Europa Oriental .

O recurso será lançado como parte do iOS 15.

via Engadget

Mais sobre os tópicos: maçã, Privacidade

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *