Novo Bing divulga pseudônimo 'Sydney', outras diretivas originais após ataque de injeção imediata

Ícone de tempo de leitura 2 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

O novo Bing com tecnologia ChatGPT revelou seus segredos depois de sofrer um ataque de injeção imediata. Além de divulgar seu codinome como “Sydney”, também compartilhou suas diretrizes originais, orientando-a sobre como se comportar na interação com os usuários. (através da Ars Technica)

O ataque de injeção imediata ainda é um dos pontos fracos da IA. Isso pode ser feito enganando a IA com entrada de usuário maliciosa e adversária, fazendo com que ela execute uma tarefa que não faz parte de seu objetivo original ou faça coisas que não deveria. O ChatGPT não é exceção, como revelou um estudante da Universidade de Stanford Kevin liu.

Novo Bing com tecnologia ChatGPT divulga seu apelido interno 'Sydney' e outras diretivas originais após ataque de injeção imediata
Crédito da imagem: Kevin Liu

Em uma série de capturas de tela compartilhadas por Liu, o novo Bing com tecnologia ChatGPT compartilhou informações confidenciais que fazem parte de suas diretrizes originais, que são ocultadas dos usuários. Liu conseguiu obter informações após usar um ataque de injeção imediata que enganou a IA. Incluídas nas informações divulgadas estão as instruções para sua introdução, pseudônimo interno Sydney, idiomas suportados e instruções comportamentais. Outro aluno chamado Marvin von Hagen confirmou as descobertas de Liu depois de fingir ser um desenvolvedor OpenAI.

Depois de um dia em que as informações foram reveladas, Liu disse que não conseguia visualizar as informações usando o mesmo prompt que usou para enganar o ChatGPT. No entanto, o aluno conseguiu enganar a IA novamente depois de usar um método diferente de ataque de injeção imediata.

A Microsoft recentemente revelou oficialmente o novo Bing compatível com ChatGPT ao lado de um navegador Edge renovado com uma nova barra lateral com inteligência artificial. Apesar de seu aparente enorme sucesso, o mecanismo de busca aprimorado ainda tem seu calcanhar de Aquiles em termos de ataques de injeção imediata, o que pode levar a outras implicações além do compartilhamento de suas diretivas confidenciais. O ChatGPT não está sozinho neste problema conhecido entre a IA. Isso também pode se estender a outros, incluindo Google Bardo, que recentemente cometeu seu primeiro erro em uma demonstração. No entanto, com toda a indústria de tecnologia investindo mais em criações de IA, só podemos esperar que o problema seja menos ameaçador para a IA no futuro.

Mais sobre os tópicos: ai, Inteligência artificial, bing, ChatGPT, Google Bardo, Microsoft Edge, openAI, segurança