O ChatGPT da OpenAI corrige o problema que censura erroneamente o nome "David Mayer"

Há um pânico online sobre isso.

Ícone de tempo de leitura 2 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

Notas chave

  • O ChatGPT inicialmente bloqueou nomes como “David Mayer” e outros, gerando algumas teorias malucas.
  • Desde então, a OpenAI corrigiu o problema, mas a causa permanece obscura.
  • David Mayer também não é o único nome que o ChatGPT censurou por engano.
Pesquisa ChatGPT

Relatórios virais online estão dizendo isso ChatGPT da OpenAI recusou-se a reconhecer o nome “David Mayer”. O chatbot de IA cumprimentou alguns usuários com uma mensagem “Não consigo produzir uma resposta”, gerando muitas teorias aqui e ali.

Temos tentei colocar isso à prova, então agora, parece que a OpenAI finalmente consertou.

As teorias surgiram inicialmente de pessoas com olhos de águia Reddit que têm tentado contornar o bloqueio, como usar formatos diferentes ou capturas de tela. Eles não tiveram sucesso, o que parece bem estranho, especialmente com muita conspiração circulando na esfera da IA.

Mas descobriu-se que David Mayer não é o único nome que o ChatGPT estava censurando por engano. Outro usuário no Reddit descobriram que nomes como Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber e Guido Scorza também estavam sendo bloqueados.

Esses indivíduos compartilham uma característica comum: eles foram acusados ​​de atividade ilegal pelo ChatGPT, criticaram a IA ou exerceram seu direito de serem esquecidos sob o GDPR. Estranhamente, também tentamos copiando e colando o tópico acima no ChatGPT, e adivinha no que nos deparamos?

Seja um caso de OpenAI esquecendo de corrigir um problema, ou uma pessoa real tentando apagar sua pegada digital, ainda não sabemos ao certo. Parece um mecanismo mais intencional, como uma restrição baseada em preocupações com privacidade ou filtragem.

Gemini, concorrente da OpenAI, também enfrentou um caso um tanto semelhante. O chatbot de IA disse a um usuário para “morrer” e como eles eram “um fardo para a sociedade” depois que sua conversa sobre dever de casa tomou um rumo repentino e perturbador.

Fórum de usuários

Mensagens 0