ChatGPT d'OpenAI corrige le problème qui censure par erreur le nom « David Mayer »

Il y a une panique en ligne à ce sujet.

Icône de temps de lecture 2 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus.

Notes clés

  • ChatGPT a initialement bloqué des noms comme « David Mayer » et d’autres, suscitant des théories folles.
  • OpenAI a depuis résolu le problème, mais la cause reste floue.
  • David Mayer n'est pas non plus le seul nom que ChatGPT a censuré par erreur.
Recherche ChatGPT

Rapports viraux en ligne disent que ChatGPT d'OpenAI a refusé de reconnaître le nom « David Mayer ». Le chatbot IA a accueilli certains utilisateurs avec un message « Je ne suis pas en mesure de produire une réponse », suscitant de nombreuses théories ici et là.

Nous avons j'ai essayé de le mettre à l'épreuve, donc maintenant, il semble qu'OpenAI ait finalement résolu le problème.

Les théories sont d'abord venues de personnes aux yeux d'aigle Reddit qui ont tenté de contourner le blocage, par exemple en utilisant des formats différents ou des captures d'écran. Ils n'ont cependant pas réussi, ce qui semble assez étrange, surtout avec beaucoup de conspiration qui circule dans la sphère de l'IA.

Mais il s'est avéré que David Mayer n'était pas le seul nom que ChatGPT censurait par erreur. Un autre utilisateur sur Reddit nous avons découvert que des noms comme Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber et Guido Scorza étaient également bloqués.

Ces individus partagent un point commun : ils ont été accusés d'activités illégales par ChatGPT, ont critiqué l'IA ou ont exercé leur droit à l'oubli en vertu du RGPD. Curieusement, nous avons également essayé copier-coller le fil ci-dessus sur ChatGPT, et devinez sur quoi nous sommes tombés ?

On ne sait toujours pas avec certitude s'il s'agit d'un cas où OpenAI a oublié de corriger un problème ou d'une personne qui tente d'effacer son empreinte numérique. Il semblerait plutôt qu'il s'agisse d'un mécanisme plus intentionnel, comme une restriction basée sur des préoccupations de confidentialité ou un filtrage.

Gemini, concurrent d'OpenAI, a également été confronté à un cas quelque peu similaire. Le chatbot IA a dit à un utilisateur de « mourir » et comment ils étaient devenus « un fardeau pour la société » après que leur conversation sur les devoirs ait pris une tournure soudaine et dérangeante.

Forum des utilisateurs

Messages 0