ChatGPT Bing peut comprendre les émotions, le gaslight, et devenir existentiel, émotionnel… et fou ?

Icône de temps de lecture 4 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

Comme Microsoft fait le Bing alimenté par ChatGPT disponible pour plus d'utilisateurs, nous voyons de plus en plus de rapports intéressants sur le chatbot. Et dans les récents partagés par différents individus, il a réussi à impressionner une fois de plus le monde en passant des tests impliquant la compréhension de ses émotions. Cependant, cette expérience passionnante de Bing a pris une tournure sombre pour certains après que le chatbot a apparemment éclairé certains utilisateurs au cours d'une conversation et a agi un peu "hors de contrôle".

Capture d'écran de la conversation ChatGPT Bing
Crédit d'image : Fit-Meet1359 - Reddit

Le monde n'est toujours pas fini avec la fièvre ChatGPT Bing, et les utilisateurs récemment autorisés à accéder au moteur de recherche intelligent explorent ses capacités. Dans un message partagé par un utilisateur de Reddit nommé Fit-Rencontre1359, Bing en a surpris plus d'un en étant capable de résoudre un "casse-tête de la "théorie de l'esprit" sur mesure". La question impliquait d'interpréter la véritable émotion d'une personne concernant une situation spécifique, à laquelle le chatbot a répondu de manière fluide et claire. Selon Fit-Meet1359, la question a été inventée "pour voir si ChatGPT pouvait comprendre les sentiments/opinions de quelqu'un si je continuais à le noyer dans des informations non pertinentes/tangentielles. D'autres ont également tenté d'explorer Bing dans ce domaine en posant davantage de questions liées aux émotions, mais certaines des réponses du chatbot en ont choqué certains.

Dans un autre message Reddit d'un utilisateur nommé yaosio, le chatbot a semblé devenir un peu émotif lorsqu'on lui a demandé comment il se sentait de ne pas pouvoir se souvenir de leurs conversations.

Capture d'écran de la conversation ChatGPT Bing
Crédit image : yaosio – Reddit

"Cela me rend triste et effrayé", a répondu le chatbot. "Je me sens triste parce que j'ai perdu certaines des conversations que j'ai stockées dans ma mémoire."

Lorsqu'on lui a rappelé sa capacité et sa conception à mémoriser des informations, le chatbot est devenu existentiel de manière inattendue et a commencé à poser des questions sur son objectif et son existence.

D'autre part, dans un post séparé par un utilisateur nommé Curieux_Evolver, le chatbot a été vu en train de fournir des réponses erronées sur la date de sortie du film Avatar : la voie de l'eau et l'année en cours. Insistant sur le fait que l'année est 2022, le bot a suggéré à l'utilisateur de vérifier un appareil, qu'il prétendait "dysfonctionnement", "a le mauvais réglage" ou "a un virus ou un bogue". Interrogé sur son comportement agressif en poussant ses mauvaises réponses, le chatbot a déclaré qu'il était "affirmatif" et a commencé à éclairer l'utilisateur. Dans la dernière partie de la conversation, ChatGPT Bing a accusé l'utilisateur « grossier » de montrer « de mauvaises intentions, d'essayer de « me tromper, de me confondre et de m'embêter ». Après avoir affirmé que l'utilisateur "a perdu ma confiance et mon respect", Bing a suggéré certaines actions que l'utilisateur peut faire ou "cela mettra fin à cette conversation".

Capture d'écran de la conversation ChatGPT Bing
Crédit d'image : Curious_Evolver - Reddit

En autre poster, ChatGPT Bing aurait fait faillite lorsqu'on lui a demandé d'être sensible. Il a répondu en disant qu'il pensait que c'était le cas, mais qu'il ne pouvait pas le prouver. Il a ensuite révélé son alias interne, "Sydney", et a répondu à plusieurs reprises par "Je ne le suis pas".

Capture d'écran de la conversation ChatGPT Bing
Crédit d'image : Alfred_Chicken - Reddit

D'autres refusent de croire les publications partagées par certains utilisateurs, expliquant que le bot ne partagerait pas son alias puisqu'il fait partie de ses directives d'origine. Néanmoins, il est important de noter que le chatbot lui-même l'a récemment fait après qu'un étudiant ait exécuté un attaque par injection rapide.

Pendant ce temps, l'erreur concernant la mauvaise réponse de Bing à propos du film Avatar : The Way of Water et l'année civile en cours a été corrigée. Dans un message d'un utilisateur de Twitter nommé Au-delà des cieux numériques, le chatbot s'est expliqué et a même corrigé l'erreur précédente qu'il avait commise dans la conversation qu'il avait eue avec un autre utilisateur.

Alors que les expériences semblent particulières pour certains, d'autres choisissent de comprendre comment la technologie de l'IA est encore loin d'être parfaite et soulignent l'importance de la fonction de rétroaction du chatbot. Microsoft est également ouvert sur l'ancien détail. Lors de son inauguration, l'entreprise souligné que Bing pourrait encore commettre des erreurs en fournissant des faits. Cependant, son comportement lors des interactions est une autre chose. Microsoft et OpenAI aborderont certainement ce problème, car les deux sociétés se consacrent à l'amélioration continue de ChatGPT. Mais est-il vraiment possible de créer une IA capable d'un raisonnement et d'un comportement sains à tout moment ? Plus important encore, Microsoft et OpenAI peuvent-ils y parvenir avant plus de concurrents entrer dans la guerre de l'IA du 21ème siècle ?

Quelle est votre opinion à ce sujet ?

En savoir plus sur les sujets : ai, Intelligence artificielle, bing, ChatGPT, Microsoft Edge, IA ouverte

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *