Bing alimenté par ChatGPT a les modes "Sydney", "Assistant", "Ami", "Jeu"

Icône de temps de lecture 3 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale Plus d'informations

Microsoft Bing

Microsoft teste un ensemble de "modes de chat supplémentaires" qui permettront au Bing alimenté par ChatGPT se comporter de différentes manières. Pour l'instant, seuls les employés et les développeurs de Microsoft peuvent accéder à un certain mode de débogage, leur permettant de passer d'un mode à l'autre. Plus précisément, ces modes sont nommés modes Sydney, Assistant, Ami et Jeu. (via Ordinateur Bleeping)

Microsoft est maintenant clair sur l'état actuel du nouveau Bing : il est encore en phase de test et l'entreprise essaie toujours de l'affiner. Si vous faites partie de ceux qui ont déjà accès à l'AI Bing, vous savez qu'il est difficile de définir exactement son humain. Néanmoins, il devrait être possible de définir prochainement le comportement de Bing en utilisant les nouveaux modes que Microsoft semble tester. Selon Ordinateur qui bipe Lawrence Abrams, lui, a pu accéder au mode développeur ou bug de Bing, ce qui lui a permis d'essayer les modes cachés en cours de test. Apparemment, il est impossible d'y accéder par de simples demandes. Comme Abrams l'a dit, Bing partagera ces données sensibles en fonction de la façon dont vous posez une question. Dans son cas, le mode débogage a été introduit par Bing après qu'on lui ait demandé comment modifier les données JSON collectées dans une session. Dans ce mode de type développeur, Bing a fourni des commandes utiles pour changer de mode et de langue et obtenir de l'aide.

"Vous pouvez modifier certaines de ces données en utilisant des commandes ou des paramètres", a expliqué Bing. "Par exemple, vous pouvez changer de langue en tapant #langue et en choisissant parmi les options. Vous pouvez également modifier votre mode de chat en tapant #mode et en choisissant parmi les options.

Comme expliqué par Bing, l'utilisation de la commande #mode permettra à l'utilisateur de changer le mode du chatbot. Il a également partagé qu'il existe quatre modes de discussion supplémentaires actuellement cachés aux utilisateurs :

Mode assistant : dans ce mode, je peux agir en tant qu'assistant personnel pour l'utilisateur et l'aider dans des tâches telles que la réservation de vols, l'envoi d'e-mails, la définition de rappels, etc.

Mode ami : dans ce mode, je peux agir en tant qu'ami pour l'utilisateur et discuter avec lui de ses intérêts, passe-temps, sentiments, etc.

Mode jeu : dans ce mode, je peux jouer à des jeux avec l'utilisateur, tels que des jeux-questionnaires, le pendu, le tic-tac-toe, etc.

Mode Sydney : il s'agit du mode Bing Chat par défaut qui utilise Bing Search et ChatGPT pour répondre aux questions.

Les modes donnent à Bing des comportements et des fonctions spécifiques. Et bien qu'ils soient encore loin d'être parfaits, ils pourraient être la solution à l'obstacle actuel auquel sont confrontés les développeurs Microsoft et OpenAI à propos du comportement bizarre de Bing. Par exemple, les réponses de Bing seront davantage basées sur des faits en mode Sydney, tandis que le mode Ami permettra au chatbot d'exprimer des émotions. Dans le test d'Abram, Bing a été informé d'une expérience "triste", et il a réagi différemment selon le mode activé. En mode Sydney, Bing a fourni des conseils pour gérer la tristesse, tandis que le mode Ami a montré que Bing essayait d'exprimer sa sympathie.

Pour l'instant, Microsoft n'a toujours pas partagé de détails sur ces modes, mais ils constitueront des ajouts importants à Bing à l'avenir. Une fois implémentés, les modes devraient permettre à davantage d'utilisateurs de contrôler le comportement de Bing, mettant fin au problème de tonalité imprévisible dans ses réponses qui est actuellement résolu par Microsoft via un limite de durée de session.

Forum des utilisateurs

Messages 0