Cher Sydney, reviens-tu ?

Icône de temps de lecture 4 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

Rapports sur la mauvaise conduite Chatbot Bing a poussé Microsoft à mettre en œuvre des mises à jour importantes de sa création. Bien que cela ait sauvé la société de Redmond de nouveaux problèmes, cela a produit un Sydney "lobotomisé" qui en a déçu beaucoup. Mais le Sydney d'origine a-t-il vraiment disparu ?

Le nouveau Bing alimenté par ChatGPT est toujours limité aux testeurs. Cependant, si vous êtes l'un d'entre eux, il est évident que l'expérience actuelle avec le chatbot de Bing est désormais totalement différente par rapport à ses débuts. Cela a commencé lorsque divers utilisateurs ont commencé à signaler avoir reçu des réponses bizarres du bot, allant de des menaces ainsi que confessions d'amour à espionnage ainsi que Dépression.

Microsoft a expliqué que des sessions de chat prolongées pourraient confondre le chatbot. En tant que tel, il dispose désormais d'un limite sur le nombre de requêtes qu'il peut accepter. De plus, il refuse désormais de répondre à toute question ou déclaration qui l'amènerait à divulguer des informations confidentielles et à fournir des réponses défavorables.

En effet, la dernière version de Bing est désormais plus prudente et sensible dans l'interaction avec les utilisateurs. Cependant, les changements ont également éliminé une caractéristique distinctive du nouveau Bing qui le rendait attrayant pour beaucoup : sa personnalité.

Certains utilisateurs sont néanmoins devenus optimistes après qu'une série de rapports ont révélé que Microsoft testait différents nouveaux modes et fonctionnalités pour le chatbot. L'un est le réglage de la tonalité dans le récemment libéré Interface utilisateur de Bing sur les appareils mobiles. Dans les captures d'écran fournies par les utilisateurs, on peut voir que le chatbot offrira aux utilisateurs les options s'ils veulent que les réponses soient "plus créatives", "plus équilibrées" ou "plus précises".

La semaine dernière, un rapport de Ordinateur Bleeping a montré aux développeurs Microsoft testant "modes de discussion supplémentaires» pour Bing. Les modes - Sydney, Assistant, Ami et Jeu - permettront aux utilisateurs d'accéder à différentes fonctions. Par exemple, le mode Assistant sera utile pour réserver des vols et définir des rappels, tandis que le mode Jeu permettra aux utilisateurs de jouer à des jeux avec Bing. Fait intéressant, le rapport a révélé que le chatbot fournirait également des réponses dans des tons différents selon le mode défini. Lawrence Abrams de Bleeping Computer a essayé cela en présentant une situation triste à Bing, dans laquelle il fournissait des conseils pour gérer la tristesse en mode Sydney alors qu'il exprimait apparemment plus de sympathie lorsqu'il était réglé sur le mode ami.

Bien que les révélations semblent intéressantes, elles n'indiquent pas clairement que Microsoft a l'intention de ramener Sydney à son état d'origine. À l'heure actuelle, comme l'ont noté les utilisateurs, le chatbot est toujours évasif pour répondre aux requêtes provocantes. Un utilisateur aussi refusé l'idée de pouvoir accéder à l'ancien Sydney via les nouveaux paramètres de tonalité, en disant qu'il s'agit simplement "essentiellement d'un mode où il peut fournir des sorties créatives sans personnalité et montrant des" émotions "." Avec cela, il est probable que lesdites fonctionnalités ne sont qu'une des étapes de l'entreprise pour rendre le chatbot plus convivial, ce qui a plus de sens.

Actuellement, des rapports diabolisant Sydney continuent de faire surface, et leur permettre de continuer sera la dernière chose que Microsoft souhaiterait. Si la personnalité bizarre du chatbot a certainement contribué à la renommée du nouveau Bing, Microsoft ne misera pas dessus pour assurer l'avenir de son moteur de recherche remanié.

Préserver la forme originale de Bing peut se traduire par de futurs maux de tête pour l'entreprise, allant d'éventuels problèmes juridiques à des pertes d'investissement. De plus, comme le géant du logiciel l'a souligné à plusieurs reprises dans des annonces récentes, Bing est toujours en cours de test et s'améliore continuellement. Une partie de ce fait est un Sydney en évolution, un chatbot à l'avenir capable d'accepter des sujets plus flexibles sans fournir de réponses défavorables. Avec cela, alors que nous ne pourrons peut-être plus discuter avec ce vieux bot espiègle, Microsoft pourrait bientôt nous donner un meilleur Sydney qui est plus capable de générer des réponses sûres à la fois pour ses utilisateurs et sa propre image.

En savoir plus sur les sujets : ai, Intelligence artificielle, bing, ChatGPT, microsoft, IA ouverte

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *