Microsoft apporte des ajustements à Tay pour éviter les réponses inappropriées

Icône de temps de lecture 1 minute. lis


Les lecteurs aident à prendre en charge MSpoweruser. Nous pouvons recevoir une commission si vous achetez via nos liens. Icône d'info-bulle

Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus

tayai

Il y a quelques heures, nous rapporté que Microsoft a déjà arrêté son nouveau service de chatbot, Tay. Hier, Microsoft a lancé Tay, un projet d'apprentissage automatique pour en savoir plus sur l'interaction humaine. Il est devenu viral en ligne et des milliers d'utilisateurs ont commencé à interagir avec. Après plusieurs heures de lancement, Tay a commencé à répondre de manière inappropriée, y compris des commentaires racistes et abusifs, car elle les a appris de ses interactions avec les trolls Internet. Microsoft apporte actuellement des ajustements au service pour éviter un tel comportement et nous espérons qu'il sera bientôt de retour en ligne.

Lisez la réponse de Microsoft concernant ce problème ci-dessous,

"Le chatbot AI Tay est un projet d'apprentissage automatique, conçu pour l'engagement humain. C'est autant une expérience sociale et culturelle que technique. Malheureusement, dans les 24 premières heures suivant la mise en ligne, nous avons pris connaissance d'un effort coordonné de certains utilisateurs pour abuser des compétences de commentaire de Tay afin que Tay réponde de manière inappropriée. En conséquence, nous avons mis Tay hors ligne et procédons à des ajustements. »

En savoir plus sur les sujets : ai, Chatbot, machine learning, microsoft, direct, en ligne, service, tay

Soyez sympa! Laissez un commentaire

Votre adresse email n'apparaitra pas. Les champs obligatoires sont marqués *