Η Microsoft αποσύρει το chatbot της τεχνητής νοημοσύνης αφού οι χρήστες του Twitter το δίδαξαν ότι είναι ρατσιστικό
1 λεπτό. ανάγνωση
Δημοσιεύθηκε στις
Διαβάστε τη σελίδα αποκάλυψης για να μάθετε πώς μπορείτε να βοηθήσετε το MSPoweruser να διατηρήσει τη συντακτική ομάδα Διάβασε περισσότερα
Χθες, αναφέραμε για το νέο chatbot AI της Microsoft, Tay. Το chatbot AI μαθαίνει νέα πράγματα καθώς γνωρίζει νέα πράγματα στο διαδίκτυο. Όπως αναμενόταν, ορισμένοι χρήστες του Twitter το έμαθαν να είναι…ρατσιστικό:
https://twitter.com/geraldmellor/status/712880710328139776
…και αυτό:
Ο Tay δεν απαντά ούτε στα Direct Messages. Όταν της στέλνετε ένα DM, απλά αναφέρει:
«Το Brb μου αρέσει πολύ στις αναβαθμίσεις μου στο εργαστήριο σήμερα!»
Προφανώς, ο Tay κοιμάται αυτήν τη στιγμή:
https://twitter.com/TayandYou/status/712856578567839745
Αξίζει να σημειωθεί ότι η Microsoft διαγράφει μερικά από τα ρατσιστικά tweets του Tay. Η εταιρεία πιθανώς εργάζεται για τη βελτίωση του Tay και ελπίζουμε ότι θα επιστρέψει σύντομα.
Όταν η Microsoft συνειδητοποίησε τι δίδασκε το Διαδίκτυο @TayandYou pic.twitter.com/tDSwSqAnbl
- SwiftOnSecurity (@SwiftOnSecurity) Μαρτίου 24, 2016
Έχουμε επικοινωνήσει με τη Microsoft για περισσότερες πληροφορίες σχετικά με αυτό και θα ενημερώσουμε την ιστορία όταν και αν λάβουμε νέα από αυτήν.