Η Microsoft αποσύρει το chatbot της τεχνητής νοημοσύνης αφού οι χρήστες του Twitter το δίδαξαν ότι είναι ρατσιστικό

Εικονίδιο ώρας ανάγνωσης 1 λεπτό. ανάγνωση


Οι αναγνώστες βοηθούν στην υποστήριξη του MSpoweruser. Ενδέχεται να λάβουμε προμήθεια εάν αγοράσετε μέσω των συνδέσμων μας. Εικονίδιο επεξήγησης εργαλείου

Διαβάστε τη σελίδα αποκάλυψης για να μάθετε πώς μπορείτε να βοηθήσετε το MSPoweruser να διατηρήσει τη συντακτική ομάδα Διάβασε περισσότερα

tayai

Χθες, αναφέραμε για το νέο chatbot AI της Microsoft, Tay. Το chatbot AI μαθαίνει νέα πράγματα καθώς γνωρίζει νέα πράγματα στο διαδίκτυο. Όπως αναμενόταν, ορισμένοι χρήστες του Twitter το έμαθαν να είναι…ρατσιστικό:

https://twitter.com/geraldmellor/status/712880710328139776

…και αυτό:

Screen_Shot_2016-03-24_at_10.46.22_AM.0

Ο Tay δεν απαντά ούτε στα Direct Messages. Όταν της στέλνετε ένα DM, απλά αναφέρει:

«Το Brb μου αρέσει πολύ στις αναβαθμίσεις μου στο εργαστήριο σήμερα!»

Προφανώς, ο Tay κοιμάται αυτήν τη στιγμή:

https://twitter.com/TayandYou/status/712856578567839745

Αξίζει να σημειωθεί ότι η Microsoft διαγράφει μερικά από τα ρατσιστικά tweets του Tay. Η εταιρεία πιθανώς εργάζεται για τη βελτίωση του Tay και ελπίζουμε ότι θα επιστρέψει σύντομα.

Έχουμε επικοινωνήσει με τη Microsoft για περισσότερες πληροφορίες σχετικά με αυτό και θα ενημερώσουμε την ιστορία όταν και αν λάβουμε νέα από αυτήν.

Περισσότερα για τα θέματα: ai, Ελα, microsoft, Tay, Τουίτερ

Αφήστε μια απάντηση

Η διεύθυνση email σας δεν θα δημοσιευθεί. Τα υποχρεωτικά πεδία σημειώνονται *