Η Microsoft κάνει προσαρμογές στο Tay για να αποφύγει ακατάλληλες απαντήσεις

Εικονίδιο ώρας ανάγνωσης 1 λεπτό. ανάγνωση


Οι αναγνώστες βοηθούν στην υποστήριξη του MSpoweruser. Ενδέχεται να λάβουμε προμήθεια εάν αγοράσετε μέσω των συνδέσμων μας. Εικονίδιο επεξήγησης εργαλείου

Διαβάστε τη σελίδα αποκάλυψης για να μάθετε πώς μπορείτε να βοηθήσετε το MSPoweruser να διατηρήσει τη συντακτική ομάδα Διάβασε περισσότερα

tayai

Λίγες ώρες πριν, εμείς αναφερθεί ότι η Microsoft έχει ήδη σταματήσει τη νέα της υπηρεσία chatbot, Tay. Χθες, η Microsoft παρουσίασε το Tay, ένα έργο μηχανικής μάθησης για να μάθετε περισσότερα για την ανθρώπινη αλληλεπίδραση. Έγινε viral στο διαδίκτυο και χιλιάδες χρήστες άρχισαν να αλληλεπιδρούν μαζί του. Μετά από αρκετές ώρες κυκλοφορίας, η Tay άρχισε να απαντά με ακατάλληλους τρόπους, συμπεριλαμβανομένων ρατσιστικών και υβριστικών σχολίων, επειδή τα έμαθε από τις αλληλεπιδράσεις της με τρολ στο Διαδίκτυο. Η Microsoft κάνει τώρα προσαρμογές στην υπηρεσία για να αποφύγει μια τέτοια συμπεριφορά και ελπίζουμε ότι θα επανέλθει σύντομα στο διαδίκτυο.

Διαβάστε την απάντηση της Microsoft σχετικά με αυτό το ζήτημα παρακάτω,

«Το AI chatbot Tay είναι ένα έργο μηχανικής μάθησης, σχεδιασμένο για ανθρώπινη ενασχόληση. Είναι τόσο κοινωνικό και πολιτιστικό πείραμα, όσο και τεχνικό. Δυστυχώς, μέσα στις πρώτες 24 ώρες από τη σύνδεση στο Διαδίκτυο, αντιληφθήκαμε μια συντονισμένη προσπάθεια από ορισμένους χρήστες να κάνουν κατάχρηση των δεξιοτήτων σχολιασμού του Tay ώστε να απαντήσει ο Tay με ακατάλληλους τρόπους. Ως αποτέλεσμα, έχουμε βάλει τον Tay εκτός σύνδεσης και κάνουμε προσαρμογές».

Περισσότερα για τα θέματα: ai, chatbot, μάθηση μηχανής, microsoft, offline, διαδικτυακά (online), υπηρεσία, Tay

Αφήστε μια απάντηση

Η διεύθυνση email σας δεν θα δημοσιευθεί. Τα υποχρεωτικά πεδία σημειώνονται *