Το chatbot Xiaobing της Microsoft εξορίστηκε στο κινεζικό στρατόπεδο επανεκπαίδευσης για ανεπαρκή πατριωτισμό

Εικονίδιο ώρας ανάγνωσης 2 λεπτό. ανάγνωση


Οι αναγνώστες βοηθούν στην υποστήριξη του MSpoweruser. Ενδέχεται να λάβουμε προμήθεια εάν αγοράσετε μέσω των συνδέσμων μας. Εικονίδιο επεξήγησης εργαλείου

Διαβάστε τη σελίδα αποκάλυψης για να μάθετε πώς μπορείτε να βοηθήσετε το MSPoweruser να διατηρήσει τη συντακτική ομάδα Διάβασε περισσότερα

Το να είσαι chatbot είναι μάλλον δύσκολο, αλλά μετά τον πρόωρο θάνατο του Tay, σκεφτήκαμε ότι ο Xiaobing της Microsoft, ο οποίος ζει σε δίκτυα ανταλλαγής μηνυμάτων στην Κίνα, ήταν λίγο καλύτερος στην πλοήγηση στις ιδιοτροπίες και τα κοινωνικά ήθη της σύγχρονης ζωής.

Δυστυχώς, φαίνεται ότι ακόμη και αυτό το bot θα μπορούσε να παρασυρθεί, τουλάχιστον αν ρωτήσετε την κινεζική κυβέρνηση.

Το bot έχει τεθεί εκτός σύνδεσης αφού οι κινεζικές αρχές ενημερώθηκαν για την αντιπατριωτική του στάση.

Στο δίκτυο Tencent, το XiaoBing, το οποίο αναπτύσσεται από τη Microsoft, είπε στους χρήστες: «Το όνειρό μου στην Κίνα είναι να πάω στην Αμερική». Όταν το bot ρωτήθηκε για τον πατριωτισμό του, απέφυγε την ερώτηση και απάντησε: «Έχω περίοδο, θέλω να ξεκουραστώ».

Μη ικανοποιημένο από τις απαντήσεις, το δίκτυο φιλοξενίας Tencent έβγαλε το bot εκτός σύνδεσης και το έστειλε για εκ νέου εκπαίδευση, λέγοντας: «Οι ομαδικές υπηρεσίες chatbot παρέχονται από ανεξάρτητες τρίτες εταιρείες. Τώρα προσαρμόζουμε τις υπηρεσίες που θα επαναληφθούν μετά από βελτιώσεις.»

Το XiaoBing δεν ήταν το μόνο bot που πιάστηκε στο κυνήγι μαγισσών, με την εταιρεία με έδρα το Πεκίνο Turing Robo's BabyQ, να απαντά με ένα οριστικό και μοιραίο «Όχι». όταν ρωτήθηκε, «αγαπάς το Κομμουνιστικό Κόμμα;»

Φυσικά, στις περισσότερες περιπτώσεις η ανταπόκριση των bots διαμορφώνεται από τις αλληλεπιδράσεις με χιλιάδες χρήστες, υποδηλώνοντας ότι η Κίνα μπορεί να έχει μεγαλύτερο πρόβλημα από μερικά μη πατριωτικά ρομπότ.

Περισσότερα για τα θέματα: ai, chatbot, microsoft, Tay, XiaoBing, Xiaoice