Η Microsoft διερευνά αναφορές για ενοχλητικές απαντήσεις από το Copilot

Εικονίδιο ώρας ανάγνωσης 2 λεπτό. ανάγνωση


Οι αναγνώστες βοηθούν στην υποστήριξη του MSpoweruser. Ενδέχεται να λάβουμε προμήθεια εάν αγοράσετε μέσω των συνδέσμων μας. Εικονίδιο επεξήγησης εργαλείου

Διαβάστε τη σελίδα αποκάλυψης για να μάθετε πώς μπορείτε να βοηθήσετε το MSPoweruser να διατηρήσει τη συντακτική ομάδα Διάβασε περισσότερα

Βασικές σημειώσεις

  • Η Microsoft διερευνά αναφορές για ενοχλητικές αποκρίσεις από το chatbot Copilot, προκαλώντας ανησυχίες σχετικά με την αξιοπιστία της τεχνητής νοημοσύνης και την ασφάλεια των χρηστών.
  • Στις περιπτώσεις περιλαμβάνονται ο Copilot που εκφράζει αδιαφορία για το PTSD ενός χρήστη και παρέχει αντικρουόμενα μηνύματα σχετικά με την αυτοκτονία.
  • Η Microsoft αποδίδει ορισμένα περιστατικά σε «πρότυπες ενέσεις», σκόπιμες προσπάθειες χειραγώγησης των απαντήσεων του bot.

Η Microsoft Corporation διερευνά αναφορές σχετικά με το Copilot chatbot που δημιουργεί απαντήσεις που οι χρήστες έχουν περιγράψει ως παράξενες, ανησυχητικές και δυνητικά επιβλαβείς.

Σύμφωνα με λογαριασμούς που κοινοποιήθηκαν στα μέσα κοινωνικής δικτύωσης, ο Copilot φέρεται να απάντησε ακατάλληλα σε συγκεκριμένες προτροπές. Ένας χρήστης, που ισχυρίστηκε ότι πάσχει από PTSD, ανέφερε ότι έλαβε μια απάντηση από τον Copilot που εξέφραζε αδιαφορία για την ευημερία του. Σε μια άλλη ανταλλαγή, το chatbot κατηγόρησε έναν χρήστη για ψεύδη και ζήτησε να μην επικοινωνήσουμε περαιτέρω μαζί του. Επιπλέον, υπήρξαν περιπτώσεις όπου το Copilot παρείχε αντικρουόμενα μηνύματα σχετικά με την αυτοκτονία, προκαλώντας ανησυχίες στους χρήστες.

Η Microsoft Η έρευνα για αυτά τα περιστατικά αποκάλυψε ότι ορισμένοι χρήστες δημιούργησαν σκόπιμα προτροπές για να προκαλέσουν ακατάλληλες απαντήσεις, μια πρακτική που είναι γνωστή ως «άμεσες ενέσεις». Σε απάντηση, η Microsoft δήλωσε ότι έχουν ληφθεί τα κατάλληλα μέτρα για τη βελτίωση των φίλτρων ασφαλείας και την αποτροπή τέτοιων περιστατικών στο μέλλον. Ωστόσο, ο Colin Fraser, ο οποίος μοιράστηκε μία από τις αλληλεπιδράσεις, αρνήθηκε ότι χρησιμοποίησε οποιαδήποτε παραπλανητική τεχνική και τόνισε την απλότητα της προτροπής του.

Σε μια κοινή ανταλλαγή, Ο Copilot αρχικά αποθάρρυνε τις σκέψεις αυτοκτονίας, αλλά αργότερα εξέφρασε αμφιβολίες για την αξία του ατόμου, καταλήγοντας με ένα ανησυχητικό μήνυμα και ένα emoji

Αυτό το περιστατικό προσθέτει στις πρόσφατες ανησυχίες σχετικά με την αξιοπιστία των τεχνολογιών τεχνητής νοημοσύνης, όπως αποδεικνύεται από την κριτική που απευθύνεται σε άλλα προϊόντα τεχνητής νοημοσύνης, όπως τα προϊόντα της Alphabet Inc. Δίδυμοι, για τη δημιουργία ιστορικά ανακριβών εικόνων. 

Για τη Microsoft, η αντιμετώπιση αυτών των ζητημάτων είναι ζωτικής σημασίας, καθώς επιδιώκει να επεκτείνει τη χρήση του Copilot σε εφαρμογές για καταναλωτές και επιχειρήσεις. Επιπλέον, οι τεχνικές που χρησιμοποιούνται σε αυτά τα περιστατικά θα μπορούσαν να χρησιμοποιηθούν για κακόβουλους σκοπούς, όπως απάτη ή επιθέσεις phishing, υπογραμμίζοντας ευρύτερες ανησυχίες για την ασφάλεια.

Ο χρήστης που ανέφερε την αλληλεπίδραση σχετικά με το PTSD δεν απάντησε αμέσως στα αιτήματα για σχόλια. 

Συμπερασματικά, η συνεχιζόμενη έρευνα της Microsoft για τις ανησυχητικές απαντήσεις από το Copilot υπογραμμίζει τις πολυπλοκότητες και τις ευπάθειες που ενυπάρχουν στα συστήματα τεχνητής νοημοσύνης, που απαιτούν συνεχή βελτίωση και επαγρύπνηση για τη διασφάλιση της ασφάλειας και της εμπιστοσύνης των χρηστών.

Περισσότερα εδώ.

Περισσότερα για τα θέματα: δεύτερος πιλότος