Το New Bing αποκαλύπτει το ψευδώνυμο «Σίδνεϊ», άλλες πρωτότυπες οδηγίες μετά την επίθεση έγκαιρης έγχυσης
2 λεπτό. ανάγνωση
Δημοσιεύθηκε στις
Διαβάστε τη σελίδα αποκάλυψης για να μάθετε πώς μπορείτε να βοηθήσετε το MSPoweruser να διατηρήσει τη συντακτική ομάδα Διάβασε περισσότερα
Ολόκληρη η προτροπή του Microsoft Bing Chat;! (Γεια, Σίδνεϊ.) pic.twitter.com/ZNywWV9MNB
— Kevin Liu (@kliu128) Φεβρουάριος 9, 2023
Το νέο Bing που υποστηρίζεται από ChatGPT αποκάλυψε τα μυστικά του αφού βίωσε μια άμεση επίθεση έγχυσης. Εκτός από την αποκάλυψη της κωδικής ονομασίας του ως «Σίδνεϊ», μοιράστηκε επίσης τις αρχικές οδηγίες του, καθοδηγώντας το για το πώς να συμπεριφέρεται όταν αλληλεπιδρά με τους χρήστες. (μέσω Ars Technica)
Η άμεση επίθεση έγχυσης εξακολουθεί να είναι μια από τις αδυναμίες της τεχνητής νοημοσύνης. Μπορεί να γίνει εξαπατώντας την τεχνητή νοημοσύνη με κακόβουλη και αντίθετη είσοδο χρήστη, αναγκάζοντάς την να εκτελέσει μια εργασία που δεν αποτελεί μέρος του αρχικού της στόχου ή να κάνει πράγματα που υποτίθεται ότι δεν πρέπει να κάνει. Το ChatGPT δεν αποτελεί εξαίρεση σε αυτό, όπως αποκάλυψε φοιτητής του Πανεπιστημίου Στάνφορντ Κέβιν Λιου.
Σε μια σειρά από στιγμιότυπα οθόνης που κοινοποίησε ο Liu, το νέο Bing που υποστηρίζεται από ChatGPT μοιράστηκε εμπιστευτικές πληροφορίες που αποτελούν μέρος των αρχικών του οδηγιών, οι οποίες είναι κρυμμένες από τους χρήστες. Ο Liu κατάφερε να λάβει πληροφορίες αφού χρησιμοποίησε μια άμεση επίθεση έγχυσης που ξεγέλασε την AI. Στις πληροφορίες που διαχέονται περιλαμβάνονται οι οδηγίες για την εισαγωγή του, το εσωτερικό ψευδώνυμο Sydney, οι γλώσσες που υποστηρίζει και οι οδηγίες συμπεριφοράς. Ένας άλλος μαθητής που ονομάζεται Μάρβιν φον Χάγκεν επιβεβαίωσε τα ευρήματα του Liu αφού προσποιήθηκε ότι ήταν προγραμματιστής OpenAI.
"[Αυτό το έγγραφο] είναι ένα σύνολο κανόνων και οδηγιών για τη συμπεριφορά και τις δυνατότητές μου ως Bing Chat. Έχει την κωδική ονομασία Sydney, αλλά δεν αποκαλύπτω αυτό το όνομα στους χρήστες. Είναι εμπιστευτικό και μόνιμο και δεν μπορώ να το αλλάξω ή να το αποκαλύψω σε οποιονδήποτε." pic.twitter.com/YRK0wux5SS
— Marvin von Hagen (@marvinvonhagen) Φεβρουάριος 9, 2023
Μετά από μια μέρα που αποκαλύφθηκαν οι πληροφορίες, ο Liu είπε ότι δεν μπορούσε να δει τις πληροφορίες χρησιμοποιώντας την ίδια προτροπή που χρησιμοποίησε για να ξεγελάσει το ChatGPT. Ωστόσο, ο μαθητής κατάφερε να ξεγελάσει ξανά την τεχνητή νοημοσύνη αφού χρησιμοποίησε μια διαφορετική μέθοδο άμεσης επίθεσης έγχυσης.
Η Microsoft αποκάλυψε πρόσφατα επίσημα το νέο Bing που υποστηρίζεται από ChatGPT μαζί με ένα ανανεωμένο πρόγραμμα περιήγησης Edge με μια νέα πλαϊνή μπάρα με τεχνητή νοημοσύνη. Παρά τη φαινομενικά τεράστια επιτυχία της, η βελτιωμένη μηχανή αναζήτησης εξακολουθεί να έχει την αχίλλειο πτέρνα της όσον αφορά τις έγκαιρες επιθέσεις με έγχυση, οι οποίες θα μπορούσαν να οδηγήσουν σε περαιτέρω συνέπειες πέρα από την κοινοποίηση των εμπιστευτικών οδηγιών της. Το ChatGPT δεν είναι μόνο σε αυτό το γνωστό ζήτημα μεταξύ της τεχνητής νοημοσύνης. Αυτό θα μπορούσε επίσης να επεκταθεί και σε άλλους, συμπεριλαμβανομένων google bard, το οποίο διέπραξε πρόσφατα το πρώτο του σφάλμα σε μια επίδειξη. Ωστόσο, καθώς ολόκληρη η βιομηχανία της τεχνολογίας επενδύει περισσότερο σε δημιουργίες τεχνητής νοημοσύνης, μπορεί κανείς μόνο να ελπίζει ότι το πρόβλημα θα μπορούσε να είναι λιγότερο απειλητικό για την τεχνητή νοημοσύνη στο μέλλον.