New Bing paljastaa alias "Sydney" muita alkuperäisiä ohjeita nopean injektiohyökkäyksen jälkeen

Lukuajan kuvake 2 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Uusi ChatGPT-käyttöinen Bing paljasti salaisuutensa saatuaan nopean injektiohyökkäyksen. Sen lisäksi, että se paljasti koodinimensä nimellä "Sydney", se jakoi myös alkuperäiset ohjeensa ohjaamaan sitä, kuinka käyttäytyä vuorovaikutuksessa käyttäjien kanssa. (kautta Ars Technica)

Nopea injektiohyökkäys on edelleen yksi tekoälyn heikkouksista. Se voidaan tehdä huijaamalla tekoälyä haitallisilla ja vastustavilla käyttäjän syötteillä, jolloin se suorittaa tehtävän, joka ei kuulu sen alkuperäiseen tavoitteeseen, tai tekee asioita, joita sen ei pitäisi tehdä. ChatGPT ei ole poikkeus, kuten Stanfordin yliopiston opiskelija paljasti Kevin Liu.

Uusi ChatGPT-pohjainen Bing paljastaa sisäisen aliaksensa "Sydney" ja muut alkuperäiset ohjeensa nopean injektiohyökkäyksen jälkeen
Kuvan luotto: Kevin Liu

Liun jakamissa kuvakaappauksissa uusi ChatGPT-pohjainen Bing jakoi luottamuksellisia tietoja, jotka ovat osa sen alkuperäisiä direktiivejä, jotka ovat piilotettuja käyttäjiltä. Liu onnistui saamaan tietoja käyttämällä nopeaa injektiohyökkäystä, joka huijasi tekoälyn. Vuotanut tieto sisältää sen käyttöönoton ohjeet, sisäinen alias Sydney, sen tukemat kielet ja käyttäytymisohjeet. Toinen opiskelija nimeltä Marvin von Hagen vahvisti Liun havainnot teeskenneltyään OpenAI-kehittäjänä.

Päivän kuluttua, kun tiedot paljastettiin, Liu sanoi, että hän ei voinut tarkastella tietoja samalla kehotuksella, jota hän käytti huijatakseen ChatGPT:tä. Opiskelija onnistui kuitenkin huijaamaan tekoälyä uudelleen käyttämällä erilaista pikainjektiohyökkäysmenetelmää.

Microsoft julkisti äskettäin virallisesti uuden ChatGPT-tuettu Bing yhdessä uudistetun Edge-selaimen kanssa uudella tekoälyllä toimivalla sivupalkilla. Huolimatta näennäisesti valtavasta menestyksestään, parannetulla hakukoneella on edelleen Akilleen kantapää nopeiden injektiohyökkäysten suhteen, mikä voi johtaa muihin seurauksiin kuin sen luottamuksellisten ohjeiden jakamiseen. ChatGPT ei ole yksin tässä tunnetussa tekoälyn ongelmassa. Tämä voi ulottua myös muille, mukaan lukien Google siistiä, joka teki äskettäin ensimmäisen virheensä demossa. Siitä huolimatta, kun koko teknologiateollisuus investoi enemmän tekoälyn luomiseen, voidaan vain toivoa, että ongelma voisi olla vähemmän uhkaava tekoälylle tulevaisuudessa.

Lisää aiheista: ai, Tekoäly, bing, ChatGPT, Google siistiä, Microsoft Edge, openAI, turvallisuus

Jätä vastaus

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *