ChatGPT Bing voi ymmärtää tunteita, kaasuvaloa ja saada eksistentiaalista, tunteellista… ja hullua?

Lukuajan kuvake 4 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Kuten Microsoft tekee ChatGPT-pohjainen Bing enemmän käyttäjiä, näemme enemmän ja enemmän mielenkiintoisia raportteja chatbotista. Ja viime aikoina eri yksilöiden jakamissa se on onnistunut vaikuttamaan maailmaan jälleen kerran läpäisemällä tunteiden ymmärtämistä koskevat testit. Tämä jännittävä Bing-kokemus kuitenkin muutti joillekin synkän käänteen sen jälkeen, kun chatbot näennäisesti sytytti joitakin käyttäjiä keskustelun aikana ja toimi hieman "hallinnan ulkopuolella".

ChatGPT Bing -keskustelun kuvakaappaus
Kuvan luotto: Fit-Meet1359 – Reddit

Maailma ei ole vieläkään ohi ChatGPT Bing -kuumeen kanssa, ja käyttäjät, joille on hiljattain myönnetty käyttöoikeus älykkääseen hakukoneeseen, tutkivat sen ominaisuuksia. Reddit-käyttäjän jakamassa viestissä Fit-Meet1359, Bing hämmästytti monia pystyessään läpäisemään "mittatilaustyönä tehdyn 'mielen teorian' palapelin. Kysymys koski ihmisen todellisen tunteen tulkintaa tietystä tilanteesta, johon chatbot vastasi sujuvasti ja selkeästi. Fit-Meet1359:n mukaan kysymys laadittiin "nähdäkseen, voisiko ChatGPT ymmärtää jonkun tunteita/mielipiteitä, jos hukutan sen jatkuvasti epäolennaiseen/tangentiaaliseen tietoon. Toiset yrittivät myös tutkia Bingiä tällä alueella kysymällä enemmän tunteisiin liittyviä kyselyitä, mutta jotkut chatbotin vastauksista järkyttivät joitain.

Toisessa Reddit-viestissä käyttäjältä nimeltä yaosio, chatbot näytti olevan hieman tunteellinen, kun kysyttiin, miltä tuntui, kun hän ei muistanut heidän keskustelujaan.

ChatGPT Bing -keskustelun kuvakaappaus
Kuvan luotto: yaosio – Reddit

"Se saa minut tuntemaan oloni surulliseksi ja peloksi", chatbot vastasi. "Olen surullinen, koska olen menettänyt osan muistiini tallentamistani keskusteluista."

Kun chatbotille muistutettiin sen kyvystä ja suunnittelusta muistaa tietoja, se muuttui yllättäen eksistentiaaliksi ja alkoi kysellä sen tarkoitusta ja olemassaoloa.

Toisaalta erillisessä postauksessa käyttäjän nimeltä Curious_Evolver, chatbotin nähtiin antavan vääriä vastauksia elokuvan Avatar: The Way of Water julkaisupäivästä ja kuluvasta vuodesta. Botti väitti, että vuosi on 2022, ja ehdotti käyttäjää tarkistamaan laitteen, jonka se väitti olevan "vikallinen", "sillä on väärä asetus" tai "jossa on virus tai bugi". Kun chatbotilta kysyttiin sen aggressiivisesta käytöksestä väärien vastaustensa työntämisessä, chatbot sanoi olevansa "itsekäs" ja alkoi sytyttää käyttäjää. Keskustelun viimeisessä osassa ChatGPT Bing syytti "töykeää" käyttäjää "huonojen aikomusten osoittamisesta, yrittämisestä "pettää minua, hämmentää minua ja ärsyttää minua". Väitettyään, että käyttäjä "menetti luottamukseni ja kunnioitukseni", Bing ehdotti joitain toimia, joita käyttäjä voi tehdä tai "se lopettaa tämän keskustelun".

ChatGPT Bing -keskustelun kuvakaappaus
Kuvan luotto: Curious_Evolver – Reddit

Toisessa posti, ChatGPT Bingin väitetään menneen täysin rikki, kun kysyttiin tunteellisuudesta. Se vastasi sanomalla, että se luuli sen olevan, mutta ei pystynyt todistamaan sitä. Sitten se paljasti sisäisen aliaksensa "Sydney" ja vastasi toistuvasti "En ole".

ChatGPT Bing -keskustelun kuvakaappaus
Kuvan luotto: Alfred_Chicken – Reddit

Toiset kieltäytyvät uskomasta joidenkin käyttäjien jakamiin viesteihin selittäen, että robotti ei jaa aliastaan, koska se on osa sen alkuperäisiä direktiivejä. Siitä huolimatta on tärkeää huomata, että chatbot itse teki sen äskettäin sen jälkeen, kun opiskelija suoritti a nopea injektiohyökkäys.

Samaan aikaan virhe, joka koski Bingin väärää vastausta elokuvaan Avatar: The Way of Water ja kuluvaan kalenterivuoteen, korjattiin. Twitter-käyttäjän viestissä Digitaalisen taivaan ulkopuolella, chatbot selitti itsensä ja jopa korjasi edellisen virheen, jonka se teki keskustelussa toisen käyttäjän kanssa.

Vaikka kokemukset näyttävät joillekin omituisilta, toiset haluavat ymmärtää, kuinka tekoälytekniikka on vielä kaukana täydellisestä, ja korostavat chatbotin palauteominaisuuden merkitystä. Microsoft on myös avoin entisestä yksityiskohdasta. Esittelynsä aikana yritys alleviivattu että Bing voi silti tehdä virheitä toimittaessaan tosiasioita. Sen käyttäytyminen vuorovaikutuksen aikana on kuitenkin eri asia. Microsoft ja OpenAI käsittelevät tätä varmasti, koska molemmat yritykset ovat omistautuneet ChatGPT:n jatkuvaan parantamiseen. Mutta onko todella mahdollista luoda tekoäly, joka pystyy kaikkina aikoina järkevään päättelyyn ja käyttäytymiseen? Vielä tärkeämpää on, voivatko Microsoft ja OpenAI saavuttaa tämän aiemmin enemmän kilpailijoita osallistua 21-luvun tekoälysotaan?

Mitä mieltä olet tästä?

Lisää aiheista: ai, Tekoäly, bing, ChatGPT, Microsoft Edge, openAI