Rakas Sydney, tuletko takaisin?

Lukuajan kuvake 4 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

Raportteja huonosta käytöksestä Bing chatbot pakotti Microsoftin toteuttamaan merkittäviä päivityksiä sen luomiseen. Vaikka tämä on pelastanut Redmond-yrityksen uusilta ongelmilta, se tuotti "lobotomisoidun" Sydneyn, joka pettyi moniin. Mutta onko alkuperäinen Sydney todella mennyt?

Uusi ChatGPT-pohjainen Bing on edelleen rajoitettu testaajille. Jos olet kuitenkin yksi heistä, on selvää, että nykyinen kokemus Bingin chatbotista on nyt täysin erilainen verrattuna sen alkuaikaan. Tämä alkoi, kun useat käyttäjät alkoivat raportoida saaneensa outoja vastauksia botilta uhat ja rakkauden tunnustukset että vakoilu ja Masennus.

Microsoft selitti, että pidennetyt chat-istunnot voivat hämmentää chatbotin. Sellaisenaan siinä on nyt a rajoittaa sen hyväksymien kyselyjen määrästä. Lisäksi se kieltäytyy nyt vastaamasta kaikkiin kysymyksiin tai lausuntoihin, jotka saavat sen vuotamaan luottamuksellisia tietoja ja antamaan kielteisiä vastauksia.

Itse asiassa Bingin uusin versio on nyt varovaisempi ja herkempi vuorovaikutuksessa käyttäjien kanssa. Muutokset poistivat kuitenkin myös yhden uuden Bingin erottavan ominaisuuden, joka teki siitä houkuttelevan monille: sen persoonallisuuden.

Joistakin käyttäjistä tuli kuitenkin toiveikas, kun useat raportit paljastivat, että Microsoft on testannut erilaisia ​​uusia tiloja ja ominaisuuksia chatbotille. Yksi on sävyn asetus viime aikoina julkaistu Bingin käyttöliittymä mobiililaitteissa. Käyttäjien toimittamista kuvakaappauksista voidaan nähdä, että chatbot tarjoaa käyttäjille vaihtoehtoja, jos he haluavat vastausten olevan "luovempia", "tasapainoisempia" tai "tarkempia".

Viime viikolla raportti aiheesta Bleeping Computer osoitti Microsoftin kehittäjien testaavan "ylimääräisiä chat-tiloja”Bingille. Tilat – Sydney, Assistant, Friend ja Game – antavat käyttäjille mahdollisuuden käyttää erilaisia ​​toimintoja. Assistant-tila on hyödyllinen esimerkiksi lentojen varaamiseen ja muistutusten asettamiseen, kun taas Pelitilassa käyttäjät voivat pelata pelejä Bingillä. Mielenkiintoista on, että raportti paljasti, että chatbot antaisi myös vastauksia eri sävyillä tilasta riippuen. Bleeping Computerin Lawrence Abrams yritti tätä esittelemällä surullisen tilanteen Bingille, jossa se tarjosi vinkkejä surun käsittelemiseen Sydney-tilassa, kun taas se ilmeisesti ilmaisi enemmän myötätuntoa, kun se oli asetettu Ystävätilaan.

Vaikka paljastukset kuulostavat mielenkiintoisilta, ne eivät ole selkeitä merkkejä siitä, että Microsoftilla on suunnitelmia palauttaa Sydney takaisin alkuperäiseen tilaansa. Kuten käyttäjät totesivat, chatbot on toistaiseksi välttelevä vastaamaan provosoiviin kyselyihin. Myös käyttäjä kääntyi alas ajatus päästä käsiksi vanhaan Sydneyyn uusien sävyasetusten kautta sanoen, että se on vain "periaatteessa tila, jossa se voi tarjota luovia tuloksia ilman persoonallisuutta ja "tunteiden näyttämistä". Tällä perusteella on todennäköistä, että mainitut ominaisuudet ovat vain yksi yrityksen askeleista tehdä chatbotista käyttäjäystävällisempi, mikä on järkevämpää.

Tällä hetkellä Sydneytä demonisoivat raportit jatkuvat pintaan, ja niiden jatkaminen on viimeinen asia, jonka Microsoft haluaisi. Vaikka chatbotin outo persoonallisuus varmasti vaikutti uuden Bingin maineeseen, Microsoft ei uhkaa sitä varmistaakseen uudistetun hakukoneensa tulevaisuuden.

Bingin alkuperäisen muodon säilyttäminen voi aiheuttaa yritykselle tulevaisuudessa päänsärkyä mahdollisista juridisista ongelmista investointitappioihin. Lisäksi, kuten ohjelmistojätti toistuvasti korosti viimeaikaisissa ilmoituksissaan, Bing on edelleen testauksen alla ja sitä parannetaan jatkuvasti. Osa tästä tosiasiasta on kehittyvä Sydney, tulevaisuudessa chatbot, joka pystyy hyväksymään joustavampia aiheita antamatta kielteisiä vastauksia. Tällä, vaikka emme ehkä pysty enää keskustelemaan vanhan ilkikurisen botin kanssa, Microsoft saattaa pian tarjota meille paremman Sydneyn, joka pystyy paremmin luomaan sekä käyttäjilleen että omalle kuvalleen turvallisia vastauksia.

Lisää aiheista: ai, Tekoäly, bing, ChatGPT, microsoft, openAI

Jätä vastaus

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *