Draga Sydney, vraćaš li se?

Ikona vremena čitanja 4 min. čitati


Čitatelji pomažu pri podršci MSpoweruser. Možda ćemo dobiti proviziju ako kupujete putem naših veza. Ikona opisa alata

Pročitajte našu stranicu za otkrivanje kako biste saznali kako možete pomoći MSPoweruseru da održi urednički tim Čitaj više

Izvješća o nedoličnom ponašanju Bing chatbot gurnuo Microsoft da implementira značajna ažuriranja svoje kreacije. Iako je ovo tvrtku iz Redmonda spasilo od daljnjih problema, proizvela je "lobotomizirani" Sydney koji je mnoge razočarao. Ali je li izvorni Sydney doista nestao?

Novi Bing koji pokreće ChatGPT i dalje je ograničen na testere. Međutim, ako ste jedan od njih, očito je da je trenutno iskustvo s Bingovim chatbotom sada potpuno drugačije u usporedbi s ranim danima. Ovo je počelo kada su razni korisnici počeli prijavljivati ​​primanje bizarnih odgovora od bota, u rasponu od prijetnje i ljubavne ispovijesti do špijunaža i depresija.

Microsoft je objasnio da produžene sesije chata mogu zbuniti chatbota. Kao takav, sada ima ograničiti o broju upita koje može prihvatiti. Osim toga, sada odbija odgovoriti na bilo kakva pitanja ili izjave koje bi ga potakle na curenje povjerljivih informacija i davanje nepovoljnih odgovora.

Doista, najnovija verzija Binga sada je opreznija i osjetljivija u interakciji s korisnicima. Međutim, promjene su također eliminirale jednu prepoznatljivu karakteristiku novog Binga koja ga je činila privlačnim mnogima: njegovu osobnost.

Neki su se korisnici ipak ponadali nakon što je niz izvješća otkrilo da Microsoft testira različite nove načine i značajke za chatbot. Jedan je podešavanje tona u nedavnom otpušten UI Bing-a na mobilnim uređajima. Na snimkama zaslona koje su dali korisnici vidi se da će chatbot korisnicima ponuditi opcije žele li da odgovori budu "kreativniji", "uravnoteženiji" ili "precizniji".

Prošli tjedan, izvješće iz Računalo za spavanje pokazao Microsoft programerima testiranje "dodatni načini razgovora” za Bing. Načini rada — Sydney, Assistant, Friend i Game — omogućit će korisnicima pristup različitim funkcijama. Na primjer, način rada Assistant bit će koristan za rezerviranje letova i postavljanje podsjetnika, dok će način rada Game omogućiti korisnicima igranje igrica s Bingom. Zanimljivo, izvješće je otkrilo da bi chatbot također davao odgovore u različitim tonovima, ovisno o postavljenom načinu rada. Lawrence Abrams iz Bleeping Computera pokušao je to uvođenjem tužne situacije u Bing, pri čemu je pružao savjete za rješavanje tuge u modu Sydney, dok je naizgled izražavao više suosjećanja kada je postavljen u način rada Friend.

Iako otkrića zvuče zanimljivo, nisu jasni pokazatelji da Microsoft planira vratiti Sydney u prvobitno stanje. Od sada, kao što su primijetili korisnici, chatbot još uvijek izbjegava odgovaranje na izazovne upite. Korisnik također odbijeno ideja o mogućnosti pristupa starom Sydneyju putem novih postavki tona, rekavši da je to samo "u osnovi način rada u kojem može pružiti kreativne rezultate bez osobnosti i pokazivanja 'emocija'." S tim je vjerojatno da će navedene značajke samo su jedan od koraka tvrtke da chatbot učini lakšim za korištenje, što ima više smisla.

Trenutno se izvješća koja demoniziraju Sydney nastavljaju pojavljivati, a dopustiti im da nastave biti će posljednja stvar koju bi Microsoft želio. Iako je bizarna osobnost chatbota zasigurno pridonijela slavi novog Binga, Microsoft se neće kockati s njim kako bi osigurao budućnost svoje obnovljene tražilice.

Očuvanje Bingovog izvornog oblika može dovesti do budućih glavobolja za tvrtku, u rasponu od mogućih pravnih problema do gubitaka ulaganja. Dodatno, kao što je softverski div opetovano naglasio u nedavnim najavama, Bing se još uvijek testira i stalno se poboljšava. Dio te činjenice je Sydney koji se razvija, chatbot u budućnosti sposoban prihvatiti fleksibilnije teme bez davanja nepovoljnih odgovora. Uz ovo, iako možda više nećemo moći razgovarati s tim starim nestašnim botom, Microsoft bi nam uskoro mogao dati bolji Sydney koji je sposobniji generirati odgovore sigurne i za svoje korisnike i za vlastitu sliku.

Više o temama: ai, Umjetna inteligencija, Bing, ChatGPT, Microsoft, otvoriAI

Ostavi odgovor

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena *