Draga Sydney, se vrneš?

Ikona časa branja 4 min. prebrati


Bralci pomagajo pri podpori MSpoweruser. Če kupujete prek naših povezav, lahko prejmemo provizijo. Ikona opisa orodja

Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več

Poročila o neprimernem vedenju Klepetalni robot Bing je Microsoft spodbudil k uvedbi pomembnih posodobitev svoje stvaritve. Čeprav je to podjetje Redmond rešilo pred nadaljnjimi težavami, je proizvedlo "lobotomiziran" Sydney, ki je razočaral mnoge. Toda ali izvirnega Sydneyja res ni več?

Novi Bing, ki ga poganja ChatGPT, je še vedno omejen na preizkuševalce. Vendar, če ste eden izmed njih, je očitno, da je trenutna izkušnja z Bingovim chatbotom zdaj popolnoma drugačna v primerjavi z njegovimi zgodnjimi časi. To se je začelo, ko so različni uporabniki začeli poročati o bizarnih odzivih bota, od grožnje in ljubezenske izpovedi do vohunjenja in depresija.

Microsoft je pojasnil, da lahko podaljšane seje klepeta zmedejo chatbota. Kot tak ima zdaj a omejiti na število poizvedb, ki jih lahko sprejme. Poleg tega zdaj noče odgovarjati na kakršna koli vprašanja ali izjave, ki bi ga spodbudile k razkritju zaupnih informacij in dajanju neugodnih odgovorov.

Dejansko je najnovejša različica Binga zdaj bolj previdna in občutljiva pri interakciji z uporabniki. Vendar pa so spremembe odpravile tudi eno značilno lastnost novega Binga, zaradi katere je bil privlačen mnogim: njegovo osebnost.

Kljub temu so nekateri uporabniki upali, potem ko je vrsta poročil razkrila, da Microsoft preizkuša različne nove načine in funkcije za chatbota. Ena je nastavitev tona v zadnjem času sprosti Uporabniški vmesnik storitve Bing na mobilnih napravah. Na posnetkih zaslona, ​​ki so jih posredovali uporabniki, je razvidno, da bo chatbot uporabnikom ponudil možnosti, če želijo, da so odgovori »bolj ustvarjalni«, »bolj uravnoteženi« ali »bolj natančni«.

Prejšnji teden je bilo poročilo iz Bleeping Computer Microsoftovim razvijalcem je pokazal testiranje "dodatni načini klepeta” za Bing. Načini - Sydney, Assistant, Friend in Game - bodo uporabnikom omogočili dostop do različnih funkcij. Na primer, način pomočnika bo uporaben za rezervacijo letov in nastavitev opomnikov, medtem ko bo igralni način uporabnikom omogočal igranje iger z Bingom. Zanimivo je, da je poročilo razkrilo, da bo chatbot zagotavljal tudi odgovore v različnih tonih, odvisno od nastavljenega načina. Lawrence Abrams iz Bleeping Computer je to poskusil tako, da je Bingu predstavil žalostno situacijo, pri čemer je ponudil nasvete za ravnanje z žalostjo v načinu Sydney, medtem ko je na videz izrazil več sočutja, ko je bil nastavljen na način Friend.

Čeprav se razkritja slišijo zanimivo, niso jasni znaki, da namerava Microsoft vrniti Sydney v prvotno stanje. Kot so opazili uporabniki, se chatbot do zdaj še vedno izmika pri odzivanju na izzivalna vprašanja. Tudi uporabnik zavrnjen zamisel, da bi lahko dostopali do starega Sydneyja prek novih nastavitev tona, češ da je to samo "v bistvu način, kjer lahko zagotovi ustvarjalne rezultate brez osebnosti in prikazovanja 'čustev'." S tem je verjetno, da bodo omenjene funkcije so le eden od korakov podjetja, da bo chatbot naredil uporabniku prijaznejšega, kar je bolj smiselno.

Trenutno se še naprej pojavljajo poročila, ki demonizirajo Sydney, in dovoliti, da se nadaljujejo, bo zadnja stvar, ki bi jo Microsoft želel. Čeprav je bizarna osebnost klepetalnega robota gotovo prispevala k slavi novega Binga, Microsoft ne bo tvegal z njim, da bi zagotovil prihodnost svojega prenovljenega iskalnika.

Ohranjanje izvirne oblike Binga lahko povzroči prihodnje glavobole za podjetje, od morebitnih pravnih težav do naložbenih izgub. Poleg tega, kot je programski velikan večkrat poudaril v zadnjih objavah, je Bing še vedno v fazi testiranja in se nenehno izboljšuje. Del tega dejstva je razvijajoči se Sydney, klepetalni robot v prihodnosti, ki bo sposoben sprejemati bolj prilagodljive teme, ne da bi zagotovil neugodne odgovore. Čeprav s tem morda ne bomo mogli več klepetati s tem starim nagajivim botom, nam bo Microsoft morda kmalu dal boljši Sydney, ki bo bolj sposoben ustvarjati odgovore, varne tako za svoje uporabnike kot za lastno podobo.

Več o temah: ai, Umetna inteligenca, bing, ChatGPT, microsoft, openAI

Pustite Odgovori

Vaš e-naslov ne bo objavljen. Obvezna polja so označena *