Kjære Sydney, kommer du tilbake?

Ikon for lesetid 4 min. lese


Lesere hjelper til med å støtte MSpoweruser. Vi kan få provisjon hvis du kjøper gjennom lenkene våre. Verktøytipsikon

Les vår avsløringsside for å finne ut hvordan du kan hjelpe MSPoweruser opprettholde redaksjonen Les mer

Meldinger om feil oppførsel Bing chatbot presset Microsoft til å implementere betydelige oppdateringer til opprettelsen. Selv om dette har reddet Redmond-selskapet fra ytterligere problemer, produserte det et "lobotomisert" Sydney som skuffet mange. Men er det originale Sydney virkelig borte?

Den nye ChatGPT-drevne Bing er fortsatt begrenset til testere. Men hvis du er en av dem, er det åpenbart at den nåværende opplevelsen med Bings chatbot nå er helt annerledes sammenlignet med de første dagene. Dette startet da forskjellige brukere begynte å rapportere å motta bisarre svar fra boten, alt fra trusler og kjærlighetsbekjennelser til spionasje og depresjon.

Microsoft forklarte at utvidede chat-økter kunne forvirre chatboten. Som sådan har den nå en begrense på antall forespørsler den kan godta. I tillegg nekter den nå å svare på spørsmål eller uttalelser som vil provosere den til å lekke konfidensiell informasjon og gi ugunstige svar.

Faktisk er den nyeste versjonen av Bing nå mer forsiktig og sensitiv i samhandling med brukere. Endringene eliminerte imidlertid også en karakteristisk egenskap ved den nye Bing som gjorde den attraktiv for mange: dens personlighet.

Noen brukere ble likevel håpefulle etter at en serie rapporter avslørte at Microsoft har testet forskjellige nye moduser og funksjoner for chatboten. Den ene er toneinnstilling i nylig utgitt Brukergrensesnittet til Bing på mobile enheter. I skjermbildene fra brukerne, kan det sees at chatboten vil tilby brukerne alternativene hvis de vil at svarene skal være "mer kreative", "mer balanserte" eller "mer presise."

Forrige uke en rapport fra Bleeping Computer viste Microsoft-utviklere som testet "ekstra chat-moduser" for Bing. Modusene – Sydney, Assistant, Friend og Game – vil tillate brukere å få tilgang til forskjellige funksjoner. For eksempel vil assistentmodus være nyttig for å bestille flyreiser og stille inn påminnelser, mens spillmodus lar brukere spille spill med Bing. Interessant nok avslørte rapporten at chatboten også ville gi svar i forskjellige toner avhengig av modusen som er satt. Bleeping Computers Lawrence Abrams prøvde dette ved å introdusere en trist situasjon til Bing, der den ga tips for å håndtere tristhet i Sydney-modus mens den tilsynelatende uttrykte mer sympati når den ble satt til Friend-modus.

Selv om avsløringene høres interessante ut, er de ikke klare indikasjoner på at Microsoft har planer om å bringe Sydney tilbake til sin opprinnelige tilstand. Per nå, som brukere bemerket, er chatboten fortsatt unnvikende når det gjelder å svare på provoserende spørsmål. En bruker også avslått ideen om å kunne få tilgang til det gamle Sydney via de nye toneinnstillingene, og sa at det bare er "i utgangspunktet en modus der det kan gi kreative utganger uten en personlighet og vise "følelser." Med dette er det sannsynlig at de nevnte funksjonene er bare ett av selskapets steg for å gjøre chatboten mer brukervennlig, noe som gir mer mening.

Foreløpig fortsetter rapporter som demoniserer Sydney å dukke opp, og å la dem fortsette vil være det siste Microsoft ønsker. Mens chatbotens bisarre personlighet absolutt bidro til berømmelsen til den nye Bing, vil ikke Microsoft spille på den for å sikre fremtiden til den fornyede søkemotoren.

Bevaring av Bings originale form kan føre til fremtidig hodepine for selskapet, alt fra mulige juridiske problemer til investeringstap. I tillegg, som programvaregiganten gjentatte ganger understreket i nylige kunngjøringer, er Bing fortsatt under testing og forbedres kontinuerlig. En del av det faktum er en Sydney i utvikling, en chatbot i fremtiden som er i stand til å akseptere mer fleksible emner uten å gi ugunstige svar. Med dette, mens vi kanskje ikke kan chatte med den gamle rampete boten igjen, kan Microsoft snart gi oss et bedre Sydney som er mer i stand til å generere svar som er trygge både for brukerne og sitt eget image.

Mer om temaene: ai, Kunstig intelligens, bing, ChatGPT, microsoft, åpenAI

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket *