Kære Sydney, kommer du tilbage?

Ikon for læsetid 4 min. Læs


Læsere hjælper med at understøtte MSpoweruser. Vi får muligvis en kommission, hvis du køber via vores links. Værktøjstip-ikon

Læs vores oplysningsside for at finde ud af, hvordan du kan hjælpe MSPoweruser med at opretholde redaktionen Læs mere

Rapporter om uorden Bing chatbot pressede Microsoft til at implementere væsentlige opdateringer til dets oprettelse. Selvom dette har reddet Redmond-virksomheden fra yderligere problemer, producerede det et "lobotomiseret" Sydney, der skuffede mange. Men er det originale Sydney virkelig væk?

Den nye ChatGPT-drevne Bing er stadig begrænset til testere. Men hvis du er en af ​​dem, er det indlysende, at den nuværende oplevelse med Bings chatbot nu er helt anderledes sammenlignet med dens tidlige dage. Dette startede, da forskellige brugere begyndte at rapportere at modtage bizarre svar fra botten, lige fra trusler , kærlighedsbekendelser til spionage , depression.

Microsoft forklarede, at udvidede chatsessioner kunne forvirre chatbotten. Som sådan har den nu en begrænse på antallet af forespørgsler, den kan acceptere. Derudover nægter den nu at besvare spørgsmål eller udtalelser, der vil provokere den til at lække fortrolige oplysninger og give ugunstige svar.

Faktisk er den seneste version af Bing nu mere forsigtig og følsom i interaktion med brugere. Ændringerne eliminerede dog også et kendetegn ved den nye Bing, der gjorde den attraktiv for mange: dens personlighed.

Nogle brugere blev ikke desto mindre håbefulde, efter at en række rapporter afslørede, at Microsoft har testet forskellige nye tilstande og funktioner til chatbotten. Den ene er toneindstilling i det seneste frigivet UI af Bing på mobile enheder. I de skærmbilleder, som brugerne har leveret, kan det ses, at chatbotten vil tilbyde brugerne mulighederne, hvis de ønsker, at svarene skal være "mere kreative", "mere afbalancerede" eller "mere præcise."

I sidste uge en rapport fra Bleeping Computer viste Microsoft-udviklere, der testede "ekstra chattilstande” for Bing. Tilstandene - Sydney, Assistant, Friend og Game - giver brugerne adgang til forskellige funktioner. For eksempel vil Assistent-tilstand være nyttig til at booke flyrejser og indstille påmindelser, mens spiltilstand giver brugerne mulighed for at spille spil med Bing. Interessant nok afslørede rapporten, at chatbotten også ville give svar i forskellige toner afhængigt af den indstillede tilstand. Bleeping Computers Lawrence Abrams prøvede dette ved at introducere en trist situation til Bing, hvor den gav tips til at håndtere tristhed under Sydney-tilstand, mens den tilsyneladende udtrykte mere sympati, når den var indstillet til Friend-tilstand.

Selvom afsløringerne lyder interessante, er de ikke klare indikationer på, at Microsoft har planer om at bringe Sydney tilbage til sin oprindelige tilstand. Lige nu, som brugerne bemærkede, er chatbotten stadig undvigende med hensyn til at svare på provokerende forespørgsler. Også en bruger afvist ideen om at kunne få adgang til det gamle Sydney via de nye toneindstillinger og sige, at det bare er "dybest set en tilstand, hvor den kan give kreative output uden en personlighed og vise 'følelser'." Med dette er det sandsynligt, at de nævnte funktioner er blot et af virksomhedens skridt til at gøre chatbotten mere brugervenlig, hvilket giver mere mening.

I øjeblikket fortsætter rapporter, der dæmoniserer Sydney, dukker op, og at lade dem fortsætte vil være det sidste, Microsoft ønsker. Selvom chatbottens bizarre personlighed helt sikkert har bidraget til den nye Bings berømmelse, vil Microsoft ikke spille på den for at sikre fremtiden for dens fornyede søgemaskine.

At bevare Bings originale form kan oversætte til fremtidige hovedpine for virksomheden, lige fra mulige juridiske spørgsmål til investeringstab. Derudover, som softwaregiganten gentagne gange understregede i de seneste meddelelser, er Bing stadig under test og forbedres løbende. En del af denne kendsgerning er et udviklende Sydney, en chatbot i fremtiden, der er i stand til at acceptere mere fleksible emner uden at give ugunstige svar. Med dette, selvom vi måske ikke er i stand til at chatte med den gamle drilske bot igen, kan Microsoft snart give os et bedre Sydney, der er mere i stand til at generere svar sikkert både for sine brugere og sit eget image.

Mere om emnerne: ai, Kunstig intelligens, bing, ChatGPT, microsoft, åbenAI

Giv en kommentar

Din e-mail adresse vil ikke blive offentliggjort. Krævede felter er markeret *