Kära Sydney, kommer du tillbaka?

Lästid ikon 4 min. läsa


Läsare hjälper till att stödja MSpoweruser. Vi kan få en provision om du köper via våra länkar. Verktygstipsikon

Läs vår informationssida för att ta reda på hur du kan hjälpa MSPoweruser upprätthålla redaktionen Läs mer

Rapporter om misskötseln Bing chatbot pressade Microsoft att implementera betydande uppdateringar av dess skapelse. Även om detta har räddat Redmond-företaget från ytterligare problem, producerade det ett "lobotomiserat" Sydney som gjorde många besvikna. Men är originalet Sydney verkligen borta?

Den nya ChatGPT-drivna Bing är fortfarande begränsad till testare. Men om du är en av dem är det uppenbart att den nuvarande upplevelsen med Bings chatbot nu är helt annorlunda jämfört med dess tidiga dagar. Detta började när olika användare började rapportera att de fick bisarra svar från boten, allt från hot och kärleksbekännelser till spionage och depression.

Microsoft förklarade att utökade chattsessioner kunde förvirra chatboten. Som sådan har den nu en begränsa på antalet frågor den kan acceptera. Dessutom vägrar den nu att svara på några frågor eller uttalanden som kommer att provocera den att läcka konfidentiell information och ge ogynnsamma svar.

Faktum är att den senaste versionen av Bing nu är mer försiktig och känslig i interaktion med användare. Men förändringarna eliminerade också en utmärkande egenskap hos den nya Bing som gjorde den attraktiv för många: dess personlighet.

Vissa användare blev ändå hoppfulla efter att en serie rapporter avslöjade att Microsoft har testat olika nya lägen och funktioner för chatboten. Den ena är toninställning i den nyligen frigörs Bings användargränssnitt på mobila enheter. I skärmdumparna som tillhandahålls av användarna kan det ses att chatboten kommer att erbjuda användarna alternativen om de vill att svaren ska vara "mer kreativa", "mer balanserade" eller "mer exakta."

Förra veckan, en rapport från Bleeping Computer visade Microsoft-utvecklare att testa "extra chattlägen” för Bing. Lägena – Sydney, Assistant, Friend och Game – ger användare tillgång till olika funktioner. Till exempel kommer Assistent-läget att vara användbart för att boka flyg och ställa in påminnelser, medan spelläget tillåter användare att spela spel med Bing. Intressant nog avslöjade rapporten att chatboten också skulle ge svar i olika toner beroende på läget. Bleeping Computers Lawrence Abrams försökte detta genom att introducera en sorglig situation för Bing, där den gav tips för att hantera sorg i Sydney-läge medan den till synes uttryckte mer sympati när den var inställd på vänläge.

Även om avslöjandena låter intressanta är de inte tydliga tecken på att Microsoft har planer på att återföra Sydney till sitt ursprungliga tillstånd. Från och med nu, som användarna noterade, är chatboten fortfarande undvikande när det gäller att svara på provocerande frågor. En användare också avvisade idén att kunna komma åt det gamla Sydney via de nya toninställningarna, och säger att det bara är "i grund och botten ett läge där det kan ge kreativa resultat utan en personlighet och visa "känslor." Med detta är det troligt att de nämnda funktionerna är bara ett av företagets steg för att göra chatboten mer användarvänlig, vilket är mer vettigt.

För närvarande fortsätter rapporter som demoniserar Sydney att dyka upp, och att låta dem fortsätta kommer att vara det sista Microsoft skulle vilja ha. Även om chatbotens bisarra personlighet verkligen bidrog till den nya Bings berömmelse, kommer Microsoft inte att spela på den för att säkerställa framtiden för dess förnyade sökmotor.

Att bevara Bings ursprungliga form kan leda till framtida huvudvärk för företaget, allt från möjliga juridiska frågor till investeringsförluster. Dessutom, som mjukvarujätten upprepade gånger betonade i de senaste tillkännagivandena, testas Bing fortfarande och förbättras kontinuerligt. En del av detta faktum är en utvecklande Sydney, en chatbot i framtiden som kan acceptera mer flexibla ämnen utan att ge ogynnsamma svar. Med detta, även om vi kanske inte kan chatta med den gamla busiga boten igen, kan Microsoft snart ge oss ett bättre Sydney som är mer kapabel att generera svar säkra både för sina användare och sin egen image.

Mer om ämnena: ai, Artificiell intelligens, bing, ChatGPT, microsoft, öppnaAI

Kommentera uppropet

E-postadressen publiceras inte. Obligatoriska fält är markerade *