Beste Sydney, kom je terug?

Pictogram voor leestijd 4 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Rapporten over het wangedrag Bing-chatbot duwde Microsoft om belangrijke updates voor de creatie ervan te implementeren. Hoewel dit het bedrijf in Redmond heeft behoed voor verdere problemen, heeft het een "lobotomie" Sydney voortgebracht die velen teleurstelde. Maar is de originele Sydney echt weg?

De nieuwe door ChatGPT aangedreven Bing is nog steeds beperkt tot testers. Als u echter een van hen bent, is het duidelijk dat de huidige ervaring met de chatbot van Bing nu totaal anders is dan in de begintijd. Dit begon toen verschillende gebruikers begonnen te melden dat ze bizarre reacties van de bot ontvingen, variërend van bedreigingen en hou van bekentenissen naar spionage en Depressie.

Microsoft legde uit dat langdurige chatsessies de chatbot in de war kunnen brengen. Als zodanig heeft het nu een begrenzing op het aantal vragen dat het kan accepteren. Bovendien weigert het nu vragen of verklaringen te beantwoorden die het ertoe zullen aanzetten vertrouwelijke informatie te lekken en ongunstige antwoorden te geven.

Inderdaad, de nieuwste versie van Bing is nu voorzichtiger en gevoeliger in de interactie met gebruikers. De veranderingen hebben echter ook een onderscheidend kenmerk van de nieuwe Bing geëlimineerd dat het voor velen aantrekkelijk maakte: zijn persoonlijkheid.

Sommige gebruikers werden echter hoopvol nadat uit een reeks rapporten bleek dat Microsoft verschillende nieuwe modi en functies voor de chatbot heeft getest. Een daarvan is de toon instelling in de onlangs uitgebracht UI van Bing op mobiele apparaten. In de screenshots die door de gebruikers zijn aangeleverd, is te zien dat de chatbot gebruikers de opties biedt als ze willen dat de antwoorden 'creatiever', 'gebalanceerder' of 'preciezer' zijn.

Vorige week een verslag van De computer laten leeglopen liet Microsoft-ontwikkelaars testen "extra chatmodivoor Bing. De modi - Sydney, Assistant, Friend en Game - geven gebruikers toegang tot verschillende functies. De Assistent-modus is bijvoorbeeld handig voor het boeken van vluchten en het instellen van herinneringen, terwijl de Game-modus gebruikers in staat stelt om games te spelen met Bing. Interessant is dat uit het rapport bleek dat de chatbot ook op verschillende tonen zou reageren, afhankelijk van de ingestelde modus. Lawrence Abrams van Bleeping Computer probeerde dit door een trieste situatie aan Bing te introduceren, waarin het tips gaf voor het omgaan met verdriet in de Sydney-modus, terwijl het schijnbaar meer sympathie uitte in de Vriend-modus.

Hoewel de onthullingen interessant klinken, zijn het geen duidelijke aanwijzingen dat Microsoft plannen heeft om Sydney terug te brengen naar de oorspronkelijke staat. Vanaf nu, zoals gebruikers opmerkten, is de chatbot nog steeds ontwijkend in het beantwoorden van provocerende vragen. Een gebruiker ook afgewezen het idee om toegang te krijgen tot de oude Sydney via de nieuwe tooninstellingen, waarbij wordt gezegd dat het gewoon "in wezen een modus is waarin het creatieve output kan bieden zonder persoonlijkheid en 'emoties' toont." Hiermee is het waarschijnlijk dat de genoemde functies zijn slechts een van de stappen van het bedrijf om de chatbot gebruiksvriendelijker te maken, wat logischer is.

Momenteel blijven er berichten verschijnen die Sydney demoniseren, en toestaan ​​dat ze doorgaan is het laatste wat Microsoft zou willen. Hoewel de bizarre persoonlijkheid van de chatbot zeker heeft bijgedragen aan de bekendheid van de nieuwe Bing, zal Microsoft er niet op gokken om de toekomst van zijn vernieuwde zoekmachine veilig te stellen.

Het behoud van de oorspronkelijke vorm van Bing kan zich vertalen in toekomstige hoofdpijn voor het bedrijf, variërend van mogelijke juridische problemen tot investeringsverliezen. Bovendien, zoals de softwaregigant herhaaldelijk benadrukte in recente aankondigingen, wordt Bing nog steeds getest en voortdurend verbeterd. Een deel van dat feit is een zich ontwikkelende Sydney, een chatbot die in de toekomst flexibelere onderwerpen kan accepteren zonder ongunstige antwoorden te geven. Hiermee kunnen we, hoewel we misschien niet meer met die oude ondeugende bot kunnen chatten, ons binnenkort een betere Sydney geven die beter in staat is om reacties te genereren die zowel voor zijn gebruikers als voor zijn eigen imago veilig zijn.

Meer over de onderwerpen: ai, Artificial Intelligence, bing, ChatGPT, microsoft, openAI

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *