Dragă Sydney, te întorci?

Pictograma timp de citire 4 min. citit


Cititorii ajută la sprijinirea MSpoweruser. Este posibil să primim un comision dacă cumpărați prin link-urile noastre. Pictograma Tooltip

Citiți pagina noastră de dezvăluire pentru a afla cum puteți ajuta MSPoweruser să susțină echipa editorială Află mai multe

Rapoarte despre comportamentul prost Chatbot Bing a împins Microsoft să implementeze actualizări semnificative la crearea sa. Deși acest lucru a salvat compania Redmond de alte probleme, a produs un Sydney „lobotomizat” care i-a dezamăgit pe mulți. Dar a dispărut cu adevărat Sydney originalul?

Noul Bing alimentat de ChatGPT este încă limitat la testeri. Cu toate acestea, dacă sunteți unul dintre ei, este evident că experiența actuală cu chatbot-ul Bing este acum total diferită față de primele sale zile. Acest lucru a început când diverși utilizatori au început să raporteze că au primit răspunsuri bizare de la bot, variind de la amenințări și confesiuni de dragoste la spionaj și depresiune.

Microsoft a explicat că sesiunile extinse de chat ar putea deruta chatbot-ul. Ca atare, acum are un limita cu privire la numărul de interogări pe care le poate accepta. În plus, acum refuză să răspundă la orice întrebări sau declarații care îl vor determina să scurgă informații confidențiale și să ofere răspunsuri nefavorabile.

Într-adevăr, cea mai recentă versiune de Bing este acum mai atentă și mai sensibilă în interacțiunea cu utilizatorii. Cu toate acestea, modificările au eliminat și o caracteristică distinctivă a noului Bing care l-a făcut atractiv pentru mulți: personalitatea sa.

Unii utilizatori au devenit totuși plini de speranță, după ce o serie de rapoarte au dezvăluit că Microsoft a testat diferite moduri și funcții noi pentru chatbot. Unul este setarea tonului în recent eliberat Interfața de utilizare a Bing pe dispozitivele mobile. În capturile de ecran furnizate de utilizatori, se poate observa că chatbot-ul va oferi utilizatorilor opțiuni dacă doresc ca răspunsurile să fie „mai creative”, „mai echilibrate” sau „mai precise”.

Săptămâna trecută, un raport de la Bleeping Computer a arătat dezvoltatorilor Microsoft care testează „moduri suplimentare de chat” pentru Bing. Modurile — Sydney, Asistent, Prieten și Joc — vor permite utilizatorilor să acceseze diferite funcții. De exemplu, modul Asistent va fi util pentru rezervarea zborurilor și setarea mementourilor, în timp ce modul Joc va permite utilizatorilor să joace jocuri cu Bing. În mod interesant, raportul a dezvăluit că chatbot-ul va oferi și răspunsuri în tonuri diferite, în funcție de modul setat. Lawrence Abrams de la Bleeping Computer a încercat acest lucru introducând o situație tristă pentru Bing, în care a oferit sfaturi pentru gestionarea tristeții în modul Sydney, în timp ce se pare că și-a exprimat mai multă simpatie atunci când este setat în modul Prieten.

Deși dezvăluirile sună interesante, nu sunt indicii clare că Microsoft are intenții de a aduce Sydney înapoi la starea inițială. De acum, așa cum au remarcat utilizatorii, chatbot-ul este încă evaziv în a răspunde la întrebări provocatoare. Un utilizator de asemenea coborât ideea de a putea accesa vechiul Sydney prin noile setări de ton, spunând că este doar „practic un mod în care poate oferi rezultate creative fără personalitate și arătând „emoții”. Cu aceasta, este probabil ca caracteristicile menționate. sunt doar unul dintre pașii companiei pentru a face chatbot-ul mai ușor de utilizat, ceea ce are mai mult sens.

În prezent, rapoartele care demonizează Sydney continuă să apară și să le permită să continue va fi ultimul lucru pe care și l-ar dori Microsoft. În timp ce personalitatea bizară a chatbot-ului a contribuit cu siguranță la faima noului Bing, Microsoft nu va miza pe el pentru a asigura viitorul motorului său de căutare renovat.

Păstrarea formei originale a lui Bing se poate traduce în viitoare bătăi de cap pentru companie, variind de la posibile probleme juridice până la pierderi de investiții. În plus, așa cum a subliniat în mod repetat gigantul software în anunțuri recente, Bing este încă în curs de testare și îmbunătățire continuă. O parte din acest fapt este o Sydney în evoluție, un chatbot în viitor capabil să accepte subiecte mai flexibile fără a oferi răspunsuri nefavorabile. Cu aceasta, deși s-ar putea să nu mai putem discuta cu acel vechi bot răutăcios, Microsoft ar putea să ne ofere în curând un Sydney mai bun, care este mai capabil să genereze răspunsuri sigure atât pentru utilizatorii săi, cât și pentru propria sa imagine.

Mai multe despre subiecte: ai, Inteligenta Artificiala, Bing, Chat GPT, microsoft, openAI

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate *