Drahá Sydney, vraciaš sa?

Ikona času čítania 4 min. čítať


Čítačky pomáhajú podporovať MSpoweruser. Ak nakupujete prostredníctvom našich odkazov, môžeme získať províziu. Ikona popisu

Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac

Správy o zlom správaní Chatbot Bing prinútil Microsoft implementovať významné aktualizácie do jeho vytvorenia. Aj keď to zachránilo redmondskú spoločnosť pred ďalšími problémami, vytvorilo to „lobotomizované“ Sydney, ktoré mnohých sklamalo. Je však pôvodné Sydney naozaj preč?

Nový Bing s podporou ChatGPT je stále obmedzený na testerov. Ak ste však jedným z nich, je zrejmé, že súčasná skúsenosť s chatbotom Bing je teraz úplne odlišná v porovnaní s jeho začiatkami. Začalo to, keď rôzni používatelia začali hlásiť, že od robota dostávajú bizarné odpovede, od hrozby a vyznania lásky na špionáž a depresia.

Microsoft vysvetlil, že rozšírené chatovacie relácie môžu chatbota zmiasť. Ako taký má teraz a obmedziť na počte dopytov, ktoré môže prijať. Okrem toho teraz odmieta odpovedať na akékoľvek otázky alebo vyhlásenia, ktoré by ju vyprovokovali k úniku dôverných informácií a nepriaznivej odpovedi.

Najnovšia verzia Bingu je teraz skutočne opatrnejšia a citlivejšia pri interakcii s používateľmi. Zmeny však odstránili aj jednu charakteristickú vlastnosť nového Bingu, vďaka ktorej bol pre mnohých atraktívny: jeho osobnosť.

Niektorí používatelia však začali dúfať, keď séria správ odhalila, že spoločnosť Microsoft testovala rôzne nové režimy a funkcie pre chatbota. Jedným z nich je nastavenie tónu v poslednej dobe uvoľnený Používateľské rozhranie Bing na mobilných zariadeniach. Na snímkach obrazovky poskytnutých používateľmi je vidieť, že chatbot používateľom ponúkne možnosti, či chcú, aby boli odpovede „kreatívnejšie“, „vyváženejšie“ alebo „presnejšie“.

Minulý týždeň reportáž z Bleeping Computer ukázal vývojárom spoločnosti Microsoft testovanie „extra režimy chatu“pre Bing. Režimy – Sydney, Assistant, Friend a Game – umožnia používateľom prístup k rôznym funkciám. Napríklad režim asistenta bude užitočný na rezerváciu letov a nastavenie pripomienok, zatiaľ čo režim hry používateľom umožní hrať hry s Bingom. Je zaujímavé, že správa odhalila, že chatbot by tiež poskytoval odpovede v rôznych tónoch v závislosti od nastaveného režimu. Lawrence Abrams z Bleeping Computer to vyskúšal predstavením smutnej situácie Bingu, v ktorom poskytol tipy na zvládanie smútku v režime Sydney, zatiaľ čo zdanlivo vyjadril viac sympatií, keď bol nastavený na režim priateľa.

Aj keď odhalenia znejú zaujímavo, nie sú jasnými indíciami, že Microsoft má plány priviesť Sydney späť do pôvodného stavu. Ako používatelia poznamenali, chatbot je zatiaľ vyhýbavý v odpovediach na provokujúce otázky. Používateľ tiež odmietnuté myšlienka prístupu k starému Sydney prostredníctvom nových nastavení tónov, hovoriac, že ​​je to len „v podstate režim, v ktorom môže poskytovať kreatívne výstupy bez osobnosti a prejavovania „emócií“. S týmto je pravdepodobné, že uvedené funkcie sú len jedným z krokov spoločnosti, aby bol chatbot užívateľsky prívetivejší, čo dáva väčší zmysel.

V súčasnosti sa správy démonizujúce Sydney naďalej objavujú a umožniť im pokračovať bude to posledné, čo by Microsoft chcel. Aj keď bizarná osobnosť chatbota určite prispela k sláve nového Bingu, Microsoft s ním nebude hazardovať, aby zabezpečil budúcnosť svojho prepracovaného vyhľadávača.

Zachovanie pôvodnej formy Bingu sa môže premietnuť do budúcich bolestí hlavy spoločnosti, od možných právnych problémov až po investičné straty. Navyše, ako softvérový gigant opakovane zdôraznil v nedávnych oznámeniach, Bing je stále v testovaní a neustále sa zlepšuje. Súčasťou tohto faktu je vyvíjajúci sa Sydney, chatbot v budúcnosti schopný prijímať flexibilnejšie témy bez poskytovania nepriaznivých odpovedí. Vďaka tomu, aj keď možno nebudeme môcť znova chatovať s tým starým zlomyseľným robotom, spoločnosť Microsoft nám môže čoskoro poskytnúť lepšiu Sydney, ktorá je schopnejšia generovať odpovede bezpečné pre svojich používateľov aj pre svoj vlastný obraz.

Viac o témach: ai, Umelá inteligencia, bing, ChatGPT, microsoft, openAI

Nechaj odpoveď

Vaša e-mailová adresa nebude zverejnená. Povinné položky sú označené *