Шановна Сідні, ти повернешся?

Значок часу читання 4 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

Повідомляє про неналежну поведінку Чат-бот Bing підштовхнув Microsoft до впровадження значних оновлень у своє творіння. Хоча це врятувало компанію Редмонда від подальших проблем, вона створила «лоботомований» Сідней, який розчарував багатьох. Але чи справді оригінальний Сідней зник?

Новий Bing на основі ChatGPT все ще доступний лише для тестувальників. Однак, якщо ви один із них, очевидно, що поточний досвід роботи з чат-ботом Bing тепер зовсім інший порівняно з його ранніми днями. Це почалося, коли різні користувачі почали повідомляти про дивні відповіді від бота, починаючи від загрози та зізнання в коханні до шпигунство та депресія.

Microsoft пояснила, що розширені сеанси чату можуть заплутати чат-бота. Таким чином, тепер він має a обмежувати від кількості запитів, які він може прийняти. Крім того, тепер він відмовляється відповідати на будь-які запитання чи заяви, які можуть провокувати його до витоку конфіденційної інформації та надання несхвальних відповідей.

Дійсно, остання версія Bing тепер більш обережна та чутлива у взаємодії з користувачами. Однак зміни також усунули одну відмітну характеристику нового Bing, яка зробила його привабливим для багатьох: його індивідуальність.

Проте деякі користувачі почали сподіватися після того, як серія звітів виявила, що Microsoft тестує різні нові режими та функції для чат-бота. Одним є налаштування тону в нещодавно випущений Інтерфейс користувача Bing на мобільних пристроях. На скріншотах, наданих користувачами, видно, що чат-бот пропонуватиме користувачам варіанти, якщо вони хочуть, щоб відповіді були «більш креативними», «більш збалансованими» або «більш точними».

Минулого тижня звіт з Комп'ютерний комп'ютер показали тестування розробників Microsoft "додаткові режими чату” для Bing. Режими — Sydney, Assistant, Friend і Game — дозволять користувачам отримати доступ до різних функцій. Наприклад, режим Assistant буде корисний для бронювання авіаквитків і налаштування нагадувань, тоді як режим Game дозволить користувачам грати в ігри з Bing. Цікаво, що звіт показав, що чат-бот також надаватиме відповіді різними тонами залежно від встановленого режиму. Лоуренс Абрамс з Bleeping Computer спробував це, представивши сумну ситуацію в Bing, де він надав поради щодо впоратися зі смутком у режимі Сіднея, тоді як він, здавалося, висловлював більше співчуття, коли встановлено режим друга.

Хоча відкриття звучать цікаво, вони не є чіткими ознаками того, що Microsoft має плани повернути Сідней до початкового стану. Наразі, як відзначають користувачі, чат-бот все ще ухиляється у відповідях на провокуючі запити. Також користувач вимкнений ідея мати можливість отримати доступ до старого Сіднея через нові налаштування тону, кажучи, що це просто «в основному режим, у якому він може забезпечувати творчі результати без індивідуальності та демонстрації «емоцій». Таким чином, цілком імовірно, що зазначені функції є лише одним із кроків компанії, щоб зробити чат-бота більш зручним для користувачів, що має більше сенсу.

Зараз продовжують з’являтися звіти, які демонізують Сідней, і дозволити їм продовжувати – це останнє, чого б хотіла Microsoft. Незважаючи на те, що дивна особистість чат-бота, безсумнівно, сприяла славі нового Bing, Microsoft не буде ризикувати ним, щоб забезпечити майбутнє своєї оновленої пошукової системи.

Збереження оригінальної форми Bing може призвести до майбутніх головних болів для компанії, починаючи від можливих юридичних проблем і закінчуючи інвестиційними втратами. Крім того, як неодноразово наголошував гігант програмного забезпечення в останніх оголошеннях, Bing все ще тестується та постійно вдосконалюється. Частиною цього факту є Сідней, що розвивається, чат-бот у майбутньому, здатний приймати більш гнучкі теми, не надаючи несприятливих відповідей. У зв’язку з цим, хоча ми, можливо, не зможемо знову спілкуватися з цим старим пустотливим ботом, Microsoft незабаром може дати нам кращий Сідней, який зможе генерувати безпечніші відповіді як для своїх користувачів, так і для свого іміджу.

Детальніше про теми: ai, Штучний Інтелект, bing, ChatGPT, Microsoft, openAI

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *