Дорогая Сидни, ты вернешься?

Значок времени чтения 4 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

Сообщает о неподобающем поведении Бинг-бот подтолкнула Microsoft к внедрению значительных обновлений в свое творение. Хотя это спасло компанию из Редмонда от дальнейших проблем, она произвела «лоботомированный» Сидней, который многих разочаровал. Но действительно ли оригинальный Сидней исчез?

Новый Bing на базе ChatGPT по-прежнему доступен только тестерам. Однако, если вы один из них, очевидно, что текущий опыт работы с чат-ботом Bing теперь полностью отличается от его первых дней. Это началось, когда различные пользователи начали сообщать о получении странных ответов от бота, начиная от угрозы и признания в любви в шпионаж и депрессии.

Microsoft объяснила, что расширенные сеансы чата могут запутать чат-бота. Таким образом, теперь он имеет предел от количества запросов, которые он может принять. Кроме того, теперь он отказывается отвечать на любые вопросы или заявления, которые могут спровоцировать утечку конфиденциальной информации и давать неблагоприятные ответы.

Действительно, последняя версия Bing стала более осторожной и чуткой во взаимодействии с пользователями. Однако изменения также устранили одну отличительную черту нового Bing, которая сделала его привлекательным для многих: его индивидуальность.

Тем не менее, у некоторых пользователей появилась надежда после того, как серия отчетов показала, что Microsoft тестирует различные новые режимы и функции для чат-бота. Один из них настройка тона в последнее время выпустил Пользовательский интерфейс Bing на мобильных устройствах. На скриншотах, предоставленных пользователями, видно, что чат-бот будет предлагать пользователям варианты, если они хотят, чтобы ответы были «более творческими», «более сбалансированными» или «более точными».

На прошлой неделе отчет от Спящий компьютер показали тестирование разработчиков Microsoft»дополнительные режимы чата” для Бинга. Режимы — «Сидней», «Помощник», «Друг» и «Игра» — позволят пользователям получить доступ к различным функциям. Например, режим Assistant будет полезен для бронирования рейсов и установки напоминаний, а режим Game позволит пользователям играть в игры с помощью Bing. Интересно, что отчет показал, что чат-бот также будет отвечать разными тонами в зависимости от установленного режима. Лоуренс Абрамс из Bleeping Computer попробовал это, представив Bing грустную ситуацию, в которой он давал советы, как справиться с грустью в режиме Сиднея, в то время как он, казалось бы, выражал больше сочувствия, когда был установлен в режим «Друг».

Хотя разоблачения звучат интересно, они не являются четкими указаниями на то, что Microsoft планирует вернуть Сидней в его первоначальное состояние. На данный момент, как отмечают пользователи, чат-бот по-прежнему уклончиво отвечает на провоцирующие вопросы. Пользователь также отклонила идея иметь доступ к старому Сидни через новые настройки тона, говоря, что это просто «в основном режим, в котором он может обеспечивать творческие результаты без личности и показа« эмоций »». При этом вполне вероятно, что указанные функции — это лишь один из шагов компании, направленных на то, чтобы сделать чат-бота более удобным для пользователя, что имеет больше смысла.

В настоящее время отчеты о демонизации Сиднея продолжают появляться, и позволить им продолжаться — последнее, чего хотела бы Microsoft. Хотя причудливая личность чат-бота, безусловно, способствовала известности нового Bing, Microsoft не будет делать ставку на него, чтобы обеспечить будущее своей обновленной поисковой системы.

Сохранение первоначальной формы Bing может привести к проблемам для компании в будущем, начиная от возможных юридических проблем и заканчивая инвестиционными потерями. Кроме того, как софтверный гигант неоднократно подчеркивал в недавних объявлениях, Bing все еще находится в стадии тестирования и постоянно совершенствуется. Частью этого факта является развивающийся Сидней, чат-бот в будущем, способный принимать более гибкие темы, не давая неблагоприятных ответов. При этом, хотя мы, возможно, не сможем снова общаться с этим старым озорным ботом, Microsoft может вскоре дать нам лучший Сидней, который более способен генерировать ответы, безопасные как для его пользователей, так и для его собственного имиджа.

Подробнее о темах: ai, Artificial Intelligence, Бинг, ChatGPT, Microsoft, openAI

Оставьте комментарий

Ваш электронный адрес не будет опубликован. Обязательные поля помечены * *