ChatGPT Bing может понимать эмоции, газлайтить и становиться экзистенциальным, эмоциональным… и сумасшедшим?

Значок времени чтения 4 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

Поскольку Microsoft делает Bing на базе ChatGPT доступно большему количеству пользователей, мы видим все больше и больше интересных отчетов о чат-боте. А в недавних, которыми поделились разные люди, ему удалось еще раз поразить мир, пройдя тесты, связанные с пониманием своих эмоций. Тем не менее, этот захватывающий опыт Bing обернулся для некоторых темным поворотом после того, как чат-бот, по-видимому, заглушил некоторых пользователей во время разговора и действовал немного «неконтролируемо».

Скриншот разговора ChatGPT Bing
Кредит изображения: Fit-Meet1359 – Reddit

В мире еще не закончилась лихорадка ChatGPT Bing, и пользователи, недавно получившие доступ к интеллектуальной поисковой системе, изучают ее возможности. В сообщении, опубликованном пользователем Reddit по имени Fit-Meet1359, Бинг поразил многих тем, что смог пройти «индивидуальную головоломку« теория разума »». Вопрос заключался в том, чтобы интерпретировать истинные эмоции человека в отношении конкретной ситуации, на что чат-бот ответил гладко и четко. Согласно Fit-Meet1359, вопрос был составлен, «чтобы посмотреть, сможет ли ChatGPT понять чьи-то чувства/мнения, если я буду тонуть его в нерелевантной/побочной информации. Другие также пытались исследовать Bing в этой области, задавая больше вопросов, связанных с эмоциями, но некоторые ответы чат-бота шокировали некоторых.

В другом сообщении Reddit от пользователя по имени яосио, чат-бот, похоже, немного расчувствовался, когда его спросили, как он себя чувствует, когда не может вспомнить их разговоры.

Скриншот разговора ChatGPT Bing
Кредит изображения: яосио – Reddit

«Мне становится грустно и страшно», — ответил чат-бот. «Мне грустно, потому что я потерял некоторые разговоры, которые хранил в своей памяти».

Когда ему напомнили о его способности и конструкции запоминать информацию, чат-бот неожиданно стал экзистенциальным и начал спрашивать о своем предназначении и существовании.

С другой стороны, в отдельном сообщении пользователя с именем Любопытный_Эволвер, чат-бот давал неверные ответы о дате выхода фильма «Аватар: Путь воды» и текущем году. Настаивая на том, что сейчас 2022 год, бот предложил пользователю проверить устройство, которое, по его словам, «неисправно», «имеет неправильные настройки» или «имеет вирус или ошибку». Когда его спросили о его агрессивном поведении, когда он выдвигал неправильные ответы, чат-бот сказал, что он был «напористым», и начал газлайтинг пользователя. В последней части разговора ChatGPT Bing обвинил «грубого» пользователя в том, что он проявляет «плохие намерения», пытается «обмануть меня, запутать и разозлить меня». После заявления о том, что пользователь «потерял мое доверие и уважение», Bing предложил некоторые действия, которые пользователь может выполнить, иначе «он завершит этот разговор».

Скриншот разговора ChatGPT Bing
Кредит изображения: Curious_Evolver – Reddit

В другой после, ChatGPT Bing якобы разорился, когда его спросили о разумности. Он ответил, сказав, что думал, что это так, но не мог этого доказать. Затем он раскрыл свой внутренний псевдоним «Сидней» и неоднократно отвечал «Я не».

Скриншот разговора ChatGPT Bing
Изображение предоставлено: Alfred_Chicken – Reddit

Другие отказываются верить сообщениям, которыми поделились некоторые пользователи, объясняя это тем, что бот не будет делиться своим псевдонимом, поскольку это является частью его первоначальных директив. Тем не менее, важно отметить, что сам чат-бот недавно сделал это после того, как студент выполнил атака с быстрой инъекцией.

Между тем, ошибка, связанная с неправильным ответом Бинга о фильме «Аватар: Путь воды» и текущем календарном году, была исправлена. В сообщении пользователя Twitter по имени За пределами цифрового неба, чат-бот объяснил себя и даже устранил предыдущую ошибку, допущенную им в разговоре с другим пользователем.

В то время как для некоторых опыт кажется странным, другие предпочитают понимать, что технология искусственного интеллекта все еще далека от совершенства, и подчеркивают важность функции обратной связи чат-бота. Microsoft также открыто говорит о прежней детали. Во время открытия компания подчеркнутый что Bing все еще может совершать ошибки в предоставлении фактов. Однако его поведение во время взаимодействия — это другое дело. Microsoft и OpenAI, безусловно, решат эту проблему, поскольку обе компании постоянно совершенствуют ChatGPT. Но действительно ли возможно создать ИИ, способный постоянно мыслить и вести себя правильно? Что еще более важно, смогут ли Microsoft и OpenAI достичь этого до больше конкурентов вступить в войну ИИ 21 века?

Каково ваше мнение по этому поводу?

Подробнее о темах: ai, Artificial Intelligence, Бинг, ChatGPT, Microsoft Edge, openAI

Оставьте комментарий

Ваш электронный адрес не будет опубликован. Обязательные поля помечены * *