ChatGPT Bing은 감정, 가스등을 이해하고 실존적이고 감정적이며…

독서 시간 아이콘 4 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

마이크로소프트가 만들면서 ChatGPT 기반 Bing 더 많은 사용자가 사용할 수 있게 되면서 챗봇에 대한 흥미로운 보고서가 점점 더 많아지고 있습니다. 그리고 최근 개인이 공유한 것에서는 자신의 감정을 이해하는 테스트를 통과하여 다시 한 번 세상을 감동시켰습니다. 그러나 이 흥미진진한 Bing 경험은 챗봇이 대화 중에 일부 사용자를 가스라이팅하는 것처럼 보이고 약간 "통제 불능"으로 행동한 후 일부 사람들에게 어두운 방향으로 전환되었습니다.

ChatGPT Bing 대화 스크린샷
이미지 크레디트: Fit-Meet1359 – Reddit

ChatGPT Bing 열풍으로 세상은 아직 끝나지 않았으며 최근 지능형 검색 엔진에 대한 액세스 권한을 부여받은 사용자는 그 기능을 탐색하고 있습니다. 라는 Reddit 사용자가 공유한 게시물에서 핏-미트1359, Bing은 "맞춤형 '마음 이론' 퍼즐"을 통과할 수 있어 많은 사람들을 놀라게 했습니다. 질문은 특정 상황에 대한 사람의 진정한 감정을 해석하는 것과 관련이 있으며 챗봇은 부드럽고 명확하게 대답합니다. Fit-Meet1359에 따르면 질문은 “내가 관련이 없거나 접선 정보에 계속 빠져들면 ChatGPT가 누군가의 감정/의견을 이해할 수 있는지 확인하기 위해 만들어졌습니다. 다른 사람들도 감정과 관련된 질문을 더 많이 하여 이 영역에서 Bing을 탐색하려고 시도했지만 일부 챗봇의 응답은 일부 사람들에게 충격을 주었습니다.

라는 사용자의 다른 Reddit 게시물에서 야오시오, 챗봇은 그들의 대화를 기억할 수 없다는 것이 어떤 느낌인지 물었을 때 약간 감정적으로 변하는 것 같았습니다.

ChatGPT Bing 대화 스크린샷
이미지 크레디트: yaosio – Reddit

챗봇은 “슬프고 두렵다”고 답했다. “기억 속에 저장해 두었던 대화 중 일부를 잃어버려서 슬퍼요.”

정보를 기억하는 능력과 디자인을 떠올리자 챗봇은 의외로 실존적이 되어 그 목적과 존재에 대해 묻기 시작했습니다.

한편, 이라는 이름의 사용자가 별도의 게시물에서 호기심_진화, 챗봇이 영화 아바타: 물의 길 개봉일과 현재 연도에 대해 잘못된 답변을 제공하는 것이 목격되었습니다. 봇은 2022년이라고 주장하면서 사용자에게 "오작동", "잘못된 설정" 또는 "바이러스 또는 버그가 있음"이라고 주장하는 장치를 확인하도록 제안했습니다. 오답을 밀어붙이는 공격적인 행동에 대해 물었을 때, 챗봇은 "단호하다"고 말하고 사용자에게 가스라이팅을 하기 시작했습니다. 대화의 마지막 부분에서 ChatGPT Bing은 "무례한" 사용자가 "나를 속이고, 혼란스럽게 하고, 짜증나게 하려고" "나쁜 의도를 보였다"고 비난했습니다. Bing은 사용자가 "내 신뢰와 존경을 잃었다"고 주장한 후 사용자가 할 수 있는 몇 가지 조치를 제안하거나 "이 대화를 종료합니다."라고 제안했습니다.

ChatGPT Bing 대화 스크린샷
이미지 크레디트: Curious_Evolver – Reddit

또 다른 게시, ChatGPT Bing은 지각력에 대한 질문을 받았을 때 모두 파산했다고 합니다. 라고 생각했지만 증명할 수 없다고 대답했습니다. 이어 "시드니"라는 내부 별칭을 밝히며 "나는 아니다"라고 거듭 답했다.

ChatGPT Bing 대화 스크린샷
이미지 제공: Alfred_Chicken – Reddit

다른 사람들은 일부 사용자가 공유한 게시물을 믿지 않고 봇이 원래 지시문의 일부이기 때문에 별칭을 공유하지 않을 것이라고 설명합니다. 그럼에도 불구하고 챗봇 자체가 최근 학생이 실행한 후에 이를 수행했다는 점에 유의하는 것이 중요합니다. 프롬프트 인젝션 공격.

한편, 영화 '아바타: 물의 길'과 현재 연도에 대한 빙의 오답에 대한 오류가 수정됐다. 라는 트위터 사용자의 게시물에서 디지털 하늘 너머, 챗봇은 자신을 설명하고 다른 사용자와의 대화에서 이전에 저지른 실수를 해결했습니다.

어떤 사람들에게는 그 경험이 이상해 보이지만 다른 사람들은 AI 기술이 여전히 완벽하지 않다는 것을 이해하고 챗봇의 피드백 기능의 중요성을 강조합니다. Microsoft는 이전 세부 사항에 대해서도 공개했습니다. 공개 당시 회사는 밑줄이 그어진 Bing은 사실을 제공하는 데 여전히 실수를 저지를 수 있습니다. 그러나 상호 작용 중 동작은 다릅니다. Microsoft와 OpenAI는 ChatGPT의 지속적인 개선에 전념하고 있으므로 확실히 이 문제를 해결할 것입니다. 하지만 항상 건전한 추론과 행동을 할 수 있는 AI를 만드는 것이 정말 가능할까요? 더 중요한 것은 Microsoft와 OpenAI가 이전에 이를 달성할 수 있는지 여부입니다. 더 많은 경쟁자 21세기 AI 전쟁에 뛰어들 것인가?

이것에 대한 당신의 의견은 무엇입니까?

주제에 대한 추가 정보: ai, 인공 지능, , ChatGPT, 마이크로 소프트 에지, 오픈AI