New Bing, 프롬프트 인젝션 공격 후 다른 원본 지침인 'Sydney'라는 별칭 공개

독서 시간 아이콘 2 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

새로운 ChatGPT 기반 Bing은 즉각적인 인젝션 공격을 경험한 후 그 비밀을 밝혔습니다. 코드명을 "Sydney"로 공개하는 것 외에도 원래 지침을 공유하여 사용자와 상호 작용할 때 행동하는 방법을 안내했습니다. (을 통해 ARS Technica)

신속한 주입 공격은 여전히 ​​AI의 약점 중 하나입니다. 악의적이고 적대적인 사용자 입력으로 AI를 속여 원래 목표의 일부가 아닌 작업을 수행하거나 해서는 안 되는 작업을 수행하도록 할 수 있습니다. 스탠포드 대학 학생이 밝혔듯이 ChatGPT도 예외는 아닙니다. 케빈 리우.

새로운 ChatGPT로 구동되는 Bing, 즉각적인 주입 공격 후 내부 별칭 'Sydney' 및 기타 원래 지시어 공개
이미지 크레디트: 케빈 리우

Liu가 공유한 일련의 스크린샷에서 새로운 ChatGPT 기반 Bing은 사용자에게 숨겨진 원래 지침의 일부인 기밀 정보를 공유했습니다. Liu는 AI를 속이는 신속한 주입 공격을 사용하여 정보를 획득했습니다. 유출된 정보에는 소개 지침, 내부 별칭 시드니, 지원 언어 및 행동 지침이 포함되어 있습니다. 이름이 다른 학생 마빈 폰 하겐 OpenAI 개발자로 가장한 후 Liu의 발견을 확인했습니다.

정보가 공개된 지 하루 만에 Liu는 ChatGPT를 속일 때 사용한 것과 동일한 프롬프트를 사용하여 정보를 볼 수 없다고 말했습니다. 그러나 학생은 다른 프롬프트 인젝션 공격 방식을 사용하여 다시 AI를 속이는 데 성공했습니다.

마이크로소프트는 최근 공식적으로 새로운 ChatGPT 지원 Bing 새로운 AI 기반 사이드바가 있는 개선된 Edge 브라우저와 함께. 큰 성공을 거둔 것처럼 보이지만 개선된 검색 엔진은 여전히 ​​프롬프트 인젝션 공격 측면에서 약점이 있으며 이는 기밀 지시 사항을 공유하는 것 이상으로 더 많은 영향을 미칠 수 있습니다. AI 사이에서 알려진 이 문제는 ChatGPT만이 아닙니다. 이것은 다음을 포함하여 다른 사람들에게도 확장될 수 있습니다. 구글 바드, 최근 데모에서 첫 번째 오류를 범했습니다. 그럼에도 불구하고 전체 기술 산업이 AI 창작물에 더 많은 투자를 하고 있기 때문에 미래에 AI에 대한 문제가 덜 위협적일 수 있기를 바랄 뿐입니다.

주제에 대한 추가 정보: ai, 인공 지능, , ChatGPT, 구글 바드, 마이크로 소프트 에지, 오픈AI, 보안

댓글을 남겨주세요.

귀하의 이메일 주소는 공개되지 않습니다. *표시항목은 꼭 기재해 주세요. *