삼성, 보안 우려로 직원들에게 생성 AI 금지 명령

독서 시간 아이콘 3 분. 읽다


독자들은 MSpoweruser를 지원하는 데 도움을 줍니다. 당사의 링크를 통해 구매하시면 수수료를 받을 수 있습니다. 툴팁 아이콘

공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기

삼성 직원이 다음과 같이 생성 AI를 완전히 신뢰하는 것을 원하지 않습니다. ChatGPT 회사의 민감한 정보에 관한 경우. 이와 같이 한국 회사는 이제 직원 내에서 생성 AI 서비스 사용을 금지하고 있습니다.

삼성전자는 "보안 지침을 성실히 준수해 주실 것을 당부드리며 이를 어길 경우 회사 정보가 유출되거나 손상되어 최대 해고에 이르는 징계 조치를 받을 수 있다"고 밝혔다. 블룸버그 뉴스.

보고서에 따르면 이 회사는 지난 65월 설문조사를 실시했는데 응답자의 XNUMX%가 직장 내에서 AI 도구를 사용하면 잠재적인 보안 문제로 이어질 수 있다고 생각하는 것으로 나타났습니다. 흥미롭게도 삼성은 지난 달 일부 엔지니어가 XNUMX월에 ChatGPT에 업로드했을 때 "실수로" 내부 소스 코드를 유출한 사실을 발견했습니다.

이 보고서는 삼성이 보안 문제를 강조하는 메모를 공개했다고 공유했습니다. AI 툴에 제출된 기밀 정보가 외부 서버에 저장되어 삼성의 통제를 벗어나 외부에 유출될 수 있다는 우려다. 

이 메모는 특정 부서의 직원들에게 생성 AI 도구 사용에 대해 경고하고 회사 정책을 따르도록 독려하며 이를 거부하는 사람들은 처벌을 받을 수 있음을 강조했습니다. 경고에도 불구하고 삼성은 직원들에게 보내는 메모에서 ChatGPT와 같은 기술을 사용하기 위한 "안전한 환경을 조성"하려는 의도를 공유하면서 일시적일 것이라고 언급했습니다.

메모에는 “본사는 직원의 생산성과 효율성을 높이기 위해 제너레이티브 AI를 안전하게 사용할 수 있는 안전한 환경을 조성하기 위한 보안 조치를 검토하고 있다”고 밝혔다. 다만, 이러한 대책이 마련될 때까지 일시적으로 제너레이티브 AI 사용을 제한하고 있다”고 말했다. 

삼성은 같은 우려로 이미 각자의 자리에서 제너레이티브 AI 사용을 금지한 다른 기업들(예: JP모건체이스, 뱅크오브아메리카, 씨티그룹)에 합류했다. 그럼에도 불구하고 이러한 회사의 움직임은 놀라운 일이 아닙니다. 특히 채팅 기록과 결제 정보를 일시적으로 노출한 최근 ChatGPT 버그 이후에는 더욱 그렇습니다. 그리고 OpenAI가 ChatGPT 생성에 제공되는 정보에 액세스할 수 있다는 점을 감안할 때 회사는 직원이 그러한 AI 도구를 사용하는 것을 두려워할 권리가 있습니다.

그럼에도 불구하고 OpenAI는 항상 사용자에게 "민감한 정보"를 공유하지 말라고 경고했습니다. 처럼 설명 OpenAI 자체에 의해 "예를 들어 ChatGPT를 지원하는 모델을 교육하기 위해 서비스를 개선하기 위해 귀하가 제공한 콘텐츠를 사용할 수 있습니다." 그러나 ChatGPT에는 이미 시크릿 모드 기능이 있다는 점에 유의해야 합니다. 그러나 특히 단순한 보안 문제가 거대한 비즈니스 재앙을 초래할 수 있기 때문에 기업에게는 여전히 충분한 보증이 되지 않을 수 있습니다.

주제에 대한 추가 정보: ai, ChatGPT, 생성 적 AI, 삼성

댓글을 남겨주세요.

귀하의 이메일 주소는 공개되지 않습니다. *표시항목은 꼭 기재해 주세요. *