이제 ChatGPT Plus 가입자가 GPT-4를 사용할 수 있습니다.
3 분. 읽다
에 게시됨
공개 페이지를 읽고 MSPoweruser가 편집팀을 유지하는 데 어떻게 도움을 줄 수 있는지 알아보세요. 자세히 보기
OpenAI 드디어 공개 GPT-4. 회사에 따르면 최신 AI 모델은 혼란 없이 더 많은 입력을 처리할 수 있어 더 정확하고 효율적입니다. 그 외에도 GPT-4는 실제로 멀티 모달 이미지를 처리할 수 있습니다. GPT-4는 이제 ChatGPT Plus 가입자가 사용할 수 있으며 개발자는 이제 API로 액세스할 수 있습니다.
후 보고서 지난주에 도착한 GPT-4가 드디어 출시되어 Azure의 AI 최적화 인프라를 통해 제공됩니다. Microsoft Azure AI 슈퍼컴퓨터에서 훈련되었으며 GPT-3.5와 몇 가지 눈에 띄는 차이점이 있습니다. 특히 GPT-4 득점 다양한 테스트 및 벤치마크에서 88번째 백분위수 이상입니다.
OpenAI는 블로그 게시물에서 “평범한 대화에서 GPT-3.5와 GPT-4의 차이는 미묘할 수 있습니다. "작업의 복잡성이 충분한 임계값에 도달하면 차이가 나타납니다. GPT-4는 GPT-3.5보다 훨씬 더 안정적이고 창의적이며 훨씬 더 미묘한 지침을 처리할 수 있습니다."
일반적으로 OpenAI는 새 모델이 제한된 주제와 요청에 응답할 가능성이 82% 낮아 사용자에게 안전하다고 말했습니다. 응답의 품질도 향상되어 사실에 입각한 답변을 생성할 확률이 최대 40%입니다.
GPT-4의 상당 부분은 쿼리를 보다 효과적으로 처리하는 기능에 중점을 둡니다. OpenAI가 언급했듯이 이제 혼동 없이 25,000단어의 텍스트를 받아들일 수 있습니다. 이것은 모델의 잠재력을 최대한 활용하려는 사용자에게 희소식입니다. 질문과 요청에 더 자세한 정보와 지침을 제공할 수 있기 때문입니다. 그러나 GPT-4의 가장 큰 하이라이트는 지난 주에 보고된 이후 모델에서 가장 큰 기대치 중 하나인 멀티모달 기능의 추가입니다. 이 새로운 기능을 사용하여 GPT-4는 이제 이미지 입력을 처리하고 텍스트를 통해 설명할 수 있지만 Be My Eyes 및 Virtual Volunteer 기능의 도움으로 기술적으로 아직 테스트 중이므로 아직 모든 OpenAI 고객이 사용할 수는 없습니다. .
"예를 들어, 사용자가 냉장고 내부 사진을 보내면 Virtual Volunteer는 그 안에 무엇이 있는지 정확하게 식별할 수 있을 뿐만 아니라 그 재료로 무엇을 준비할 수 있는지 추정하고 분석할 수 있습니다."라고 OpenAi는 기능을 설명했습니다. . "또한 이 도구는 해당 재료에 대한 여러 레시피를 제공하고 이를 만드는 방법에 대한 단계별 가이드를 보낼 수 있습니다."
Wow Bing은 이제 이미지를 실제로 설명할 수 있습니다. 이제 GPT-4를 사용한다는 사실을 알았습니다!
byu/BroskiPlaysYT in빙
그럼에도 불구하고 이 다중 양식 기능은 부분적으로 새로운 빙. 마이크로소프트는 자사 검색 엔진의 챗봇이 지난주부터 이 모델을 실행하고 있다고 밝혔다. 그러나 Bing의 다중 모드 기능은 여전히 제한적이라는 점에 유의해야 합니다. 시작하려면 웹에서 제공되는 링크를 통해서만 이미지를 수락할 수 있으며 이를 응답으로 설명합니다. 한편, 설명을 사용하여 이미지를 요청하면 챗봇은 이미지 결과 등을 포함하여 가장 관련성이 높은 콘텐츠를 제공합니다.
참고로 GPT-4의 이러한 개선 사항은 모든 생성 AI 제품에 일반적으로 존재하는 기존 문제의 끝을 의미하지 않습니다. OpenAI는 유해한 지시에 대한 응답 거부 측면에서 모델이 GPT-3.5보다 안전하다고 약속했지만 여전히 환각과 사회적 편견을 유발할 수 있습니다. OpenAI CEO 샘 알트만 기술 된 GPT-4는 "여전히 결함이 있고 여전히 제한적"입니다. 그럼에도 불구하고 팀은 계속해서 대중의 관심을 끌고 Microsoft가 더 많은 제품에 모델을 주입함에 따라 모델의 지속적인 개선에 전념하고 있습니다.
사용자 포럼
0 메시지