GPT-4 現在可供 ChatGPT Plus 訂閱者使用
3分鐘讀
發表於
請閱讀我們的揭露頁面,了解如何幫助 MSPoweruser 維持編輯團隊的發展 閱讀更多
OpenAI 終於亮相 GPT-4. 據該公司稱,其最新的人工智能模型更加精確和高效,因為它可以處理更多的輸入而不會混淆。 除此之外,GPT-4 確實有 多式聯運 能力,允許它處理圖像。 GPT-4 現在可供 ChatGPT Plus 訂閱者使用,開發人員現在可以將其作為 API 訪問。
後 報告 關於上週的到來,GPT-4 終於來了,通過 Azure 的 AI 優化基礎設施交付。 它是在 Microsoft Azure AI 超級計算機上訓練的,與 GPT-3.5 有一些顯著差異。 特別是,GPT-4 得分 在不同的測試和基準測試中處於第 88 個百分位及以上。
“在隨意的談話中,GPT-3.5 和 GPT-4 之間的區別可能很微妙,”OpenAI 在一篇博文中說。 “當任務的複雜性達到足夠的閾值時,差異就會出現——GPT-4 比 GPT-3.5 更可靠、更有創意,並且能夠處理更細微的指令。”
總的來說,OpenAI 表示,新模型響應受限主題和請求的可能性降低了 82%,這對用戶來說是安全的。 它的響應質量也得到了提高,產生事實答案的可能性高達 40%。
GPT-4 的很大一部分專注於其更有效地處理查詢的能力。 正如 OpenAI 指出的那樣,它現在可以接受 25,000 個單詞的文本而不會出現混淆。 這對於想要充分發揮該模型潛力的用戶來說是個好消息,因為他們將被允許在他們的問題和請求中提供更多細節和說明。 不過,GPT-4 的最大亮點是增加了多模式功能,這是自上週報導以來對該模型的最大期望之一。 使用這一新功能,GPT-4 現在可以處理圖像輸入並通過文本描述它們,儘管它尚未對所有 OpenAI 客戶可用,因為它在 Be My Eyes 及其虛擬志願者功能的幫助下在技術上仍在測試中.
“例如,如果用戶發送他們冰箱內部的圖片,虛擬志願者不僅能夠正確識別裡面的東西,還能推斷和分析可以用這些成分準備什麼,”OpenAi 描述了該功能. “該工具還可以為這些成分提供一些食譜,並發送有關如何製作它們的分步指南。”
Wow Bing 現在可以真正描述圖像了,因為它知道它使用的是 GPT-4!
byu/BroskiPlaysYT in兵
儘管如此,這種多模態能力似乎部分地被引入了 新必應. 微軟表示,其搜索引擎的聊天機器人自上週以來一直在運行該模型。 但是,需要注意的是,Bing 的多模式功能仍然有限。 首先,它只能通過網絡上提供的鏈接接受圖像,它將描述為響應。 同時,當要求使用描述提供圖像時,聊天機器人將提供最相關的內容,包括圖像結果等。
附帶說明一下,GPT-4 中的這些改進並不意味著所有生成 AI 產品中普遍存在的現有問題的終結。 儘管 OpenAI 承諾該模型在拒絕響應有害指令方面比 GPT-3.5 更安全,但它仍然會產生幻覺和社會偏見。 OpenAI CEO Sam Altman 甚至 描述 GPT-4 是“仍然有缺陷,仍然有限”的東西。 儘管如此,該團隊致力於不斷改進該模型,因為它繼續吸引公眾的更多關注,並且隨著微軟將其註入更多產品。
使用者論壇
0消息