GPT-4 现在可供 ChatGPT Plus 订阅者使用

阅读时间图标 3分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

OpenAI 终于亮相 GPT-4. 据该公司称,其最新的人工智能模型更加精确和高效,因为它可以处理更多的输入而不会混淆。 除此之外,GPT-4 确实有 多峰的 能力,允许它处理图像。 GPT-4 现在可供 ChatGPT Plus 订阅者使用,开发人员现在可以将其作为 API 访问。

报告 关于上周的到来,GPT-4 终于来了,通过 Azure 的 AI 优化基础设施交付。 它是在 Microsoft Azure AI 超级计算机上训练的,与 GPT-3.5 有一些显着差异。 特别是,GPT-4 打进 在不同的测试和基准测试中处于第 88 个百分位及以上。 

“在随意的谈话中,GPT-3.5 和 GPT-4 之间的区别可能很微妙,”OpenAI 在一篇博文中说。 “当任务的复杂性达到足够的阈值时,差异就会出现——GPT-4 比 GPT-3.5 更可靠、更有创意,并且能够处理更细微的指令。”

总的来说,OpenAI 表示,新模型响应受限主题和请求的可能性降低了 82%,这对用户来说是安全的。 它的响应质量也得到了提高,产生事实答案的可能性高达 40%。

GPT-4 的很大一部分专注于其更有效地处理查询的能力。 正如 OpenAI 指出的那样,它现在可以接受 25,000 个单词的文本而不会出现混淆。 这对于想要充分发挥该模型潜力的用户来说是个好消息,因为他们将被允许在他们的问题和请求中提供更多细节和说明。 不过,GPT-4 的最大亮点是增加了多模式功能,这是自上周报道以来对该模型的最大期望之一。 使用这一新功能,GPT-4 现在可以处理图像输入并通过文本描述它们,尽管它尚未对所有 OpenAI 客户可用,因为它在 Be My Eyes 及其虚拟志愿者功能的帮助下在技术上仍在测试中.

GPT-4 描述图像
图片来源:OpenAI

GPT-4 描述图像

“例如,如果用户发送他们冰箱内部的图片,虚拟志愿者不仅能够正确识别里面的东西,还能推断和分析可以用这些成分准备什么,”OpenAi 描述了该功能. “该工具还可以为这些成分提供一些食谱,并发送有关如何制作它们的分步指南。”

Wow Bing 现在可以真正描述图像了,因为它知道它使用的是 GPT-4!
byu/BroskiPlaysYT in

尽管如此,这种多模态能力似乎部分地被引入了 新必应. 微软表示,其搜索引擎的聊天机器人自上周以来一直在运行该模型。 但是,需要注意的是,Bing 的多模式功能仍然有限。 首先,它只能通过网络上提供的链接接受图像,它将描述为响应。 同时,当要求使用描述提供图像时,聊天机器人将提供最相关的内容,包括图像结果等。

Bing Chat 使用多模式功能作为响应

附带说明一下,GPT-4 中的这些改进并不意味着所有生成 AI 产品中普遍存在的现有问题的终结。 尽管 OpenAI 承诺该模型在拒绝响应有害指令方面比 GPT-3.5 更安全,但它仍然会产生幻觉和社会偏见。 OpenAI CEO Sam Altman 甚至 描述 GPT-4 是“仍然有缺陷,仍然有限”的东西。 尽管如此,该团队致力于不断改进该模型,因为它继续吸引公众的更多关注,并且随着微软将其注入更多产品。

用户论坛

0消息