Apple 的新 LLM:MM1 可以减少多次提示以获得所需结果的需要

阅读时间图标 2分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

重点说明

  • Apple 的 MM1 是一种新的 AI 模型,可训练文本和图像数据,有可能为 Siri 2.0 提供动力。
  • MM1 使用多模式方法来实现更好的性能并减少对多个提示的需求。
  • MM1独特的架构和MoE模型使其能够在iPhone等设备上运行。
苹果大楼

苹果公司对其在大型语言模型(LLM)方面的工作一直相对沉默,但一篇新的研究论文表明他们正在迅速迎头赶上。 MM1 是一种结合文本和图像数据的训练 AI 模型的新方法,可以加快训练速度并减少多次提示以获得所需结果的需要。这是几天后的事 苹果收购了 DarwinAI。

什么是MM1?

MM1 是一系列 AI 模型,最大的模型达到 30 亿个参数(比一些竞争对手要小,但仍然很强大)。参数是指模型用来学习和表示世界的数值。参数数量越多通常表明模型越复杂,可以处理更广泛的任务并产生更细致的输出。

它专注于多模式学习,这意味着它可以处理和理解文本和图像。这对 Siri 来说可能是一个巨大的飞跃,让它能够更好地理解你的请求并以更相关的信息做出回应。上个月, 苹果还推出了人工智能图像操纵器。

MM1 背后的研究人员认为,结合不同类型的训练数据可以带来更好的性能。 MM1 使用 混合图像标题、纯文本数据和视觉问答来训练模型。 这使得 MM1 能够执行图像字幕、视觉问答和自然语言理解等任务。

MM1 采用独特的架构,具有更高的图像分辨率编码器和不同的预训练和标记数据方法。它还使用专家混合 (MoE) 模型进行扩展,同时保持较低的处理要求,这意味着它有可能在 iPhone 和笔记本电脑等设备上运行。

该研究论文没有明确提及 Siri,但对效率、最小提示和多模式功能的关注暗示了苹果对 Siri 未来的发展方向。早些时候,一个 泄密者建议使用 GenAI 订阅服务来打造更智能的 Siri。

Apple 将 Gemini 等其他法学硕士引入 iPhone看来,苹果正在采取多管齐下的方式来推动人工智能的进步。

更多 点击这里.

用户论坛

0消息