苹果AI放大招:自研模型性能超GPT-4,运行流畅无阻

AI快讯 2024-04-02

在科技领域,苹果公司一直以其创新精神和卓越技术引领潮流。近日,其AI研究团队又取得了令人瞩目的成就,他们成功开发出了一款自研模型,不仅在设备上运行流畅,而且在性能上甚至超越了备受瞩目的GPT-4模型。

image.png

作为我们日常生活中的得力助手,Siri正在不断探索新的功能。最近,它开始尝试通过CarPlay和通知功能解读消息中的图片,尽管这项功能的表现有时不尽如人意,但无疑标志着苹果在AI领域的坚定步伐和不断探索的精神。

苹果最新的研究论文向我们展示了一个全新的系统,这个系统赋予了Siri更多能力,使其不再局限于简单的图片识别。更令人振奋的是,研究人员发现,在某些功能上,这个自研模型的性能甚至超过了ChatGPT 4.0,这无疑为苹果在AI领域的竞争地位增添了浓重的一笔。

在一篇名为“ReALM:以语言模型解决参考问题”的论文中,苹果提出了一个可能大幅提升语音助手实用性的方案。ReALM系统不仅关注屏幕上的内容,还包括用户正在执行的任务,这种全面性的设计使得Siri能够更准确地理解用户的需求并提供相应的服务。

该系统的工作原理主要基于三种实体:屏幕上实体、对话实体和背景实体。这些实体共同构成了Siri理解用户指令和提供响应的基础。通过这种方式,ReALM系统为打造一个更智能、更实用的Siri奠定了基础。

苹果公司对迅速克服技术挑战充满信心,他们的基准测试与OpenAI的ChatGPT 3.5和ChatGPT 4.0进行了比较,并取得了令人印象深刻的结果。苹果的模型在处理各种类型的引用时都表现出了显著的进步,即使是最小的模型,在屏幕引用方面也实现了超过5%的性能提升。

image.png

在与GPT-3.5和GPT-4的对比测试中,苹果的小型模型的表现堪比GPT-4,而更大的模型则远远超过了后者。这一结果无疑证明了苹果在AI领域的强大实力和创新能力。

论文总结道,ReALM在多个方面超越了现有技术,与目前最先进的大型语言模型GPT-4的性能相当,尽管ReALM的参数数量远少于GPT-4。此外,在处理特定领域的用户指令上,ReALM的表现更是超越了GPT-4,成为了一个理想的设备上引用解析系统。

对于苹果来说,能够在设备上运行而不牺牲性能是至关重要的。随着平台的发展,未来几年苹果在AI领域的表现将会非常令人期待。我们热切期待着2024年6月10日iOS 18的发布和WWDC 2024的到来,相信苹果会带给我们更多惊喜和创新。

@版权声明:部分内容从网络收集整理,如有侵权,请联系删除!

相关文章