导读 一篇新的研究论文表明,苹果针对其他公司似乎忽视的人工智能技术问题拥有实用的解决方案,特别是如何在iPhone等低内存设备上使用大量大型语...
一篇新的研究论文表明,苹果针对其他公司似乎忽视的人工智能技术问题拥有实用的解决方案,特别是如何在iPhone等低内存设备上使用大量大型语言模块。
尽管声称苹果在生成人工智能方面落后于行业,但该公司现已两次透露,它正在继续进行长期规划,而不是竞相发布ChatGPT 克隆版本。第一个迹象是一篇研究论文,提出了一种名为 HUGS 的人工智能系统,该系统可以生成人类的数字化身。
现在,正如VentureBeat发现的那样,第二篇研究论文提出了在 RAM 有限的设备(例如 iPhone)上部署巨大的大型语言模块 (LLM) 的解决方案。
这篇新论文名为“LLM in a flash: Efficient Large Language Model Inference with Limited Memory”。苹果表示,它“通过将模型参数存储在闪存上,但按需将它们传送到 DRAM,解决了高效运行超出可用 DRAM 容量的 LLM 的挑战。”