大型语言模型(LLM)对CPU和内存的资源极为密集,但据说苹果正在尝试将这项技术存储在闪存上,可能会使其在多个设备上轻松访问。 然而这家科技龙头也希望让LLM在其 iPhone 和 Mac 系列中无处不在,并正在探索实现这一目标的方法。
在典型情况下大型语言模型需要人工智能加速器和高DRAM存储容量。 根据TechPowerUp报导苹果正在努力将相同的技术导入内存容量有限的设备中。 在一篇新发表的论文中,苹果发表了一篇论文旨在将LLM导入内存容量有限的装置。 iPhone的内存也有限,因此苹果研究人员开发了一种使用闪存芯片来储存人工智能模型数据的技术。
由于苹果的iPhone和Mac电脑上有大量闪存,因此有一种方法可以通过一种称为窗口化的技术来绕过此限制。 在这种方法中AI模型重复使用了一些已经处理过的数据,减少了对连续内存获取的需求,并使整个过程更快。 第二种技术是行列捆绑; 数据可以更有效地分组,使人工智能模型能够更快地从闪存读取数据并加快其理解能力。
这两种技术和其他方法都将允许AI模型运行高达iPhone可用RAM大小的两倍,从而使标准处理器上的速度提高多达5倍,在显示处理器上提高多达25倍。 有大量证据表明苹果对人工智能很认真,首先是它自己的聊天机器人,内部称为Apple GPT。 据传明年的iPhone 16还将配备升级的麦克风,这对该公司来说成本高昂,但可以改进语音输入,这对于Siri执行多项任务是必要的。
还有传言称某种形式的生成式人工智能将在明年正式发布时融入iOS 18中,因此尽管苹果一直落后于OpenAI、谷歌、Amazon等公司,但这种差距到2024年可能会大幅缩小。 将这项技术导入内存有限的iPhone、iPad和Mac可能会为这些设备带来独特的卖点,但我们必须首先看看存储在闪存上的LLM的表现如何。
