苹果与谷歌的AI合作关系再度浮上台面,根据媒体记者Mark Gurman最新报导,苹果已接近敲定与谷歌的重大协议,计划采用Gemini人工智能模型,为即将在2026年春季登场的全新Siri提供技术支持,将大量导入谷歌的Gemini大型语言模型(LLM),以补强苹果自家AI能力的不足。

苹果导入1.2万亿参数Gemini模型,远超苹果自研规模
据彭博社报道,苹果已经与 谷歌 达成合作案,预估斥资规模 10 亿美元买入 Gemini 人工智能模型完整使用权,背后的推手并非模型表现,而是价格优势促成了苹果最终选择。
苹果将在旗下的 Private Cloud Compute 云端服务器上运行一套由经 谷歌 客制化的 Gemini 模型,该 AI 模块拥有高达 1.2 万亿参数,将作为新版 Siri 背后的核心技术,主要能协助处理用户语音请求,并支持更深入的个性化功能,例如通过设备询问「帮我找妈妈推荐的书」这类问题,将会以动态生成响应贴近用户需求。

相比之下,苹果目前自研的云端模型仅有1500亿参数,设备端模型更只有30亿参数,两者与Gemini之间的差距明显。
这项苹果与 谷歌 合作代表 Siri 架构将会迎来一次重建,也能补足苹果当前在大型语言模型研发上的落后现况。
揭开 Apple Intelligence Siri 三大核心架构
值得注意的是,这次 谷歌 与苹果合作,与过去 OpenAI 配合模式完全不同,先前苹果仅考虑将 Gemini 作为 Siri 的知识来源之一,最终未能具体成案,但如今 Gemini 的角色,已经从附属知识来源,升级为 Siri 核心处理架构的重要支柱。
根据知情人士透露,新一代Apple Intelligence Siri架构将由三大核心模块组成,包含查询规划器、知识搜索系统与摘要生成器,内部代号为Glenwood的项目,由苹果现任Siri领导人Mike Rockwell主导,其任命则是源于公司先前AI部门的人事重整。
其中 谷歌 Gemini 模型仅负责 Siri 的「查询规划器」与「摘要生成器」两大核心模块,将处理负责语意理解、任务规划与信息整合功能,至于其他个性化与设备端处理部分,则仍由苹果自家 Foundation Models 支持。

对于外界普遍关注的隐私议题相比,本次合作也维持苹果一贯标准,Gemini 模型将在苹果的 Private Cloud Compute 云架构内执行,不会有用户数据和对话外流至 谷歌 服务器的疑虑。
Gemini 并非长期解方,苹果仍积极自研 AI 模型
尽管此次双方合作算是相当大规模,报导指出,苹果内部并未将 Gemini 视为长期依赖对象,高层仍有意自主开发能与 Gemini 匹敌的 AI 系统。
尽管近年苹果AI团队遭遇核心人才流失,包括AI模型主管的离职,苹果仍持续投入资源开发一款自家云端模型,目标参数达1兆,并期望最早于2026年内部署应用。
根据先前苹果执行长库克对外公开时程规划,全新 Apple Intelligence Siri 计划在 2026 年 3 月或 4 月 随 iOS 26.4 正式亮相,并同步导入苹果即将推出的智慧家庭显示设备,打造更完整的个人化 AI 语音助理生态系。
微信扫一扫
