苹果新版Siri整合Google Gemini模型,采三大核心和推出时程曝光

苹果与谷歌的AI合作关系再度浮上台面,根据媒体记者Mark Gurman最新报导,苹果已接近敲定与谷歌的重大协议,计划采用Gemini人工智能模型,为即将在2026年春季登场的全新Siri提供技术支持,将大量导入谷歌的Gemini大型语言模型(LLM),以补强苹果自家AI能力的不足。

苹果新版Siri整合谷歌 Gemini模型,采三大核心和推出时程曝光

苹果导入1.2万亿参数Gemini模型,远超苹果自研规模

据彭博社报道,苹果已经与 谷歌 达成合作案,预估斥资规模 10 亿美元买入 Gemini 人工智能模型完整使用权,背后的推手并非模型表现,而是价格优势促成了苹果最终选择。

苹果将在旗下的 Private Cloud Compute 云端服务器上运行一套由经 谷歌 客制化的 Gemini 模型,该 AI 模块拥有高达 1.2 万亿参数,将作为新版 Siri 背后的核心技术,主要能协助处理用户语音请求,并支持更深入的个性化功能,例如通过设备询问「帮我找妈妈推荐的书」这类问题,将会以动态生成响应贴近用户需求。

苹果新版Siri整合谷歌 Gemini模型,采三大核心和推出时程曝光

相比之下,苹果目前自研的云端模型仅有1500亿参数,设备端模型更只有30亿参数,两者与Gemini之间的差距明显。

这项苹果与 谷歌 合作代表 Siri 架构将会迎来一次重建,也能补足苹果当前在大型语言模型研发上的落后现况。

揭开 Apple Intelligence Siri 三大核心架构

值得注意的是,这次 谷歌 与苹果合作,与过去 OpenAI 配合模式完全不同,先前苹果仅考虑将 Gemini 作为 Siri 的知识来源之一,最终未能具体成案,但如今 Gemini 的角色,已经从附属知识来源,升级为 Siri 核心处理架构的重要支柱。

根据知情人士透露,新一代Apple Intelligence Siri架构将由三大核心模块组成,包含查询规划器、知识搜索系统与摘要生成器,内部代号为Glenwood的项目,由苹果现任Siri领导人Mike Rockwell主导,其任命则是源于公司先前AI部门的人事重整。

其中 谷歌 Gemini 模型仅负责 Siri 的「查询规划器」与「摘要生成器」两大核心模块,将处理负责语意理解、任务规划与信息整合功能,至于其他个性化与设备端处理部分,则仍由苹果自家 Foundation Models 支持。

揭开 Apple Intelligence Siri 三大核心架构

对于外界普遍关注的隐私议题相比,本次合作也维持苹果一贯标准,Gemini 模型将在苹果的 Private Cloud Compute 云架构内执行,不会有用户数据和对话外流至 谷歌 服务器的疑虑。

Gemini 并非长期解方,苹果仍积极自研 AI 模型

尽管此次双方合作算是相当大规模,报导指出,苹果内部并未将 Gemini 视为长期依赖对象,高层仍有意自主开发能与 Gemini 匹敌的 AI 系统。

尽管近年苹果AI团队遭遇核心人才流失,包括AI模型主管的离职,苹果仍持续投入资源开发一款自家云端模型,目标参数达1兆,并期望最早于2026年内部署应用。

根据先前苹果执行长库克对外公开时程规划,全新 Apple Intelligence Siri 计划在 2026 年 3 月或 4 月 随 iOS 26.4 正式亮相,并同步导入苹果即将推出的智慧家庭显示设备,打造更完整的个人化 AI 语音助理生态系。

(0)
打赏 微信扫一扫 微信扫一扫

相关推荐

发表回复

登录后才能评论