谷歌 于今(9)日凌晨的「The Android Show | XR Edition: AI Glasses」线上发布会中公布了最新的AI眼镜发展,这款智能眼镜搭载了Gemini AI助理,旨在将人们每天佩戴的眼镜变得更智能、更实用,让用户能更专注于当下,简化日常生活。 与过去的智能眼镜不同,谷歌 这次采取了与知名眼镜品牌 Warby Parker 和 Gentle Monster 合作的策略,以确保产品兼具时尚外观与日常穿戴的舒适性,这也是 谷歌 Android XR 平台首次与眼镜品牌合作。

两大 AI 眼镜款式:满足不同需求
目录
谷歌 计划推出两种主要款式的 AI 眼镜,均搭载 Android XR 平台并由 Gemini 驱动:
- AI 眼镜(Audio-Only AI Glasses)
- 核心功能: 内置喇叭、相机和多个麦克风。
- 用途: 让用户能与 Gemini 进行对话,听音乐、拨打电话、拍照等。 它主要作为一个免持、屏幕解放的 AI 助手。
- Display AI 眼镜(Display AI Glasses)
- 核心功能: 在 AI 眼镜的基础上,增加了一个小型显示器。
- 用途: 能够私下显示有帮助的信息,且信息只在用户需要时才出现。 这就是 谷歌 在 I/O 大会上曾示范的款式。
赋予眼镜「情境感知」的 Gemini AI
Gemini 是这款智能眼镜的核心卖点,它能够通过眼镜上的镜头、麦克风等传感器「看见」和「听见」用户周遭的世界,从而提供情境感知和实时协助。
- 即时问题解答: 询问眼中所见的物体,例如辨识桌上的零食名称与吃法。
- 可视化记忆与提醒: 提醒某个地点 或辨识高蛋白食物(如毛豆)并加入购物清单。
- 扩增实境创意: 通过语音指令拍照,并加入Android 机器人等数字元素。
- 即时翻译: 在与不同语言的人交谈时,实时进行语音翻译。
- 导航与生活协助: 提供逐步导航、消息通知、预约计划等功能。
合作伙伴展望:重新定义日常穿戴与 IoT
谷歌 的合作伙伴也对 AI 眼镜带来的可能性感到兴奋,认为它们将取代部分智能手机的功能,让用户不再需要频繁拿出手机,更专注于生活。
- Gentle Monster / Warby Parker: 视眼镜为「强而有力的自我表达形式」; 认为未来所有眼镜都将是智慧的,且不再需要被特别称为 AI 眼镜。
- Get Your Guide (旅游): 整合 AI 眼镜来提升旅游体验,例如在美食导览中,让眼镜协助寻找集合点或记录地点。
- Uber (交通): 正在研究如何利用 Display AI 眼镜的屏幕,在机场等复杂环境中,实时显示叫车状态、ETA、车牌号码和导引方向,让取车体验更顺畅直觉,避免用户在腾不出手时还要拿出手机。 Uber认为这重新定义了 IoT(物联网)的可能性。
与 META 仅支持自家生态(FB、IG、WhatsApp… )不同,谷歌 也针对软件开发者释出 Android XR SDK Developer Preview 3 与 AI 眼镜专属工具: Jetpack Glimmer (UI 工具包)、Jetpack Projected Library (App 移植)、AR Core 地理空间能力 等工具,以未来发展性来讲 谷歌 AI 眼镜用途会广很多。
市场竞争与未来展望
谷歌 AI 眼镜的推出,被视为对 Meta Ray-Ban 智能眼镜的直接挑战。 Meta 的产品目前主要专注于拍照、录像和基础语音功能(新款的 Display 也仅支持它自家生态),而 谷歌 则将 Gemini AI 深度整合,使其成为一个更为强大的情境感知助手。 因有之前 谷歌 Glass 的失败经验,谷歌 这次的新策略是吸取了过去的教训,转而注重时尚设计和实用、无缝的 AI 体验。 这场AI穿戴装置的战局正日益升温,苹果也传闻将在2026年左右推出AI智能眼镜,搭载Gemini的谷歌 AI眼镜预计将在2026年陆续上市。
微信扫一扫
