谷歌终于不再把“眼镜”当实验室玩具,而是准备在一场真正的硬仗里,跟Meta、苹果正面掰手腕。
根据Alphabet旗下谷歌最新公布的计划,他们正在同步推进两条智能眼镜产品线:一类是带显示屏的AR/AI眼镜,另一类则是更偏“耳机形态”的纯音频AI眼镜,瞄准的是2026年的消费级市场,对标的正是如今已经卖得风生水起的Ray-Ban Meta系列。
谷歌在博客中透露,首批AI眼镜会在2026年某个时间点上市,合作伙伴里已经出现了三星、Warby Parker和Gentle Monster等名字,不过目前还没有任何一款最终量产设计对外亮相。与硬件路径同步推进的,还有他们新发布的Android XR操作系统。这一次,谷歌显然希望避免Google Glass当年那种“走得太早、姿势又怪”的失败剧本。
更有意思的是,谷歌一边拉上三星继续打磨Galaxy XR头显,一边又联手Xreal做独立形态的眼镜设备Project Aura,相当于在“头显+眼镜”双线布局XR入口:Galaxy XR负责重度沉浸,Project Aura则承担“全天候轻量佩戴”的想象空间。
Galaxy XR会迎来一系列软件更新,包括大家吐槽已久的“出行模式”:以前坐车、坐飞机时,头显里的虚拟窗口会随着车体移动疯狂乱飞,想好好看个电影都很费劲;更新之后,设备会锁定场景坐标,让你在移动环境中也能稳定使用。
谷歌还推出了PC Connect应用,任何Windows电脑都可以直接连接Galaxy XR,把笔记本屏幕投进虚拟空间里,不再强制要求你必须买三星自家的Galaxy Book才能用“虚拟桌面”。这个功能已经进入公测,未来还会支持macOS。与此同时,Galaxy XR还会上线一个叫“Likeness”的全新虚拟形象系统,通过手机扫描,人们可以生成高度拟真的3D数字分身,用在视频通话里时,表情和手势都会被实时捕捉,比现在那些“卡通风小人”的沉浸感要强很多。
回到眼镜本身。在纽约的谷歌办公室,记者体验了几款仍处于原型阶段的AI眼镜,以及一副与Xreal联合开发、代号为Project Aura的样机。和如今颇受欢迎的Ray-Ban Meta类似,这些眼镜大多通过无线方式连接手机,由手机负责绝大多数算力任务:比如呼唤Gemini AI播放一首YouTube Music的歌,或者识别你面前的一堆食材,直接生成一份菜谱。正是这种“把计算挤回手机里”的架构设计,才让眼镜本体能够保持足够轻薄,看上去更像一副普通近视眼镜,而不是一块戴在脸上的开发板。
在正式发布前的上手体验中,彭博社试戴了两款带显示屏的原型机:一款是单目设计,只有右侧镜片内嵌了一个小屏;另一款则是双目设计,左右两侧都配有显示模组。两者都可以实现基础的AR叠加,比如在视野中叠加Google Maps的路径导航,或在Google Meet通话时浮现对方画面,但双目版本的虚拟画面明显更大、更包围式,适合长时间看内容。
谷歌内部显然也意识到,大家对“戴在脸上的东西”非常敏感,因此他们在博客里给出的表述是:“我们希望用户可以在重量、外观和沉浸感之间,找到最适合自己的平衡。”在软件层面,谷歌的目标是让尽可能多的体验,在“有屏”和“无屏”两个形态上都能顺畅工作。比如实时翻译功能:你可以选择在镜片上看到带字幕的对话,也可以干脆关掉屏幕,只听耳机里播报译文,把它当成一副“能翻译的AirPods”。
屏幕的价值,在地图和内容创作场景中尤为明显。体验中,当记者用Google Maps导航时,不仅可以在视野里看到AR版的转弯指引,还可以低头看到一张更完整的俯视地图,带方向指示罗盘,让你随时知道自己朝向哪里。拍照时,如果调用Gemini,借助谷歌的Nano Banana Pro文生图模型对照片进行美化,还可以直接在镜片上看到生成结果,不用掏出手机反复对比。这种“抬眼即看”的反馈方式,会潜移默化改变人们与内容创作工具的关系——从“拿起手机找软件”,变成了“眼前随时有界面”。
相比之下,谷歌与Xreal合作的Project Aura走的是另一条路:它不是“手机+眼镜”套件,而是一台运行Android XR的独立设备,有点像把三星那台笨重的Galaxy XR,压缩进一副更日常、更像Xreal One Pro的眼镜形态里。代价是,Project Aura需要全程连接外接电池才能运作,眼镜和电池之间要用线连着——这和Galaxy XR头显同样依赖外置电池的设计如出一辙。官方给出的参数是70°视场角,比Xreal目前的消费级产品更具沉浸感。交互上,Project Aura沿用了Galaxy XR的手势追踪系统,只是由于摄像头数量更少,追踪精细度会打一点折扣,但整体操作逻辑对于已经用过Galaxy XR的用户来说非常熟悉。
如果把这一系列动作放在更长的时间轴上看,就会发现谷歌这次的策略与十年前的Google Glass有着本质差别。当年Glass最大的问题,不只是“看上去像科幻片里的监控设备”,电池和隐私争议也反复被放大,更致命的是,它没有踩在一个真正成熟、清晰的使用场景上。今天的谷歌显然更现实:一边借Meta的成功经验承认“眼镜必须长得正常、人们才会戴出门”,一边把复杂度封装在Android XR和手机算力里,用操作系统和AI能力去拉长自己的优势;同时拉上三星、Xreal、Warby Parker、Gentle Monster这些各自擅长不同用户群的伙伴,把硬件工业设计、时尚属性交给专业团队。
竞争格局也在快速成形。Meta已经靠Ray-Ban系列验证了“先做好音频+摄像,再慢慢加显示”的路线:价格亲民、佩戴自然、体验从拍照与社交起步,再逐步把AI嵌进去。Snap明年会把第一代消费级AR眼镜推向市场,苹果也被普遍认为会在同一时间窗口推出更生活化、轻量化的Vision产品线。谷歌现在切入,是在一个“不是零起点,但也远未定局”的时间点——错过了早年烧钱试错的阶段,却正好赶上AI Agent和多模态交互开始走向主流。这也意味着,它既可以避开一些先行者踩过的坑,但也必须面对用户已经被教育过一轮后的苛刻期待:光是好玩已经不够,真正留得住用户的,一定是能在日常生活中高频出现的刚需场景。
从这个视角看,谷歌这波眼镜+XR组合拳,其实是在试图回答同一个问题:当AI从“在屏幕里”为你服务,变成“挂在你脸上”陪你生活时,一家平台公司到底要把自己放在什么位置?是做下一代操作系统,还是只做一个超级助手?是用自家硬件把体验一手包办,还是像Android手机那样,构建一个庞大的生态?
谷歌现在给出的答案,是尽量不再“赌一把”,而是把风险摊在更多合作伙伴身上,在多条路线同时下注——这既是一种变聪明,也是一种被迫务实。
参考文献:
[1]https://www.bloomberg.com/news/articles/2025-12-08/google-says-first-ai-glasses-with-gemini-will-arrive-in-2026?srnd=phx-technology
从思考到创造