当前位置: 首页 » 资讯 » 科技头条 » 正文

Google刚办了一场Android秀,主角是XR,而眼镜只是计划的一部分

IP属地 中国·北京 科技行者 时间:2025-12-09 22:11:12

作者:周雅

距离最近一次我们见到Google官宣智能眼镜想法的时候,是在5月份的Google I/O上,当时Google介绍了AndroidXR的理念,可以理解为它是内置了Gemini的XR平台,包含从头显、耳机、智能眼镜等各种设备,现场给人唯一的感受就是:智能,非常智能。

这一次,就在今天凌晨,Google在油管上办了个线上发布会,叫“The Android Show”,但这次是特别版,专讲 XR。


Android的基调:超越“聪明”,迈向“智能”

发布会一开场,Google Android生态系统总裁Sameer Samat先没急着聊 XR,而是先定了调子:Android的未来,是要从“聪明”(Smart)进化到“智能”(Intelligent)。

这俩词有啥区别?

说白了,“聪明”是被动响应,你按一下,它动一下。而“智能”是主动理解,它懂你,甚至比你快一步。

Sameer Samat提到,近几个月 Android 平台势头强劲,例如在 Pixel 手机上首发了全新的设计语言 Material 3 Expressive,它赋予了用户前所未有的个性化定制能力。更重要的是,作为核心驱动力的 Gemini 也在不断进化,Gemini 3新增的屏幕共享和视觉引导功能,意味着用户只需一次长按,就能随时随地获得解答、建议或灵感。还有被大家脑洞大开体验的Nano Banana,大家可以把自己 P 到各种场景中。

基于此,Sameer Samat提到 Android 的核心三要素:优美的设计(Beautiful Design)、最有帮助的 AI(the most helpful AI)、个性化(Personality)。他强调,无论是在手机、手表、汽车还是电视上,Android 始终是用户率先体验未来的地方。

而这场进化的关键,在于 Gemini + Android,未来它将会以三种方式为我们服务:

第一,它懂你(It just gets you)。它理解你所处的环境,学习你的偏好,从而提供真正为你量身定制的帮助。它不是对所有人都一样的通用工具,而是你的专属伙伴。

第二,它快人一步(It's a step ahead)。基于对你的理解,它能够预测你下一步可能需要什么,并在你开口之前就主动提供恰到好处的支持。这是一种从“被动响应”到“主动服务”的根本转变。

第三,它为你分忧(It handles the busy work)。它能将那些繁琐、重复性的任务自动化、简单化,从而让你腾出精力,让你专注于更重要、更有创造力的事情。


Sameer Samat明确指出,这将是人与技术交互方式的一次“根本性变革”(fundamental change):我们正从一个命令机器的时代,走向一个与机器协同的时代,技术能为我们成为什么样的人提供相应的支持。而这场变革的第一个试验场,就是 Android XR。

Android XR:设备的光谱

接着,Android XR副总裁兼总经理Shahram Izadi和三星XR部门高级副总裁Kihwan Kim 登场,正式揭开了Android XR的面纱——这是业界第一个为扩展现实设备打造的统一平台。

Android XR的诞生并非谷歌一家之功,而是与三星(Samsung)和高通(Qualcomm)“作为一个团队”共同构建的成果。这种“三位一体”的合作模式至关重要,它确保了从底层芯片(高通)、硬件设备(三星)到操作系统(谷歌)的深度优化与协同。



他们特别强调,Android XR 建立在成熟的 Android 基础之上,这意味着用户惯用的 Google Play 商店中的应用,都会顺理成章地出现在 XR 设备上。同时,Gemini 将作为核心的智能助理,为这些设备注入灵魂。

为了让大家对 XR 有更清晰的认知框架,Google抛出了一个核心概念——“设备的光谱”(a spectrum of devices),也就是说,XR 并非单一形态,而是各种终端连起来的“谱”。


光谱的一端,是功能强大的头显(Powerful Headsets)。这类设备追求极致沉浸感,适合短时间、高强度的任务,像是玩3A游戏、看3D电影,或者搞个无限屏的工作空间。它们是生产力和娱乐的重器。

光谱的另一端,是轻便的 AI 眼镜(Lightweight AI Glasses)。这类设备追求的是全天候佩戴,让你抬着头、解放双手,核心价值在于随时随地获得信息和 AI 辅助。它们是现实世界的“增强层”,让你在保持与现实世界连接的同时,获得额外的数字信息。

光谱的中间地带,则是融合了两者特性的混合形态设备。

这个光谱的概念,也展示了Google务实且长远的产品布局思路。换句话说,Google不赌某一个设备会“取代”手机,而是觉得未来更像是我们现在这样,根据不同场景,在笔记本、手机、手表、眼镜之间无缝切换。同理,Android XR 的发展路线图也类似,大家可能会使用多种不同形态的XR设备,它们与你现有的设备协同工作,起到补充(complement)和增强(augment)的作用,而不是完全取代。

Galaxy XR:当你的世界可以一键3D化

作为光谱中的代表作,已经上市的三星 Galaxy XR 头显(今年10月份上市)这次也迎来了首次重要功能更新。三星XR用户体验部门副总裁兼负责人Austin Lee和Android XR部门产品经理Katherine Erdman作出介绍。


Galaxy XR 被定义为一个能让你“观看、创造和探索”的无限屏幕(infinite screen)。其核心体验在于,由于Gemini 的加持,用户可以用对话式的交互方式来操作。

例如,当你到了一个城市,在谷歌地图的XR界面里,可以随时唤醒 Gemini,问它关于眼前建筑的更多信息,甚至直接让它调出相关的 YouTube 视频。


为了吸引早期用户,Galaxy XR 推出一系列“探索者套装”(Explorer Pack),捆绑了 Google AI Pro、YouTube Premium 和 Google Play Pass 等多项付费服务,并在不同地区提供了 YouTube TV 或本地体育赛事的优惠。此外,用户还能独家体验到著名导演 Doug Liman 的电影《Asteroid》以及 Adobe 用于空间视频编辑的 Project Pulsar。


发布仅一个月,Google Play 商店中“为 XR 而生”的应用和游戏数量就已超过 60 款,这初步验证了平台的吸引力。当然就像我们前文所说,三星 Galaxy XR 头显的首次重要功能更新包括了3个新功能和1个彩蛋。


首先是PC Connect,用户可以把电脑屏幕拉到眼前变成“巨幕”。Austin Lee现场演示,把正在PC上运行的游戏《城市:天际线 II》“拉”到XR空间,瞬间获得上帝视角。当然你也可以脑洞大开,在无限大的虚拟空间中,同时摆放PC窗口、XR应用窗口等,实现真正的多任务处理。


其次是Likeness(逼真化身)。目前,很多视频会议用的是卡通形象,而 Likeness 功能是让你在视频会议里有个更逼真的虚拟形象。这项功能不仅限于 Google Meet,也适用于其他视频会议应用,让远程沟通更具真实感和亲和力。


最后是Travel Mode(旅行模式)。也就是在飞机等移动环境中稳定使用设备,创造一个私人空中影院或沉浸式工作空间。

除了以上常规的功能之外,我觉得最亮眼的一个功能,叫做“自动空间化”(Auto-spatialization),或将于明年推出。

这是个什么神仙功能?简单说,就是一键把2D内容变成3D。


想象一下,你正在刷的网页、看的YouTube视频、玩的手游,按一个钮,瞬间就有了立体感和空间深度。可想而知,这项技术一旦成熟,将极大解决XR生态早期内容匮乏的问题,为海量的存量2D应用赋予新生。而且,这项技术是系统级的,意味着它对所有应用都有效。

这次更新,连同明年即将到来的“自动空间化”,我们或许正在见证一个内容消费的临界点。过去几十年,我们习惯了在平面的屏幕上消费信息,而从某一刻起,现实与数字之间的那层“屏幕”开始变得模糊、透明,甚至可以不存在。整个互联网的内容遗产,都有可能在XR的世界里获得新生。

Project Aura:一个介于头显和眼镜之间的“新物种”

如果说头显太重,眼镜功能又太少,那中间有没有最优解?Google用一个叫 Project Aura 的新设备给出了答案,也就是前文所说的“光谱的中间地带”。


Project Aura是一款“有线 XR 眼镜”,由谷歌的中国合作伙伴XREAL开发,它的形态和技术特点非常鲜明:

首先,它采用轻量化设计与有线连接。为了让眼镜本身足够轻便,主要的计算单元和电池被做成了一个用线连着的小圆盘(Puck),这个圆盘不仅是主机,还可以兼作触控板使用,提供额外的交互方式。

其次,它采用光学透视。眼镜本身用的是光学透视镜片,与依赖摄像头捕捉现实世界的视频透视不同,它能让用户能用肉眼直接看到真实世界,虚拟内容则以投影的方式叠加投射到用户的视野里。所以当设备不显示内容时,就像一副普通的太阳镜。

最后,它采用手势交互。用户可以直观地用手来抓取、拖动和操作虚拟窗口,学习成本极低。

演示里,Android XR工程部主管Andrea Colaço戴上它,随手就在空中拉出了三个虚拟屏幕,一边看视频,一边回消息,一边还能盯着自己笔记本电脑的屏幕。这简直就是把一套三联屏的家庭办公室,塞进了口袋里,随时随地都能掏出来用。由于是光学透视,她可以看到桌上的笔记本电脑,并继续用电脑的键盘和触控板操作,实现物理设备与虚拟屏幕的共存。


更有趣的是,她还可以通过线缆外接设备,扩展为一个巨大的空间窗口。演示中,当Andrea把眼镜接到笔记本上处理图片时,可以直接问旁边的 Gemini:“这张图怎么加背景虚化效果?” Gemini 马上就能给出步骤,因为Gemini能“看到”屏幕上的内容(包括来自电脑的窗口),并提供精准的上下文帮助。

Project Aura 的定位非常巧妙,它精准切入了一个被忽视的场景:移动生产力。它不追求极致的游戏沉浸感,也不追求全天候的佩戴,它只想解决一个痛点:当你在外面时,如何能像在公司或家里一样,拥有足够大的屏幕空间来高效工作,而且不会与现实世界完全隔离。这款产品预计将于明年上市。

AI眼镜:首先,它得是副好看的眼镜

终于,轮到了光谱的另一端,也就是——AI眼镜。

这里有必要再重申一下,为什么全文有的地方讲”XR眼镜“,有的地方讲”AI眼镜“,用更直白的话来讲,Android XR把我们所统称的”智能眼镜“分成两端:沉浸式的XR头显(含有线XR眼镜)和日常佩戴的AI眼镜,中间还有Aura这类形态。它们都用Gemini,但用途与交互完全不同。

其中,XR头显/有线XR眼镜等同于”把世界变成巨幕与3D”,AI眼镜等同于“把AI戴在脸上,信息抬头即得”,它们的共同底座是Android XR + Gemini。


配图来自科技行者

关于AI眼镜,Google这次的思路非常清晰,他们称之为“眼镜优先”(Eyewear first)。说白了,这首先得是一副人们愿意戴出门的、好看的、舒服的眼镜,然后才谈得上AI眼镜。


为了做到这一点,Google与三星一起,找来了两个画风完全不同的合作伙伴。一个是Warby Parker,亲民时尚眼镜品牌,主打日常百搭。另一个是Gentle Monster,前卫潮流眼镜品牌,主打酷炫设计。

这种与时尚品牌的深度绑定,或许是Google吸取了过往的经验教训(如Google Glass),认为未来的AI眼镜,既可以是你上班通勤的低调助手,也可以是你周末逛街的潮流单品。

Google还明确了两种AI眼镜的形态:

第一,标准版的AI眼镜,内置扬声器、摄像头和麦克风,可以与 Gemini 对话、听音乐、打电话、拍照等。

第二,带显示屏的AI眼镜,在标准版基础上,增加了一个微型显示器,负责在你眼前展示有用的信息,例如导航箭头、消息提醒等。

而现场的演示环节更是把氛围拉满,Android XR产品管理高级总监Juston Payne戴着眼镜原型机,在现场溜达。


看到桌上的零食,他直接问眼镜:“这是啥?”

眼镜立刻回答:“这是一种韩国烤肉味干脆面,叫 PPUshU PPUshU,一般是捏碎了再撒调料包吃。”(这展示了AI眼镜可以调用知识库,从而给出更优质的答案。)

这还没完。他跟同事合影,拍完后说:“Gemini,给照片里加一个戴墨镜的安卓机器人。”

下一秒,一张 P 好的图就生成了。(这表明AI眼镜不仅能“看”,还能结合生成式 AI 进行即时创作。)

最绝的是,他转身问:“刚才那桌零食里,有啥高蛋白的吗?”

眼镜回答:“桌上有毛豆,蛋白质含量很高。”

这个细节说明,AI眼镜已经具备了上下文记忆和推理能力,它记得“刚才那张桌子”上有什么。

接着,Juston Payne遇到了三星的韩国同事,两人直接用眼镜进行了实时翻译对话,全程自然流畅,完全没有障碍。


整个演示过程自然流畅,智能眼镜在你举手投足之间提供帮助,而Gemini 是一个无形的且全知全能的助理,时刻伴随左右。

致开发者:“如果你正在为Android开发,那你已经是在为XR开发了”

讲了这么多酷炫的设备和功能,怎么让它们真正用起来?答案无疑是开发者。Android开发部产品管理副总裁Matthew McCullough给开发者传达的信息简单粗暴:“如果你正在为Android开发,那你已经是在为XR开发了。”

Google发布了Android XR SDK 的开发者预览版 3 (Developer Preview 3),核心就是让开发者为下一波XR应用浪潮做好准备,可以把现有的Android应用以极低的成本,无缝迁移到各种XR设备上。


这里梳理了其中提到的几个新功能:

首先,针对头显设备,SDK 增加了带有“软性头部锁定”和过渡效果的空间动画。同时,Material 3 的 UI 组件(如对话框、导航栏)可以自动转换为空间 XR 元素,让开发者能将现有 UI 适配到 XR 环境。

其次,针对 Project Aura 这类XR眼镜设备,SDK 提供了新的 API,允许应用检测设备的视场角(Field of View, FoV),并据此调整 UI 布局。开发者可以在 Android Studio 的 XR 模拟器中,立即开始测试不同 FoV 下的应用表现。

最后,也是重头戏,Google正式向开发者开放了AI眼镜的开发。它包括:AR Core for Jetpack XR,它的核心是让AI 眼镜不再是“睁眼瞎”,而是能真正理解它“看到”的是什么,以及它自身在三维空间里的位置和姿态;Jetpack Glimmer,这是一个专为AI眼镜设计的全新Compose UI工具包,它包含卡片、列表、堆栈等UI组件,我们知道,在透明的玻璃上显示文字和图像,既要看得清,又不能挡住用户看现实世界的视线,这是个技术活;Jetpack Projected,这是一个基础API,能让开发者将现有的Android手机应用“投射”到AI眼镜上;Firebase AI Logic,Google正在与 Firebase 团队合作,使 Gemini Live API 能够与 AI 眼镜协同工作,方便开发者在应用中集成Gemini的能力。

为了进一步证明 AI 眼镜的实用价值,Google展示了它在真实场景中的应用。

首先是与旅行体验平台 Get Your Guide 的合作。一位名叫 Rose 的“职业游客”戴着 AI 眼镜在纽约进行了一场美食之旅。她通过语音询问眼镜“附近有什么 Get Your Guide 的美食团?”,然后根据眼镜的指引找到集合点。在品尝美食和与团友互动时,她只需用语音说“拍张照片”,眼镜就能立即拍下合影。期间,当导游提出“热狗算不算三明治”这个经典问题时,Rose 直接向眼镜发问,Gemini 给出了一段关于面包知识的回答。


另一个案例来自网约车厂商 Uber。Uber产品副总裁Amit Fulay展示了他们如何利用带显示屏的 AI 眼镜,优化乘客的出行体验:

首先是信息提示。当用户刚下飞机,预订了一辆 Uber 后,眼镜的微型显示屏会立刻显示行程状态和预计到达时间,让用户无需低头看手机,可以专注于寻找出口。

其次是导航功能。在机场这样复杂的环境中,眼镜可以提供简单的“寻路”指引,帮助你轻松找到上车点。

最后是快速识别车辆。在拥挤的路边,眼镜可以直接显示你所叫车辆的车牌号,甚至提供一键呼叫司机的快捷方式。


这两个案例,将 AI 眼镜从一个酷炫的科技玩具,转变成了能够解决现实痛点、提升生活品质的实用工具,让人们看到了这项技术商业化的路径。

或许,技术的进步,最终衡量的标准并不是它有多么宏大或科幻。

而是看它能否在某个下雨的夜晚,让你更快地找到那辆接你回家的车。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。

全站最新