文 | X研究媛
中国从不缺工业「标品」,而是缺少从0到1能迅速击穿技术、场景的原始创新。
中国顶尖科技公司代表,江湖多年名声显赫的BAT,不像AR四小龙朝不保夕一度面临生存问题,拥有创业公司所饥渴的充足现金流,更有强大的生态自建、号召开发者、撬动各种资源的能力,一呼百应。
它们不做重要产品创新,亲自下场攒一个ODM眼镜的意义在哪?
产品平平,几乎毫无亮点
「AI眼镜是真正开启AI时代人机交互革命的智能设备,它的重要性不亚于手机。作为第一视角的头部设备,它能够捕捉80%以上人体感官输入,这是手机无法做到的。」
发布会这段开场白,是很好的洞察。
实时的、真实世界数据流,第一视角的多模态输入,它能够与AI深度嫁接,成为用户的另外一双眼睛、耳朵以及第二大脑,成为整个人机交系统的感官中枢。在AI眼镜上面搭载AI助手,才能做到真正的懂用户,才能在更大的范围内给用户提供价值。
但是,承载这些宏大愿景的创新在哪?
完全贴合定制近视镜片,1.8折射率的高透玻璃,26度FoV的衍射波导显示(来自VR陀螺的数据),双目合目单绿色Micro LED的光引擎,隐私消音Speaker,热插拔电池...几乎全是ODM已经成熟的东西,有些还借鉴了来自像AR四小龙“友商首发创新”:
比如相位消音的隐私Speaker,三年前由雷鸟创新Air 1S「首发」。
![]()
热插拔电池,充电仓,所谓的「无限续航」,是INMO影目GO3最先想到的产品创新。
![]()
整场发布会下来,我唯一有点印象的是“合像距离调节技术”,虚拟成像距离远近可调节,不同于传统 AR 眼镜固定的虚像距离,S1 支持 2-10 米的多档位调节。
![]()
我还以为实现了Magic Leap多年研发都难以落地的多焦面显示,在AR/VR根本性的难题视觉辐辏调节冲突(Vergence-Accommodation Conflict, VAC)取得一些进展。
然而后面了解到,这个功能“对于轻微近视或者老花眼用户友好”,大概率是软件层面的调整,而非物理上虚像固定距离的“可调”。
这家大厂可借鉴的,有很多
面对AI+AR 下一代消费电子,国外Meta、谷歌、微软、苹果都是高筑墙,广积粮,缓称王。都有不懈怠的多年研发,并购Micro LED、新式传感&人机交互的关键技术公司,专利池储备深厚,可能中途一度迷茫,但绝对不会赶工凑风口。
即使是AR四小龙,以及名声不显的Even Realities、VITURE,它们「可借鉴的东西」也不少。
关于显示。双目显示要求的图像合目精度,画面同步,光引擎光线准直耦入在实际量产中并不容易,稍有瑕疵即是重大产品缺陷。
两个JBD单绿色Micro LED光机双目合目方案,之前遍地都是,而无论Rokid Glasses还是INMO Go 3 ,现在都转成了光舟的一拖二方案。
由特殊设计的光栅结构将其光机输入的光一分为二,不仅同样实现了合目显示,大幅降低双目融合复杂度,没有潜在的量产风险产品瑕疵。还省掉了一个光机,显著降低功耗,能量利用率更高、更巧妙,而且释放了镜腿空间,结构设计更友好,ID自由度更高。
一拖二光机同样双目显示的INMO Go 3,镜腿做到了8mm宽度,这是不是一副最接近正常形态的AI+AR眼镜?
夸克 S1 号称交出了 7.5mm(最窄处)的惊人数据,来自VR陀螺的说法,为了达成这一厚度,“团队在内部结构上进行了特别的设计,其将原本侧面变厚的设计转变为了从俯视角度才能看出的楔形设计。”
![]()
下图S1对比Rokid Glasses,S1把光机放在镜腿铰链处,一眼突兀的光机「肿块」等于在社交场合直白地告诉对面,这是一副AR眼镜。而且这种「标准」设计也早就不新鲜了。
![]()
对比使用一拖二光机方案INMO Go3,把光机置于镜框中心横梁,是不是更能被消费者接受,更显正常?
![]()
使用双目双光机,还不如升级到最早雷鸟X2开始用的JBD X-cube方案,RGB三个微显面板合光的全彩色光引擎。全彩色相比单绿色显示,对于不同场景下的信息提示,是真正的降维打击,UI设计、文字显示、图标,可以立即鲜活起来,更像是一个现代消费电子该有的。
某大厂是不是搞不定全彩色光引擎的波导Layout,RGB光线准直对齐耦入波导片的难题,以及这个方案如何降低彩虹纹和规模量产,都毫无头绪?
关于重量和整体工业设计。同样是双目双光机方案,来自Even Realities最新的Even G2 眼镜足够轻巧,几乎看不出来与普通眼镜的区别,续航有一天半。他们也实现了近视镜片与显示镜片合二为一全贴合,用户不再需要插一个额外的屈光镜夹片。
![]()
某大厂对S1整机重量控制在51g沾沾自喜。Even Realities 最新G2重量为36克,相比前代Even G1的38克进一步减轻了5% ,镜片较G1薄了30%,覆盖近视1200度到远视1200度屈光矫正范围;Even Realities G2的视场角(FOV)为27.5°,在软件上Even G2全新的HAO 2.0空间显示系统,较第一代G1眼镜屏显尺寸增大75%,也同样支持“双层空间显示屏”。
![]()
AI+AR眼镜,Even Realities G2没有集成摄像头和扬声器所以更轻,这么对比S1好像不公平。但这个团队敢站在主流方案的反面——没有摄像头、没有扬声器,他们明显有着自己的独立产品思路,敢于打破常规进行「首创」。
“智能眼镜得先是一副好眼镜,Even Realities 是把这一点贯彻得最彻底的公司。”
来自《晚点LastPost》对Even Realities创始人王骁逸的采访,这个团队的思路是:
“现在包括 Meta 在内很多公司,给消费者兜售的是谎言,或者说是梦境,让很多人以为现在的眼镜就是一个全知全能的 AI,能帮你做很多事,不戴眼镜的人也应该买。 但如果连第一步都没做好就提前去兜售终点,往往会带来反面效果”。
这个团队认为,一副好眼镜标准只有三点:佩戴舒适,光学视觉舒适,好看。在功能上,「显示最重要,其它全砍掉」。
“第一是让现在所有戴眼镜的人开始戴上智能眼镜,跟传统眼镜比体验不输,还有一些额外的智能体验。 第二步是智能化后的 AI 化。因为 AI 的加持,眼镜能做的事越来越多,实现了自然语言的交互,让越来越多的人戴上眼镜。”
![]()
但如果连第一步都没做好就提前去兜售终点,往往会带来反面效果。Even Realities的设计负责人强调,“我们做一款眼镜,一定先要让自己愿意戴。”
其他智能眼镜公司一般是自己做智能化部分,眼镜上往往选择联名合作,比如 Meta 找 Ray-Ban 联名,国内的公司找暴龙、博士联名,而 Even 不仅自己做镜框设计,还自己做光学,与温州医科大学眼视光医院集团联合研发了镜片。
“丹麦高端眼镜品牌 LINDBERG 前 CMO 兼亚太区执行总裁尼古拉·施努尔(Nikolaj Schnoor),德国高端品牌 MYKITA 和 ic! berlin 的联合创始人、首席设计师菲利普·哈夫曼斯(Philipp Haffmans),都是 Even Realities 的成员。眼镜相关的结构、光学工程师,与软件、智能化工程师的比例是 1:1。”
Even Realities 更像是一家眼镜公司,而非一家消费电子公司。Even G2这种设计感更强、更轻量化的AI显示眼镜,是不是更容易打动用户?
关于人机交互。S1有按键触控压感语音,大杂烩一股脑全上。
![]()
S1 在右侧镜腿上集成了四个交互区(相机区、显示操控区、媒体操控区和电源键),看似功能划分明确,但不知道用户需要学习多久才能实现更本能的盲操,它的误触概率高不高,有没有更简洁、整合度更高的人机交互方案?
![]()
人机交互对于AI+AR眼镜,是真正的大问题。Meta、苹果公司在这方面的前沿研究,可以说把国内拉开了一大段差距。
当国内的AI+AR眼镜还在普遍使用指环辅助操控、三维定位的时候,Meta给出的创新方案是——EMG腕带,表面肌电图。
你的大脑通过神经系统发送一个信号,即指令,它传递到手和手臂,激活肌肉。肌肉的收缩会产生微小的电信号,如果你有足够灵敏的传感器来拾取这个信号,你就可以逆向工程,弄清楚你的手试图做什么。
来自Meta技术负责人Jinsong Yu 的分享:
使用EMG腕带,就像戴手表一样把腕带戴在手臂上,它没有侵入性,没有任何东西刺入你的皮肤,EMG腕带只是从皮肤表面拾取电信号。由于皮肤上的电信号实际上极其微弱,它们是超级微小的、微伏级别的电信号,EMG腕带有多个传感器,传感器超级敏感,可以从不同的肌肉群拾取信号。当EMG收到信息并且放大后,再进行大量信号处理,输入到机器学习模型中。
机器学习模型将弄清楚你试图使用什么手势。这里有一个挑战:在数据中心训练一个运行良好的模型并不难。但将模型提炼到能在腕带上以微瓦级的功耗运行,并且仍然能够进行所有的机器学习推理和分类,这真的很难。为了缩小模型、提高模型能效,同时保持高精度,Meta投入了大量的工程和科研工作。
还有更前沿更彻底的解决方案。比如如果能随手拿起身边的物体临时当作有形控制器(Tangible User Interfaces),这类概念被称为机会型界面。
Meta 研究团队曾提出 ATUI 自适应可触用户界面(Adaptive Tangible User Interfaces)的愿景:不需要专门设计的硬件,而是通过识别环境中的物体及其特征,将这些物体临时转化为输入设备或控制器,从而为用户提供触觉反馈和物理操作感。比如我想旋转 3D 模型,只需用手旋转附近的杯子即可。
![]()
Camille Dupré 等人在 SIGCHI 2024 会议上展示了他们的 TriPad 技术,仅通过手部跟踪将任意普通表面转化为触控板,其工作原理是通过 3 个指尖与表面接触来创建平面。之后,用户可以随意使用这个表面进行触摸输入。
![]()
ATUI这类技术并非天方夜谭遥不可及。ATUI之前可能需要额外的手势识别、多种传感、SLAM等功能集成,如今随着大模型的发展,可能大大简化甚至去掉原来必需的复杂软硬件和算法,用模型去直接感知、实现。
而一旦实现意味着,可以在空白的桌子上创建一个任意大小的虚拟键盘,在桌子的表面“虚拟打字”,实现三维空间精准定位、触控、输入。直接解决目前多范式的人机交互难题,也非常科幻吸睛。
终极AI+AR眼镜,国內大厂距离「同量级」的Meta差距多大?
Meta 开始Orion项目在什么时候,10年前。
Orion使用了电气性能极佳的碳化硅,作为功率半导体器件被特斯拉率先应用在高性能电动汽车上。碳化硅有着非常高的材料折射率,碳化硅晶圆做成波导材料基底,衬底、生长、切割分离、测试、封装、成品,运用在眼镜上,一步步试错,重整和开辟供应链,这背后不知道Meta有多大投入,耗费了多久时间去打磨。
碳化硅并不新,但使用碳化硅来制造镜片和波导,这完全是新的。Meta技术负责人Jinsong Yu 在最新演讲中强调:
我们花了数年时间完善这项技术、工艺,使其真正可行。 最终的结果是我们拥有了这个非常大的视场角,70度视场角。每个试戴眼镜的人都对此印象深刻,感觉就像你真的把增强内容放在了现实物体上。
对比某大厂的S1,你的波导显示FoV是多少?你的眼镜跟ODM的差异性在哪,有什么创新?
波导方案光学显示,比如全彩色显示,还不如华南的那家。JBD摆在你面前现成的X-cube合色方案不用,为什么?是RGB光线准直,精准耦入、耦出、扩瞳,再加上波导Layout上消除彩虹纹太难了吧?仿真计算,波导Layout一点一点的调整试错,还有装配工艺、良率,这些设计和制造的困难根本绕不过去?
有没有野心进行更底层的创新?去定制芯片,在芯片层面去优化无线连接、SLAM计算,甚至运行端侧模型?
在这家大厂早早造势之前,我曾展开想象:这家公司既然能持续迭代在中国首屈一指、在全球被广泛使用的Qwen开源模型,它能不能直接在眼镜端集成一个1B参数量以下、超级高效的端侧小模型,以及再开发一款存算一体芯片运行它。
集成定向研发的端侧模型,不依赖网络运行,而且能把存储和算力的问题解决,真正的独立AI终端。这在AI眼镜上绝对是全球瞩目的重量级创新,也十分有用。
事实是我想多了。也许我不应该把某大厂的AI眼镜放在Meta所在的维度对比,它本质上是一个蹭热点的赶工产品,一个受益于中国全球最发达的供应链ODM速成眼镜。
某大厂找康耐特,实现近视镜片与波导片一体化贴合这样的“技术突破”,宣发文章号称「全球只有三家能做」。
背靠至格科技,「在纳米光栅上跳舞」,在限定的开发周期,赶工实现0.7mm厚度、4000尼特入眼亮度(存疑)、非波导片区域98%透光率,以及二维光栅扩瞳。但1.8折射率的玻璃基底,单绿色显示而非全彩衍射波导才有26度的FoV,有啥特别困难,才能艰辛落地?
还有,JBD全球唯一量产硅基Micro LED,不断缩小体积的单绿色光引擎又跟你有啥关系。7层柔性FPC,真的“不明觉厉”?
本分
如果无意模仿Meta 「软硬一体」,做好你的本分,做好模型厂商,扮演AI眼镜时代的Android,这样不好么?
AI眼镜如果是下一代消费电子,作为全新硬件平台,它的交互方式、UI、应用生态可能会意想不到,现在明显还是移动生态的复制。就像AI有潜力重构操作系统重塑搜索一样,这种范式创新才是AI眼镜需要的。这也是AR四小龙这样温饱线挣扎求生的小公司没有能力做的。
能力越大,责任越大。要么不做,要么找准自己的定位,去创造点真正的价值。深耕底层的核心技术,或者聚焦系统和应用生态,为何要蹭热点发布一个平平无奇的ODM硬件?
后话:一家有充足现金流且富有商业远见的公司,如果强调“战略”,它肯定愿意为了某个更终局的vision持续投入,深耕技术,尝试构筑真正的护城河。
短期不确定和长期确定性的交织是常态,当“变数”到来的时候,市场理应奖励真正的价值创造者而非有钱大户。即使是投机者,发力也要找准方向。
注:本文部分引用了公众号杨天翼《Meta最新研究 | 在任意物理表面进行快速文本输入》以及晚点LastPost《对话 Even Realities 王骁逸:怎么把 599 美元的智能眼镜卖给 CEO 们》内容,特此说明。





京公网安备 11011402013531号