随着多模态大模型的发展,物理AI成为科技巨头角逐的关键阵地。日前在深圳举办的阿里云通义智能硬件展上,阿里云发布多模态交互开发套件,集成了千问、万相、百聆三款通义基础大模型,预置十多款Agent和MCP工具,丰富硬件设备与物理世界的智能交互能力。
降低开发门槛
“2026年我们特别看好智能硬件,应该会看到很多新的品类,绝对不光是手机、汽车和眼镜。”阿里云通义大模型业务总经理徐栋在展会期间接受媒体采访时预计,把模型从“云上”向“云下”落地,提高易用性,有利于生态繁荣,商业模式也可能会形成闭环;作为重要趋势,当前一些新型应用围绕小型化、碎片化的刚需开展,厂商通过模型去定义硬件,提高用户黏性,模型能力逐渐提升,品牌效应逐步形成。
但是,AI硬件的普及仍然面临多重障碍。
徐栋指出,很多AI硬件的形态成本仍未达到大众普及水平,而且存在隐私顾虑。另外,开发范式转型滞后,很多厂商还停留在传统Coding(编程)思维,没意识到IDR(需求定义)的价值越来越重要,且模型能力在泛化调用工具等方面仍有提升空间。此外,硬件厂商自建模型面临的延时、效果与安全问题,进一步制约了产业发展。
本次阿里云多模态交互开发套件为硬件企业和解决方案商提供了低开发门槛、响应速度快、场景丰富的平台。其中,突出特点在于计费方式的改变。
“我们把原来的按Token计量计费改变成一个按硬件的终端提供服务。”徐栋介绍,按License收费是精算的过程,通过区分不同类目和等级,比开发者自己搭建ASR(语音转文本)、TTS(文本转语音)、LLM(大语言模型)成本低很多。比如有些语音模型TTS可以稍微降低拟人化的要求,从而大幅降低成本。
专有硬件交互模型
现场,阿里云展示了面向智能穿戴设备、陪伴机器人、具身智能等领域的解决方案。例如,在AI眼镜领域,基于千问VL、百聆CosyVoice等模型,阿里云打造了感知层、规划层、执行层以及长期记忆的完整交互链路,可一站式实现同声传译、拍照翻译、多模态备忘录、录音转写功能,有效解决交互不自然、回答准确率低的难题。
面向家庭陪伴机器人场景,基于千问模型和多模态交互套件,阿里云推出的解决方案不仅可实时监测异常状况,并及时告警信息推送,用户还能基于关键词查找、定位视频,与机器人进行对话交互和控制设备等。
除通义模型家族外,阿里云还针对大量多模态交互场景进行分析,推出适合AI硬件交互的专有模型,全面支持全双工语音、视频、图文等交互方式,端到端语音交互时延低至1秒,视频交互时延低至1.5秒。该套件还接入了阿里云百炼平台生态,用户不仅可以添加其他开发者提供的MCP和Agent模板,还能通过A2A协议兼容三方Agent,极大程度地扩展了应用的能力边界,帮助企业灵活搭建业务场景。
对于阿里云在手机、智能眼镜等大品类硬件领域的竞争壁垒,徐栋表示,阿里云愿意与开发者合作,降低门槛,也会探索大量的垂直领域的深度合作。
目前AI手机并行GUI(图形界面,GraphicalUserInterface)与A2A(应用间自动化交互,Application-to-Application)两大技术路线。
在徐栋看来,当前两大路线均处于发展早期。技术核心需解决泛化性与速度性能问题,且需依托手机更多权限实现优化。短期来看,A2A路线发展更快,体验更优、响应速度更快且模型消耗成本更低;GUI路线依赖多模态视觉交互,长期使用成本更高,两条路线均具备探索价值。
助力垂直场景应用落地
该套件还接入了阿里云百炼平台生态,用户不仅可以添加其他开发者提供的MCP和Agent模板,还能通过A2A协议兼容第三方Agent,极大程度地扩展了应用的能力边界,帮助企业灵活搭建业务场景。
“今天的套件其实依托于我们阿里云的MaaS(模型即服务)服务而来的,适合垂直场景。”徐栋介绍,过去很多开发者基于百炼平台自行搭建工具、开发Agent,如今套件做了针对性改造,降低了操作复杂度,支持快速实现多种智能化能力,同时对百炼平台的MCP(模型调用平台)能力进行了封装,开发者可直接快速调取,而且套件通过API(应用程序接口)、SDK(软件开发工具包)与百炼形成通道衔接,实现与各类硬件的深度整合。
另外,套件适配30多款主流ARM、RISC-V和MIPS架构终端芯片平台;未来,通义大模型还将与玄铁RISC-V实现软硬全链路的协同优化,实现通义大模型家族在RISC-V架构上的极致高效部署和推理性能。
“玄铁在RISC-V开源生态贡献很大,我们最早合作是为了让千问与玄铁同频共振,让开发者能自主可控。”徐栋表示,不过与玄铁合作并非目标实现模型硬件化,而是优化通用模型,让端侧速度更快、体验更好。
2026年CES上,芯片巨头重点锚定物理AI以及具身智能等进展趋势,推出系列新品。
“具身智能还处于非常早期的阶段。”徐栋表示,阿里云在具身智能领域一方面是基于千问Omni多模态模型的交互合作。该模型支持“看、听、说”多模态协同,非单路输入输出,而是具备低延时、高拟人性及多语言出海能力,已被头部机器人公司用于交互场景,但受限于机器人市场本身规模,当前应用量不大。另一方面,公司研发探索VLA(视觉—语言—动作)模型,但受数据、模型架构、任务泛化性等因素限制,仍处于早期阶段;预计2026年下半年可看到相关架构成果,但要实现高度泛化的VLA能力还需更多时间。





京公网安备 11011402013531号