2025年,被视为大模型的“祛魅”之年。
曾经对AGI的狂热想象,迅速被“推理成本”和“实用性”等工业化难题取代。从硅谷到北上广,没人再轻易为单纯的“参数竞赛”买单,大模型正在从单纯的技术探索,加速进入技术与需求双向赛跑的商业化深水区。
这一转变让OpenAI、Google等巨头纷纷调转船头,开始密集推出针对企业级市场的高性价比推理模型。Gemini系列模型的后发超车也在向我们证明,大模型能力迭代的主舞台也许并不在实验室。过去是拿着锤子找钉子,现在,无论是Gemini及其身后的数据帝国Google,在产业数智化领域摸爬滚打了多年的阿里云和千问大模型,做的事情都是用钉子的形状决定锤子的规格。
市场适应性让模型迭代周期被极速压缩,从数年压缩到了每个月甚至每个星期。而这种视角的转变,恰恰为中国AI创造了“变道超车”的最好时机。
长期以来,全球人工智能的聚光灯投在硅谷。然而在2025,分水岭就已经出现:中国大模型不再满足于技术路径的复制与跟随,而是在从参数为王转向产业为本的新周期里,从被动走向了先验:算力封锁没有击垮国产大模型,反而带来了得天独厚的韧性,具体体现为:架构创新上的实用主义、商业化上的全栈服务深入、生态布局上的策略与全球化责任。
这条长期主义的道路,让“中国方案”在这个AI工业化时代里,比以往任何时候都更有可能拔得头筹。
01. 产业化深水区,大模型正在成为“超级配角”
为什么大模型在落地中需要被“祛魅”?
2025年以来,产业化深水区出现了一个有意思的现象:人工智能似乎已经无处不在,但相比曾经街头巷尾都在热议的Chatbot,现在的大模型好像在产品形态上“隐形”了。
隐形背后,是中国企业在产业化迭代上的务实,也是AI厂商在技术支撑上的全栈与协同。
AI从数字世界来到物理世界,汽车是走在最前沿的载体。大模型的“隐形”趋势,在智能驾驶领域体现得淋漓尽致。如今的汽车已经超越了交通工具,成为了一个能够主动理解、决策并行动的智能体。在这个过程中,大模型退居幕后,成为了驱动智驾进化的“超级底座”。
过去一年,无论是传统汽车还是新能源,中国车企基本上都在卷一件事:智能化落地。在阿里云等厂商的支持下,中国车企让大模型产业化在这个充满想象力的物理空间中,跑出了惊人的速度。
以小鹏汽车为例,智能化迭代效率是一大技术优势,小鹏第二代VLA(视觉语言动作模型)基于1亿clips数据训练,相当于人类司机驾驶65000年才能遇到的极限场景总和。
智能化的第一个难点在于如此大规模的数据吞吐。基于阿里云云端算力集群的支持,小鹏建成了国内汽车行业首个10 EFLOPS规模的AI算力集群,打造了一座“云端模型工厂”,从云到端的全链路迭代周期可达平均5天一次。在小鹏的技术腹地,大模型的意义不只是前端的体验与交互,更是“隐形”在数据与场景的运转中默默发力。
在看不见的云端,依托于全栈AI云服务能力的阿里云,已经支撑了中国100%车企的智能化落地,在中国驾驶研发算力市场领先的同时,放眼全球,这一产业化成果与速度也可以说令其他AI巨头望尘莫及。
而在离普通用户更近的智能座舱领域,大模型也隐形在端云协同、生态整合的交互系统之下,为人车关系从工具跃升为伙伴带来了更为细腻的改变。大模型在以一种更润物细无声的方式,成为中国汽车产业智能化升级的大脑。
目光转向制造业腹地,大模型的触角也从办公效率延伸到了生产线中。过去的一年,三一重工基于千问大模型打造了50多个AI Agent,覆盖研发、生产、销售、服务等全链路。对于工业巨头来说,最宝贵的资产是积累了数十年的非标经验。通过全参数微调,三一重工将这些行业know-how“焊”进了大模型里,将企业积累几十年的生产数据与专家经验内化为可复制的数字资产。从此,大模型能像“老师傅”一样指导新手工程师进行设备故障诊断及工艺优化、让非标场景也能规模化,但主角却仍然是企业与人在实践中的经验积累。
产业化正在反向定义技术,这已经成为了一个不争的事实。所以在产业化的深水区,大模型必须甘当配角,一个实用、好用、企业可负担的“超级配角”。
工厂流水线要求的的延迟,金融风控系统对内容幻觉的零容忍,智能硬件对端侧推理的功耗和复杂环境极其敏感……想解决这些问题,大模型要学会从烧钱走向落地,从通用智能的宏大叙事走向一点一滴的场景微调。
而在2025年,全球AI产业中把“落地”这两个字诠释得最好的,就是务实的国产大模型。
02. 大模型效率的进化,决定未来生产力
纵观技术发展史,大多数新技术的落地都是自上而下的,像大模型一样把商业化的第一步就和“用得起”牢牢绑定起来的产业并不多。
这和消费品牌拒绝溢价的区别是,AI普惠化不是市场竞争手段,而是技术发展的目的。
在2025年,国产大模型重新定义了SOTA:榜单上的最高分只能说明技术“好用”,而要让最好用的技术变得可及可负担,单位算力下的效率和生产力是更值得关注的硬标准。
在产业端,企业主关心的不是大模型在一个冷门知识问答上得了多少分,而是每一块钱的投入能换回多少实际的效率提升。这就是国产大模型为什么早早放弃了技术炫技。
但与此同时,放弃技术炫技不等于不再卷技术,性价比高也不代表模型落后。恰恰相反,如果技术和性能不够硬核,产业落地只能是空中楼阁。
在对于算力ROI的重视下,中国AI在“反卷参数”的道路上越走越远,却在“卷效率”的道路上实现了降维打击。
过去两年的竞争是比谁的模型更聪明,而2025年的竞争是比谁的模型更省、更快。阿里云和千问大模型的一系列技术突破,本质上都是在为产业界解决“算力贵、推理慢、部署难”这三大产业化拦路虎。
数据和表现是最直观的证词。在大模型领域,技术炫技往往体现为:在固定的benchmark考卷下,把拿高分的偶然性刻意放大,但在工业端几乎没有实用性。而千问大模型选择了一个不可预测的实战环境,在由真人用户随机出题的盲测平台Chatbot Arena中成绩跻身全球前三,并拿到代码、数学等5项能力第一,同时成为国产模型的历史最高分、代表开源模型在闭源围剿中突围。
而早当行业主流声音还是卷参数、为了训练千亿参数模型感到焦虑的时候,千问3就开始通过混合推理架构与高稀疏度MoE技术进行架构创新。将800亿参数的智力压缩进每次仅需激活30亿参数的推理中,训练与推理成本降低了90%。这一成果让面向低预算中小企业的千问3-Next,在效率上能够比肩千问3-235B旗舰模型。
在多模态可控性方面,工业化难点更为突出。多模态生成的高价值密度场景在影视制作、人机交互等工业端,但其像“黑洞”一样的算力消耗、低效以及不可控性严重阻碍了价值落地。过去一年中,千问大模型作为国产“全尺寸、全模态”的代表,迭代重心明显放在了如何克服工业难点上。万相Wan 2.2成为业界首个MoE视频生成模型,直接节省了50%的算力;万相Wan 2.6成为国内首个支持角色扮演功能的视频模型,展现了对物理世界出色的控制力,攻克了音画同步、多镜头生成的工业难点;Fun-Audio-Chat-8B在多项音频模型专业基准测试中斩获SOTA。
算力的效率进化,也体现在云与端的界限被进一步打破。去年,千问3-4B和千问3-30B-A3B等模型的发布,让性能媲美GPT-4o的国产大模型可以直接在手机等消费级硬件上流畅运行。对于开发者而言,就是把算力从云服务器的昂贵API里释放出来,取而代之的是高效、低成本的本地化能力。
除了“省”,还有“快”。在长文本处理上,千问2.5-1M将推理速度提升了近7倍,让处理百万字级别的合同文档从“分钟级”变成了“秒级”体验。速度的升维在金融风控、数据合规这些时间敏感型业务中,具有决定性的价值。
算力效率的终极体现是生产力的质变。
因此,SOTA的成绩是表象,背后生产力提效的故事才是中国AI的底色。算力效率进化的未来,会体现为生产力的质变。比如在AIGC领域,海艺AI接入万相2.6后,用户的内容创作效率提升了6倍;人力资源领域,智联招聘利用AI打造了多个智能体,将人岗匹配率平均提升了超70%。
相比还在焦虑Scaling Law是否见顶的硅谷,中国AI当下的特质是,通过“工程化红利”开启了新的增长曲线。阿里云在2025年斩获的NeurIPS最佳论文奖,以及在全球权威评测中拿下的SOTA,也是其“实用主义”路线生根发芽的自然成果。
因为在产业化的语境下,最好的技术,一定是最能转化为先进生产力的技术。
03. 开源生态,让中国AI走向长期主义
技术决定了一家厂商能走多高,而生态决定了能走多远。
国产大模型的后来居上,除了架构创新与产业化交付的能力回报之外,生态是一个无法绕过的结构性关键词。比如,在全球巨头纷纷转向闭源的趋势下,阿里云却坚持做开源大模型系列。
开源意味着主动放弃代码领先的窗口期,在外界看来似乎是“地狱模式”,但在阿里云的战略棋盘中,开源是一种非常有效的生态竞争策略。这也是为什么,作为国产大模型第一梯队的玩家,千问大模型在技术上稳住了先发优势,在产业端实现了多个市场的高占有率领跑。
在我们评估一家AI企业的竞争力时,比如回答AI创业公司为什么很难与“大厂”竞争,最先关注的是资金储备和资源向心力。但在钱与资源的背后,还存在三个关键隐性条件:更全面的技术供应链,更活跃的生态,以及更稳定的工业级标准。
阿里云是如今全球唯一一家同时拥有全模态开源大模型和全栈AI服务的“大厂”。左手模型、右手基建的生态位,让千问大模型在算力调度与应用开发的底层逻辑中具有独特的竞争力。全栈AI服务商的定位,也让阿里云在这个新周期中拥有了“经验与勇气”的护城河:在技术创新上不怕被复制追赶,在商业化落地上不怕基于开源自主开发而失去的订单。
勇气的嘉奖在2025年被收入囊中。正是因为开源,千问大模型系列被全球开发者在各种极端场景下测试、魔改,进行生态级的“众包迭代”,让千问的进化速度超越了实验室里的封闭模型和系统,甚至反向推动了架构效率和大模型产业化上的突破。
另一方面,阿里云生态策略中降低门槛、共享标准的部分,也是技术责任感的体现。首先,“全栈+开源+可参考行业解决方案”的模式,就已经解决了不少企业AI落地难的痛点,让中小企业也能迅速将基模能力转化为生产力。
其次,一个活跃的开源生态对于黑箱、垄断、不合理的技术溢价是毁灭性的打击。如果我们把AI比作第四次工业革命中的蒸汽机,那么阿里云提供的不只是引擎、通往各个应用场景的铁路网,还有大量公开的设计图纸。
在这个生态中,“Qwen Architecture”正在成为全球AI行业事实上的通用标准。2025年,全球大模型领域出现了一个“硅谷反向学习”的现象:曾被视为技术灯塔的硅谷巨头和创业明星,开始暗中将中国开源模型作为创新起点。
Airbnb CEO在公开场合坦言,他们的核心客服Agent主要依赖于千问系列模型;硅谷知名AI初创公司Nexusflow发布的旗舰模型Athene-V2,也曾公开声明是基于Qwen-2.5-72B进行微调的。“墙内开花墙外香”的技术输出,在开发者社区Hugging Face上表现得更为直观:在很长一段时间里,全球开源模型排行榜Top10的大部分都是基于千问进行二次开发的衍生模型。
对于全球无数中小模型厂商和垂直应用开发者而言,千问实际上已经扮演了“AI时代的安卓”的角色。大量的行业模型和企业自研模型并不是从零训练,而是站在千问的肩膀上,针对特定场景进行微调得来。就连硅谷巨头的闭源围墙,也敌不过阿里云“生而全球”的生态基因。
在这个生态下,各行各业都在基于千问、万相系列模型批量创造高价值、低成本的应用。这些应用实例和模型进化,也被阿里云通过飞天发布时刻向全球同步,让中国方案成为全球产业智能化的规则制定者。
2025年,中国AI通过技术上的实用主义、商业上的全栈深入和生态上的责任开源,让大模型在产业化这个关键时刻,成为了全球领跑者。一个由中国创新力决定全球“工业革命”潮水袭向哪里的时代,正在到来。





京公网安备 11011402013531号