当前位置: 首页 » 资讯 » 科技头条 » 正文

三星也要做自己的“豆包手机助手”,AI端侧真这么香?

IP属地 中国·北京 雷科技 时间:2025-12-20 14:09:28

过去一年时间里,手机厂商在AI方面的动作越来越密集,荣耀YOYO接入更多第三方智能体,实现系统层与应用层的AI能力对接;华为小艺只需一句指令便能在应用间穿梭,帮你完成一些任务。

尽管这些AI能力愈发强大,但如果把这些功能拆开来看,会发现一个很现实的情况,本质上,这些AI依然需要联网才能使用。也就是说,手机AI仍困在端云协作的阶段,还未进一步。

近期,X平台Semi-retired-ing透露,三星将在即将发布的Galaxy S26系列上准备一套能够在本地运行的大模型,用于实现大部分AI功能。这套大模型甚至拥有高级权限,能在必要时清除内存,留出更多空间,以确保随时响应用户的需求。



(图源:Oneleaks)

实际上,三星在2023年就曾展示过一套名为“高斯”的本地大模型,也曾被指出这套模型已经在Galaxy S25系列里预装。但不知出于何种原因,三星一直在力推Google的Gemini,几乎未再提及“高斯”。直到近期,三星的本地大模型才被重新提及。

在大多数厂商仍然以云端为主的阶段,三星为何要尝试把模型真正放进手机里?是希望通过这种方式“弯道超车”?还是移动端已经拥有了本地部署大模型的能力?无论答案是什么,我们只知道,手机AI的新阶段即将拉开帷幕。

手机厂商不会抛弃端云协同

如果三星真的要将大模型部署在本地,是否说明手机AI要开始放弃端云协同的策略,转向纯本地部署了?事实上,这在短期内可能并不会实现。

端云协同在当前的手机AI里,是几乎完美的方案。云端承担的是模型规模、复杂推理和快速迭代的任务,背后的优势自然是云服务器拥有更充足的算力资源,也更方便进行模型更新、统一治理和安全审查。而端侧负责对接用户的第一道指令,像是唤醒、语音识别、基础意图判断,然后把复杂请求转交给云端完成。

这种分工逻辑,对于偶尔用用AI的用户而言,其实没什么问题。查一条信息,哪怕多等一两秒,也不会明显影响体验;对厂商而言,这种模式还不会多占用手机的资源,哪怕是性能稍差一些的手机也能使用。而三星Galaxy S26系列内置大模型这套策略,大概率不会开放给旧机型,这就是区别。



(图源:三星)

但问题在于,这套逻辑的前提是,AI的使用频率不会太高。随着手机AI的发展方向逐渐清晰,厂商的目标已经不再是“帮你回答问题”,而是“替你完成操作”。AI不再只是对话窗口,而是开始尝试理解屏幕内容、拆解任务目标、规划执行路径,最终形成完整的AI Agent链路。

一旦AI进入这种高频、连续、系统级的交互场景,端云协同的短板就会被迅速放大。例如在弱网环境下,云端响应延迟会让操作出现明显断点;在连续指令场景中,网络中断就可能让整个流程停在原地。对于用户来说,效率低下是很难被接受的。

也正因为如此,近期厂商开始频繁讨论“端侧大模型”,并不意味着它们要彻底抛弃云端,而是希望把更多即时判断和关键决策留在设备本身。端云协同显然是这个阶段里的最优解。

端侧大模型,落点难在何处?

既然端云协同有缺点,那么为何本地大模型很难在手机端落地呢?其实倒也不是并不是厂商不愿意尝试,而是受限条件过于明确。

首先是硬件约束。内存、算力和功耗,是端侧AI的三个核心条件。哪怕模型规模不算夸张,只要需要常驻后台,就会对系统资源形成持续占用,光是内存这个条件,甚至迫使苹果提升了iPhone的内存空间。

其次是稳定性和维护成本。云端模型可以快速迭代、即时修复错误,而本地模型一旦部署,优化节奏就只能依赖系统更新。对于系统级AI而言,这意味着更高的风险,也更高的测试成本。



(图源:Oneleaks)

但2025年的变化在于,芯片能力大幅提升,让手机纯端侧大模型几乎要成为现实

以第五代骁龙8至尊版为例,高通披露其Hexagon NPU在本地生成式任务中,已经可以实现约200 token/s级别的输出速度。这个指标的意义在于,端侧模型已经能够进行连续、自然的语言生成,这种连续性,是AI执行复杂交互指令的前提条件。

同样地,联发科天玑9500在NPU 990上引入了更激进的能效设计。按照官方说法,在 3B 规模的端侧模型上,其生成效率提升的同时,整体功耗还有明显下降。这意味着端侧模型不再只是“能跑一次”,而是开始具备更现实的常驻可能。

搭载最新一代旗舰芯片的新机们,或多或少都已经利用好了芯片算力提升带来的红利,推出了各种AI交互功能。比如荣耀的YOYO智能体,在Magic8 Pro上已经能够支持多达3000+场景的自动任务执行。

但即便如此,用纯端侧AI去实现复杂任务,还是有一定难度。

就连被爆料内置本地大模型的Galaxy S26,也需要通过定期清理系统资源,才能确保模型常驻运行。这本身就说明,完全依靠端侧模型去承载复杂 AI 任务,在短期内仍然不现实

端侧 AI 不会“掀桌”,但会成为旗舰机分水岭

从目前主流厂商的选择来看,端云协同仍然是最稳妥的方案。

以华为为例,小艺依然是国内系统级AI助理中完成度最高的一套方案,覆盖语音交互、系统控制、跨设备协同等多个维度。但即便如此,其核心架构依然是典型的端云协同——端侧负责感知和基础理解,云端承担复杂推理。

这并不是厂商“做不到端侧”,而是一个更现实的取舍问题。当AI开始深度介入系统和服务层,稳定性、效率和资源控制,始终比激进部署更重要。

与此同时,今年最引人关注的变化,其实是AI开始尝试接管“操作权”,豆包手机助手却尝试了把大模型能力前移到手机交互层,让AI不只是回答问题,而是直接理解屏幕内容、规划操作路径,甚至模拟用户完成跨App行为。这种模式,瞬间让整个行业沸腾。



(图源:豆包手机助手)

不过,豆包手机助手、华为小艺、荣耀YOYO、小米超级小爱等一系列开启了“自动驾驶”的手机AI,本质上代表着一个前进的方向,正如前文所说的,这是下一阶段的AI手机必须掌握的技能。

无论如何,端侧大模型并不会在短时间内彻底改变手机AI的整体方向。无论是三星、华为,还是国内几家主流厂商,当前的选择都是端云协同的方案。

毕竟手机并不是为大模型而生的设备,这使其必须在性能、功耗、稳定性和安全之间找到平衡点。一旦AI开始深度介入系统操作,就不能让用户的体验出现问题,这也是为什么厂商不会贸然跟进。

从这个角度看,端侧大模型可能不会成为手机发布会上的“爆点”,但将会悄然抬高旗舰机的技术门槛,让有端侧和仅云端的AI手机在AI功能实现的体验上出现差距。而这个分水岭,或许就在不久的将来就会到来。

CES2026开幕在即!(1月6日-1月9日)
作为中国报道科技展会最悠久、最深入、最专业的新媒体,雷科技CES2026报道团正在进行紧张的前期筹备。届时雷科技将派出史上最大规模的CES报道团,并由雷科技创始人兼总编辑罗超带队,对CES2026进行一线、专业和立体报道,敬请期待!



免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。