当前位置: 首页 » 资讯 » 科技头条 » 正文

AI越来越能干,数据安全需要提前纳入制度设计

IP属地 中国·北京 南方都市报 时间:2026-03-08 00:13:06


3月7日下午,全国政协十四届四次会议举行第二次全体会议,全国政协委员、全国工商联副主席齐向东在大会发言中提出,应以“AI+安全”双轮驱动,筑牢现代化产业体系的根基。

齐向东委员表示,我国产业体系正处在由大到强、由全到优的关键跃升期,向现代化产业体系跃升,既是一场技术迭代,也是安全能力的系统性重塑,要以“安全前置”为核心导向,构建全链条、多层次的安全保障体系。

技术依赖及新技术伴生的安全风险,是产业体系转型过程中面临的突出挑战。随着人工智能深入生产、流通和服务环节,安全能力必须同步升级,否则智能化进程越快,潜在风险也可能越大。

这样的提醒并非杞人忧天。过去一年,大模型能力持续提升,一种新的技术形态AI智能体快速发展,其可以持续运行、调用系统资源并执行任务,甚至具备一定程度的自主决策能力,从自动整理资料到远程操作软件,都可以做到。

在这股浪潮中,开源AI智能体项目OpenClaw通过整合多渠道通信能力与大语言模型,让用户可以在本地部署一个具备记忆和执行能力的AI助手,掀起了一股部署OpenClaw的热潮。但技术能力越强,意味着安全的边界也越复杂。近期,工业和信息化部网络安全威胁和漏洞信息共享平台发布安全预警,提醒防范OpenClaw开源AI智能体在默认或不当配置情况下存在的安全风险。

预警指出,由于其在部署时“信任边界模糊”,同时具备持续运行、自主决策以及调用系统与外部资源等能力,如果缺乏权限控制、审计机制和安全加固,可能因指令诱导、配置缺陷甚至被恶意接管而执行越权操作,从而导致信息泄露或系统受控。

这一风险恰好印证了齐向东委员的判断。当AI深度连接“云、网、端、数、用”时,安全不再是附加选项,而是基础设施的一部分。智能化越深入产业链,安全能力越需要前置设计。

与此同时,AI应用正迅速进入大众终端,从手机厂商到互联网公司,都在加速推出“AI手机”或系统级AI助手。当AI手机可能面向数亿用户普及时,数据安全问题的复杂性将被进一步放大。

不同厂商采用的技术路径不完全相同,有的依赖云端模型,有的强调本地大模型,还有的尝试通过“模拟读屏”等方式让AI理解手机界面并操作应用。这也对数据安全提出了新的挑战,一旦设计不当,AI手机助手可能变成新的隐私泄露点。

全国政协委员、中国科学院计算技术研究所研究员张云泉也指出,在AI智能体应用落地过程中,存在个人信息保护与数据安全意识淡漠的问题。在产品创新时有意无意忽视了隐私安全,通过特定方式过量搜集用户数据、将敏感数据上云的问题值得重视。包括部分手机AI智能体在执行跨应用任务时绕过了应用官方的标准连接方式和授权机制,频繁触发被调应用的风控,会产生“信任赤字”与协作壁垒的风险。

可以看到,无论是工业互联网中的AI系统,还是消费端的AI手机助手,本质上都在重塑人与系统之间的权限关系。当人工智能开始拥有更高权限时,安全与规则必须同步建立。只有把权限边界、数据治理和隐私保护提前纳入制度设计,这波智能化浪潮才能真正走得稳、走得远。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。