当前位置: 首页 » 资讯 » 科技头条 » 正文

中国网络空间安全协会卢卫:AI治理应分类,严管高风险场景

IP属地 中国·北京 南方都市报 时间:2025-12-21 00:10:55



12月18日,由南方都市报社、南都数字经济治理研究中心主办的“第九届啄木鸟数据治理论坛”在京举行,主题聚焦 “AI安全边界:技术、信任与治理新秩序”。中国网络空间安全协会副理事长、人工智能安全治理专业委员会主任卢卫为论坛致辞。他表示,AI治理应坚持“分类分级”,比如对自动驾驶、智慧医疗等高风险场景严格监管,对低风险应用则留出一定创新空间。


中国网络空间安全协会副理事长卢卫致辞。

随着大模型应用场景渗透到社会的每一个角落,曾经高居云端的AI智能已步入“寻常百姓家”,越来越多的普通人开始使用和掌控它。与此同时,新应用的不断涌现,也给网络生态治理带来全新挑战。卢卫认为,建立健全面向未来的人工智能安全治理生态,需要依靠技术创新筑牢防线、依靠信任夯实凝聚共识、依靠制度完善保驾护航,让技术、信任、制度三者形成合力。

首先,技术是安全治理的基础支撑,为人工智能发展筑牢安全底线。卢卫表示,人工智能技术日新月异,发展离不开技术的创新和迭代,安全最终要靠技术来兜底,具体涉及两方面:

一是提升人工智能自身安全性,如通过对抗训练增强模型鲁棒性(指一个系统在面临着内部结构或外部环境的改变时也能够维持其功能稳定运行的能力),利用差分隐私保护数据安全;另一方面研究治理技术,如算法漏洞的智能检测,深度伪造检测、算法审计工具等。此外,要特别注重内生安全,“要在人工智能的研发初期就嵌入防护机制,并不断地迭代优化,不能事后‘打补丁’。”

卢卫分析,近年来发生的涉人工智能网络安全事件普遍呈现出两个特点:手段智能化,一些不法分子早早地就将人工智能技术作为违法犯罪工具;风险场景复杂化,具体表现为从数字空间渗透到了物理世界。

“比如,当前具身智能已从生产阶段进入到现实生活中,随着机器人逐步进入家庭,相关安全问题亟待重视。”卢卫还提到,信任是安全治理的桥梁纽带,为人工智能发展凝聚社会共识。

在他看来,人工智能的普及,本质上是技术获得社会信任的过程。算法推荐出现“信息茧房”、自动驾驶面临伦理困境、AI生成内容模糊虚实边界……都会侵蚀公众的信任根基。要构建信任,需要做到“透明可及”,包括提高算法决策过程透明度,避免技术异化对隐私、公平等价值的损害等等;同时要积极普及AI知识,提升全民数字素养。

“只有赢得公众信任,人工智能才能够在医疗、教育、交通等关键领域(得到)深度应用,这是治理生态的活力源泉。”卢卫说。

制度是安全治理的秩序保障,为人工智能发展全程保驾护航。卢卫建议,建立健全“法律+标准+伦理”的治理体系,既通过《网络安全法》《数据安全法》等法律划出“红线”,也要发挥行业标准、自律公约的柔性调节作用。AI治理中要坚持“分类分级”,比如对自动驾驶、智慧医疗等高风险场景严格监管,对低风险应用则留出一定创新空间。同时,要推动跨部门、跨区域协同治理;加强国际合作,应对人工智能安全的全球性挑战。

卢卫强调,随着人工智能技术的迅速迭代,治理还需保持“敏捷性”,制度建设需“与时俱进”。通过建立健全动态风险评估机制,为前沿技术和领域的治理提出方案,为创新留出试错空间。比如,近年来中国网络空间安全协会组织专业机构对人工智能模型进行了安全和能力评测实践探索。

人工智能等新技术、新应用飞速发展,给现有国家治理体系带来极大挑战。“作为行业协会,(中国网空协会)非常愿意积极参与,共同做好人工智能安全治理方面的工作。”他说。

出品:南都数字经济治理研究中心

采写:南都N视频记者 樊文扬

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。