当前位置: 首页 » 资讯 » 科技头条 » 正文

2025年国家网络安全宣传周丨国内首次AI大模型安全“体检”出炉,特有风险占比超60%

IP属地 中国·北京 编辑:苏婉清 都市时报 时间:2025-09-17 02:06:48

9月16日,在第22届中国网络安全年会(暨国家网络安全宣传周网络安全协同防御分论坛)上,国内首次针对人工智能大模型的实网众测检验结果正式发布,大模型特有漏洞177个,占比超过60%。

此次活动由中央网信办网络安全协调局指导,国家计算机网络应急技术处理协调中心主办,相关平台和基地提供技术支持。活动发布了国内首次针对AI大模型的实网众测检验结果,共动员559名白帽子,对国内15款大模型及应用产品进行了全面漏洞测试。测试产品涵盖基础大模型、垂域大模型、智能体、模型开发平台等多种类型,既包含单模态大模型,也涵盖多模态大模型,具有广泛的代表性。

从结果来看,腾讯混元大模型、百度文心一言、阿里巴巴通义APP、智谱华章智谱清言等产品发现的漏洞风险较少,展现出较高安全防护水平。活动还涌现出梁宏宇、马宝新、刘铭等一批优秀白帽子,他们涵盖网安企业人才、科研院校师生及社会人士,从外部攻击者视角完成多维度实战化测试,即便在厂商防护下仍挖掘出高危及严重等级漏洞,彰显专业能力与奉献情怀。

值得关注的是,本次活动累计发现各类安全漏洞281个,其中大模型特有漏洞177个,占比超60%,凸显AI大模型面临传统安全领域之外的新兴风险。典型漏洞风险包括部分产品不当输出类漏洞危害严重、信息泄露类漏洞多发、提示注入类漏洞普遍、无限制消耗类攻击防护不足及传统安全漏洞仍存等。鉴于AI大模型用户量大、使用率高,此类漏洞若被恶意利用,将严重影响国内AI大模型产品生态。

对此,活动明确AI大模型安全治理需各方发力,持续加强安全防护措施应对各类漏洞风险,加快制定AI漏洞分类分级及场景风险等级标准,通过众测模式汇聚社会白帽力量构筑共治生态,加强内生安全治理并将安全融入AI系统全生命周期。

业内人士指出,随着人工智能应用场景不断拓展,新的风险和攻击方式仍将持续出现,AI大模型安全治理工作任重道远,亟需各方共同努力。未来,针对大模型面临的各类漏洞风险,需持续加强安全防护措施。同时,加快制定AI漏洞分类分级标准,并按应用场景划分风险等级。通过众测模式广泛汇聚社会白帽力量,构筑AI共治生态。还要加强内生安全治理,将安全融入到AI系统全生命周期,从源头筑牢安全基石。

都市时报

全媒体记者:郑荣行

编辑:姜蕾

审核:王海涛

二审:陈唯一

终审:付晓海

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。