当前位置: 首页 » 资讯 » 科技头条 » 正文

​AI 安全性与有效性测试存在严重缺陷,引发专家关注

IP属地 中国·北京 编辑:任飞扬 Chinaz 时间:2025-11-04 10:20:27

近日,来自英国政府 AI 安全研究所的计算机科学家及斯坦福大学、加州大学伯克利分校和牛津大学的专家们,对超过440个用于评估新人工智能模型安全性和有效性的基准进行了深入研究。他们发现几乎所有测试在某一领域存在缺陷,这些缺陷可能会 “削弱结果声明的有效性”,并且一些测试的评分结果可能 “无关紧要甚至误导”。

图源备注:图片由AI生成

随着各大科技公司不断推出新 AI,公众对 AI 的安全性和有效性日益担忧。当前,美国和英国尚未实施全国范围的 AI 监管,而这些基准则成为检验新 AI 是否安全、是否符合人类利益及其在推理、数学和编码方面声称能力的重要工具。

研究的首席作者、牛津互联网研究所的 Andrew Bean 表示:“基准测试支撑着几乎所有关于 AI 进步的声明,但缺乏统一的定义和可靠的测量,使得我们难以判断模型是否真正改善,还是仅仅看似改善。” 他提到,谷歌最近撤回了其新推出的 AI 模型 Gemma,因为该模型传播了有关美国参议员的不实指控,且这些指控是完全虚构的。

这并不是个别现象。Character.ai 也在最近宣布禁止青少年与其 AI 聊天机器人进行开放式对话,原因是该公司卷入了几起青少年自杀的争议。研究显示,只有16% 的基准使用不确定性估计或统计测试来展示其准确性。在一些评估 AI 特性的基准中,像 “无害性” 这样的概念定义不清,导致测试效果不佳。

专家们呼吁制定共享标准和最佳实践,以改善 AI 的评估过程,从而确保其安全性与有效性。

划重点:

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。