近日,来自英国政府 AI 安全研究所的计算机科学家及斯坦福大学、加州大学伯克利分校和牛津大学的专家们,对超过440个用于评估新人工智能模型安全性和有效性的基准进行了深入研究。他们发现几乎所有测试在某一领域存在缺陷,这些缺陷可能会 “削弱结果声明的有效性”,并且一些测试的评分结果可能 “无关紧要甚至误导”。
图源备注:图片由AI生成
随着各大科技公司不断推出新 AI,公众对 AI 的安全性和有效性日益担忧。当前,美国和英国尚未实施全国范围的 AI 监管,而这些基准则成为检验新 AI 是否安全、是否符合人类利益及其在推理、数学和编码方面声称能力的重要工具。
研究的首席作者、牛津互联网研究所的 Andrew Bean 表示:“基准测试支撑着几乎所有关于 AI 进步的声明,但缺乏统一的定义和可靠的测量,使得我们难以判断模型是否真正改善,还是仅仅看似改善。” 他提到,谷歌最近撤回了其新推出的 AI 模型 Gemma,因为该模型传播了有关美国参议员的不实指控,且这些指控是完全虚构的。
这并不是个别现象。Character.ai 也在最近宣布禁止青少年与其 AI 聊天机器人进行开放式对话,原因是该公司卷入了几起青少年自杀的争议。研究显示,只有16% 的基准使用不确定性估计或统计测试来展示其准确性。在一些评估 AI 特性的基准中,像 “无害性” 这样的概念定义不清,导致测试效果不佳。
专家们呼吁制定共享标准和最佳实践,以改善 AI 的评估过程,从而确保其安全性与有效性。
划重点:





     京公网安备 11011402013531号