非营利组织生命未来研究所(Future of Life Institute)发布《AI 安全指数2025》报告,对 OpenAI、Anthropic、Google DeepMind 等20余家头部企业进行安全评估。结果显示,头部厂商在“生存风险控制”“安全流程披露”两项核心指标上集体不及格,行业平均得分仅为42/100,远低于欧盟《人工智能实践准则》要求。
报告要点
- 风险评估:仅3家企业公开系统性风险识别方法;OpenAI、DeepMind 未披露“超级智能对齐”技术细节
- 安全框架:缺乏跨部门安全官、红队演练记录与第三方审计,被批“承诺多、证据少”
- 生存安全:所有受评公司均未给出“比人类更聪明系统”的明确控制与协调方案,被认定为“结构性弱点”
- 信息透明:信息披露深度、可衡量性平均落后官方准则30个百分点
FLI 倡议
报告呼吁立即设立“AI 安全透明登记簿”,强制企业公开安全方法、评估结果与独立审计;同时建议监管机构对通用人工智能(AGI)项目实施“上市前审批”制度,避免“先发布、后治理”。
行业回应
OpenAI 发言人表示“已收到报告,将在90天内公开更新版安全框架”;Google DeepMind 则称“正与政策团队评估具体建议”。欧盟委员会内部市场专员回应称,2026年《AI 法案》执法将参考该指数,违规企业最高面临全球营业额2% 罚款。
市场影响
分析师指出,安全合规或成为下一代大模型的“隐形门票”,预计2026年起头部厂商将把10%–15% 研发预算投入安全与审计,以换取监管绿灯。





京公网安备 11011402013531号