环球网
12月4日消息,据NBC报道,非营利机构“未来生命研究所”发布最新AI安全指数,评估结果显示,Anthropic、OpenAI、xAI、Meta等全球主要AI公司的安全措施“远未达到新兴的全球标准”。
![]()
评估指出,独立专家通过多维度考察发现,相关企业在追逐超级智能技术突破的过程中,尚未建立起能有效管控高阶AI系统的可靠方案。这一研究的公布,源于近期多起自杀、自残事件被追溯至AI聊天机器人,社会各界对具备推理与逻辑能力、甚至可能超越人类的AI系统所带来的潜在冲击愈发担忧。
“未来生命研究所”主席、MIT教授马克斯·泰格马克表示,当前AI协助黑客入侵、诱导人类心理失控及自残等相关事件引发热议,但美国AI企业所受监管力度甚至低于餐馆,且仍在通过游说抵制强制性安全规范。与此同时,全球AI领域竞争持续升温,主要科技企业已累计投入数千亿美元用于机器学习技术的扩展与升级。
据悉,“未来生命研究所”成立于2014年,长期致力于关注智能机器对人类的潜在威胁,早期曾获得特斯拉CEO马斯克的支持。今年10月,杰弗里·辛顿、约书亚·本吉奥等多位科学家已联合呼吁,暂停超级智能研发工作,直至公众诉求明确且科研界找到安全管控路径。(纯钧)





京公网安备 11011402013531号