近日,AI 公司Anthropic正式支持加州州长斯科特・维纳(Scott Wiener)提出的 SB53法案。该法案计划对全球最大的 AI 模型开发者施加前所未有的透明度要求,成为美国首个针对 AI 安全的立法尝试。然而,矛盾的是,许多硅谷科技公司和联邦政府对此法案表示强烈反对。
Anthropic在一篇博客中指出:“尽管我们认为前沿 AI 安全问题应在联邦层面解决,而不是由各州自行规定,但强大的 AI 技术发展不会等待华盛顿的共识。” 该公司强调,制定 AI 治理标准是当务之急,而 SB53提供了一条合理的路径。
如果 SB53法案获得通过,像Anthropic、OpenAI、谷歌和 xAI 等 AI 模型开发者将需要制定安全框架,并在部署强大 AI 模型前,发布公开的安全和安保报告。此外,该法案还将为举报安全问题的员工提供保护。
该法案特别关注于限制 AI 模型对 “灾难性风险” 的贡献,定义为导致至少50人死亡或造成超过10亿美元损失的事件。SB53侧重于防范极端 AI 风险,例如防止 AI 模型被用于生物武器的开发或网络攻击,而不涉及更近一步的 AI 深度伪造或过度迎合等问题。
加州参议院已经通过了 SB53的初步版本,但仍需进行最终投票,才能将其送交州长签署。尽管加州州长纽森尚未对该法案表态,但他曾否决过类似的 SB1047法案。
反对声音主要来自硅谷及特朗普政府,认为此类法案可能限制美国在与中国竞争中的创新。安德森・霍洛维茨(Andreessen Horowitz)和 Y Combinator 等投资者对此法案进行了强烈反对,认为州政府不应干预 AI 安全问题,应该将此事交给联邦政府。
尽管存在这些反对意见,政策专家认为 SB53相较于之前的 AI 安全法案显得更为温和。加州立法者在该法案的制定过程中显示了对技术现实的尊重以及一定的立法克制。Anthropic的联合创始人杰克・克拉克(Jack Clark)表示,尽管希望有联邦标准,但现有法案为 AI 治理提供了一份不可忽视的蓝图。
划重点: