当前位置: 首页 » 资讯 » 科技头条 » 正文

Anthropic公开招募武器专家,防止其AI模型被用于核武等大规模杀伤性武器

IP属地 中国·北京 红星新闻 时间:2026-03-17 14:13:26


美国AI公司Anthropic正在招募一名化学武器和高爆武器专家,以防止其AI模型被用于制造大规模杀伤性武器。Anthropic还开发了一种过滤器,并将其集成到其系统中,旨在识别和阻止与核武器相关的滥用。


▲创意图

Anthropic近日公开发布的招聘信息显示,申请人需具备至少5年“化学武器和/或爆炸物防御”经验,并了解“放射性散布装置”,即脏弹。Anthropic担心,其Claude AI模型可能被用于“灾难性滥用”。

Anthropic表示,这一职位与公司已在其他敏感领域设立的岗位类似。

但一些专家对这种做法表示担忧。科技研究员、英国《AI解码》节目联合主持人斯蒂芬妮·海尔博士质疑:“让AI系统处理敏感的化学品、爆炸物和放射性武器信息,真的安全吗?即使指令是AI不得使用这些信息。”

斯蒂芬妮·海尔说:“目前没有国际条约或其他法规来规范这类工作以及AI与这些武器的结合使用。所有这一切都在公众视野之外进行。”

AI行业人士持续警告技术可能带来的威胁,但从未放慢发展步伐。这一问题在美国政府呼吁AI公司参与伊朗战争和委内瑞拉军事行动之际变得更加紧迫。


▲ClaudeAI模型被指参与美军袭击伊朗的行动 据视觉中国

Anthropic目前正起诉美国国防部,因后者将其列为“供应链风险”。此前,Anthropic反对美军将其AI系统用于自动化武器攻击或大规模监控美国人。Anthropic联合创始人阿莫代伊今年2月撰文称,他认为技术还不够成熟,不应用于这些目的。

白宫表示,美军不会受科技公司约束。

OpenAI曾公开表态支持Anthropic的立场,随后自行与美国政府谈判并签署了独立合同。目前,该公司称该合同尚未开始执行。OpenAI官网显示,该公司正在招募一名“生物和化学风险研究员”,薪资高达45.5万美元,几乎是Anthropic提供的薪资的两倍。

红星新闻记者 邓纾怡

编辑 郭庄

审核 官莉

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。