当前位置: 首页 » 资讯 » 科技头条 » 正文

美政府爆发AI分歧:多机构质疑马斯克Grok安全性 国防部执意部署

IP属地 中国·北京 编辑:孙雅 凤凰网科技 时间:2026-02-28 10:07:23

马斯克

北京时间2月28日,据《华尔街日报》报道,知情人士透露,近几个月来,多个美国联邦机构的官员对埃隆马斯克(Elon Musk)旗下xAI公司开发的AI工具的安全性和可靠性提出了担忧。这表明,美国政府内部在部署哪种AI模型问题上依旧存在分歧。

尽管存在这些担忧,但是美国国防部在本周做出决定,同意允许xAI的聊天机器人Grok在机密环境中使用,从而使得xAI成为美国一些最敏感、最机密行动的核心参与者。

《华尔街日报》审阅的一份总务管理局(GSA)在1月15日的报告概要显示,该机构已在报告中指出了Grok的安全问题。该报告概要称,Grok-4“未达到总务管理局及一个实验性联邦AI平台对其在联邦层面普遍使用的安全性和一致性预期”。

更详细的33页完整报告讨论了公共安全事件以及总务管理局自行测试的结果,并得出结论认为,即使政府有限度地使用Grok,也需要严格且多层级的监管,否则引入Grok将“带来更高且难以管控的安全风险”。

AI政治化

在美国政府内部,各机构正竞相将AI部署到各种用途中,但关于使用何种模型的争论已日益政治化。据知情人士透露,包括白宫在内的美国高级官员认为,Anthropic在安全问题上的公开立场以及它与民主党主要捐赠者的关系,可能使该公司过于“觉醒”,难以成为可靠的供应商。

美国总统特朗普周五表示,联邦政府将停止与Anthropic的合作,并指示所有联邦机构立即停止使用其技术。此前,五角大楼已要求Anthropic在周五前同意对美军使用其技术放宽规定。

Grok

在xAI与军方达成协议之前,Anthropic是唯一获批准用于机密用途的AI开发商。xAI对Grok更为宽松的控制,以及马斯克在言论自由上的绝对主义立场,使其成为对五角大楼更具吸引力的选择。

宽松的风险

其他一些官员则质疑,Grok较为宽松的控制本身是否会带来风险。

据知情人士透露,近几个月来,联邦政府采购部门总务管理局的最高官员埃德福斯特(Ed Forst)曾向白宫官员发出警告,提醒Grok可能存在的安全问题。他手下的其他总务管理局官员也曾对Grok提出过安全担忧,认为该模型存在谄媚倾向,且极易因错误或有偏见的数据而被操纵或带偏,从而构成潜在的系统性风险。

当时(去年12月底至今年1月初),Grok正因为允许对儿童照片等图像进行性化编辑而备受抨击。美国政府官员认为,这一问题凸显了Grok可能被恶意行为者利用的风险。

知情人士称,此事惊动了白宫幕僚长苏茜威尔斯(Susie Wiles),她就此致电了xAI的一位高管。该高管告诉她,xAI正在努力解决导致Grok过度顺从的安全问题。美国政府通过马斯克的“政府效率部”招募而来的总务管理局高级采购官员乔什格鲁恩鲍姆(Josh Gruenbaum)向政府官员保证,供政府使用的Grok平台与公共平台是分开的。知情人士称,威尔斯对此表示满意。

马斯克曾表示致力于防止儿童受剥削。他在今年1月宣布,公司将把图像生成和编辑工具的使用权限限制在付费用户范围内。截至发稿,马斯克及其xAI公司未回应置评请求。

近几周,总务管理局官员接到指示,要求将xAI的Logo放置在一个名为USAi的工具上。该工具本质上是一个供联邦员工试验不同AI模型的“沙盒”。据知情人士透露,Grok此前一直未能接入USAi平台,主要原因在于安全担忧,并且目前仍未接入。USAi官网上确实展示了xAI的Logo,但目前仅提供来自Anthropic、谷歌和Meta的模型。

知情人士称,总务管理局内一个研究AI的团队,已将指出Grok安全问题的报告分发给了该机构的高层官员。这份更详细的报告指出,Grok的安全故障并不仅限于边缘情况,它还“反映出在无防护配置下对于不安全顺从的更普遍倾向”。

格鲁恩鲍姆在一份声明中表示,该机构高度重视AI安全。“我们通过全面的内部审查流程,对包括xAI在内的前沿AI模型进行严格评估。在此次事件中,我们遵循了既定程序,并坚持按计划推进Grok的部署。”他表示。

据知情人士透露,两周前,五角大楼负责人AI主管马修约翰逊(Matthew Johnson)辞职,部分原因是他担心,在国防部大力扩展AI能力的过程中,安全与治理已被置于次要位置。

此前,约翰逊的团队曾分发备忘录,强调了Grok的安全问题,并质疑其是否符合政府伦理和标准。这些备忘录已通过五角大楼的指挥系统向上呈报。

当被联系发表置评时,约翰逊指向了领英上宣布离职的帖子。他在帖子中表示,为自己在国防部“负责任AI部门”的团队感到自豪,他们是“一群真正低调的专业人士,影响力巨大,却鲜为人知”。“我们不断面临看似不可能的局面,但总能通过坚韧不拔的精神和无数个通宵达旦的努力完成任务。”他表示。

五角大楼发言人肖恩帕内尔(Sean Parnell)在一份声明中表示,该部门“对美国国家级顶尖AI公司之一的xAI的加入感到兴奋,并期待着在不久的将来将Grok部署到其官方AI平台GenAI.mil上。”

特定安全问题

据知情人士透露,负责美国大部分情报搜集和处理工作的国家安全局,在2024年11月对包括Grok在内的大语言模型进行了一次机密评估。评估认定,Grok存在Claude等其他模型所没有的特定安全问题。知情人士称,这一结论起到了警示作用,使得五角大楼的部分部门对使用Grok望而却步。

上个月,在美国军方抓捕委内瑞拉前总统马杜罗的行动中,Anthropic的Claude被投入使用,这加剧了该公司与五角大楼之间的紧张争端。

Anthropic的使用准则禁止将Claude用于助长暴力、开发武器或实施监控,并且该公司拒绝让军方在所有合法场景下使用其模型。而xAI则同意了相关条款。

xAI通过去年7月与五角大楼AI办公室签订的一份合同,成功在五角大楼站稳了脚跟。谷歌、OpenAI和Anthropic也获得了这份合同,该合同价值高达2亿美元。谷歌和OpenAI的模型获准用于非机密环境,但不能用于机密活动。

美国国防部长赫格塞斯

OpenAI CEO萨姆奥特曼(Sam Altman)周四对员工表示,公司正在与国防部合作,探讨能否在保持与Anthropic相同的安全防护措施的前提下,将其模型用于机密环境。谷歌和OpenAI的员工签署了一份在线请愿书,敦促各自公司坚守同样的底线。

AI及安全分析人士表示,直到最近,军方还更倾向于使用Claude而非Grok,因为业内许多人认为前者是更可靠的模型。

“在服务战争部这类客户所需要的能力上,我不认为它们目前是旗鼓相当的。”智库战略与国际问题研究中心专注于AI领域的高级顾问格雷戈里艾伦(Gregory Allen)表示。他曾参与制定美国国防部的AI战略。

拜登政府拒绝Grok

据知情人士透露,在拜登政府执政期间,五角大楼下属的首席数字与AI办公室曾拒绝使用Grok。他们的担忧包括:Grok所使用的训练数据来源难以追踪,未能遵循联邦政府在负责任人工智能方面的标准,且安全防护措施薄弱。知情人士称,xAI也没有充分尝试通过“入侵”自身技术来识别和修复漏洞,这一过程在科技领域被称为“红队测试”。

在政府使用环境中对Grok进行过评估的人士表示,最近的测试表明,该聊天机器人比其他模型更容易受到“数据投毒”的攻击,即经过篡改、带有偏见或不准确的数据会污染底层数据集。

不过,据知情人士透露,美国官员已认定,Grok在模仿对手行为方面表现出色,这在兵棋推演等场景中有用。(作者/箫雨)

更多一手新闻,欢迎下载凤凰新闻客户端订阅科技。想看深度报道,请微信搜索“科技”。

标签: 五角大楼 知情 人士 马斯克 部署 机构 官员 问题 模型 美国 公司 管理局 机密 国防部 安全性 政府 总务 工具 科技 数据 凤凰网 部门 军方 图像 平台 边缘 影响力 谷歌 联邦 分歧 总能

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。