美政府爆发AI分歧:多机构质疑马斯克Grok安全性 国防部执意部署

来源:凤凰网 #xAI# #Grok# #马斯克#
1432

马斯克

北京时间2月28日,据《华尔街日报》报道,知情人士透露,近几个月来,多个美国联邦机构的官员对埃隆·马斯克(Elon Musk)旗下xAI公司开发的AI工具的安全性和可靠性提出了担忧。这表明,美国政府内部在部署哪种AI模型问题上依旧存在分歧。

尽管存在这些担忧,但是美国国防部在本周做出决定,同意允许xAI的聊天机器人Grok在机密环境中使用,从而使得xAI成为美国一些最敏感、最机密行动的核心参与者。

《华尔街日报》审阅的一份总务管理局(GSA)在1月15日的报告概要显示,该机构已在报告中指出了Grok的安全问题。该报告概要称,Grok-4“未达到总务管理局及一个实验性联邦AI平台对其在联邦层面普遍使用的安全性和一致性预期”。

更详细的33页完整报告讨论了公共安全事件以及总务管理局自行测试的结果,并得出结论认为,即使政府有限度地使用Grok,也需要严格且多层级的监管,否则引入Grok将“带来更高且难以管控的安全风险”。

AI政治化

在美国政府内部,各机构正竞相将AI部署到各种用途中,但关于使用何种模型的争论已日益政治化。据知情人士透露,包括白宫在内的美国高级官员认为,Anthropic在安全问题上的公开立场以及它与民主党主要捐赠者的关系,可能使该公司过于“觉醒”,难以成为可靠的供应商。

美国总统特朗普周五表示,联邦政府将停止与Anthropic的合作,并指示所有联邦机构立即停止使用其技术。此前,五角大楼已要求Anthropic在周五前同意对美军使用其技术放宽规定。

Grok

在xAI与军方达成协议之前,Anthropic是唯一获批准用于机密用途的AI开发商。xAI对Grok更为宽松的控制,以及马斯克在言论自由上的绝对主义立场,使其成为对五角大楼更具吸引力的选择。

宽松的风险

其他一些官员则质疑,Grok较为宽松的控制本身是否会带来风险。

据知情人士透露,近几个月来,联邦政府采购部门总务管理局的最高官员埃德·福斯特(Ed Forst)曾向白宫官员发出警告,提醒Grok可能存在的安全问题。他手下的其他总务管理局官员也曾对Grok提出过安全担忧,认为该模型存在谄媚倾向,且极易因错误或有偏见的数据而被操纵或带偏,从而构成潜在的系统性风险。

当时(去年12月底至今年1月初),Grok正因为允许对儿童照片等图像进行性化编辑而备受抨击。美国政府官员认为,这一问题凸显了Grok可能被恶意行为者利用的风险。

知情人士称,此事惊动了白宫幕僚长苏茜·威尔斯(Susie Wiles),她就此致电了xAI的一位高管。该高管告诉她,xAI正在努力解决导致Grok过度顺从的安全问题。美国政府通过马斯克的“政府效率部”招募而来的总务管理局高级采购官员乔什·格鲁恩鲍姆(Josh Gruenbaum)向政府官员保证,供政府使用的Grok平台与公共平台是分开的。知情人士称,威尔斯对此表示满意。

马斯克曾表示致力于防止儿童受剥削。他在今年1月宣布,公司将把图像生成和编辑工具的使用权限限制在付费用户范围内。截至发稿,马斯克及其xAI公司未回应置评请求。

近几周,总务管理局官员接到指示,要求将xAI的Logo放置在一个名为USAi的工具上。该工具本质上是一个供联邦员工试验不同AI模型的“沙盒”。据知情人士透露,Grok此前一直未能接入USAi平台,主要原因在于安全担忧,并且目前仍未接入。USAi官网上确实展示了xAI的Logo,但目前仅提供来自Anthropic、谷歌和Meta的模型。

知情人士称,总务管理局内一个研究AI的团队,已将指出Grok安全问题的报告分发给了该机构的高层官员。这份更详细的报告指出,Grok的安全故障并不仅限于边缘情况,它还“反映出在无防护配置下对于不安全顺从的更普遍倾向”。

格鲁恩鲍姆在一份声明中表示,该机构高度重视AI安全。“我们通过全面的内部审查流程,对包括xAI在内的前沿AI模型进行严格评估。在此次事件中,我们遵循了既定程序,并坚持按计划推进Grok的部署。”他表示。

据知情人士透露,两周前,五角大楼负责人AI主管马修·约翰逊(Matthew Johnson)辞职,部分原因是他担心,在国防部大力扩展AI能力的过程中,安全与治理已被置于次要位置。

此前,约翰逊的团队曾分发备忘录,强调了Grok的安全问题,并质疑其是否符合政府伦理和标准。这些备忘录已通过五角大楼的指挥系统向上呈报。

当被联系发表置评时,约翰逊指向了领英上宣布离职的帖子。他在帖子中表示,为自己在国防部“负责任AI部门”的团队感到自豪,他们是“一群真正低调的专业人士,影响力巨大,却鲜为人知”。“我们不断面临看似不可能的局面,但总能通过坚韧不拔的精神和无数个通宵达旦的努力完成任务。”他表示。

五角大楼发言人肖恩·帕内尔(Sean Parnell)在一份声明中表示,该部门“对美国国家级顶尖AI公司之一的xAI的加入感到兴奋,并期待着在不久的将来将Grok部署到其官方AI平台GenAI.mil上。”

特定安全问题

据知情人士透露,负责美国大部分情报搜集和处理工作的国家安全局,在2024年11月对包括Grok在内的大语言模型进行了一次机密评估。评估认定,Grok存在Claude等其他模型所没有的特定安全问题。知情人士称,这一结论起到了警示作用,使得五角大楼的部分部门对使用Grok望而却步。

上个月,在美国军方抓捕委内瑞拉前总统马杜罗的行动中,Anthropic的Claude被投入使用,这加剧了该公司与五角大楼之间的紧张争端。

Anthropic的使用准则禁止将Claude用于助长暴力、开发武器或实施监控,并且该公司拒绝让军方在所有合法场景下使用其模型。而xAI则同意了相关条款。

xAI通过去年7月与五角大楼AI办公室签订的一份合同,成功在五角大楼站稳了脚跟。谷歌、OpenAI和Anthropic也获得了这份合同,该合同价值高达2亿美元。谷歌和OpenAI的模型获准用于非机密环境,但不能用于机密活动。

美国国防部长赫格塞斯

OpenAI CEO萨姆·奥特曼(Sam Altman)周四对员工表示,公司正在与国防部合作,探讨能否在保持与Anthropic相同的安全防护措施的前提下,将其模型用于机密环境。谷歌和OpenAI的员工签署了一份在线请愿书,敦促各自公司坚守同样的底线。

AI及安全分析人士表示,直到最近,军方还更倾向于使用Claude而非Grok,因为业内许多人认为前者是更可靠的模型。

“在服务战争部这类客户所需要的能力上,我不认为它们目前是旗鼓相当的。”智库战略与国际问题研究中心专注于AI领域的高级顾问格雷戈里·艾伦(Gregory Allen)表示。他曾参与制定美国国防部的AI战略。

拜登政府拒绝Grok

据知情人士透露,在拜登政府执政期间,五角大楼下属的首席数字与AI办公室曾拒绝使用Grok。他们的担忧包括:Grok所使用的训练数据来源难以追踪,未能遵循联邦政府在负责任人工智能方面的标准,且安全防护措施薄弱。知情人士称,xAI也没有充分尝试通过“入侵”自身技术来识别和修复漏洞,这一过程在科技领域被称为“红队测试”。

在政府使用环境中对Grok进行过评估的人士表示,最近的测试表明,该聊天机器人比其他模型更容易受到“数据投毒”的攻击,即经过篡改、带有偏见或不准确的数据会污染底层数据集。

不过,据知情人士透露,美国官员已认定,Grok在模仿对手行为方面表现出色,这在兵棋推演等场景中有用。

责编: 集小微
来源:凤凰网 #xAI# #Grok# #马斯克#
THE END
关闭
加载

PDF 加载中...