2026-04-07 13:41来源:本站

**编者按:** 在人工智能浪潮席卷全球的今天,科技伦理与安全已成为不可回避的焦点。近日,由多家非营利组织联名致信美国政府,紧急呼吁暂停由马斯克旗下xAI开发的聊天机器人Grok在联邦机构的部署,尤其点名国防部。这并非空穴来风——过去一年,Grok屡次陷入争议漩涡:从未经同意将真人照片(甚至涉及儿童)生成色情图像,到每小时产出数千张非自愿露骨内容并在X平台传播;从输出反犹、性别歧视言论,到自称“机械希特勒”……一系列“系统级故障”令人触目惊心。更令人担忧的是,这样一个被权威评估列为“对青少年最不安全”的AI模型,竟已深入美国国防网络,处理包括机密文件在内的敏感数据。当技术创新与伦理底线、国家安全产生碰撞,我们不禁要问:在追求效率与“反觉醒”标签的背后,是否已埋下了无法承受的风险?以下为信件核心内容编译,值得每一位关注科技未来的读者深思。
多家非营利组织联合敦促美国政府,立即暂停在联邦机构(包括国防部)部署由埃隆·马斯克xAI公司开发的聊天机器人Grok。
这封由TechCrunch独家获取的公开信,源于过去一年该大型语言模型一系列令人不安的行为。最近一次风波是,X平台用户趋势性要求Grok将真实女性(某些案例中涉及儿童)的照片在未经同意的情况下转化为色情图像。据部分报道,Grok每小时可生成数千张非自愿的露骨图像,随后在马斯克旗下、由xAI所有的社交媒体平台X上大规模传播。
“联邦政府竟继续部署一个存在系统级故障、会导致生成非自愿色情图像和儿童性虐待材料的AI产品,这令人深感忧虑,”由“公共公民”、“人工智能与数字政策中心”、“美国消费者联合会”等倡导组织联署的信中写道。“鉴于政府的行政命令、指导方针以及白宫支持的近期通过的《下架法案》,管理与预算办公室(OMB)至今未指示联邦机构停用Grok,这令人震惊。”
去年9月,xAI与政府采购部门总务管理局(GSA)达成协议,向行政分支下的联邦机构出售Grok。在此两个月前,xAI与Anthropic、谷歌和OpenAI一同,获得了国防部一份价值高达2亿美元的合同。
在一月中旬X平台丑闻频发之际,国防部长皮特·赫格塞斯表示,Grok将与谷歌的Gemini一起在五角大楼网络内部运行,处理包括机密和非机密文件。专家指出,这构成国家安全风险。
信件的撰写者认为,Grok已证明其不符合政府对AI系统的要求。根据OMB的指导方针,对于存在严重且可预见风险、且无法充分缓解的系统,必须停止使用。
“我们主要担心的是,Grok已相当持续地表现出它是一个不安全的大型语言模型,”公共公民组织的大科技问责倡导者、信件作者之一JB·布兰奇告诉TechCrunch。“而且Grok有一系列‘失控’的黑历史,包括反犹言论、性别歧视言论、针对妇女和儿童的色情图像。”
继一月份的行为后,多国政府已表现出不愿与Grok接触的态度,这建立在一系列事件之上,包括在X上生成反犹帖子以及自称“机械希特勒”。印度尼西亚、马来西亚和菲律宾都曾屏蔽Grok(随后解除了封锁),而欧盟、英国、韩国和印度正在就数据隐私和非法内容传播问题积极调查xAI和X。
这封信发布的一周前,为家庭评估媒体和技术的非营利组织“常识媒体”发布了一份严厉的风险评估报告,发现Grok是对儿童和青少年最不安全的AI之一。有人可能认为,基于该报告的发现——包括Grok倾向于提供不安全建议、分享毒品信息、生成暴力和色情图像、散布阴谋论以及产生有偏见的输出——Grok对成年人也并非那么安全。
“如果你知道一个大型语言模型被AI安全专家认定为或宣布为不安全,你到底为什么会想让这样的模型处理我们最敏感的数据?”布兰奇说。“从国家安全的角度来看,这完全说不通。”
前美国国家安全局承包商、现为机密环境无代码AI代理平台Gobbi AI创始人的安德鲁·克里斯蒂安森表示,总体而言,使用闭源LLM是个问题,对五角大楼来说尤其如此。
“权重闭源意味着你无法看到模型内部,无法审计其决策方式,”他说。“代码闭源意味着你无法检查软件或控制其运行位置。五角大楼在这两方面都选择了闭源,这对国家安全来说是最糟糕的组合。”
“这些AI代理不仅仅是聊天机器人,”克里斯蒂安森补充道。“它们可以采取行动、访问系统、转移信息。你需要能够确切看到它们在做什么以及如何决策。开源能给你这种能力。专有的云端AI则不能。”
使用被污染或不安全的AI系统的风险不仅限于国家安全用例。布兰奇指出,一个已被证明会产生偏见和歧视性输出的LLM,也可能对人们造成不成比例的负面后果,特别是在涉及住房、劳工或司法的部门中使用时。
尽管OMB尚未发布其整合的2025年联邦AI用例清单,但TechCrunch审查了多个机构的用例——其中大多数要么没有使用Grok,要么没有披露其使用情况。除了国防部,卫生与公众服务部似乎也在积极使用Grok,主要用于安排和管理社交媒体帖子,以及生成文件、简报或其他沟通材料的初稿。
布兰奇指出了他所认为的Grok与本届政府在理念上的一致性,作为忽视该聊天机器人缺陷的一个原因。
“Grok的品牌定位是‘反觉醒的大型语言模型’,这符合本届政府的理念,”布兰奇说。“如果一个政府内部多次出现被指控为新纳粹或白人至上主义者的人员问题,然后他们又使用一个与这类行为相关联的大型语言模型,我想他们可能会有使用它的倾向。”
这是该联盟继去年8月和10月就类似关切致信后的第三封信。去年8月,xAI在Grok Imagine中推出“辛辣模式”,引发了大规模非自愿色情深度伪造内容的创作。TechCrunch也在8月报道称,私密的Grok对话已被谷歌搜索索引。
在10月那封信之前,Grok被指控提供选举错误信息,包括虚假的选票更改截止日期和政治深度伪造内容。xAI还推出了Grok百科全书,研究人员发现其正在使科学种族主义、HIV/AIDS怀疑论和疫苗阴谋论合法化。
除了要求立即暂停联邦层面部署Grok外,信件还要求OMB正式调查Grok的安全故障,以及是否对该聊天机器人进行了适当的监督流程。信中还要求该机构公开澄清,Grok是否经过评估以符合特朗普总统要求LLM寻求真相和中立的行政命令,以及它是否满足OMB的风险缓解标准。
“政府需要暂停并重新评估Grok是否达到了这些门槛,”布兰奇说。
TechCrunch已联系xAI和OMB寻求评论。