伊赫巴里
Sunday, 22 February 2026
Breaking

Anthropic 的“安全第一”AI 与五角大楼在自主代理扩展中发生冲突

随着军事对先进能力的需求加剧,这家人工智能公司面临着道德十字路口,挑战着它的核心原则。

Anthropic 的“安全第一”AI 与五角大楼在自主代理扩展中发生冲突
7DAYES
3 hours ago
4

美国 - 艾赫巴里通讯社

Anthropic 的“安全第一”AI 与五角大楼在自主代理扩展中发生冲突

Anthropic,一家以“安全第一”(safety first)原则为基础的人工智能领域的领先公司,发现自己正处于与美国国防部(五角大楼)关系的决定性时刻。随着其最新、最先进的自主代理的发布,军方对这些尖端能力的需求日益增长,这对公司的核心道德承诺及其全球扩张战略构成了严峻挑战。

2月5日,Anthropic 推出了 Claude Opus 4.6,这是其迄今为止最强大的 AI 模型。该版本的一个关键特性是它能够协调自主代理团队——多个 AI 可以分担任务并并行工作以实现复杂目标。仅在 Opus 4.6 发布十二天后,该公司就推出了 Sonnet 4.6,这是一款成本效益更高但其编码和计算机相关技能却能与 Opus 相媲美的模型。据该公司称,虽然 Anthropic 于 2024 年底首次推出的计算机控制模型几乎无法操作网页浏览器,但 Sonnet 4.6 现在在导航 Web 应用程序和填写表单方面展现出了达到人类水平的能力。两个模型都拥有足够大的工作内存,可以存储一个小图书馆的内容,从而能够执行更复杂和持久的操作。

目前,企业客户约占 Anthropic 收入的 80%,该公司最近完成了 300 亿美元的融资,估值高达 3800 亿美元。从所有可用指标来看,Anthropic 都是历史上增长最快的人工智能技术公司之一。然而,在重大的产品发布和令人印象深刻的估值背后,隐藏着一个重大的威胁:五角大楼已暗示,除非 Anthropic 放宽其军事使用限制,否则可能会将其列为“供应链风险”——这是一个通常保留给外国对手的标签。这样的分类可能会迫使五角大楼的承包商从敏感项目中移除 Claude,从而可能阻碍其在关键国防应用中的采用。

紧张局势在 1 月 3 日的一次行动后升级,当时美国特种作战部队在委内瑞拉进行了一次突袭,导致尼古拉斯·马杜罗被捕。据《华尔街日报》报道,Claude 是通过 Anthropic 与国防承包商 Palantir 的合作关系在此次行动中使用的。Axios 进一步报道称,这一事件加剧了本已紧张的关于 Claude 精确可允许用途的谈判。据报道,当一位 Anthropic 高管联系 Palantir 询问该技术是否参与了此次突袭时,这个问题在五角大楼内部立即引发了警报。尽管 Anthropic 否认此次联系旨在表达对特定行动的不满,但一位高级政府官员告诉 Axios,国防部长皮特·海格斯“即将”断绝关系,并补充说:“我们将确保他们为迫使我们采取这一行动付出代价。”

这次冲突凸显了一个根本性问题:一家以防止 AI 灾难为使命而成立的公司,在其最强大的工具——能够处理海量数据集、识别模式并根据其结论采取行动的自主代理——开始在机密军事网络中运行时,能否保持其道德完整性?“安全第一”的 AI 是否真的与要求能够以军事规模进行推理、规划和自主行动的系统的客户兼容?

Anthropic 设定了两条明确的红线:禁止对美国人进行大规模监控,并禁止完全自主的武器。首席执行官 Dario Amodei 表示,Anthropic 将“在所有方面支持国家防御,除非那些会使我们变得更像我们的专制对手”。虽然包括 OpenAI、Google 和 xAI 在内的其他主要 AI 实验室已同意放宽对五角大楼未分类系统使用的安全措施,但他们的工具尚未在军队的机密网络中部署。相反,五角大楼坚持认为 AI 能力必须可用于“所有合法目的”。

这种摩擦直接考验着 Anthropic 的核心论点。该公司由前 OpenAI 高管于 2021 年创立,他们认为该行业没有充分优先考虑安全问题。他们将 Claude 定位为合乎道德的选择。2024 年底,Anthropic 在 Palantir 平台上提供了 Claude,其云安全级别高达“秘密”——根据公开报道,这使得 Claude 成为首个在机密系统中运行的大型语言模型。

当前的僵局迫使人们对“安全第一”的身份在技术被整合到机密军事行动后是否仍然具有可持续性,以及此类红线是否切实可行进行关键审视。乔治城大学安全与新兴技术中心的高级研究员 Emelia Probasco 指出:“这些词语听起来很简单:非法监控美国人。但当你深入研究时,会发现有成群的律师试图弄清楚如何解释这句话。”

历史背景也同样重要。在爱德华·斯诺登事件披露后,美国政府为大规模收集电话元数据——即详细说明谁何时以及多长时间给谁打电话的通话记录——进行了辩护,认为此类数据不享有与通话内容相同的隐私保护。当时的隐私辩论围绕着审查这些记录的人类分析师展开。现在,设想一个查询海量数据集、绘制网络图、识别模式并标记感兴趣个人的 AI 系统。现有的法律框架是为人类审查时代设计的,而不是为机器规模分析时代设计的。

机器人武器控制国际委员会联合创始人 Peter Asaro 表示:“某种意义上,你要求 AI 查看的任何大规模数据收集,按简单定义来说就是大规模监控。” Axios 报道称,一位高级官员辩称 Anthropic 的限制存在“相当大的灰色地带”,并且五角大楼“与该公司就个别用例进行谈判是不现实的”。Asaro 对此抱怨提出了两种解释:一种宽容的解释是,在 AI 时代,监控的定义确实不可能;另一种悲观的解释是,“他们确实想将其用于大规模监控和自主武器,但又不想承认这一点,所以他们称之为灰色地带”。

关于 Anthropic 的第二条红线——自主武器(狭义定义为在没有人为监督的情况下选择和攻击目标的系统)——这个定义可能看起来是可管理的。然而,Asaro 认为存在一个更令人担忧的灰色区域。他指出了以色列所谓的“Lavender”和“Gospel”系统,据报道,这些系统利用 AI 生成大量目标清单,在执行打击之前提交给人类操作员批准。Asaro 解释道:“你本质上已经自动化了目标定位元素,这是我们非常担心并且与之密切相关的事情,即使它超出了狭义的严格定义。”关键问题在于,Claude 在 Palantir 的系统内,通过机密网络运行,是否可能执行类似的功能——处理情报、识别模式、标记感兴趣的个人——而 Anthropic 却无法精确区分分析工作在哪里结束,目标定位在哪里开始。

马杜罗行动成为了检验这一区别的关键案例。Asaro 说:“如果你正在收集数据和情报来识别目标,但人类正在决定‘好吧,这是我们要真正轰炸的目标清单’——那么你就拥有了我们试图要求的那种程度的人类监督。”“另一方面,你仍然依赖系统进行决策。”这引发了对即使有人参与,系统也可能变得半自主的担忧。Anthropic 的挑战在于,随着其技术融入复杂、高风险的军事环境(这些环境要求速度和精度,并且情报分析与目标定位之间的界限不断发展),如何确保其红线保持清晰和可执行。

标签: # Anthropic # Claude # AI # Pentagon # autonomous agents # AI safety # military AI # AI ethics # Palantir # AI regulation # AI policy