虽然人工智能正在成为各国的战略基础设施,但人工智能实验室第一次拒绝了军队的条件。这就是今天人类与美国国防部的冲突的意义。这家美国公司在被归类为“供应链风险”后,对美国政府提起了法律诉讼,“供应链风险”通常是为被认为对国家安全构成威胁的供应商保留的。
这一决定是在围绕该实验室的人工智能模型在军事计划中使用的谈判失败之后做出的,并提出了一个更广泛的问题:谁应该决定人工智能的军事使用,是国家还是开发人工智能的公司?
关于军事人工智能局限性的分歧
成立于 2021 年,七名前 OpenAI 员工,Anthropic 正在开发 Claude 系列人工智能模型。推出于 2023 年 3 月,这一体系在不同的专业和制度环境中逐渐建立起来。
根据该公司提交的诉状,克劳德今天 战争部内部署最广泛的尖端人工智能模型,也是美国某些机密政府系统中使用的此类唯一模型。
在此背景下,该公司已经参与了多项旨在加速联邦政府采用人工智能的举措。 Anthropic 是五角大楼首席数字和人工智能办公室领导的一项计划的一部分,该计划旨在试验将商业人工智能模型整合到军事行动中。
在该计划中,包括 Anthropic、OpenAI、Google 和 xAI 在内的多家供应商可获得的合同上限高达 每家公司 2 亿美元。
随着生成模型能力的进步,美国国防机构正在寻求在关键功能中利用这些技术,无论是情报分析、数据处理、网络安全还是作战决策支持。
Claude 模型特别可以配置为分析大量信息,协助软件开发工作,甚至支持与网络安全和漏洞检测相关的某些操作。
但谈判很快就暴露出根本分歧。当五角大楼要求允许任何符合美国法律的使用时,Anthropic 希望在其使用政策中保留某些限制。
达里奥·阿莫迪领导的实验室设定了两条红线:禁止将其模型用于无人监督的致命自主武器和针对美国公民的大规模监视设备。该公司表示,这些限制是基于人工智能系统当前的技术限制。生成模型可能会产生不准确的答案或产生错误,这种现象通常被称为“幻觉”。因此,对于 Anthropic 来说,这些系统不够可靠,无法在可以自主做出致命决策的环境中使用。
该公司还认为,由于人工智能系统能够分析前所未有的海量数据,因此在大规模监控计划中使用这些技术会对公民自由构成重大风险。
对于美国当局来说,这些限制似乎与军事组织的运作要求不相容。因此,国防部要求 Anthropic 放弃其使用政策,并接受其模型可以用于“任何合法用途”。
这些讨论的失败导致美国政府做出了激进的决定。
具有重大经济后果的制裁
这 2026 年 2 月 27 日当天,美国总统发布指令,命令所有联邦机构立即停止一切使用 Anthropic 的技术。几个小时后,国防部长宣布将该公司指定为“国家安全的供应链风险”。这一决定还伴随着一项特别严厉的措施:与美国军方合作的承包商、供应商或合作伙伴不能再与 Anthropic 开展商业活动。
实际上,这样的措施可能会迫使许多参与军事项目的公司将 Anthropic 的技术排除在他们的系统之外。
该公司的投诉指出,这一指定通常是在供应商可能面临外国势力干扰或破坏风险的情况下保留的。 Anthropic声称从未被指控存在此类风险,并指出其拥有美国政府颁发的安全授权,特别是在该计划的框架内 美联储RAMP,这使得联邦政府能够使用云服务。该公司还表示,其技术是与一些联邦机构合作开发的,并参与了涉及敏感数据分析和网络安全的项目。
尽管如此,一些联邦机构很快开始终止与该公司的关系。
那里 总务管理局 值得注意的是,Anthropic 从其为政府提供技术服务的平台中删除了,而其他政府已暂停使用其模型。当国防部向实验室发出最后通牒,要求其接受新的使用条款时,争端升级
然而矛盾的是,政府决定规定 Anthropic 的服务可以继续使用 长达六个月的过渡期,主管部门迁移到其他提供商的时间。
对于 Anthropic 来说,潜在的经济影响是相当大的。该公司在诉状中声称,美国政府采取的措施可能会危及公司的利益。 短期收入数亿美元。
该公司强调,除了与联邦机构直接签订合同外,许多与美国政府合作的工业合作伙伴和供应商可能被迫暂停或终止合作,以避免任何监管风险。
人工智能进入军事技术综合体
除了合同冲突之外,该事件还说明了更广泛的发展:人工智能快速融入军事系统。
像 Claude 这样的人工智能模型可以配置为以所谓的“代理”方式运行,即以更大程度的自主性执行某些任务,例如搜索信息、分析数据库或执行代码。这些功能对于寻求加速处理不断增加的操作数据的国防机构特别感兴趣。例如,Anthropic 表示,它已经为国家安全机构开发了特定版本的模型,能够处理机密信息并分析来自网络安全或情报的数据。
在此背景下,人工智能实验室正逐渐成为各国关键基础设施的潜在供应商。
该投诉还强调,一些美国政府官员已经认识到 Anthropic 技术的战略重要性,一些人甚至将该公司描述为人工智能领域的“国家冠军”。
AI行业的先例
无论 Anthropic 的诉讼结果如何,该案都可能为人工智能行业树立一个重要的先例。
诉状称,美国当局明确批评该公司维持他们认为“意识形态”且不符合国防需求的限制。
相反,Anthropic 认为,其决定属于其公开表达其对其系统的技术限制及其产品的使用条件的立场的权利。
对于该公司来说,这个问题远远超出了合同纠纷的范畴,还涉及技术公司定义自身技术使用限制的能力,包括在军事应用方面。
在这两种情况下,这一事件都标志着该行业的深刻演变。人工智能实验室不再只是科技公司。他们成为工业和地缘政治参与者,其决策可以影响国家之间的战略平衡。
核心问题不再仅仅是模型的力量问题。现在是权力的问题:谁控制人工智能的基础设施并决定其用途?