情况似乎已经稳定下来,Anthropic 的模型是联邦机密环境中少数获得授权的模型之一,它继续与美国国防部 (DoD) 进行讨论,以期重新谈判合同。起初,结果似乎是开放的,但争议的核心并不是授权使用的范围。
具有更广泛轮廓的重新谈判
根据几位接近讨论的消息来源报道的信息,特别是彭博社和哥伦比亚广播公司的报道,五角大楼希望修改管理人择模型使用的条款。有两个主题集中了紧张气氛。
第一个涉及对收集的有关美国公民的大量数据进行分析。这不仅仅是外部情报,而且可能包括搜索历史、与对话助理的交互、地理位置数据或金融交易、与其他行政或商业基础的交叉引用的数据。
人类会认为这个范围超出了它为自己设定的限制。该公司在其使用条款中明确包含了针对大规模国内监控的限制。国防部则希望保留更灵活的表述,为作战解释留出空间。
🚨 智能工作
- 背景 – 人力资源总监 – 人力资源总监
- 综合理工学院 – 国际关系主任/副主任(F/M)
- CLAROTY — 销售开发代表
- CURE51 — 数据科学家(实习)
- FRACTTAL — 客户经理(法国)
- BRICKSAI — 创始增长经理
👉 在 DECODE MEDIA 招聘板上找到我们所有的职位
📩 您正在招聘并想加强您的雇主品牌吗?发现我们的合作伙伴优惠
第一个分歧在这一点上具体化。
自主武器:意识形态上的分歧多于技术上的分歧
第二个主题是自主武器系统。美国 2026 财年这些项目的预算超过 130 亿美元。它涵盖单独的无人机、协调的集群和其他能够在没有直接人工干预的情况下选择和攻击目标的平台。
人类不会对这些程序的原则提出异议。阻碍点是公司的经理会认为他们的模型尚未达到足够的可靠性水平,无法集成到致命的决策循环中。
然而,我们会考虑一种折衷方案,即限制模型在云端的使用,不将它们直接集成到现场运行的嵌入式系统(称为“边缘”)中。这些模型可以为上游分析做出贡献,而无需干预承诺决策。
人类会认为这种区别是不够的,因为在当代军事架构中,云和边缘之间的界限正在模糊。系统在互连网络中运行,远程计算能力可以近乎实时地影响操作。该公司表示,从功能角度来看,这种分离并不能保证责任的明确分离。
僵硬的政治背景
这些讨论是在特定的制度氛围下进行的。特朗普政府强调加强技术主权和行政部门在安全事务上的更大自由度。华盛顿与大型科技公司之间的关系经历了合作阶段,但也经历了紧张阶段,特别是当后者反对联邦机构使用限制时。
在此背景下,国防部希望获得更灵活的承诺是能力优化逻辑的一部分。对于五角大楼来说,先进的人工智能模型是力量倍增器。操作回旋余地是一个战略参数。
对于 Anthropic 来说,这些相同的模型代表了系统性责任。该公司建立在“设计安全”的原则之上,从设计阶段就整合了保障措施。放弃某些条款相当于重新定义其定位。
具有连锁反应的突破
谈判失败导致合同关系中止。据报道,国防部已要求其合作伙伴和承包商停止与 Anthropic 的合作。这一决定事实上间接影响了更广泛的生态系统,包括亚马逊等云基础设施提供商。
与此同时,OpenAI 宣布了与五角大楼的单独协议。该公司明确表示其模型将部署在“云端”。 OpenAi 员工也会表达他们对与 Anthropic 所捍卫的红线相当的依恋。