当人工智能是军事行动中的决定性因素时,出现了一条战略裂缝线:反对 全球商业参与者开发的通用模型,通常是北美人 主权系统,本地为关键和安全用途设计。这种技术张力在平民领域已经可见,在战略自治,敏感数据的安全性和运营可靠性的辩论中成为核心。
主权作为战略当务之急
在国防领域,信心没有颁布。它建立在受控的基础架构,透明模型以及审核过程中每条关键行的能力上。对于军队, 在运营压力时,使用既不是受控培训,数据也不是行为的AI是主要风险。
法国,穿过人工国主情报部长局(AMIAD),已经指出,需要封闭的系统,该系统对在安全的军事云中托管的敏感数据进行了培训。目的是确保AI用于识别目标,指导射击或分析威胁, 或不自愿地不受外部演员的影响或妥协。
双重使用的仿制药的限制
由Openai,Google,Anthropic或Mistral开发的主要基础模型(LLMS)基于全球培训的一般数据语料库。他们的力量是不可否认的。但是在军事背景下,这些模型提出了几个 关键风险 ::
- 推理的不透明度 :这些模型像黑匣子一样工作。但是,军事决定需要可追溯性和解释性。
- 结构依赖 :根据出版商的规则,日历和他的政治选择,更新是由出版商运营的。真正的控制逃脱了最终用户。
- 切割的风险 :如果发生地缘政治紧张局势,外国供应商可能会中止其服务或限制其敏感用途。
- 数据污染 :对开放数据的培训暴露于偏见,缺陷或上游操作。
建立信任的AI:安全性,特异性,可审核性
相反,主权AI基于三个支柱:
- 总价值链控制 :从选择建筑模式到培训模式,包括住宿。
- 对分类或高增值数据进行培训 :由情报服务,武器系统或安全合作伙伴生产。
- 连续审核能力 :检测模型行为的任何漂移,偏置或改变。
该AI并不是要在总体表现中击败商业模型。她针对一个 操作鲁棒性,行为稳定性和战略性可靠性。
互操作性与联盟:作为协作因素的信心
现代军事行动很少是国家。他们是联盟的一部分。 共享AI系统涉及共享信任标准。
德国人的AI在法国护卫舰上使用,是一种整合到北约行动中的西班牙模型:许多需要共同标准的情况, 共享认证和交叉检查机制。这种对一致性的需求加强了对状态发展兼容但受控模型的压力。
真正的危险:失去对基础的控制
正如人类技术基金会总裁埃里克·索比尔(Eric Salobir)回忆起的那样 控制着基础模型的人控制AI金字塔的基础。 欧洲是通用模型的战略延迟。但是在辩护中,它可以通过反向逻辑进行补偿: 创建专业模型,减少但坚固,本地主权和可审计。
该策略涉及审查供应过程,优先考虑对安全基础设施的投资,并促进军队,工业和国家实验室之间的长期合作伙伴关系。
性能还不够,有必要掌握
在军事领域, 技术优势不能建立在无法控制的基础的系统上。在网上获得的全地形AI的幻觉,没有政治或战略成本,与现代战争的要求不相容。自信之战不是从计算的力量中获得的,而是从解释,掌握和假设机器做什么的能力 – 尤其是当它在人类的位置做出决定时。