人类在循环中的幻想:AI在军事决定中的真正改变

在现代学说中,人类在决策中的存在应该保证对军事行动的道德和战略控制。但是,随着人工智能系统提高速度,精度和自主权,这一承诺会崩溃。人类在最终仲裁员位置的幻想掩盖了朝着对算法的依赖的无声转变,其逻辑有时超过了命令。

比人更快的循环

当代军队不再仅仅在火的优势方面理由,而是 执行速度。由约翰·博伊德(John Boyd)上校对著名的Ooda循环(观察,定向,决定,表演),在AI掺杂的分析工具的效果下加速了。谁完成的人更快地混乱了对手,赢得了上升和胜利。在这个逻辑中, 限制因素成为男人本人

AI AI定位系统,例如 小牛 在美国,大大减少了对威胁的发现与中和之间的时间。人类的角色越来越多地总结 明确验证 机器发出的提案。当该算法宣布一种选择权的成功率为90%,而另一个方案则是另一个选择,而自由意志将成为正式。人类的决定仍然存在,但 真正的相关性已经被妥协

已经过滤的信息

人类“控制中”的神话是基于原始信息的假设,然后分析,然后转化为决定。金子, 整个信息链现在由自动化系统预先授予 :雷达,传感器,无人机,GIS系统,预测模拟。人类咨询界面,增加的卡,相关表 – 所有这些都是由AI生成的,它们选择,优先考虑,有时是解释。决策者看到的是 已经是算法结构

作为回报,他的订单通过数字系统,这些系统本身可以修改,翻译或优化说明。在系统出口和系统出口处的人类行动是 介导,监督,编码。这种观察并不意味着擦除人类,而是 决策过程中的贬义

弱势论证

面对机器冷漠的人类道德的论点通常是为了证明人在循环中的存在是合理的。然而, 机器尚未犯下战争犯罪。所有人都是男人。人类远非理想的道德代理人,受到偏见,情感,政治或战术压力的影响。

此外,与机器相处的困境很少被放置给人类。我们可以容忍人类的不完美,而无需在结构上质疑它。相反,丝毫算法误差触发了根本性的质疑。双重道德标准成为战略障碍。

不稳定的责任架构

直接人类干预的渐进性擦除也使责任问题变得复杂。如果自主系统犯有毛刺,谁会承担故障?软件设计师?数据供应商?尚未取消订单的操作员?验证部署的命令?没有链接可以清楚地识别。责任链是 技术体系结构稀释,冒着不可能使问责制的风险。

这种法律不稳定更为关键 国际人道主义法,这要求每个军事行动都可以根据比例,区别和必要性来判断。

道德遗弃的诱惑

随着战争在政治上变得越来越昂贵 – 由于无人机,机器人化和缺乏人类损失,陷入冲突的诱惑也增加了。如果一支军队能够迅速袭击,而无需派士兵,而不必证明每一次人类损失是合理的, 订婚的心理障碍。 AI不仅是一种战争工具 修改了决策的政治经济学

这正是军事伦理学专家恐惧的专家:对武力的使用的微不足道,由决策者的身体和道德距离促进 – 制定者,他们并不总是理解其工作原理。

通过设计控制

面对这些风险,探索了几条曲目。最强大的是整合道德 系统设计 (设计):算法的透明度,决策的解释,可审核性,可追溯性。除此之外,还需要在数字文化中为军事经营者培训,以便 人类的决定仍然被告知,有意识和控制

像这样的倡议 国防伦理委员会,在法国或欧洲国防机构建立共同标准的努力,朝这个方向发展。但是,面对没有相同学说和相同顾虑的国际竞争对手,他们仍然脆弱。

留在循环中还不够

人类在军事决定中的存在 – 今天是一个 政治当务之急,而不是运营现实。 AI消除了战争条件,重新定义了行动的时间性并稀释了责任。保持控制的幻想而不适应我们的学说将构成 混淆界面和主权。保留“在循环中”的股份不会那么多,因为 控制该循环运行的条件