五角星电影

军事报道

军事AI领域中美对话,美国盯技术,中国看战略互信,双方同意“最低限度合作”

时间: 2025-11-30 来源:

美国布鲁金斯学会(Brookings)和清华大学战略与安全研究中心(CISS)联合发布了一篇报告:《军事领域人工智能治理的推进路径》,是 “中美人工智能与国家安全二轨对话”的核心成果,简单说就是“非官方但有官方背景的对话”。通过报告,中美在军事AI治理上的不同思路一眼可见:美方更关注“怎么从技术上拦住危机、怎么排风险优先级”;中方则从大的战略角度说“最根本的问题是政治关系的紧张,互不信任才让技术风险变严重”。

(一)解决AI军事危机,美方盯技术漏洞,中方看战略互信

军事 AI 危机(AI-powered military crisis)这个概念是美方提出的:

军事 AI 危机,是指因军事 AI 系统发生技术故障,或政府以挑衅、危险方式运用军事 AI 而引发的国家层面军事互动,这类事件会沿着 “启动 — 行动 — 效果 — 回应” 四个阶段逐步演进。

现在,军事 AI 已应用到情报侦察(ISR)、指挥控制、武器投送这些领域,美方最担心的是技术层面出问题,比如算法 “黑箱”(就是算法怎么决策的,人看不懂)出错、数据偏差,甚至自然界干扰信号。

美方的核心想法是:AI判断错误可能是毫秒级的事,国家说不定没反应过来就陷入“危机螺旋”,越应对越糟,所以要在这些技术节点上设置 “风险缓冲机制”,通过设置决策验证、时间等待等环节,为 AI 误判引发的危机留反应空间,降低冲突升级概率

中方没有否认技术上的风险,但引入了一个叫“安全困境”的理论,意思是“你为了安全搞点动作,别人就觉得不安全,也跟着搞,最后大家都更不安全”。真正的危险是“互不信任”:比如在台海、南海这些敏感地区,美方经常派飞机舰船抵近侦察,这本身就是危机的诱因。要是没有政治互信,双方碰到算法误判,都会往最坏的方向想。

简单说,中方想强调的是:不解决地缘政治的紧张,光修技术漏洞,根本拦不住危机。


(二)先管哪种风险?美方给出“框架化”排序,中方主张“兼顾已成熟技术与新兴技术”

要治理风险,得先搞清楚“哪种风险该优先管”。美方给了三种排序方法:

  1. 风险法:概率×严重性。比如这件事大概率发生,还特别严重,就先管;
  2. 场景数量法:计算每个领域可能出危机的场景有多少,场景多的先管;
  3. 技术成熟度法:看技术离实际部署有多近,快能用的先管。

美方其实是想靠这套分析框架,主导“高风险议题界定”的话语权。

中方认为这样做有局限,比如“风险法”里的“概率”,现在根本没有足够的实战数据计算准确;“技术成熟度法”可能漏了那些“看起来不成熟,但技术取得突破式发展,所以能突然投入应用”的技术。

所以中方提出了更灵活务实的 “兼顾型思路”,把“近期成熟的技术”和“新兴技术动态监控”结合起来,既抓眼前已部署的系统,也不放过未来可能有颠覆性发展的技术。我们不被动遵循美方的排序框架,而是既盯着当下已成熟、已部署的技术风险,也不放松对新兴技术的动态监测。

(三)军用AI与民用AI深度绑定,难以完全区分

其实不管是美方的框架化风险排序,还是中方的兼顾型方案,都绕不开一个关键前提:军事 AI 和民用 AI 无法完全分开,这种绑定直接影响着风险排序的落地效果和治理难度。

从技术流动来看,军用AI和民用AI是“互相帮衬”的关系:

  • 民用AI给军事领域铺路,比如互联网、医疗领域里成熟的大数据分析、图像识别技术,用到军事侦察的目标识别和情报处理上,一下就提高了作战效率;
  • 军事AI的需求也倒逼民用技术升级,我们国内有些军工企业把军事数据治理技术做深做透后,开发出能服务民航调度、制造业优化的民用AI方案;美军则直接资助谷歌、OpenAI这些科技公司,把商业AI的算法用到军事卫星影像处理、情报生成这些场景里。

   但这种绑定也带来了区分的难题,体现在两方面:

  1. 军民应用分不清,同一个AI模型,既能帮快递公司规划送货路线,也能给军事导弹设计飞行轨迹;
  2. 装备属性分不清,民用无人机稍微改改技术,就能用来军事侦察,光看外观或参数根本辨不出来。
  3. 更棘手的是,AI技术门槛不算高,恐怖组织这类非国家行为体可能拿民用AI工具搞破坏,让风险从民间传到军事领域,因此“只盯着军事装备管”的传统思路就不管用了。


(四)美方提出“无悔措施”构建军事AI互信

正因为军用和民用AI难以区分,而且区分过于透明可能泄露军事机密,所以美方提出了“无悔措施”(No-Regrets Measures),意思是进行最低限度的合作,不管最后合作怎么样,做这些事都不亏,还能获取信任,具体包括:

  1. 联合制定“军事AI故障分类体系”,国家之间对故障的定义和说法要统一,免得发生危机后有认知差异,双方各说各的,越吵越乱;
  2. 交换 AI 在情报侦察、指挥控制等系统中的测试、评估、验证与确认(TEVV)原则及流程文档(不含源代码),在不泄露核心技术的条件下,提升治理透明;
  3. 建立“和平时期军事演习通报机制”,进行高危演习之前提前告知对方,比如无人机蜂群协同突击、无人潜航器集群演练,还有 AI 辅助的联合火力打击演习。这些演习要么涉及大规模自主系统,要么依赖 AI 快速锁定目标,容易被误判为实战攻击。
  4. 不拿AI干扰对方核指挥通信(NC3),给核领域的AI应用划条不能碰的红线。
  5. 中方对这些措施的态度是“谨慎着来,但不拒绝”:认为演习通报、统一故障说法这些事能减少误判,但必须守住军事机密的底线;尤其认可“核领域AI不能乱⽤”,这是中美战略稳定非常重要的一点,应当成合作的优先项。


(五)对于军事AI技术治理,中方提出“分级管控+可追溯记录”

针对军事AI技术具体怎么管的问题,中方给出了既专业又有实操性的解决方案,核心有两件事:

一是在风险追溯上,按照AI的故障是否能被人理解,建立两种记录方式:

  • 对于人类可以理解的故障,比如算法缺陷、数据偏差、传感器断开等问题,建立 “可解释故障日志系统”,按 “故障类型 — 影响范围 — 处置措施” 分类记录。
  • 对于人类不能理解的故障,推行 “黑箱异常决策评估报告制度”。比如对自主无人机误识别目标、导弹防御系统漏判威胁这些不可解释的决策偏差,定期生成评估报告,区分这些故障是模型固有的,还是来自外部因素干扰,为后续技术优化提供依据。
  • 二是在人机协同上,提出“分领域分级管控”,拒绝一刀切的治理模式:
  • 关键领域必须人说了算:比如核指挥控制、用致命武器打击目标,必须用“人在回路(HITL)”,也就是“人类全程参与决策”,或“人在回路上(HOTL)”也就是“人类可干预决策”架构,确保责任归人,也符合国际人道主义法的要求;
  • 非致命领域可以让AI多干点:比如非致命的情报侦察、后勤保障(比如运物资),可以慢慢过渡到“人在回路外(HOOTL)”,也就是“AI自主决策”,在保证可靠性的前提下,这样能提效率,还不会直接造成致命后果。


(六)在中美军事AI治理上,中方强调先重建政治互信,再谈技术

报告最后,中方说明了中美军事AI治理宏观上的障碍:美方把AI领域的竞争定义为“零和博弈”,通过“小院高墙”式技术封锁、拉小圈子构建排他性技术同盟、限制出口等措施,遏制我国 AI 发展。这些行为让原本互联互通的全球技术研发,被分割为多个相对封闭的区域化、阵营化体系,导致技术流动受阻,进一步削弱了双方合作的基础。

对此,中方提出了三层思路:

  • 重塑竞争认知,推动双方将军事 AI 领域的互动从 “零和对抗” 转向 “可控竞争”,在承认技术差异的基础上寻求风险管控共识;
  • 确立安全红线,明确 “禁止用 AI 攻击对方核指挥控制体系”、“禁止将民用 AI 改造为致命性军事工具” 等禁忌规范,通过底线共识减少误判;
  • 完善多边机制,依托联合国框架推动全球军事 AI 治理规则统一,避免区域化标准导致的治理碎片化,同时协助发展中国家提升 AI 安全治理能力,缩小全球数字鸿沟与技术治理能力差距。
  • 一 END 一


版权所有:五角星电影制片有限公司
地址:北京市海淀区北四环西段万泉河路46号
电话:13718690570 / 01066736920
©京ICP备2023009986号-1
邮箱:pentagramfilm@163.com