美国布鲁金斯学会(Brookings)和清华大学战略与安全研究中心(CISS)联合发布了一篇报告:《军事领域人工智能治理的推进路径》,是 “中美人工智能与国家安全二轨对话”的核心成果,简单说就是“非官方但有官方背景的对话”。通过报告,中美在军事AI治理上的不同思路一眼可见:美方更关注“怎么从技术上拦住危机、怎么排风险优先级”;中方则从大的战略角度说“最根本的问题是政治关系的紧张,互不信任才让技术风险变严重”。
(一)解决AI军事危机,美方盯技术漏洞,中方看战略互信
军事 AI 危机(AI-powered military crisis)这个概念是美方提出的:
军事 AI 危机,是指因军事 AI 系统发生技术故障,或政府以挑衅、危险方式运用军事 AI 而引发的国家层面军事互动,这类事件会沿着 “启动 — 行动 — 效果 — 回应” 四个阶段逐步演进。
现在,军事 AI 已应用到情报侦察(ISR)、指挥控制、武器投送这些领域,美方最担心的是技术层面出问题,比如算法 “黑箱”(就是算法怎么决策的,人看不懂)出错、数据偏差,甚至自然界干扰信号。
美方的核心想法是:AI判断错误可能是毫秒级的事,国家说不定没反应过来就陷入“危机螺旋”,越应对越糟,所以要在这些技术节点上设置 “风险缓冲机制”,通过设置决策验证、时间等待等环节,为 AI 误判引发的危机留反应空间,降低冲突升级概率。
中方没有否认技术上的风险,但引入了一个叫“安全困境”的理论,意思是“你为了安全搞点动作,别人就觉得不安全,也跟着搞,最后大家都更不安全”。真正的危险是“互不信任”:比如在台海、南海这些敏感地区,美方经常派飞机舰船抵近侦察,这本身就是危机的诱因。要是没有政治互信,双方碰到算法误判,都会往最坏的方向想。
简单说,中方想强调的是:不解决地缘政治的紧张,光修技术漏洞,根本拦不住危机。
(二)先管哪种风险?美方给出“框架化”排序,中方主张“兼顾已成熟技术与新兴技术”
要治理风险,得先搞清楚“哪种风险该优先管”。美方给了三种排序方法:
美方其实是想靠这套分析框架,主导“高风险议题界定”的话语权。
中方认为这样做有局限,比如“风险法”里的“概率”,现在根本没有足够的实战数据计算准确;“技术成熟度法”可能漏了那些“看起来不成熟,但技术取得突破式发展,所以能突然投入应用”的技术。
所以中方提出了更灵活务实的 “兼顾型思路”,把“近期成熟的技术”和“新兴技术动态监控”结合起来,既抓眼前已部署的系统,也不放过未来可能有颠覆性发展的技术。我们不被动遵循美方的排序框架,而是既盯着当下已成熟、已部署的技术风险,也不放松对新兴技术的动态监测。
(三)军用AI与民用AI深度绑定,难以完全区分
其实不管是美方的框架化风险排序,还是中方的兼顾型方案,都绕不开一个关键前提:军事 AI 和民用 AI 无法完全分开,这种绑定直接影响着风险排序的落地效果和治理难度。
从技术流动来看,军用AI和民用AI是“互相帮衬”的关系:
但这种绑定也带来了区分的难题,体现在两方面:
(四)美方提出“无悔措施”构建军事AI互信
正因为军用和民用AI难以区分,而且区分过于透明可能泄露军事机密,所以美方提出了“无悔措施”(No-Regrets Measures),意思是进行最低限度的合作,不管最后合作怎么样,做这些事都不亏,还能获取信任,具体包括:
(五)对于军事AI技术治理,中方提出“分级管控+可追溯记录”
针对军事AI技术具体怎么管的问题,中方给出了既专业又有实操性的解决方案,核心有两件事:
一是在风险追溯上,按照AI的故障是否能被人理解,建立两种记录方式:
(六)在中美军事AI治理上,中方强调先重建政治互信,再谈技术
报告最后,中方说明了中美军事AI治理宏观上的障碍:美方把AI领域的竞争定义为“零和博弈”,通过“小院高墙”式技术封锁、拉小圈子构建排他性技术同盟、限制出口等措施,遏制我国 AI 发展。这些行为让原本互联互通的全球技术研发,被分割为多个相对封闭的区域化、阵营化体系,导致技术流动受阻,进一步削弱了双方合作的基础。
对此,中方提出了三层思路: