和核武器一樣,作為一種極其有效卻又極其危險的戰略武器,軍事人工智能的治理在國際安全領域已然成為一個日益緊迫的議題。然而作者並未簡單斷言核武器與軍事AI完全相同,而是巧妙地構建了一個基於核武器軍控歷史經驗的三維分析框架,用以審視軍事AI軍控的機遇與陷阱。這三個維度構成了文章的核心研究思路和邏輯鏈條:
文章首先挑戰了“技術決定論”的悲觀敘事,即認為軍事AI等具有重大戰略優勢的技術的擴散和軍備競賽不可避免。通過深入剖析核武器擴散史,作者揭示了令人驚訝的事實:自1960年代以來,核擴散遠非預想中的“野火燎原”,而是呈現“冰川式”的緩慢蔓延。儘管多達56個國家曾具備發展核武器的理論能力,但最終只有10個國家成功擁核,9個國家現存核武庫。驅動國家放棄核選擇的因素遠非單一的安全考量。
傳統現實主義認為國家發展核武是應對安全威脅,即抵消常規劣勢或對抗敵國核計劃。然而,安全關切常被用作決策的事後合理化理由,且無法充分解釋許多國家(如巴西、阿根廷、南非、利比亞、烏克蘭)最終放棄核計劃的現象。對此,作者提出兩個解釋模型用以補充。其一為國內政治模型。國內行為體基於各自的官僚或政治利益,形成支持或反對核武器擴散的聯盟。例如,印度在1964年中國核試驗後並未立即加速核武計劃,而是經歷了長達十年的官僚博弈;巴西和阿根廷則在自由化政權上台後,在傾向融入全球經濟的聯盟推動下放棄了核野心,認為相關防務項目造成“浪費資源”。其二為規範模型。國際和國內規範發揮着關鍵作用。全球性的“核禁忌”以及以《不擴散核武器條約》(NPT)、《全面禁止核試驗條約》(CTBT)為代表的國際法律文書,構建了強大的反擴散規範框架。這些規範通過國際機製發揮作用,成為協調多邊制裁或獎勵的“謝林點”(Schelling Point)。更重要的是,它們能滲透到國內政治層面,傳播不擴散的規範、利益和認同,從而影響國內政治偏好,增強國內反擴散聯盟的力量。即使在不自由國家,精英也可能內化“遵守條約義務=成功國家”的規範,或出於維護國際聲譽的需要而選擇遵守。
在這一分析框架下,軍事AI軍控具備可行性,安全關切雖是誘因但非決定性因素。首先,強化國內反對特定高風險軍事AI擴散的聯盟是影響國家決策的有效途徑。值得注意的是,由於軍事AI的效益線性增長、附帶民用價值、聲譽成本較低,其吸引力可能更加廣泛,同時在某些高對抗性領域(例如空戰AI)可能存在“贏家通吃”效應,因此亦需降低次優能力開發的動力,為精準干預提供可能。其次,塑造規範至關重要。當前公眾輿論在多數國家普遍反對“殺手機器人”,但其支持率高度依賴特定具體情境。因此需利用國際機制和精英或專家社群推動規範制度化。但由於AI應用廣泛、異質性強,“紅線”模糊,針對軍事AI的“禁忌”可能不如核禁忌那般強大和統一。故倡導者需超越“殺手機器人”的狹隘焦點,關注更廣泛的倫理、安全、穩定性風險。
文章探討了“自下而上”通過專家共識推動軍控的可能性,並以1972年《反彈道導彈條約》(ABM Treaty)的成功談判為典型案例。作者引入“認知共同體”(Epistemic Community)概念:一個由擁有政策相關領域權威知識的專家組成的網絡,他們共享專業知識、因果信念、規範性信念(關於該領域人類福祉)以及共同的政策項目。在此基礎上,ABM條約證明,早期組織起來並形成共識的國家級認知共同體,在風險尚處理論階段時便可框定政治討論、影響政策走向,甚至為敵對國家間的雙邊軍控鋪路。早期行動具有“時間溢價”,能在關鍵行為體將特定AI武器納入戰略核心前設定話語框架。與此同時,認知共同體的影響具有歷史偶然性和脆弱性:其進程緩慢,易受政府更迭或國際氛圍突變影響。更關鍵的是,當前針對軍事AI的認知共同體尚不成熟。儘管科技界存在反對軍事化的行動,如致聯合國公開信、谷歌員工抗議,但專家群體在地理和觀點上高度分散,缺乏像當年反對ABM那樣接近90%的專家共識,距達成有效共識的門檻還有一段距離。
文章提出了一個更為悲觀的論點,直指當前軍事AI治理(尤其針對自主武器)核心原則,認為所謂“有意義的人類控制”存在內在局限性。作者援引社會學家查爾斯·佩洛(Charles Perrow)的“正常事故理論”和卡爾·薩根(Carl Sagan)對核武器事故史的研究,通過系統視角總結出核武器易發災難性事故的關鍵操作特徵。核武歷史表明,對於具有高交互複雜性和緊密耦合性、在競爭環境中由多目標組織運營的技術,災難性事故級聯難以避免。而未來軍事AI系統的規模、互聯性和應用場景的複雜性,將遠超核指揮控制系統。同時,對抗背景下強調速度、先發制人,因而存在巨大誤判空間。戰場AI需基於不完整、混亂的數據決策,追求對抗AI的反應速度,這極大增加了AI系統間意外交互或事故級聯的風險,可能導致類似金融“閃崩”的“閃電戰”。故作者認為,在易發“正常事故”的複雜、緊密耦合、網絡化的軍事AI系統中,以及人類操作員易受“自動化偏見”影響的情況下,“有意義人類控制”的承諾在實踐中往往是虛假的,無法作為確保安全的可靠基石。當前認知共同體聚焦于禁止或限制“殺手機器人”的倫理或法律訴求,可能已在兩個方面出現“脫靶”:一是忽視了更廣泛的軍事AI系統所構成的重大風險;二是過度信賴“人類控制”這一本身在複雜系統中就不可靠的方案。
綜合上述分析,作者對軍事AI國際軍控的可行性得出審慎樂觀且具實踐指導意義的結論:軍控具備可行性,但非易事。 儘管存在對AI軍備競賽的普遍擔憂,但核武器管控的歷史表明,涉及戰略吸引力技術的軍備競賽是可以被減緩、引導甚至遏制的,AI軍備競賽並非不可避免的命運。因此,在塑造國內政治聯盟、國際約束性規範之外,全球軍控努力亦需關注遠超動能自主武器之外的廣泛軍事AI應用,綜合運用歷史上驅動軍控的四大理據——不僅包括倫理和合法性,更要突出戰略穩定性和操作安全性。這種組合策略能提供對國內不同政治行為體更具說服力的論點,更利於規範傳播和制度化,並針對軍事AI帶來的全譜系風險。
本文的核心創新與貢獻在於其深刻的跨學科視角和歷史比較方法論。作者通過運用類比框架,系統性地將核武器這一經典軍控案例的經驗教訓提煉並應用於新興的軍事AI治理領域,為理解AI軍控的獨特挑戰與潛在路徑提供了堅實的歷史基礎和結構化分析工具。這種深度的歷史比較在AI治理研究中尚屬前沿。同時本文不僅停留在理論分析,更明確指出當前治理努力的盲點,並提出了具體的轉型方向,對政策制定者和倡導者具有直接參考價值。
然而,該研究依舊存在一定局限與不足。本文對非國家行為體影響評估有限,雖然提到私營部門在AI創新中的關鍵作用及其對治理的影響,但對於非國家行為體獲取或濫用軍事AI技術帶來的獨特挑戰及其對軍控有效性的影響討論相對簡略。此外,文章量化實證支撐相對薄弱,對規範影響、認知共同體效能等關鍵機制的論證主要依賴歷史案例分析和定性研究,缺乏更系統的量化數據進行更精確的支撐。
總體上,本文最重要的啟示在於破除了軍控領域的宿命論:面對強大的顛覆性技術,國際社會並非束手無策。通過主動塑造規範、構建專家共識、設計針對性機制,可以有效管理和降低軍事AI帶來的全球性風險。在其基礎上,未來研究可以深化對特定軍事AI技術的安全漏洞、事故模式等的探索,同時將非國家行為體進一步納入治理框架,為理解軍事AI國際軍控的複雜圖景提供更深層次的闡述。