AI 不只改寫市場,也成為戰略工具。當演算法介入金融制裁、資產操控與資訊戰,國與國之間的安全平衡進入全新博弈:預測成為武器。
任何過分信賴,都可能摧毀彼此假定自己或對手會理性思考,是相互保證毀滅的基石,任何會扭曲或者降低對理性的依賴,都可能是不穩定的因素。明顯引發不穩定的案例,在攻擊鏈中都包含了非理性的行為者,例如伊朗的什葉派領袖。AI /GPT 也可能帶來類似的因素。
1983年,一場核戰差點爆發。不是因為飛彈升空,也不是因為錯誤命令,而是一套電腦模型的預測:VRYAN。這是蘇聯KGB開發的系統,用來計算美國發動核子第一擊的可能性。根據數萬筆資料,VRYAN計算出:蘇聯只剩下45%的「戰略安全比率」。這意味,美國可能會選擇先發制人。
就在同一年,美軍發起「優秀射手」軍演,模擬核武部署與反擊。蘇聯高層陷入恐慌,開始懷疑這是掩護真實攻擊的行動。而VRYAN的模型預測正讓這個猜疑變得更具「科學依據」,致使戰爭一觸即發。
危機最終解除,不是因為VRYAN失準,而是因為一名蘇聯軍官佩魯茨違反了程序。他拒絕升級軍備,憑直覺做出冷靜判斷。沒有依模型行事,反而避免了一場核戰。
AI不懂虛張聲勢,只懂升級風險
AI/GPT系統今日已廣泛應用於金融、軍事、外交與戰略模擬。我們信任它們分析複雜資訊、預測風險、建議行動,但我們忽略了一點:AI並不理解人類行為的曖昧空間。
當對手升高軍事態勢只是為了虛張聲勢、創造談判籌碼時,人類或許能感受到背後的不安與試探,選擇不升級。但AI不會有這種判斷。AI看的是資料與模式,進而判定升級行為就是威脅,因此應該升級回應。它不懂得恐懼、虛張、試探、誤解,也不考慮「這可能只是誤判」。換言之,AI的理性可能摧毀我們依賴理性的和平架構,真正的和平基礎,反而是奠基於人類的猶豫、懷疑與延遲。
中美的AI軍備競賽:比冷戰更危險的結構
冷戰時期的美蘇對峙雖然危險,但至少雙方有文化與制度的交集:語言邏輯、宗教背景、外交慣例提供了基本的理解空間。但今天,美國與中國之間幾乎沒有這樣的共通點。雙方彼此理解更少,因此更依賴AI來解讀對方行動。
中國的核彈規模遠小於美國,這讓它更傾向透過AI/GPT模型模擬戰略情境,以補齊在軍事上的劣勢。這種依賴是制度化的:中國的決策由上而下集中執行,對於模型建議更傾向信任與採納。而美國為了不落人後,也加速開發深度演算法與高階軍用AI。雙方陷入了AI升級的軍備賽。
AI的理性會互相激化:一方升級,另一方模型偵測後也升級,雙方在演算法邏輯中自動踩上對峙的加速踏板。這不是理性互信,而是技術邏輯的強化回圈。而這些模型,不懂文化,不理解歷史,不會分辨模糊信號與真實意圖。
不要把發射權交給一個不理解後果的系統
我們不能假設AI會拯救我們。真正阻止戰爭的,從來不是模型,而是那些違反模型的決定。我們應該拒絕讓AI進入攻擊鏈的核心角色。它可以協助分析、模擬與建議,但不應主導判斷。因為AI看不到人類行為的灰階地帶,只會放大我們原本就存在的偏見與誤解。不管是核武、金融制裁或戰略誤判,當我們讓AI在關鍵情境中代替人說「開火」,我們就等於把文明的未來交給一個沒有直覺的系統。
實際上,我不是在批評技術本身。AI是強大的工具,它帶來的高效、正確都是無庸置疑的,但它不該變成我們決定開戰與否的依據。我們已經歷過無數次靠直覺避免的災難——佩魯茨、佩卓夫、甘迺迪與赫魯雪夫,他們都在某個關鍵時刻選擇了延遲與對話,但AI不會做這些選擇。 現在,我們正將這些選擇的權力,交給一套訓練自我們偏誤資料的模型。它不懂人性,卻在主導人類未來。如果AI建議我們攻擊,那麼在那個時刻,我們必須記得:我們不能讓AI的預測成為自我實現的劇本,因為錯誤的決策可以被修正,但核彈不能。