:::

寰宇韜略

【寰宇韜略】人工智慧快速進步 恐影響核戰風險(上)

◎黃文啟(譯)

 人工智慧(AI)在情監偵、目標識別、精準打擊等方面的快速進步,已令外界開始憂心其是否對現有核武戰略平衡構成威脅,從而危及人類生存安全。蘭德公司特別針對此一發展邀集人工智慧與核武安全專家舉行研討會,並提出多項概念性研析結果。本報特摘譯其重要內容,區分上、中、下3部分以饗讀者。

(編按)

 前言

 隨著機器在運算與數據科技加持下,達到甚至超越人類原有工作能力,使人工智慧極可能成為挑起軍備競賽或激化國與國發生危機時引爆核戰的主因。蘭德公司特別針對人工智慧在2040年前的顛覆性力量,邀集人工智慧與核武安全專家進行研討。

 人工智慧發展以及相關資訊科技的進步,已對未來25年的核武安全造成重大影響。其究竟可能持續快速進步,抑或在技術成熟後走入高原期仍無定論。正如某些專家推測機器進步到某個程度後可能會開始自我強化智慧,衍生人類無法控制之「超級智慧體」,但其他專家則不見得認同此種說法。

 儘管未來前景不明,但人工智慧幾可確定將成為人類重要的決策輔助工具,在危機處理等方面發揮廣泛影響。部分專家認為,此種科技很可能在完全發展成熟,或了解其限制前即被融入決策流路。若人工智慧諮詢系統真正精確有效,當然可以降低人類錯誤判斷、大幅提升透明度、降低誤判情勢風險,進而促進戰略穩定。但萬一結果不如預期,抑或敵人以網攻等方式進行破壞,其後果則十分堪憂。

 故在多極世界中,重新檢討嚇阻理論之基礎要件攸關未來數十年戰略穩定能否確保。人們必須思考如何迎接人工智慧科技所衍生之各種快速演進能力,方可確保嚇阻之有效性。其中應考量之關鍵事項包含人工智慧實際能力之影響、外界對這些能力實際效用之認知,以及避免在未成熟狀況下運用這些能力。相信在審慎與前瞻思考下,應可確認並降低相關風險。

 核武平衡未來重大改變的徵候

 2015年11月,俄羅斯宣布其正在發展一款可攜帶巨大核彈頭的核動力水下無人載具,堪稱終極「殺手機器人」。西方觀察家認為俄國電視台是刻意外洩此一消息。此種外觀像巨型魚雷的核動力載具,擁有超越任何現役海上武器的速度、航程和防線穿透力。由俄國部署在北極的潛艦發射後,航速高達100公里,可自動迴避敵軍反潛防禦,並在美軍發動摧毀克里姆林宮的核第一擊後,對美國海岸投射致命酬載。

 發展核水下無人載具再次證明俄國領導人憂心其報復性武力,無法有效反制美軍毀滅性戰力與飛彈防禦。在同類戰力無法抗衡的條件下,俄羅斯希望運用人工智慧確保其可恃核嚇阻戰力。克宮當局積極發展人工智慧之軍事用途,應能於2040年之前達成目標。此舉完全呼應其10年來發展「不對稱反制」抗衡優勢美軍戰力的戰略。

 此種系統是一項明確警訊,顯示科技進步可能削弱核武強權的安全感,迫使其尋求全新武器系統和兵力部署,以挽救其核嚇阻力量。這些世人不熟悉的戰略遠不如美蘇冷戰那樣穩定,而不穩定則會提升核戰爆發之可能性。但其風險高低主要取決於人工智慧衍生各種核武攻防方式的進展速度。

 評估人工智慧潛在影響力之理論與歷史背景

 冷戰時期,美蘇2國的相互毀滅保證(MAD),遏阻了雙方同時遭到摧毀的末日式報復攻擊。但相互毀滅保證只是一種條件而非戰略,以相互脆弱降低全面爆發核戰的可能。雖然其能嚇阻蘇聯對美國發動先制核攻擊,但亦削弱了美國捍衛北約歐洲盟國承諾的有效性。因為華府若完全依賴相互毀滅,蘇聯便能利用其傳統軍力優勢入侵西歐,導致美國面臨屈服或發動全面核戰的兩難抉擇。因此,美國戰略家與政府官員才會發展出一套所謂「保證報復」準則,針對所有可能挑釁行為律定不同報復手段,藉此有效嚇阻敵人的小規模到全面性攻擊。數十年冷戰的「抵消性戰略」,美國的報復讓敵人相信任何攻擊皆無法達到其目標,發揮遏阻侵略的效果。

 核武戰略並非僅限於嚇阻而已。嚇阻係運用報復性威脅手段遏阻敵人攻擊自身及盟國,概可區分為核心嚇阻(針對某國本土)及延伸嚇阻(針對戰略夥伴)等2種。核戰略真的複雜挑戰就在於如何保證延伸嚇阻能發揮效果。冷戰期間,美國屯儲大量戰略與戰術核武,就是要讓盟邦相信其以核武報復蘇聯對歐洲發動任何傳統攻擊的意願。如同當年英國國防大臣希利所言,「美國嚇阻俄國人只使用報復手段5%的可信度,但讓歐洲各國安心卻用了95%」。但美國大量的核武卻讓蘇聯領導人高度疑懼這些核彈是對方的第一擊手段。結果也促使蘇聯跟著發展大量核武。

 戰略穩定植基於敵人缺乏發動挑釁行為的重大誘因,可區分為「第一擊穩定」、「危機穩定」、「軍備競賽穩定」等不同層次。「第一擊穩定」是所有國家向其對手發動攻擊時都得憂心遭到對方毀滅性報復。因此最佳嚇阻手段是有效第二擊的壓倒性與反射性報復。相較之下,「危機穩定」則是在危機發生時避免或控制局勢升高,諸如1960年代的柏林和古巴危機。在此類例證中,各國領導人都有退讓即是示弱的龐大壓力,但也因而造成各國使用核武宣示訴求時,大幅增加意外升高局勢的機會。在此種情況下,確保第一擊穩定最有效之反射性大規模報復手段,反而成為引發災難的原因。

 最後,「軍備競賽穩定」則取決於對手軍事戰力方面是否有可資利用的不對等性。各國都會避免這些不對等性,以控制長期競爭之風險與代價,並避免損及未來第一擊穩定和危機穩定。核戰略的困難就在於上述各層次穩定所追求目標皆是彼此衝突。

 人工智慧很難做到削弱相互毀滅保證的條件並使某方可贏得核子戰,但要破壞戰略穩定就沒有那麼困難。此種科技進步只須讓人質疑報復手段在某種衝突層次的可靠度即可。美國、俄羅斯及中共等主要核武強權,都有維持核心嚇阻可靠度的共同利益,但為了追求自身核心戰略利益,必然設法取得區域優勢。在諸如延伸嚇阻保證等方面可靠度已動搖的領域,就非常容易破壞穩定。

 人工智慧對於戰略穩定的挑戰並非此種科技所特有,但由於其技術急遽進步及其與核戰略之諸多潛在重疊,而致其更為迫切。人工智慧多數針對性應用(諸如情監偵資料分析、自主性感測載台控制及自動化目標識別(ATR)等)都能大幅提升遠超越既有科技的能力。即使不再有重大突破,既有人工智慧技術的累積及發展,亦可能使人們長期追求未果的科技在可預期將來實現。

(待續)

友善列印

相關新聞

熱門新聞