:::

寰宇韜略

【寰宇韜略】人工智慧快速進步 恐影響核戰風險(下)

◎黃文啟(譯)

(接上文)

 對於核武安全的預期衝擊

 從核武安全角度,僅有限突破和漸進持續發展有所影響。兩者的進步預期都是人工智慧可以在日益複雜且有限數據任務中遠勝人類能力。各方專家對此種能力影響核武安全的程度可區分以下論點。

 發展飽和派:一般認為人工智慧並不會徹底改變現狀,只會提高效率和透明度。支持這種「發展飽和」的人往往較關切科技議題,而非戰略或政策。值得一提的是,儘管與會人士中有某些世界一流的人工智慧工程師,但其多數更關切人工智慧安全而非自身領域,故而此種觀點較缺乏代表性。發展飽和派人士更相信核戰的複雜程度遠非人工智慧所能大幅改變,因此其幾乎不會對既有平衡造成顯著影響。這派人士主張,數據蒐集和判別真實系統或行動與誘餌的各種挑戰,根本不是人工智慧在2040年以前所能克服。核武危機升高決策過程所涉及複雜資訊斷非人工智慧科技所能勝任。

 杞人憂天派:另一個極端看法則是杞人憂天派,其認為人工智慧將曝露既有系統的弱點,或將嚴重顛覆現有戰略平衡。這派人士包含完全不相信以運算科技下達核武決策的專家。某些與會人士還親身經歷發展相關目標的運算科技計畫。在某些個案中,運算方法的不精確及其無法思考決策之情感與道德面向,讓專家們對於人工智慧與核武議題之重疊性深感不安。杞人憂天派也主張,人工智慧只有在效能極高的狀況下才會破壞穩定。敵人在第二擊戰力可能喪失的威脅下,將被迫採取先制第一擊或擴大其武器數量,而兩者皆非人們樂見的結果。

 陰謀滲透派:第三派處於「自大認知派」與「杞人憂天派」之間的觀點,係基於對人工智慧易受敵對行為攻擊的憂慮。此派觀點並不必然與人工智慧有限進展或應有效而未有效等個案做出相同結論,但其與兩派觀點實則有所重疊。在無數有力證明中,破壞機器學習運算程式等小規模敵意作為效果十分驚人。雖然追蹤與打擊使用之高效能人工智慧極具顛覆效果,且會衍生武器擴散或更嚴重後果,但若敵人相信可以運用這些惡意方法阻止對方偵測,就會對自身第二擊戰力恢復信心,結果反而恢復戰略穩定。

 人工智慧某些可強化穩定的效應

 經過數十年未曾發生核武攻擊後,人們很容易將戰略穩定視為必然。各國企業與政府爭相擴大包含攻擊與防禦用途之人工智慧應用範圍,使其進步似乎無可遏抑。但只有時間能證明人工智慧對這些戰略應用的效應是否成真。其雖可能導致核武戰略不同面向的緊張局勢惡化,但在有利條件下,也可能緩解這些局面且反而強化戰略穩定性。

 消除高錯誤率後的時代:蘭德研討會的專家們都認為人工智慧促成某種能力問世後是風險最高的時候,諸如追蹤與攻擊或危機升高決策等。在此一轉捩點,相當可能發生錯誤和誤解。但隨著時間與科技進步,這些風險可望逐漸降低。如果主要輔助能力在平時發展完成,便可合理推斷其將持續進步到初期部署階段,同時有時間可以增加可靠度或充分了解其限制條件。最後,人工智慧系統所發展的能力,雖然會出錯,但仍比人工方式錯誤機率更低,因而達到長期穩定的效果。

 戰略穩定的潛在合作空間:導致核戰風險的其中一項要素是保證報復的第一擊穩定需求與意外,以及失控狀況之間存在的矛盾關係。例如,1983年蘇聯早期預警系統失常,就曾導致其「偵知」某項根本不存在的美國攻擊行動。此種事件在危機狀態下尤其可能造成官員下令對某個幽靈突擊採取報復攻擊行動。人工智慧可以協助建立更可靠的早期預警系統,而達到降低此種矛盾之效果。因而更高的第一擊穩定應有助降低危機時意外升高局勢的危險。

 情報蒐集與分析精確度提高也可能因強化嚇阻、保障和安撫行為之可恃度,達到增加戰略穩定的效果。如果各戰略夥伴國可獲得更周延的情報與分析,就更容易加以安撫。由於安撫所需之兵力降低,美國等核武強國便可減少其核武器數量,如此便可讓敵人更為放心。此一流程可以變成一個良性循環,最終達到大幅降低戰爭風險的效果。遺憾的是,不論人工智慧科技走到何種地步,此種結果需要極佳條件才能實現。

 極端透明度:在高度樂觀的可能狀況下,用於危機升高決策支援的人工智慧運算程式可與敵方分享。此種極端透明度帶有許多風險。因為敵方可能反而會採取許多逼近危機升高底線邊緣的不當舉動。同時還可能設法破壞人工智慧軟體。同時,任何用於輔助此類決策的人工智慧軟體都必須經過嚴謹測試,包含對敵人本質等因素。在任何情況下,力求設計出即便敵人獲得該項運算軟體仍可確保安全的人工智慧軟體都是有利作為;因為假定敵人無法獲得這種軟體其實十分危險。如果人工智慧電腦系統在部署前都必須通過高強度標準,則大規模推廣此種軟體反而降低恐懼且使誤判情勢幾乎不可能發生。

 結語

 專家們大部分認同人工智慧擁有在2040年以前改變核穩定基礎與削弱嚇阻手段的龐大潛力,尤其在日趨多極之戰略環境下更是如此。目前討論中的人工智慧應用範圍,包含用於核反擊目標掌握所需之追蹤與打擊敵軍發射器能力和人工智慧提供下達動用核武力決心之決策支援系統等。某些專家憂心日益依賴人工智慧可能導致新形態的毀滅性錯誤。人們可能受到壓力而在科技完全成熟前即加以使用;系統可能容易遭敵滲透破壞;或敵人可能過度相信人工智慧能力,導致其犯下災難性錯誤。

 但就另一方面,如果核武國家設法建立某種能與人工智慧衍生新興能力相容之戰略穩定,則機器就可降低猜忌並緩解國際緊張情勢,進而降低核戰爆發之風險。目前,無人可預知最後結果為何,但現在確有必要在挑戰迫近前先行思考人工智慧對核武安全的潛在衝擊。維持未來數十年之戰略穩定確實十分困難,而所有核武強權都應參與機制建立,以降低核武風險。此一目標須同步結合科技、軍事和外交手段等敵對國家應彼此合作之範疇。因此相關探討應盡早啟動,以為這些具爭議性且針鋒相對的主題能找出務實且實際之未來道路。

(完)

友善列印

相關新聞

熱門新聞