:::

社論

【社論】制定AI武器規範 避免毀滅性災難

 美國國防部「聯合人工智慧中心」主任夏納翰中將,日前於喬治城大學「人工智慧與國家安全學術論壇」中表示,未來人工智慧雖將廣泛應用於傳統武器及裝備,但絕不會應用在核武指管系統。美軍所有致命性武器最終使用決策權,仍將掌握在人類手中。此一表態,凸顯五角大廈面對人命關天議題,仍然堅守不應由機器決定人類生死的道德底線。

 近年來,隨著中共與俄羅斯等「實力相當對手」於人工智慧技術方面的進步,美軍在自主性武器的使用上,正遭遇日益沉重壓力。就作戰應用而言,對手採取從偵搜到指管,均擁有遠超過人類處理能力的人工智慧自主性武器,若不使用類似系統進行反制,將導致美軍在交戰時陷於劣勢。但在「終結殺手機器人運動」(Campaign to Stop Killer Robots)等科學道德團體的積極遊說下,西方各國仍不願放寬此種限制。

 在威脅不斷加劇,對手能力持續提升的情況下,五角大廈必須正視嚇阻力量日漸削弱的事實。自歐巴馬政府時代,美軍即已著手進行戰略嚇阻體系的全面提升。從核彈頭更新、下一代洲際彈道飛彈研發;到近年針對核武指揮、管制與通信系統的全面現代化,美國在冷戰後長期遭到忽視的核嚇阻戰力,已慢慢恢復強大的運作能量。

 這個龐大的核嚇阻體系,過去10年有多項重大進展。包含「核武鐵三角」中B-21轟炸機、俄亥俄級彈道飛彈潛艦、義勇兵洲際彈道飛彈性能提升,以及強化核攻擊監控能力的下一代衛星系統、彈道飛彈防禦系統等計畫,均已陸續進入服役時間表。但在核武指管通部分,由於涉及龐大的基礎建設提升,加上敵人反制科技的進步,始終處於「邊走邊改」的情況。

 人工智慧及機器學習科技,對於提升指管效能,確實可發揮立竿見影效果。尤對必須處理複雜背景,及多重決策選項的核武反制手段,更具有強大的輔助功能。因此,美軍「防空與反飛彈偵監」系統及「輔助情報研析」系統,已開始運用人工智慧科技,取代耗力、費時且精確度欠佳的人工處理和判斷;飛彈防禦系統亦可能開始採用人工智慧相關技術。但將核武發射權交給自主指管系統下達,則是截然不同的情況。

 目前運用於飛彈防禦及其他防空武器系統的人工智慧自動處理系統,即便出現誤判,受害對象亦僅限侵入防禦區的非攻擊性目標。使用人工智慧的核武指管系統若出現錯誤,後果可能導致百萬生靈塗炭,甚至引爆全球核武大戰。此一考量,亦是美國從冷戰至今,都不曾考慮發展類似前蘇聯「死亡之手」(Dead Hand)核武自動反擊系統的主因。

 不僅核武系統,五角大廈迄今亦不支持發展自主性殺傷系統。美國海軍耗費數年推動的戰鬥型無人飛行載具(UCAV),在完成航艦起降後遭到擱置;後來改設計為無人空中加油機,亦是基於電腦無法做出道德判斷的考量。其它陸上無人攻擊系統及水下無人攻擊系統等先進武器,也遭遇相同難題。

 夏納翰中將強調,人工智慧結合武器系統,確實可讓美軍擁有優勢,但不宜採用。此一堅持,並非受政策或國際規範限制,而是純粹基於拯救生命和阻止戰爭的信念。對於「勝利無可取代」的軍人而言,這充分反應西方「正義戰爭」的基本道德原則,相當難能可貴。

 只不過,對於中共、俄羅斯等積極尋求改變既有國際秩序的「修正主義強權」,抑或懷抱區域爭霸野心的伊朗、北韓等國來說,此道德堅持可能並非其關切的重點。這亦是何以人工智慧武器的支持者認為,不發展自主性武器系統,只是將戰場優勢拱手讓給敵人而已。面對敵人不斷提升的人工智慧武器,未來勢須付出更高代價,才能扭轉此種軍事不對稱劣勢。

 在今日複雜的全球化安全環境中,人們已經見證,國家絕非造成重大安全威脅的唯一來源。致命自主性武器系統若落入極端團體手中,可能造成的傷害,絕不下於大規模毀滅性武器。以聯合國為首的國際集體安全體系,或應比照核武軍備管制公約,早日針對此類武器,制定國際共同遵守規範,才能避免造成人類災難。

 析言之,「兵者凶器也」,任何武器在人的手中,都可能造成生命的喪失;若落於機器手中,更將使人命成為僅剩參數的「目標」。五角大廈堅持不將人工智慧科技,用於核武指管通系統,絕對是保障戰爭道德底線的正確選擇。各國政軍高層與科技研發菁英,在思考如何爭取自身戰略優勢與利益時,實應認真看待,人工智慧在軍事上的無限制運用,必然會帶來重大災難。

友善列印

相關新聞

熱門新聞