:::

社論

【社論】AI武器道德規範 亟待國際支持

 美國軍方近日報導,五角大廈將於近期公布人工智慧(AI)軍事運用相關規範細則;該文件可望符合「國防創新委員會」去年針對AI運用,所提出之責任、合理可預期、透明、可靠及可控等5大道德原則。美國國防部作為雖獲多數專家肯定,然外界對於人工智慧型自主性武器潛存之風險,仍抱持高度憂慮,恐成為美軍在AI武器發展上最大阻礙。

 AI在民間與軍事上的龐大潛力,眾所皆知,然其可能造成之損害,近年逐漸受到重視。美軍在人工智慧運用上,仍處於起步階段,五角大廈希望早日制定規範未來發展方向的執行細則,以避免後續負面狀況出現時,須以更大心力「亡羊補牢」;也希望藉由透明的AI研發決策與工具,使其在運用上具備合理脈絡,以利事先預判結果。

 此種「以道德為出發,以人命價值為最高考量」的作法,完全符合西方「正義戰爭」理念。事實上,這也與美國國防部要求,所有無人系統均須維持「人類參與運作」原則一致。但由於人工智慧與機械學習科技的進步速度太快,加上中共與俄羅斯等國家未響應相同的道德標準,許多專家憂心,此一AI發展道德規範,仍無法避免AI武器遭濫用的風險,甚至可能造成重大的人道災難。

 專家的顧慮並非杞人憂天。AI科技遭濫用,已是現在進行式。中共在全國各地設置的「天眼」系統,用於監控人民一舉一動,甚至成為侵害人權利器。某些犯罪團體利用AI軟體,滲透政府、企業、乃至個人網路與帳戶,以及從事各種闇黑網路交易,更已成為各國重大威脅。未來AI武器若發生同樣狀況,其殺傷力恐不下於大規模毀滅性武器。

 科幻電影《機戰未來》中無人自主式戰鬥機,和《機械公敵》中具思考能力之機器人,讓觀眾對AI的毀滅性力量,印象深刻。但這些人們視為遙不可及的電影情節,有許多已不再是小說家的想像,而是新一代武器部分功能,抑或即將送出實驗室的科研成品。舉例來說,新一代AI情監偵系統,可在數秒鐘內,完成過去須耗時數日甚至幾週才能判讀的目標資訊;某些實驗中的戰鬥無人機,也可從事相當複雜的飛行動作。

 但不論這些無人系統的能力再強,仍是「冷血無情」的機器,其眼中只有目標與任務,不會從道德和情感的角度,判斷戰場實況。這也是為何美國國防部迄今仍要求無人機的殺傷性攻擊行動,均由人類操作,且須通過層層把關的審核程序。然而,在攻擊恐怖組織首腦等目標時,或可如此,未來面對敵人快速靈活的無人系統,在狀況瞬息萬變的戰場上,恐將難以信守此一原則。

 此一情況絕非危言聳聽,因為中共與俄羅斯等國,甚至其他科技較為先進的潛在敵國,都將自主性戰鬥載具列為重點發展項目;據傳俄羅斯甚至已著手開發,可攻擊全球各地目標的無人水下核子載具。當為求勝利不擇手段的敵人,在戰場上大量運用自主性武器,美軍若以血肉之軀和傳統武器與之抗衡,結果恐將十分慘烈。由此可知,發展AI武器,就如同極音速武器一樣,是美軍必須走的路。癥結在,該如何在符合道德原則的前提下,推動此一新興科技的發展。

 「國防創新委員會」提出之5大原則,並非美國國防部所能獨力落實。誠如「國際自動化武器規範委員會」及「國際機器人武器管制委員會」專家紹爾所言,殺傷性自主機器人應列為國際公約的管制性武器,比照核生化武器或地雷,予以嚴格管制,如此才能落實責任、透明、合理可預期等原則。若無法做到這點,則無人能保證所有國家都會落實「可靠與可控」原則。換言之,AI道德規範必須獲得國際社會共同支持,否則只是空談。

 綜言之,「殺人者,人也,非械也」。AI自主性武器,同樣是人類所發明的殺人工具,不同於其他武器的是,這種武器可以自行尋找目標、進行判斷,完全交由機器決定,其駭人程度,絕對遠高於古人所謂「率獸食人」。美國以西方固有道德觀,審慎看待AI武器發展,除是基於對生命的尊重,亦考量到該武器的使用後果。那些視AI為終極求勝武器的國家,或許應該認真思考最終必遭AI武器反噬的苦果。

友善列印

相關新聞

熱門新聞