:::
2024/04/27 

社論

【社論】控管軍事AI技術 慎防誤判濫用

 繼去年2月美國領銜發表《負責任軍事使用人工智慧與自主性的政治宣言》後,迄今已有53國簽署。不久前,其中42個簽署國派遣逾百位代表,在美國馬里蘭大學集會,商討「人工智慧」(AI)在軍事上的各種應用,包括無人駕駛武器、生成式AI、戰鬥網路,以及後勤系統之網路安全、物流、人員管理等相關議題,旨在建立常態性年會機制,分享各國運用實踐方式,期能在未來共同議定具約束性的國際AI軍事應用制度。

 自從俗稱AI「聊天機器人」的「聊天生成式預訓練轉換器」ChatGPT,於2022年推出,AI已取得劃時代進展。如今人人都能接觸AI,且能將其應用在生活與工作中。但在我們享受AI所帶來的科技便利,有識之士也認知到AI的潛存威脅,紛紛對可能產生的危機提出警告。

 在世人掌控AI強大運算能力技術之時,也代表人類社群正站在AI全力加速發展或失控分水嶺上。開發與運用AI的企業,能否建立負責任且符合道德的AI系統?是遠比帶動AI升級更艱鉅的考驗。另一方面,基於AI已是各領域運用趨勢,軍事方面自不能免除於外,甚至更早開啟先河,但AI軍事運用應如何制定與規範,預防因誤判導致各種衍生意外、附帶傷害,甚至毀滅性災難,也是必須正視的挑戰。

 以民用科技而言,目前超過半數企業在導入AI工具時,本身並無自主開發能力,完全仰賴採購,也缺乏評估AI風險的能力。如此,許多企業可能在毫無管控的情況下,讓員工甚至顧客暴露於AI風險中。是以,歐盟與聯合國去年3月分別通過《人工智慧法案》及《人工智慧倡議》,希望降低因AI技術快速發展產生的族群偏見、侵犯隱私與其他各種風險,並鼓勵各國藉由立法規範及管制,負責任且包容地發展AI,避免不適當或惡意的設計、發展、部署和使用,削弱對人權、自由與生命的保護,共同提升AI系統的安全及可信度。

 至於AI技術在軍事領域的發揮,主要涵蓋自主性武器系統及輔助指管系統兩大部分。前者包括陸、海、空各種無人載臺;後者則用以改進實時(Real Time)分析和戰場態勢感知,為作戰部隊整合情報以增強決策能力,並協助快速分散或集中打擊火力,促進任務達成,更可提供預測性後勤補給和裝備維保提示,降低部隊操作成本,提高作戰效能。

 鑑於武器系統等軍力部署,始終是國家操作權力競逐的具體實踐場域,也與國際安全、衝突預防、遏制暴力,乃至於衍生的人道危機,都有高度關聯性。瑞典「斯德哥爾摩國際和平研究所」《建構武器系統自主性的發展》報告指出,當今世界結合AI的自主性武器,已具備完整且不受人類參與做成決策之自主目標辨識能力,不僅更為致命,並存在因系統誤判導致人道慘劇,或擴大衝突等有違「限制武力使用原則」的高度風險。

 進一步說,AI自主性武器、輔助軍事系統等執行任務之實際運用與規範,不僅涉及作戰方式改變,亦牽動科技發展、國際社會對武裝衝突的認知變革、國際政治與國家安全,以及《國際人道法》相關規制的多方動態平衡,因此亟待人類社群在軍事AI研發運用上,制定兼顧必要性、正當性及合法性的有效監督控制設計。

 對照各國政府已陸續針對民用AI監管採取行動,許多企業也將「負責任AI」納入開發準則,如設立「AI道德長」職務,協助企業確保在AI運用上,能符合企業文化與倫理準則,防範對人類社會帶來負面效果。

 然而,AI系統在軍事領域使用規範仍明顯不足。目前主要癥結在於,國際社會既缺乏能明確區分民用AI與可致命AI的共識型定義,更沒有國家願意將AI運用,排除在軍事領域外;而軍民技術的交融,也不斷刺激各國在AI領域的「軍備競賽」。

 事實上,美國推動《人工智慧政治宣言》雖非禁令,也不具實質約束力,卻是一套基於人類安全的原則。其宗旨在於,無論AI管理何種武器攻擊鏈路、決策指揮程序,只要是攸關人命生死的判斷,仍應由人類下達最終決定,以確保AI自主性武器系統不會殘害生命;也唯有人類決策者,方能明白屈服對手無須殘殺殆盡之理,在大規模毀滅性武器使用上,更須謹慎。

 綜言之,隨預測型演算法興起,以及烏俄、以哈戰爭推波助瀾,AI自主性武器系統開發與應用的相關爭議,也浮上檯面,成為世人無可迴避的難題。只有各國放下政治偏見,以尊重生命、確保和平為最高原則,盡快制定妥適國際法規,方能及早防範AI濫用對人類社會的可能危害。

:::

PDF電子報紙