:::

寰宇韜略

自動化的未來:借鏡愛國者飛彈防空系統(中)

◎李華強(譯)

 回顧該事件,筆者從不相信當時的發射組員確知其接戰的是一架F-18,其發射時認定的不過是系統一開始判定之戰術彈道飛彈。愛三飛彈是擊殺式武器,當其接近所望目標時,會自行啟動尋標器「搜尋」彈道飛彈,然在未尋獲飛彈時,卻「找到」那架在不對時間出現在不對地點的F-18,因此造成第二次友軍誤擊事件。

 美陸軍的「大型」飛彈防空系統(如愛國者),歸美空軍作戰管制;第二次友軍誤擊事件發生後,美空軍終止愛國者部隊的任何接戰授權(即便是自衛)。第一次友軍誤擊事件就是允許下自衛接戰,對抗1枚系統判定來襲的反輻射飛彈。在新的接戰守則下,愛國者系統僅能在美空軍管制單位的特定授權下進行接戰,此舉對戰術彈道飛彈接戰時程而言太過匆促,難以付諸實際行動。基於此,亙伊拉克自由作戰後期,愛國者飛彈從未發射升空;幸運的是,也沒有任何飛彈來襲。迄今,類似的接戰限制仍存在於愛國者飛彈系統作業,美空軍保留所有愛國者飛彈的發射決定權。

 美國防部政策指出,自動化與近自主化系統必須在所謂的「正向人工控制」下操作,惟從未清楚定義過該要求。筆者35年來接觸愛國者系統的重大經驗教訓之一,就是自動化系統若交由訓練不足的組員操作,實際上將成為「全自動化」系統。最棘手的問題,在於維持操作者警覺,以及發展並維持廣泛情況覺知的要求,據此方能做出適當的干預決策。

 在友軍誤擊事件後,美陸軍做出若干變革。最重要的變化,就是接受「系統並非永不出錯」的事實;另修正愛國者系統的指管發射流程,提供接戰決策的額外監督功能,以及調整訓練、加入友軍誤擊事件的教材,鼓勵(並指導)訓員質疑與確證系統的追蹤分類和目標識別結果。惟許多訓練變革不過是新增或補充舊教材,並未落實檢討建議的新式作法和目標。此外,愛國者的操作者與組員並未歷練足夠的防空作戰實務管理職位;美陸軍例行的人事作業,仍影響個人和團隊發展足夠的專才。在愛國者軟體升級的作戰測試中,類似伊拉克自由作戰期間的友軍誤擊情況依然發生;在想定脫離常態,且操作者處於前所未見或未曾特別訓練過的場景時,這種情況尤其明顯。

 ◎觀察、教訓與注意事項

 系統發展者常有一種傾向:欠缺人類行為理論的背景知識,並認為自動化擁有與生俱來的好處。例如,自駕車輛的宣傳優點之一,就是能顯著降低「人」在肇生車禍方面所扮演的角色。然而,許多領域的研究和經驗顯示,這樣的假設並非全然正確,或仍待假以時日方能實現。以下是自動化系統發展上經常出現的問題:

 ■自動化系統鮮少提供所有預期效益

 新推出的自動化系統鮮少能達到初始設計的訴求。最初使用者必須預期經歷一段除錯和調校的時期,藉此確認系統的實際效能和限制。通常有必要讓實際使用者界定系統的實務運用方式,而非以系統發展者不容置疑的認知來操作系統。系統發展者經常無法預測自動化系統可能造成的問題;自動化「驚奇」應該永遠不意外。毫無保留的接納自動化系統,將導致所謂的「自動化濫用」,或不當地過度依賴與信任自動化。在前文提及的愛國者系統操作意外中,「自動化濫用」就是造成伊拉克自由作戰行動友軍誤擊事件的主要肇因之一。

 ■監控系統的負荷大增

 自動化或將改變操作者的工作本質,但未必會簡化其工作。自動化系統複雜性更勝以往,操作者通常在時間流逝中無事可做,卻必須花更多時間緊盯監視器。「警覺」可能是個問題;長時間的警覺不僅勞心更讓人備感壓力。要求操作者長期保持高度警覺,而無任何異常情況出現,是極為困難的事;希透過監看自動化系統來維持長時間的高度警覺,更是不切實際的期待。

 ■安全感錯覺

 認為系統無懈可擊(亦即永不出錯)的信念,可能帶給操作者一種錯誤的安全感,導致其疏於檢查原該查看的事項。觀察發現,長期與運作順暢無誤的系統一同工作,將導致自滿,進而降低警覺與操作時審慎程度。

 ■自動化轉換操作者為系統監控者,而非主動控制者

 自動化並未將「人」從系統中移除;反之,其將人工操作者自直接的「人在迴路」系統作業中,轉移到更高階的監控角色(亦即「人控迴路」)。若先入為主的認為自動化「控制」系統較人工操作者更佳,而將後者留置在「監控」自動化作業,則遇自動化成效不佳時介入的角色時,將可能產生問題;要在監督控制下同時達到監控與介入的要求,「人」的表現顯然極差。

 ■「跳出迴路」(out-of-the -loop)的熟悉度隱憂

 當自動化取代系統操作者的工作後,操作者與系統互動和熟悉的程度就會降低。大量證據顯示,當不尋常情況果真出現時,操作者將遲於發現、需要更多時間方能再度融入控制迴路,並做出適當的控制行動。這個問題有時被稱為「喪失情況覺知」,而「情況覺知」正是做出適切介入決策的基礎;友軍誤擊發生時的「1分鐘驚慌失措」,就表明愛國者操作人員急於「返回控制迴路」,並重新建立「情況覺知」的窘態。將操作者從直接的「人在迴路」移除,其將喪失基本的操控技能,因為獲得實作經驗的機會愈來愈少。現已確認,飛行員若過度依賴自動化飛控系統,將會引發重大問題;過往有關自動化系統的經驗,都無法確證自駕車的駕駛能否在不尋常或模稜兩可的情境下,迅速且毫不遲疑的放下手上工作,接手控制自動化運作的車輛──這類「控制轉換」絕非易事。

 ■訓練需求增高

 自動化最廣為流傳的神話之一,就是當系統自動化程度提升時,人所需要的專才就能降低;相反的是,自動化未必會降低操作者的訓練需求,反倒經常改變操作者表現的要求本質,並提高操作者的訓練需求。自動化系統傾向於較為複雜;提升的複雜性可能讓自動化系統的操作技能更難學習與保持。

 經常性模擬課程或其他形式的「人在迴路」訓練,通常用來對抗跳出迴路後熟悉度降低所肇生的技能生疏問題;然而,運用模擬器本身就存在若干問題,未必能維持監督控制的熟練度,其中最嚴重的問題或許就是難以訓練「極端情境」,亦即熟練的操作者必須介入之情況。極端情境下仰賴的技能,不完全能透過日常訓練,或長期處於監督控制模式下而發展或維持。

 ◎未來的自動化挑戰

 自動化系統與作業的最大問題就是「人」,或稱「人與自動化整合」。自動化的普遍概念,係一複雜系統在極少或毫無人工介入情況下執行預期功能;亦即系統必須以人工或自動的方式控制,而無任何折衷可能。然而,經驗顯示這種「要就完全,否則毫無」的控制模式,是違背法則的例外情況;鮮少有自動化系統能毫不保留人的「殘存功能」(residual function)。

友善列印

相關新聞

熱門新聞