◎ 廖明輝
當人工智慧快速進入軍事領域,「AI自主武器」已不再是科幻想像,而是各國安全戰略、科技治理與民主監督必須正面回應的現實課題。真正值得警惕的,不是機器一夜之間變成《魔鬼終結者》式的殺手機器人,而是戰爭決策正逐步把判斷權從人移交給機器。
首先,「自主武器」缺乏公認的定義。從嚴格角度看,它指的是能在戰場上自主選定並攻擊目標的系統,但現實中,多數技術介於人工與自動之間。有些AI僅協助分析影像與整合情資,有些則可在極短時間內啟動防禦反應。但當AI進一步從大量資料中主導選擇打擊目標,問題便不再只是效率,而是倫理、法律與責任的重構。
美國國防部與AI公司Anthropic的分歧,凸顯「人在迴路中」的界線焦慮。關鍵不只是AI能否用於戰爭,而是能在多大程度上脫離人類監督。在這背後有兩層不安,一是政策界線是否會被嚴格遵守;二是當國家以安全之名要求技術應用時,企業是否有權拒絕。這已非科技治理問題,而是國家權力與企業權力的劃界。
從技術發展來看,軍事AI早已存在,但其角色正快速擴張。從影像辨識到大型語言模型與AI代理系統,AI逐步被整合進情報分析與作戰規劃。在高密度資訊環境中,AI成為人與資料之間的介面。然而,當輸出愈來愈像「答案」,人類究竟是在審查,還是只是在背書?
最危險之處在於,「人在迴路中」可能淪為形式。如果人類只負責按下確認鍵,而非實質判斷與問責,決策權已實質移轉。風險也不只來自模型本身,而在於資料是否過時、目標庫是否更新、審核是否嚴謹。一旦決策建立在錯誤資訊上,再精密的系統也只是更快放大錯誤。同時,AI軍事化來自商業部門,使政府依賴企業的模型與資源,而企業也因此握有前所未有的影響力。在競爭與地緣政治壓力下,安全標準容易被速度焦慮侵蝕。
因此,面對AI自主武器,關鍵不在表態贊成或反對,而在於建立清楚定義、責任機制,以及不可被取代的人類判斷。武器可以更聰明,但生死決策不能更模糊。如果社會今天無法回答「哪些決定必須永遠由人來做」,明天我們就可能在不知不覺中,把戰爭中最危險的權力交給最不透明的AI系統,等到釀成無法挽回的錯誤時,恐怕就為時已晚。
(作者是中華經濟研究院輔佐研究員)
編輯精選