軍事AI峰會僅約1/3國家簽署宣言;美中未背書凸顯治理分歧
軍事AI峰會僅約1/3國家簽署宣言;美中未背書凸顯治理分歧
人工智慧快速走入軍事領域,正把「科技競爭」推向更高風險的賽道:一方面,各國希望用AI提升偵蒐、指管通情、後勤與決策效率;另一方面,AI在戰場上的誤判、黑箱決策與意外升級衝突的風險,也讓國際社會開始追問:究竟要如何建立最低限度的規範,避免技術失控?近期在軍事人工智慧相關峰會上,僅約三分之一的與會國家同意簽署一項宣言,討論AI在戰爭部署上的規範方向,但美國與中國兩大軍事強權未加入,凸顯全球治理在「安全」與「競爭」之間的巨大拉扯。
這類宣言的意義,通常不在於立刻形成具強制力的法律,而在於建立共識的「第一步」:讓各國至少承認風險存在,並願意在負責任使用、透明度、可追溯性、或人類監督等原則上尋找交集。但當關鍵大國不背書,宣言的外溢效果就會受限,因為軍事科技的競賽往往具有「安全困境」特性:你想設限,卻擔心對手不設限;你想透明,卻害怕曝露能力。結果就是每個人都覺得自己必須更快,反而使整體風險更高。
從商業與科技治理角度看,軍事AI議題也會反向影響民用產業:第一,AI晶片、雲端算力、資安與資料供應鏈會更敏感,出口管制、供應鏈審查與技術封鎖可能升溫;第二,AI模型與工具的「雙重用途」問題(民用可用、軍用也可用)會讓企業面臨更複雜的合規與倫理壓力;第三,若各國標準分裂,跨境合作與研發交流可能被迫在不同陣營間選邊,導致成本上升與創新效率下降。
更深一層的挑戰在於:AI武器化並不總是「看得見的武器」。自動化目標辨識、情報分析、無人系統協同、甚至輿論與心理戰,都可能被AI放大。即使各國願意討論限制,如何定義「可接受」與「不可接受」也很難:什麼程度的人類在迴路(human-in-the-loop)才算足夠?模型如何被驗證?錯誤責任如何歸屬?在高壓、資訊不完全的戰場環境中,這些問題都會被放大。
因此,即便宣言參與不高,它仍反映出一個趨勢:國際社會已意識到軍事AI的治理不能再等。接下來更可能出現的是多層次治理:少數國家先形成自願性規範與最佳實務,逐步擴大到盟友或區域組織,再透過標準、採購規範、或技術審查機制影響產業。對一般民眾而言,這看似離生活很遠,但它其實會改寫未來科技產業的規則與供應鏈格局,也會影響AI發展究竟走向「更安全的創新」或「更高風險的競賽」。
新聞出處與URL:https://www.cna.com.tw/news/aopl/202602060018.aspx
相關連結:
發布日期:2026-02-06