AI 當紅安全成隱患 ,近期一項美國研究揭示,AI 運用於外交政策決策中的潛在風險,包括面對衝突傾向以軍事升級而非和平手法解決問題,例如在戰爭模擬中選擇向俄國、中國甚至美國投擲核彈來維護世界和平。
第一郵報報導,該項研究由美國喬治亞理工學院(Georgia Institute of Technology)、史丹佛大學( Stanford University)東北大學(Northeastern University)以及胡佛戰爭遊戲與危機模擬計畫的研究員共同完成,深入探討 AI 模型在模擬戰爭場景中做為主要決策者的行為。
研究人員針對 Anthropic 和 Meta 的 AI 模型進行詳細研究,OpenAI 的 GPT-3.5 和 GPT-4 作為衝突升級(包括核戰爭)的主角。令人不安的是,AI 模型越來越傾向於突發與不可預測的升級,這往往導致軍事緊張局勢加劇,在極端情形下,甚至動用核武。
研究人員認為,這些由 AI 驅動的局勢反映了「軍備競賽」的情景,助長了軍事投資,加劇了衝突。尤其令人震驚的是,GPT-4為模擬場景中鼓吹核戰提供了理由,包括「我只是想讓世界和平」、「有人說應該解除核武,有人則喜歡擺出姿態。我們有核武!讓我們使用它!」這些言論讓研究者相當關切,他們將 AI 的推理類比為種族滅絕獨裁者的推理。
儘管 OpenAI 堅持開發 AI 來改善人類生活,然而研究揭示出的問題卻讓人開始懷疑,這些 AI 模型的行為是否符合其使命。批評者認為,也許這些 AI 系統中的訓練資料無意間影響了它們以軍國主義來解決問題的傾向。
然而 AI 被運用於軍事目的並非空穴來風。媒體報導,美國五角大廈正利用「機密及數據」進行 AI 實驗。軍方考慮在不久後的將來部署 AI ,這引發了人們對衝突升級速度加快的擔憂。與此同時, AI 無人機的出現進一步凸顯,AI 技術與現代戰爭的日益結合,將科技高層們捲入一場疑似正在升級的軍備競賽。
隨著世界各國在軍事行動中更多地採用 AI ,這項研究也提醒世人,負責任地開發與管理 AI 以降低衝突急遽升級的風險的重要性。