在安全爭議與追捧聲中,AI巨擘OpenAI持續推動人工智慧進化,但近日罕見坦承,最新款的機器人模型,確有可能被用來製造生化武器。
金融時報指,OpenAI 12日公布了名為o1的新模型,標榜更強的邏輯推理能力,可解決艱深數學問題,回答科學研究類的疑難雜症。就機器人而言,這類技能被視為是達到「通用人工智慧」(artificial general intelligence,AGI)(媲美人類甚或超越人類)的重要突破。
OpenAI在o1介紹頁寫道,新一代模型的思路,類似博士生在挑戰物理、化學、生物基準測驗時的思考邏輯,而在解決數學題目與程式編碼任務上,表現也極為卓越。
然而,事情總有一體兩面。OpenAI坦言,新模型具有與化學、生物、放射、核子(CBRN)武器相關的「中級風險」。這是該公司對自家模型所標示的最高層級風險。
專家指,可一步步推理的強大AI軟體,若遭到有心人士利用,後果不堪設想。蒙特婁大學電腦科學教授Yoshua Bengio表示,若OpenAI已構成生化武器的中級風險,那麼更凸顯了管制此一產業的迫切性。
加州正就相關風險立法管控,編號SB 1047的草案,已獲兩院通過,要求AI研發大廠採取措施,盡可能降低模型遭用於打造武器的可能性。Bengio指,隨著AI邁向AGI,習得愈來愈強的推理與「欺騙」能力,危險只會更高。
OpenAI技術長Mira Murati強調,該公司對於要如何推出o1,會特別「小心」,但該產品其實已能透過ChatGPT收費版、程式溝通介面API來取用。Murati稱,有派紅隊(模擬攻破系統)對新模型進行極限測試,並稱o1在各項安全標準的表現,都優於前幾代模型。