(台灣英文新聞/科技組 綜合報導)有「Google大腦」之父稱呼、AI Fund管理合夥人吳恩達25日發表演說,他認為,「AI導致人類滅絕的風險被誇大了」,人類有豐富經驗來控制比自己更強大的事物,反而是人類審視真正的生存風險時,AI可能將成為解決方案的關鍵。
2011年,「Google大腦」(Google Brain)的雛形起源於一項史丹福大學與Google公司的聯合研究專案。Google專家傑夫·迪恩(Jeff Dean), 研究員格雷科拉多(Greg Corrado)與史丹福大學人工智慧教授吳恩達(Andrew Ng)是這個小團隊的三名創始成員。其中,吳恩達教授更是從2006年就開始嘗試用深度學習技巧來解決人工智慧領域的問題,這促使他在2011年與迪恩和科拉多聯手創造了一個大型深度學習軟體平台「DistBelief」 。這是架構於Google雲端運算平台上的一項服務。
永齡基金會與天下雜誌昨(25日) 合辦AI大師論壇,除了邀請ChatGPT之父、OpenAI執行長山姆.阿特曼(Sam Altman)之外,AI Fund管理合夥人、執教於史丹佛大學的吳恩達(Andrew Ng)也同台發表演說。
吳恩達2011年開啟Google大腦研究,用深度學習技術推動人工智慧系統革新,享有AI先驅的美名。
吳恩達的演說聚焦監督學習(supervised learning)和生成式人工智慧(Generative AI),他說明,前者用於標記事物,是一項大約10到15年前開始發揮作用的技術,輸入A可以計算出B,例如大型廣告平台可輸入廣告和有關用戶的一些訊息,並標記是否可能點擊廣告,而Google大概就透過這種技術每年帶來的收入超過1000億美元。
永齡基金會「AI大師論壇:人工智慧如何形塑人類未來」25日在台北南港展覽館登場,「Google大腦」之父吳恩達(圖)擔任主講人,以AI為題發表專題演講。中央社
他進一步舉例,在自動駕駛汽車領域中,擁有AI可輸入汽車前方的圖片,並用其他汽車的位置進行標記,實現駕駛輔助和自動駕駛,而他的團隊也透過AI在製造方面做了很多工作,例如可為剛製造出來的智慧型手機拍照並檢查。
關於生成式人工智慧。他認為,受惠監督學習的一些早期進展,生成式人工智慧已取得成功。當時,他們組建「Google大腦」團隊時發現,提供越來越多的數據,會使成果不斷變得更好。
針對AI存在的風險,中央社引述吳恩達說,他認為,人工智慧最大的風險是偏見、公平性和準確性,但人工智慧技術正在迅速改進並且變得更加安全,他說「雖然人工智慧也會擾亂工作,儘管我們創造了很多價值,但我們有義務照顧那些工作受到干擾的人」。
但他也提到,「人工智慧導致人類滅絕的風險被誇大了」,他並不認為AI會對人類構成任何有意義的所謂滅絕風險。
也許有生之年會出現比任何人都聰明的AI,但人類擁有豐富經驗來控制比自己更強大的事物,所以真的不懷疑控制人工智慧的能力,反而是人類審視真正的生存風險時,人工智慧將成為解決方案的關鍵部分。
因此,他認為,不要試圖讓人工智慧走得更慢,要讓人工智慧走得盡可能快。
他也提到,通用人工智慧(artificial general intelligence,AGI)令人興奮,但推測需要幾十年的時間,想讓人工智慧完成人類能做的任何智力任務,「我認為那還很遙遠」。
昨(9/25)ChatGPT之父、OpenAI執行長阿特曼也登台演說,他表示,人工智慧(AI)革命將是一場巨大、積極變革,ChatGPT是「人類聰明才智和意志的擴大器」,但他提到,無論AI變得多出色,也沒人想看2個AI下棋對戰,這一點不會改變。
不過他不認為所謂通用人工智慧(AGI)還需要幾十年的時間,認為這會很快,每年都發生很多前一年還認為不可能的事情。
OpenAI執行長山姆.阿特曼(Sam Altman)受鴻海集團創辦人郭台銘邀請,在永齡基金會與天下雜誌合辦的AI大師論壇開講。這是他第3次來台灣,此次預計在台灣停留不到一天。
永齡基金會「AI大師論壇:人工智慧如何形塑人類未來」25日在台北南港展覽館2館舉行,OpenAI執行長阿特曼(Sam Altman)(圖)應邀出席,參與對談。中央社
阿特曼說,人工智慧革命將是一場巨大且積極的變革,而人類在每一次科技革命中,都會擔心工作會是什麼樣子,以及必須做什麼。事實證明,人類對新事物和創造力的渴望是無限的。
阿特曼提到,在ChatGPT中看到的是人們只是使用人工智慧工具做得更多、做得更好,他們可以更快地將想法付諸實現。「它是人類聰明才智和意志的擴大器」。
阿特曼也提到,人工智慧第一次被人們所熟知,是在很久以前,一個叫做深藍(Deep Blue)的電腦系統,擊敗當時西洋棋世界冠軍卡斯帕洛夫(Garry Kasparov)。
他說,當時人們擔憂「以後沒有人會再下棋了」,但直到今天西洋棋還是如此受歡迎,且幾乎沒有人會觀看兩個AI相互對戰。「無論人工智慧變得多麼出色,預計這一點都不會改變」。
針對許多人對AI可能造成的隱憂,阿特曼坦言,每一項新技術都會出現問題,不是來自Open AI的錯誤,而是社會犯的集體錯誤,例如「人們以我們沒有想到的方式使用和濫用它們」。
他提到,每次推出新系統時,都希望它變得越來越好,GPT-3有很多缺陷、GPT-4缺陷較少、GPT-N甚至更少;也就是在出現問題時修復它,使它不斷更好、更強大。