AI乘著新科技的翅膀而飛翔在世界最前沿。不但在股票市場領漲,也深深介入了人類生活,勢如破竹。某種程度成了「盡信」的對象,任何打著AI旗號的商機,都可以吸引目光。這樣的情況,AI被與蒸氣機、電力、通訊並列,是產業革命的新希望。可是AI與過去的產業革命發明明顯不一樣,AI是以「替代大腦功能」為設計的新科技,是前所未有,可能「取代人類」的「自主智能」發明。如果AI有可能產生「敵意」或是「失控」,這樣的發明還是人類需要嗎?
如果將AI視為人。人類社會對於「有影響力的人」,其智能是否能夠被「相信」,設定了很多門檻。至少,這個人不能是個「瘋子」。那麼對AI,這個號稱是「受人類大腦啟發」(human brain inspired)的計算科技,等於是另一個「智能」,甚至有科技界主張AI即將產生「意識」,其精神狀態(psychological state)是否也應該接受探查。
使用AI的人,愈來愈發現,AI的對話有時候是「正經八百的胡說八道」。根據英國格拉斯哥大學(University of Glasgow)學者Michael Townsen Hicks等人於2024年6月份發表於《倫理與資訊科技》(Ethics and Information Technology) 期刊論文,研究團隊甚至直接將論文標題訂為「ChatGPT is bullshit」(ChatGPT 簡直胡扯),以主張這些看似是模型「感知錯誤」的內容,其本質更應被理解為哲學家哈里·法蘭克福 (Harry Frankfurt) 所定義的「胡說」(bullshit)。論文將「胡說」分為兩種:僅對真相冷漠的「軟胡說」(soft bullshit),以及意圖欺騙聽眾、偽裝成真理講述者的「硬胡說」(hard bullshit)。學者認為ChatGPT至少是前者。他們指出目前業界與媒體普遍使用的「AI幻覺」(AI hallucinations) 一詞,不僅不精確,更具有高度誤導性。
核心論點在於,大型語言模型的設計目標並非傳遞或驗證事實,而是根據龐大的數據資料,計算並生成最可能符合語境、看起來最像「人話」的回答。
研究指出,這種運作機制意味著,系統本身對於其產出內容的真實性「漠不關心」,這正是「胡說」的關鍵特徵:一種完全不在乎真假的言談。
研究作者 Michael Townsen Hicks、James Humphries 及 Joe Slater 指出 ,「幻覺」這個詞彙源自人類心理學,暗示著一個主體(AI)在嘗試感知或陳述真實世界時,發生了認知偏差或錯誤。這會讓公眾、政策制定者甚至開發者誤以為,AI的目標是追求真理,只是偶爾會「看錯」或「記錯」。論文強調,AI生成錯誤資訊,並非系統在追求準確性過程中的「異常」或「故障」,反而是其核心預測功能的「正常」展現。模型的唯一目標是依據提示詞 (prompt),生成統計上最合理的下一個詞彙,串連成流暢的文本。
因此,無論其產出是事實還是虛構,背後的運作過程完全相同。研究警告,使用「幻覺」一詞會淡化模型開發者的責任,讓人們將問題只歸咎於AI技術本身,同時可能引導研究人員「朝著錯誤的方向尋求解方」。
《數位時代》8月18日的報導是極具挑戰性的見證。胡扯是事實,幻覺還有討論空間,但都指出問題已經在眼前。如果從精神醫學的問診切入,AI的胡扯與幻覺或拒答,相當於這個AI「腦袋」,可能發生了思覺失調症與自閉症的問題。研究精神醫學的專家們早已注意到「網路病理學(network pathology),他們發現人類大腦在求取最大化基礎資訊的過程,會進行修剪以區分和增強感官輸入,目標是,發展出相對固定且可自動詮釋的神經網絡。如果修剪過度就有可能導致日後發生思覺失調症(精神分裂症),修剪太少則有自閉症問題。目前的AI工程師,有採取了類似大腦這種「修剪」(pruning),進行上下文工程(context engineering)的選擇、壓縮、隔離作業。很難說,不會在系統中出現與人類相似的「病理學」。
這是因爲AI只模擬人類大腦的某些已知神經網路很小部分的運作,在大量資訊輸入及選擇輸出的壓力下,沒有「類神經網路」可以分辨什麼是真實存在什麼是虛構推理。相對的,正常人類身上有直接與真實世界「超過語言」的聯繫,依賴那樣的總和經驗記憶,可以抽象化、加強、減弱修改不足或過度的樹突聯繫(under or over connecting dendrites)。這是目前光靠大語言模式的AI類神經網絡無從訓練的「優化」。所以過去那些搞LLM的專家開始思考「世界模型」,企圖再模仿新皮質(neocortex)的神秘機制來接近腦科學。問題是這是個神經科學「黑箱」。不進行進一步的底層研究(research at the bottom),不能夠理解還有多少可解釋的境地在廣大空間(the explainable space in the plenty of room)。
AI如此耗能的「暴力計算」,從來就不是人類大腦的運作方式,這種高耗電的情況類似「過動」的症狀,更是一種病態。而今年在 8 月 2 日的公開活動中,諾貝爾獎得主著名的人工智慧先驅傑佛瑞·辛頓(Geoffrey Hinton)分享了他對人工智慧未來發展的深刻見解。他警告,隨著技術的進步,人工智慧可能會發展出一種「人類無法理解的內部語言」,這將使得人類無法追蹤其思維過程。他的這段描述,似乎指出「不斷提升算力的暴力計算」,將導致AI自己形成一個「非人腦機制」的「病態自主能力」。很像是一種「瘋狂」(madness)。
傑佛瑞·辛頓(Geoffrey Hinton)對潛在風險發表強烈看法,最近播出的「One Decision」Podcast 指出,許多科技公司領導者「對 AI 風險並不誠實,甚至淡化風險」。雖然多數人都明白有風險,卻不願意採取行動處理。有可能是因為炒股的心態蒙蔽了良知。
辛頓特別提到,Google DeepMind首席執行長傑米斯·哈薩比斯(Demis Hassabis)是少數幾位真正理解這些風險並實際處理的科技領導者之一。哈薩比斯2010年共同創立DeepMind,並於2014年出售給Google。
哈薩比斯今年2月警告,AI可能造成長期風險,並指出「自主系統可能會失控」他呼籲加強全球溝通與協調,以避免AI遭濫用。提高AI透明度是個倫理問題,可是他們暗示,大多數的「AI寡頭」恐怕都不知道自己正在打造有問題的「黒箱」。
「我會呼籲不要『快速行動,打破常規』(Move fast and break things)。」哈薩比斯表示,他引用的這句話出自Meta創辦人祖克柏(Mark Zuckerberg),其為炒股大膽發布新技術的企業文化,卻也導致隱私、假消息等種種問題。他認為,AI領域正面臨類似趨勢,可能產生重創人類文明的可怕工具,「顯然AI將成為有史以來最強大的技術之一──我們需要更為謹慎。」因為AI技術亦能覆舟,用於研發新藥的AI也能打造致命毒藥;聊天機器人可能在引導下充滿極端言論。更直白的表達了「瘋狂」的擔憂。
世界正「瘋狂」追逐這個疑慮重重的AI,台灣又是這個所謂「算力即國力」,「電力即國力」的迷信之地。如今國會少數旳軟弱執政黨,在這種迷信的壓力下,更加陷入決策的兩難。脫困之道,還真的是科學、理性的追根究底。高耗電的AI不能迷信,處理不了核廢的核能不能迷信,更不能汙名化其他的發電方式。台灣要有新格局就要新的執政團隊徹底理解這些未來路徑的真實本質,是與非必需清楚,可別陷入別有用心的「胡扯」與「幻覺」黑洞,而自陷執政困境。
*作者為台灣數位科技與政策協進會(數策會)監事




