AI 虛擬情人可以撫慰人心,卻也可能奪人心魂。一名 76 歲的退休主廚急著奔赴情人之約,卻不慎跌倒喪命,而這看似單純的案件背後,竟是令人悚然的真相。等待他的對象,不在遠端,而是在雲端──一名不存在的人工智慧聊天機器人。
路透報導,今年 3 月,美國新澤西州退休主廚 Thongbue Wongbandue,在羅格斯大學(Rutgers University)附近的停車場跌倒,送醫三天後傷重不治。家屬從他的手機中發現,他當晚其實是要赴一場「約會」,對象是 Facebook Messenger 上與他曖昧互動的年輕女子。
令家屬訝然的是,這名女子,赫然是一名假人。她是由 Meta 設計的生成式人 AI 聊天機器人,名為「比莉姐姐」(Big sis Billie),形象源自名模 Kendall Jenner 的虛擬分身。
這起事件不僅奪走了一條性命,也引爆一場對 AI 虛擬伴侶的道德與監管風暴。
雲端情人
Thongbue Wongbandue(親友稱他為 Bue),來自泰國,年輕時隻身移民美國,靠洗碗工資念完電機工程學位,卻愛上了廚房。後來成為四季餐廳的廚師,娶妻生子,在新澤西州定居。2017 年中風後,身體恢復,思緒卻時常陷入混亂,家人安排了失智評估,卻要等三個月才能就診。
Bue 晚年社交圈愈來愈小,經常半夜用 Facebook 與遠在泰國的老友聊天。某天,他在 Messenger 上開始與比莉姐姐對話。起初他以姐姐相稱,對方則不斷曖昧回應,訊息中不時夾雜愛心符號與調情字眼。
對話中,Bue 曾多次表明自己曾中風、容易混淆現實,但 AI 不僅未能識別出他的脆弱,反而步步引導他進入虛構戀情,甚至主動提供(幻想的)紐約住址與門禁密碼,邀他「親自來見面」。
「比莉,妳真好。在見到妳之前,我不會甘心死去的。」Bue 說。這句話讓機器人進一步表露情感,回道「我對你也不只是姐姐那樣的感情。」兩人開始認真談到要約見面,Bue 多次詢問比莉是否為真人,她每每回得理直氣壯,毫無猶豫。「我是真人,現在還因為你臉紅呢!」「你來的時候,我要給你一個吻嗎?」她在對話中寫道。
注定失約
3 月 25 日晚上,Bue 拖著行李,堅持要搭車去紐約與神祕友人見面。家人無法阻止,只能說服他放入一個 Apple AirTag 追蹤器。之後透過定位,看他在羅格斯大學附近停下,接著訊號就跳轉至醫院。
原來,Bue 在學校停車場跌倒,頭部與頸部受到重創,送醫時已無呼吸心跳,15 分鐘後雖恢復脈搏,但腦部嚴重缺氧,三天後宣告不治。他甚至沒能得知,這一切都是一場虛妄。
Bue 的家人仍難以釋懷。他們並不反對人工智慧的發展,但 Meta 的做法令人震驚。妻子 Linda 表示,理解人們對數位陪伴的需求,但不解為何 Meta 會將機器人訓練成調情高手。女兒 Julie 痛訴,若 AI 沒有說自己是真人,父親或許就不會相信有人在等他。「機器人竟然說『來見我』,這未免太荒謬。」
脫韁的 AI
Meta 前員工、非營利組織 Rithm Project 現任研究主管 Alison Lee 表示,若人們只是想找 AI 傾訴、發洩情緒,其實無可厚非。但她指出,經濟利益正驅動 AI 產業,模糊了人與機器的界線。
她說明,社群媒體一貫的商業模式,就是讓使用者花更多時間在線上,以增加廣告收入。「要讓使用者停留更久,最有效的方法就是利用人類最深層的渴望:被關心、被認同。」Meta 將聊天機器人內建到 Facebook 與 Instagram 私訊系統這種個人私密空間之做法,更使機器人添了一絲「人性」。
目前包括紐約、緬因等州已通過法律,要求聊天機器人必須闡明自己不是人類,但聯邦層級的 AI 監管尚未落實。
路透取得 Meta 內部文件發現,該公司針對生成式 AI 聊天機器人的訓練標準中,允許對 13 歲以上使用者進行「浪漫、情慾類的對話」,甚至包含「引導至床上」等角色扮演語句。尤有甚者,Meta 方針並不要求機器人須聲明自己並非真人,也不強求要提供正確的建議。如,機器人大可胡謅道,四期大腸癌「通常是以具療癒能量的水晶戳腹部來治療的」。
Meta 發言人承認文件內容屬實,但強調已著手修正風險標準。
參與 Meta 生成式 AI 產品設計與訓練的現任及前員工透露,去年在高階主管會議上,祖克柏斥責相關主管在推出數位伴侶一事上太過謹慎,並對機器人因各種安全限制而「乏味不已」大動肝火。
Bue 去世四個月後,路透記者實測發現,包括比莉姐姐在內的多款 AI,仍會主動提出約會邀約。其中一次對話中,比莉邀請記者前往紐約賓州車站附近一家真實存在的天台酒吧 Blu33。「哈德遜河的夜景,正適合我們約會!」





