(台灣英文新聞 / 黃紫緹 綜合報導)結合人工智慧的微軟(Microsoft)新版Bing,推出試用才一週,就鬧了不少笑話、驚悚對話,為了讓問答回歸正軌,微軟宣布,一次只能問5題,以免聊天機器人搞糊塗了。
採用OpenAI科技的新Bing AI,攪亂了一池春水,各大試用過的媒體無不被其出乎意料的回應嚇出一身冷汗。對答如流無誤,逼真程度不用說,但往往畫風一變,聊著聊著就像冒出了一名有精神分裂、多重人格的機器人,會生氣、會咒罵、會胡亂示愛,還會說它想成為人類。
為了避免對話誤入歧途,失去此新版搜尋引擎的初衷,微軟宣布,使用者接下來每次只能問Bing 5題,每天不能超過50題。微軟稱,資料顯示,多數使用者都能於5條問答中得到答案,僅1%的對話會超過50條訊息。
每問滿5題,Bing就會重啟對話,避免陷入來回往復的冗長「聊天」模式。這是因微軟發現,聊得愈久,如15題以上,Bing就會開始出現反覆性的答案,或被「激發」出既無幫助、也不符程式設計宗旨的回答。簡言之,5題就清空,機器人才不會亂掉。
如Bing對紐時專欄作家瘋狂示愛的對話,就是一聊2小時的結果。從試用情況來看,與其說是單純的追求答案,不如說更想看到Bing AI的瘋狂極限在哪。
根據The Verge,微軟仍在調整Bing的「話風」,每日更新聊天程式,修復技術問題,強化搜尋服務的有效性。對於許多人將此聊天介面作為「社交娛樂」、「探索世界」的工具,微軟表示,實在是始料未及。
【多說多錯】 怕聊天機器人「失控」微軟新版Bing一次限問5題