Alexa
  • En
  • Directory of Taiwan

AI發威!臉書靠演算消除97%仇恨言論

仇恨言論涉及文化、語言差異,臉書配套人工審查與用戶檢舉校正審查失誤。

  173
Facebook (來源:Pexels)

Facebook (來源:Pexels)

(台灣英文新聞/張雅鈞 綜合外電報導)網路世界讓人暢所欲言,然仇恨言論也須被嚴加規範。社群平台臉書(Facebook)於3日舉辦亞太區仇恨言論政策線上說明會,公布在人工智慧(AI)科技提升下,臉書去年第4季對仇恨言論的主動偵測率已超過97%,並說明仇恨言論審查的運作制度。

仇恨言論認定因地制宜,三級認定

臉書亞太區內容政策經理甘米(Manu Gummi)出席線上說明會表,表示因仇恨言論涉及語言、文化差異,處理起來相當挑戰。該平台需在全球各地區建制內容政策團隊深度了解,並提出能應對全球不同語言使用與文化情境,並保障所有人表達自由的方法。

為有效消除仇恨言論,臉書制定社群守則規範用戶,並以此作為審查判定原則。其中,臉書將仇恨言論定義為「針對受保護的特徵,直接攻擊他人」。「受保護」的特徵包含種族、國籍、信仰、性別認同等,「攻擊」則包含以文字或影像表達或支持暴力的言論。臉書針對擁有受保護特徵的個人或群體,採行三個級別劃分嚴重性。

第一級包含以動物等非人化的言論比喻他人,二級涵蓋以生理、心理、道德缺陷貶低他人,三級涵蓋鼓吹排擠或隔離等行為。

AI 進步,主動審查率提升至97.1%

臉書每天發文數量驚人,依靠人力審核內容無法消化,必須透過科技識別。隨著AI技術進步,在2019 年12月至2020年12月間,臉書對仇恨言論採取行動數量攀升近400%。2017年第4季臉書首度納入仇恨言論衡量數據,彼時平台主動偵測率為23.6%。換句話說,臉書移除的仇恨言論中,23.6%為平台主動偵測而非用戶檢舉。而到了2020年第4季,主動偵測率已經攀升至97.1%。

主動偵測率大增,AI 技術提升功不可沒。其中XLM-R或語言理解(lingual understanding),能夠建立機器學習分類器,分析多種語言中的相同概念,在一種語言中的學習成果可以改善另一種語言中的表現,該技術對網路上較不常使用的語言而言,格外實用。

另一項全文解讀(Whole post understanding)則是從整體角度檢視貼文的能力,包括文字、照片和影片等格式,並同時找出各種違反政策的問題,不需執行多種分類器。據臉書2日在部落格上透露,歷經一年AI框架搬遷到深度學習函式庫PyTorch,現在PyTorch已經成為支援臉書所有AI負載的底層平臺。臉書利用PyTorch,開發出Facebook AI Multimodal(FAIM),允許開發人員快速創建、優化和針對特定有害議題制定多模態模型,這意味著他們可以整體識別跨越圖像、文本、評論和其他元素的內容,辨別虛假資訊與仇恨言論。

降低「誤殺」 配套人工審核與用戶申訴

此外,臉書依然有內容審查團隊,來確認發文是否違反仇恨言論規範,同時配合檢舉申訴機制,降低未能正確處理仇恨言論發文情況,並讓AI從錯誤中學習。甘米強調臉書審查的透明度,當用戶的內容被移除時,會同時收到Email與APP通知,清楚告知其內容違反什麼守則而遭移除,守則連結會一併附上, 粉專管理員也能從管理頁面看到為什麼被移除,讓用戶也從錯誤中學習。

AI消除抑或助長歧視、仇恨?

AI廣泛運用審查、消除仇恨言論的散播,效果看似驚人。然而,AI技術卻有不中立之隱憂,如現實社會也存在對弱勢群體的歧視與不正義。上月美國民主黨推行「反演算法歧視法案」,要求社交平台如臉書、推特,需說明其演算法及資訊收集作法,增進透明度。而以巴衝突中,臉書與推特也驚傳演算法封鎖親巴言論,臉書旗下的Instagram更聲稱其仇恨偵側軟體將一個關鍵標籤誤認為與某恐怖組織相關。

在臉書沾沾自喜於AI消除仇恨言論,主動偵測率提升到97.1%之際,也需持續修正AI演算法中的歧視,及其造成的不當後果,莫要以消除仇恨言論之名,卻行製造歧視之實。