Alexa

小心你的照片!報告揭「深假技術」製造裸體效果 女性受害者恐逾10萬

  377
Deepfake技術(GettyImage圖片)

Deepfake技術(GettyImage圖片)

(台灣英文新聞/李昱德綜合外電報導)人工智慧技術的日新月異,除了帶來生活上便利外,也帶來意想不到的問題,今年開始引發討論的「深假」技術(Deepfake)的換臉影片或照片即是一例,然而對女性而言,可不只是臉被換掉這麼簡單。

早在幾年前,就有人利用該技術,把知名好萊塢藝人的臉孔替換到情色影片中,效果逼真,還有假歐巴馬說話的影片,近幾年該技術普遍應用在娛樂用途上,把自己的臉替換到知名MV歌舞短片上,頗能搏君一笑。外媒報導,這些技術已被有心人拿來另作它用,把社群媒體上搜集到的網紅或一般人照片拿來,經過數字化虛擬裸體效果,據傳受害女性多達10萬人。

最新的一份報告揭露,在加密的即時通訊軟體Telegram上,成員可以將一個特殊的聊天機器人加到聊天室內,只要上傳女性的圖片,該機器人就會在幾分鐘內將圖片上女性的衣服「脫掉」,粗估統計,製造出裸照的受害女性多達10萬人,其中還包括未成年者。

視覺威脅情報平台Sensity公司表示,這機器人運用的,就是深假技術。

所謂深假技術,是指挑選已有的圖片或影片,利用人工智慧學習的方式來把新素材與舊素材結合,推出後被一些人濫用,有時會被用來製作名人或公眾人物的色情影片,但是一般民眾開始成為這個技術的受害者,是最近才開始的事,Sensity的執行長 Giorgio Patrini警告,這代表只要一個人在社群媒體上有公開的照片,就可能會成為對象。

BBC在徵得受測者同意後利用該機器人進行實際測試後,發現呈現的「脫衣效果」並不寫實,看起來就「假假的」,有時更會出現裸體的肚臍不在正確位置上的圖片,而該服務提供者以此為理由,表示這只是一種「娛樂」,沒有人會因此被敲詐。

軟體公司也說,他們還是有做一些預防動作,主動移除未成年人照片,但不會停止支援該機器人的服務。

專家指出,運用深假技術的創作者遍佈全球,由於技術仍屬新的領域,立法者仍在努力跟上瞬息萬變的社會,除了美國的維吉尼亞州已經正式禁止深假技術的運用外,大部分的地區都還在研究最適宜的處理辦法,因此整體而言,即便受害人可能已經覺得被侵犯或恐懼,仍然無法可管。