威脅更甚假新聞  假影音技術讓「真人說假話」

結合臉部映射技術與AI,新影片技術能以假亂真,讓人說出「沒說過的話」。

假影片模仿前美國總統歐巴馬說話(美聯社)

假影片模仿前美國總統歐巴馬說話(美聯社)

(台灣英文新聞 / 黃紫緹 綜合外電報導)網路科技日新月異,普羅大眾日後除了辨別文字新聞的真偽,恐怕連影像都不能輕信。目前已有技術,能讓影片中「真人說假話」,專家憂心,若遭不肖人士利用,恐影響選情,甚至有國安之虞。

這項「deepfake」科技,超出對嘴影片的範疇,而是結合臉部映射技術(facial projection mapping)與人工智能,將演算法、執行指令,特定人士的大量影像與聲音灌入電腦程式,讓程式模仿該人物的面部表情、習慣動作、聲音特質及抑揚頓挫。

若有心影響選情,外國情治單位可能會利用該科技造假,例如讓政治人物在影片中承認收賄、讓官員說出政府打算執行的秘密計畫,更有甚者,也可能模仿北韓或伊朗官員,警告美國將面臨災難禍事。

目前deepfake技術仍有若干缺陷,例如在造假影片中,人物眨眼會顯得較不自然,但隨著科技持續精進,這些缺陷恐怕不日就能修正。

意識到該科技的潛在衝擊,美國國防高等研究計畫署(U.S. Defense Advanced Research Projects Agency)投入了一項四年計畫,欲研發能辨識假影像與影片的技術,目前該計畫已進入第二年。

新罕布夏州達特茅斯學院(Dartmouth College)數位鑑識專家 Hany Farid警告,一旦任何人都能利用科技「讓總統說假話」,「我們就進入了眼見難以為憑的新紀元。」