中央社一手新聞APP Icon中央社一手新聞APP
下載

加薩戰火現AI合成深偽影像 假浴血棄嬰照激化憤怒

2023/11/29 10:51(11/29 11:38 更新)
請同意我們的隱私權規範,才能啟用聽新聞的功能。
10月8日以色列空襲加薩後,建物冒出大火與濃煙。(美聯社)
10月8日以色列空襲加薩後,建物冒出大火與濃煙。(美聯社)
請同意我們的隱私權規範,才能啟用聽新聞的功能。

(中央社華盛頓28日綜合外電報導)以色列與哈瑪斯開戰以來,加薩走廊被炸毀的房屋和街道照片中,有些畫面極度恐怖,例如浴血棄嬰,這些影像是利用AI深偽技術合成,在網路上有數以百萬計的瀏覽量。

美聯社報導,如果仔細觀察會發現一些破綻,例如手指彎得很怪,或眼睛閃爍著不自然光芒,這些都是數位欺騙的跡象。

然而,製造這些影像來激發的怒火,卻是非常真實的情緒。

以色列與巴勒斯坦武裝團體「哈瑪斯」(Hamas)戰爭相關照片生動且強烈地凸顯人工智慧(AI)作為宣傳工具的潛力,被用於創造逼真的屠殺影像。自上個月以哈戰爭爆發以來,社群媒體上流傳的數位修圖被用來製造關於傷亡究責的不實說法,或欺騙民眾有暴行但實際上從未發生。

雖然網路上流傳的不實說法大多不需要動用到AI,而是來自更傳統的來源,但科技進步也讓頻率變高,而且幾乎沒有監管機制。這使得AI成為另類武器的潛力變得顯而易見,也讓人得以一窺未來衝突、選舉和其他重大事件中將會發生的情況。

總部設於舊金山和巴黎的科技公司CREOpoint利用AI評估網路說法的正確性,執行長戈登斯坦(Jean-Claude Goldenstein)表示:「情況會惡化,變得更糟,之後才會好轉。」這家公司建立一個資料庫,儲存有關加薩走廊(Gaza Strip)最瘋傳的「深偽」(Deepfake)技術生成內容,「有了生成式AI,照片、影片和音檔將有前所未見的『升級』」。

在某些案例中,其他衝突或災難的照片被重新利用,冒充成新照片。另有生成式AI程式被用來「無中生有」創造新的影像,例如有個嬰兒在轟炸殘骸中哭泣的影像在衝突初期迅速流傳。

其他AI生成影像的例子包括據稱是以色列飛彈襲擊的影片,或戰車駛過被摧毀的社區、家屬在瓦礫堆中搜尋生還者的影片。

在許多案例中,假照片目的似乎是要激起強烈的情緒反應。在血腥衝突初期,以色列和哈瑪斯的支持陣營都指稱對方傷害孩童和嬰兒,哭泣嬰兒的深偽影像隨即被當成「證據」。

追蹤戰爭假消息的非營利組織「對抗網路仇恨中心」(Center for Countering Digital Hate)執行長阿邁德(Imran Ahmed)表示,製作這類影像的宣傳人員善於瞄準人們心中最深層的衝動和焦慮。

影像愈令人厭惡,網路用戶就愈有可能記住並且分享,從而在不知不覺中成為假消息傳播的幫凶。阿邁德說:「假消息目的是讓你參與其中。」

俄羅斯去年入侵烏克蘭後,網路上也開始流傳類似的AI生成欺騙性內容。一段經過修改的影片似乎顯示烏克蘭總統澤倫斯基(Volodymyr Zelenskyy)下令烏克蘭人投降。這類說法直到上週都還在持續流傳,顯示即使很容易被揭穿的錯誤資訊也可以持久存在。

每當有新的衝突或選舉季節,假消息傳播者又有機會展示最新AI進展。許多AI專家和政治學家對來年的風險發出警告,屆時有多個國家將舉行重大選舉,包括美國、台灣、印度、巴基斯坦、烏克蘭、印尼和墨西哥。

AI和社群媒體可能被用來向選民傳播謊言的風險引發美國兩黨議員擔憂。維吉尼亞州民主黨籍聯邦眾議員康諾里(Gerry Connolly)在最近有關深偽技術危險的聽證會上表示,美國必須資助研發目的在對抗其他AI的AI工具。

世界各地許多新創科技公司正在開發新程式,協助揪出深偽影像、在影像中添加浮水印以證明來源,或掃描文字以驗證任何可能有AI介入的似是而非說法。

電腦科學家多爾曼(David Doermann)表示,雖然這種技術有前景,但利用AI撒謊的不肖人士往往領先一步。多爾曼曾在美國國防先進研究計畫局(DARPA)協助因應AI操縱影像構成的國安威脅。

現為大學教授的多爾曼表示,若要有效因應AI假消息構成的政治和社會挑戰,需要更好的技術和監管機制、自願性產業標準以及對數位素養計畫的廣泛投資,以助網路用戶了解分辨真假的方式,「偵測並試圖將這些內容撤下不是辦法,我們需要更大的解決方案」。(譯者:盧映孜/核稿:劉文瑜)1121129

中央社「一手新聞」 app
iOS App下載Android App下載

本網站之文字、圖片及影音,非經授權,不得轉載、公開播送或公開傳輸及利用。

地機族
請繼續下滑閱讀
172.30.142.86