首頁 國際 要聞

美聽證會:人工智慧假影片 威脅2020大選

馬里蘭大學教授席特倫(左起)、OpenAI政策主任克拉克、紐約州立大學水牛城分校教授多爾曼及前FBI專員華茲。(記者李辰/攝影)
馬里蘭大學教授席特倫(左起)、OpenAI政策主任克拉克、紐約州立大學水牛城分校教授多爾曼及前FBI專員華茲。(記者李辰/攝影)

【記者李辰/美國華盛頓DC報導】試想:某公司首次公開募股(IPO)的前夜,一段偽造該公司執行長的犯罪影片被廣泛流傳,該公司的股價因此受到重創,損失了巨額的資金。雖然影片的內容可能在幾天內被證實為造假,但是卻已造成對這家公司的巨大傷害。

試想:2020年美國總統大選的前夜,在選情激烈、不相上下的情勢下,有心人士杜撰散播了一段影片來攻擊總統候選人,進而改變大選結果……

以上是馬里蘭大學法學院教授席特倫(Danielle Citron)在參議院情報委員會聽證會上舉的例子,用來說明「深度偽造技術(Deepfakes)」可能危害國家安全和社會安全。

美國參議院6月13日舉行聽證會,主題為「人工智慧、被操縱的媒體和深度偽造影片給國家安全帶來的挑戰」。參議院情報委員會在一份聲明中表示,「深度偽造影片」可能嚴重傷害到國家安全和民主社會,民眾和選民一旦受到造假影片的影響後,將懷疑自己所見與所聽的內容是否屬實。

假訊息恐成選舉最大惡夢

美國聯邦眾議院情報委員會主席謝安達(Adam Schiff)在聽證會上表示,操控造假影片可能會帶給2020年美國大選「惡夢」,「讓立法者、新聞媒體和民眾忙於辨別假新聞。」

他說:「一旦有人觀看了造假的影片,破壞力就已經造成了。即使該影片後來被證實是偽造的,人們很可能無法抹滅看過造假影片後的負面印象。」

謝安達提醒,採取行動迫在眉睫,「現在是社交媒體公司制定保護措施、避免使用者受到假訊息傷害的時候…… 不要等到如同病毒的『深度偽造影片』影響 2020年大選,否則屆時恐怕已為時已晚。」

專家:社媒可做第一層把關

馬里蘭大學法學院教授席特倫表示,影片的影響效果很大,「人們往往傾向相信自己所看到與聽到的內容」。席特倫認為,沒有絕對的方法來阻止偽造影片的傳播,單一的法律手段無法解決問題,「我們需要聯合法律、科技公司以及大量的社會復原力(societal resilience)來應對這些挑戰」。

人工智慧公司OpenAI的政策主任克拉克(Jack Clark)表示,「深度偽造影片」對新聞媒體也構成巨大對威脅,因為這令大眾懷疑新聞報導的準確性。此外,雲端計算、機器學習和數據處理等技術的進步,製作「假媒體」的成本更低與更容易。

紐約州立大學水牛城分校教授多爾曼(David Doermann)表示,社交媒體公司可以發揮重要作用,使用工具將可驗證的聲音檔和影片連結,並決定是否從各網站中刪除,「與我們處理惡意程式或網路問題的方式相同,先進行第一層的把關」。

參加聽證會的華茲(Clint Watts)是喬治華盛頓大學網路和國土安全中心的資深研究員,也是外交政策研究所研究員和前聯邦調查局(FBI)專員。他也表示,面對這一挑戰需要和社交媒體公司建立「夥伴關係」,並建議國會對網路駭客採取制裁措施。

中俄或運用人工智慧攻擊西方民主

華茲還擔憂,中共和俄國可能運用假影片等人工智慧手段來散播假消息,打壓國內民眾和攻擊西方民主國家。

「我估計,長期以來,俄羅斯是假訊息傳播者,它將繼續尋求合成媒體的能力,用來對抗世界各地的對手。」華兹推測,中共也會加入「深度造假」的行列,「中共擁有人工智慧能力、大量的數據庫,包括從美國竊取的大量訊息」。」

華茲進一步表示:「這兩個國家和其他極權國家可能會使用『深度偽造技術』進行假宣傳,包括詆毀國內持不同政見者和國外批評者、煽動恐懼、引發西方民主國家內部的衝突等。」◇

「深度偽造技術」(Deepfake)係由英文「深度學習」(deep learning)和「偽造」(fake)的組合而成,指使用基於人工智慧的人體圖像合成技術。該技術可將已有的圖像和影片,疊加至目標圖像或影片上。