首頁 要聞 焦點

AI若竄改集體記憶 專家:世界恐進入真相倒置時代

林一平:AI生成內容足以欺騙未經查證的觀者 甚至成為集體的錯誤記憶 守護真實成為每個人的責任

前科技部政務次長林一平撰文警告,當人工智慧(AI)生成的虛假內容數量超過真實資訊時,搜尋引擎甚至可能將錯誤答案置於前列,世界將進入「真相倒置」時代。示意圖。(123RF)
前科技部政務次長林一平撰文警告,當人工智慧(AI)生成的虛假內容數量超過真實資訊時,搜尋引擎甚至可能將錯誤答案置於前列,世界將進入「真相倒置」時代。示意圖。(123RF)

【記者吳旻洲/台北報導】近年生成式人工智慧(AI)席捲全球,已澈底改變各行各業的運作方式。前科技部政務次長林一平撰文警告,生成式AI衍生出的「AI曼德拉效應」,已經進入危險的新階段,當AI生成的虛假內容數量超過真實資訊時,搜尋引擎甚至可能將錯誤答案置於前列,世界將進入「真相倒置」時代。

所謂的「曼德拉效應」(Mandela Effect),是指大眾對特定事件、圖像擁有相同但錯誤的記憶,而當多人共同分享一個錯誤記憶時,更會加深該錯誤的可信度。此名詞源於許多人「記得」南非總統曼德拉於1980年代死於監獄,但事實上他於2013年才去世。

「生成式AI的出現,讓這個(AI的曼德拉效應)現象進入危險的新階段」,林一平在「椽經閣」網站發文指出,在過去,錯誤的記憶源於人腦的模糊回想,如今卻可能來自精心製作的數位幻象。

他表示,AI能輕易生成高度擬真的內容,例如「C-3PO全銀色劇照」或「皮卡丘黑色尾巴百科條目」。這些虛構細節真實得足以欺騙未經查證的觀者,一旦在社群媒體病毒式擴散,說服力遠超過去的謠言。

AI以驚人速度汙染資訊生態

「同時,AI內容正以驚人速度汙染資訊生態」。林一平說,當人們試圖驗證記憶時,搜尋結果往往充斥大量口徑一致的錯誤答案,形成資訊迴音室。社群演算法又偏好新奇與爭議性內容,AI製造的謠言正符合這些條件,於是錯誤訊息在推送與點擊間不斷循環,甚至被推升至主流討論。

「更令人憂心的是,AI不僅能放大既有錯誤,還能憑空創造從未存在的記憶」。林一平表示,若有人利用AI虛構一個九〇年代的卡通角色,生成動畫片段、廣告影像與週邊商品照片,再編造討論貼文。這些充滿懷舊元素的內容迅速走紅,10年後,當年的孩童已成年,腦中仍保留模糊印象。當有人發問「你還記得這個卡通嗎?」便會有大批網友響應,甚至補充劇情細節。

「一個根本不存在的角色,竟成為集體的童年回憶」。林一平表示,AI已不是錯誤的放大器,而是記憶的原始編造者,繞過既有事實,直接向集體意識注入從未發生過的過去。

他強調,這絕非單純趣聞,而是深具社會風險的徵兆。當偽造記憶結合擬真圖像、詳盡文本和龐大社群互動,真實與虛構的邊界將越加模糊。它可能動搖人們對歷史的理解,使司法證據效力大打折扣,甚至撼動政治共識。

「如果某個重大事件被AI大規模改寫,數百萬人因而誤解,後果難以想像」。林一平警告,更極端的情境是,當AI生成的虛假內容數量超過真實資訊時,搜尋引擎甚至可能將錯誤答案置於前列。此時,真相反而成了需要額外努力證明的「少數說法」,世界將進入一個「真相倒置」的時代。

需養成交叉驗證與批判思考

為防範這種事態的發生,社會必須建立數位免疫系統。林一平表示,技術上需要更精準的檢測工具,辨識內容是否為AI生成。制度上,平台應透明標註AI內容,並對惡意散布者設立規範;教育上,更需強化數位素養,培養理解演算法運作的能力,養成交叉驗證與批判思考的習慣。

林一平強調,在這個由演算法與幻象交織的記憶迷宮裡,「真相的價值從未如此珍貴」。當記憶本身都能被製造,守護真實便成為每個人的責任,「我們的選擇,將決定未來世代如何理解過去、認識現在」。◇