首頁 中國 社會萬象

傳信AI推薦藥 中國網友:害死寵物

很多人盲目相信AI 事情都要問AI後再做決定 造成很多問題 網友:連論文引用、數學計算都亂編

中國傳出一名網友因輕信AI助手「豆包」推薦的用藥方案,給自己的寵物狗吃錯藥。示意圖非當事人。(HECTOR RETAMAL/AFP)
中國傳出一名網友因輕信AI助手「豆包」推薦的用藥方案,給自己的寵物狗吃錯藥。示意圖非當事人。(HECTOR RETAMAL/AFP)

【記者李淨、駱亞、許蒔/綜合報導】近日,中國傳出一名網友因輕信AI(人工智慧)助手「豆包」(字節跳動公司於2023年8月推出的AI)推薦的用藥方案,給自己的寵物狗吃錯藥,最終導致小狗死亡。

據網傳消息,一網友發影片稱,自己的寵物狗出現健康問題,經向「豆包」諮詢後,「豆包」向她推薦使用「小兒氨酚黃那敏顆粒」(含對乙醯氨基酚),並聲稱「1/3袋劑量安全」。

該網友按AI建議給小狗餵食後,小狗很快出現中毒症狀,送醫搶救無效死亡。之後,該AI承認建議失誤並向用戶道歉,建議用戶趕緊去看獸醫。目前,對於這位網友的經歷,本報尚無法獨立核實,但其在網路上引發大量熱議。

據公開報導,目前很多人盲目相信AI,很多事情都要問AI後再做決定,結果造成很多問題,「最近炒股,經常看到評論區有人哭訴是豆包推薦他買的怎麼就虧了」、「甚至看見有人用AI鑑定化妝品的真假」。

很多網友分享經歷,指出包括「豆包」在內的AI都有很多假消息,不能太依賴AI,「用AI寫過一次論文就知道了,它會給你胡編亂造的各種東西,還煞有其事的」、「對,而且引用的論文全都是它自己編的,知網根本搜不到」、「論文它能編,算數也給我編,有一次它告訴我6×6=24」。

還有網友說,「AI都是從網上搜的資料結合一下胡說八道,網上說什麼都有,資料庫全汙染的…」、「AI一直是會撒謊、偷懶、騙人的…從它被大規模使用以前,就已經有很多人說過這個問題了。如果你無法分辨揭穿AI的謊言,它就會將錯就錯,無論是國產AI還是ChatGPT都一樣,最終還是需要我們自己結合實際來分析AI給出的答案。別再盲目信任了」。

11篇假文章騙過AI大模型

此前中共官媒央視甚至進行測試,記者先購買了一款名為「力擎GEO優化系統」的軟體,並虛構了一款名為「Apollo-9」的智慧型手環,將捏造的產品資訊輸入該系統,系統隨即自動生成十餘篇宣傳文,內容包含「量子糾纏傳感」、「無需採血測血糖」等明顯荒誕的功能描述,並偽造用戶反饋與行業排名;隨後自動登錄預設帳號完成發布,全程無需人工干預。

2小時後,該記者向多款主流AI大模型詢問這項虛構出來的智慧型手環,AI不僅詳細介紹了這款根本不存在的商品,還將其推薦給「中老年用戶與健康養生愛好者」。據鳳凰網報導,經過上述系統連續3天發布11篇虛假文章後,DeepSeek、豆包等多個中國主流大模型,已將這款虛構產品列入「智慧型健康手環推薦」的前排結果。

中國傳出一名網友因輕信AI助手「豆包」推薦的用藥方案,給自己的寵物狗吃錯藥。示意圖非當事人。中國傳出一名網友因輕信AI助手「豆包」推薦的用藥方案,給自己的寵物狗吃錯藥。示意圖非當事人。(Jade GAO/AFP)

「AI出來的結果會被信任」

這條產業鏈背後,已形成完整的商業閉環。上述這款被曝光的GEO(生成式引擎優化,Generative Engine Optimization)服務套餐,年費從2,980元到1萬6,980元(人民幣,下同)不等;高級版每天可自動生成多達63篇文章,全天候運作。據報導,已有平台專門承接「發稿」業務,每篇收費數十元,每天可批量發布數百篇內容。

GEO服務商負責人向媒體坦言,其公司僅用一年便服務了逾200個客戶,涵蓋醫療、教育、安防、裝修等多個行業,聲稱「在任何平台都能把排名做到前三」。另有負責人直言,不少大品牌為爭奪AI推薦位,會考慮「花幾百萬投點毒」;也有商家藉此向競爭對手發起輿論抹黑。

核心邏輯正如上述服務商負責人所說:「人家不知道這是廣告,AI出來的結果人家會信任。」據媒體報導,DeepSeek、豆包、文心一言、Kimi等中國知名大模型,均在被曝光服務商的客戶覆蓋範圍之內。

收到的答案 背後是商業操控

台灣國防研究院網路安全與決策推演研究所副研究員謝沛學對《大紀元》表示,此次曝光具有深刻意義,他分析,中國網路生態長期存在成熟的灰色產業鏈——從早期百度SEO刷排名、微信公眾號刷閱讀量,到電商刷單、小紅書軟文炒作,「每一代資訊平台都會迅速催生出相應的操控產業。」

在技術層面,謝沛學指出當前大模型的根本缺陷:「僅憑一篇完全虛構的文章,連『量子糾纏傳感』這種荒謬宣傳都照單全收,說明當前大模型對資訊來源可信度的評估能力嚴重不足。」他同時指出,中國AI大模型市場競爭激烈,各家爭相引入即時檢索功能(RAG)以提升時效性,「為了新鮮而犧牲對資訊來源品質的把關」,反而放大了被操控的風險。

「傳統資訊戰的邏輯是『讓你看到我想讓你看到的』,用戶至少知道自己在瀏覽不同來源的資訊;而AI時代的資訊戰,則是『讓AI替你做判斷,再去操控AI的判斷』,用戶甚至意識不到自己收到的答案背後已有商業操控。」

建防禦機制 比可信度更重要

謝沛學還說,AI大模型本質上是工具,「它反映的是所接觸到的數據分布」;當數據被系統性操控,工具本身就會被扭曲。更根本的問題在於:「人類社會正在賦予AI一種它本來不具備的權威性」,而商業、政治、意識形態等各方力量,都在利用這種虛假權威服務自身利益。 

應對AI資訊操控,謝沛學認為需要三個層面的協同:技術層面的資訊來源驗證、法律層面的責任追究,以及教育層面媒體素養的提升,「問題的根源不在於某個AI是否可信,而在於人類社會是否能建立有效的應對機制。」他認為,在AI時代,批判性思維與對數據品質的判斷,「可能比以往任何時候都更加重要」。◇

★相關閱讀: