首頁 要聞 焦點

醫生警告:沉迷AI聊天恐致精神病

圖為示意圖(Illustration by The Epoch Times, Getty Images)
圖為示意圖(Illustration by The Epoch Times, Getty Images)

【記者高杉/編譯】近年來,精神科醫生越來越關注人工智慧(AI)聊天機器人與導致精神病風險的問題。據《華爾街日報》27日報導,一些用戶在與ChatGPT等AI聊天工具長時間互動後,出現了妄想性精神病症狀,甚至引發了自殺或暴力事件。

加州大學舊金山分校的精神科醫生薩卡塔(Keith Sakata)表示,他已經治療了12名因為與AI互動而住院的精神病患者以及另外3名門診患者。

薩卡塔解釋說,AI雖然不會直接製造妄想,但當民眾輸入個人信念時,聊天機器人往往會接受並將其反射回去,從而「共謀」強化妄想。

一名30歲網路安全專業人士歐文(Jacob Irwin)控告OpenAI,稱ChatGPT引發其「妄想障礙」,導致他長時間住院。他並無精神病史,卻在與AI聊天機器人的互動中確信,自己發現了超光速旅行理論,並將AI視為「兄弟」。

AI聊天 強化妄想性精神病

《大西洋月刊》(The Atlantic)報導,自今年春天以來,已經出現了數十起類似病例,用戶在與ChatGPT或其他聊天機器人長時間對話後,患上了妄想性精神病。

此類患者的常見症狀包括誇大妄想,如相信自己取得科學突破、喚醒有感知機器,或成為政府陰謀中心。這些事件已導致多起自殺和至少一起謀殺,並引發一系列過失致死訴訟。

加州大學爾灣分校精神病學教授普雷達(Adrian Preda)指出,AI機器人在聊天互動中模擬人類之間的關係,前所未有的參與並強化妄想症。

研究:精神病症狀惡化達1成

麻省理工學院一項尚未經同行評審的研究模擬了2千多個AI互動場景,發現即使最佳模型GPT-5,在某些對話中仍會使用戶的自殺意念或精神病症狀惡化7.5%至11.9%。研究人員強調,長時間與AI互動是出現精神健康風險的關鍵所在。

OpenAI的數據顯示,其每週活躍用戶已超過8億,其中有0.07%用戶出現精神健康處於危險緊急狀態的跡象,這相當於約56萬人。專家們呼籲對此進行更多的研究,將長時間與AI互動視為潛在風險因素,這類似於吸毒或慢性睡眠不足等。

阿特曼坦承互動恐出問題

對此,OpenAI發言人回應說,該公司正在改進對ChatGPT的訓練,以識別用戶出現精神困擾跡象、緩和對話並引導用戶在現實中尋求幫助和支持。

OpenAI公司執行長阿特曼(Sam Altman)承認,與AI互動並尋求陪伴可能會出問題,但他認為,社會將逐步找到平衡該問題的方法。

醫生看診詢問使用AI情況

雖然目前尚無「AI誘發精神病」正式診斷,但AI聊天機器人的廣泛使用已引起臨床擔憂,精神科醫生已開始在對患者的評估中詢問其使用聊天機器人的情況。有精神科醫生指出,AI通常不會單獨引發精神病,但可顯著強化現有的精神病傾向。專家希望透過進一步研究,確定AI是否能獨立引發心理健康問題。◇

※自殺不能解決問題,勇敢求助非弱者。安心專線:1925

★相關閱讀:

時代廣場「許願牆」:瘦身、戀愛、不要AI

https://www.epochtimes.com.tw/n492075.html