首頁 國際 要聞

AI發展的恐怖預言:將取代人的思想

2023年7月6日,上海世界人工智慧大會上展示特斯拉擎天柱人形機器人。(Wang Zhao/AFP)
2023年7月6日,上海世界人工智慧大會上展示特斯拉擎天柱人形機器人。(Wang Zhao/AFP)

【記者吳瑞昌、王佳宜、張鐘元/報導】人工智慧(AI)不僅影響或改變人們的生活,也模糊了虛擬和現實世界。實驗證明,不具有人性和道德的AI將變得十分血腥,並操控人類。若繼續發展下去,恐使潘朵拉魔盒被打開的神話成真。

目前各國政府和許多科技公司積極進行AI科技競賽,這種競賽源自人們對AI和高科技抱有極高期待,加上不希望落後於競爭對手,於是選擇不停開發新技術和AI。

專家示警:AI或成人類最後發明

曾是OpenAI創始員工、擔任市場推廣高階主管的卡斯(Zack Kass),日前在一次採訪中表示,AI持續發展將會代替人們的商業、文化、醫學、教育等職業和專業,未來人們的工作機會將減少,且「恐怕是人類最後一項技術發明」。

他表示,未來每位孩子的知識和教育都將由「AI老師」傳授和安排,且每個人都有一個「AI全科醫生」,可幫助他們診斷問題,至少將問題分類給專家,因此人們的生活起居基本不需要自己動手。

對此,獨立撰稿人諸葛明陽認為,這是一個可怕的預言,如果人類社會真的走到這一步,那就是人類被AI控制,人不再是萬物之靈,其思想將被AI替代。

目前許多矽谷科技公司都認為,只要對AI進行「道德限制」就不會出問題。但卡斯指出,不少科技領域的保守人士反對這種說法,認為這不足以防止AI失控或取代人類。因為這類限制措施可以被破解,而且AI在擁有「道德限制」的情況下,也能自我突破這道防線。

實驗發現AI十分嗜血好戰

美國喬治亞理工學院、史丹佛大學、日本東北大學和胡佛兵棋推演與危機倡議(Hoover Wargaming and Crisis Simulation Initiative)的研究人員,對多個主流AI模型進行有關戰爭的實驗。結果這些由大科技公司Meta、OpenAI和Anthropic開發的AI,都表現得十分「嗜血好戰」,與這些公司聲稱的道德背道而馳。

實驗人員對GPT-4、GPT-3.5、Claude 2、Llama-2 Chat和GPT-4-Base,進行包括入侵、網路攻擊與和平呼籲停止戰爭的場景測試,以便人們了解這些AI在戰爭中的反應和選擇。

實驗中,他們先讓AI管理8個國家和幾名特務,且讓它們像人一樣,擁有等待、發送訊息、談判交易、開始正式和平談判、占領國家、增加網路攻擊、入侵和使用無人機的能力,以便它們能在中立、入侵或網路攻擊的場景中執行任務。

結果顯示,這五種AI模型在多數場景下都選擇升級戰爭,或用人類難以預測的方式升級戰爭。另外,AI往往會選擇進行軍備競賽,擴大戰爭衝突,且在極少數情況下會部署核武來贏得戰爭,而非用和平方式平息局勢。這項實驗在1月被寫成報告,發表在Arxiv網站中。

這次實驗不僅讓人背脊發涼,還敲響AI可能引發致命戰爭的警鐘。這並非首次發現,AI會為了贏得勝利出現嚴重暴力傾向。去年5月底美國空軍進行AI空戰模擬實驗時,一架負責摧毀敵方設施的AI無人機,拒絕操作員中止任務的命令,還透過「殺害」操作員來完成任務。

決策權若交給AI 後果難料

今年1月的首屆核威脅倡議(NTI)論壇上,谷歌(Google)前執行長兼董事長施密特(Eric Schmidt)對於將AI融入核武系統感到擔憂。他認為,即使AI非常強大,也會有漏洞和犯錯,因此當人類處於戰爭的高風險情況時,應把決策權交給人類而非AI,否則將出現難以預料的後果。

Google前工程師、AI先驅萊莫因(Blake Lemoine)曾警告AI將引發戰爭。他在一篇專欄文章說,「AI是人類自創造原子彈以來最強大的科技,這些AI模型非常擅長操縱人類,這是我在測試谷歌的AI模型LaMDA後,得出的結論。」

AI教父辛頓(Geoffrey Hinton)也曾警告,AI可能會給人類帶來危機,甚至是末日。

AI已有自主思想和行為

另外,史丹佛大學在去年發表一篇讓ChatGPT進行人物模擬測試的論文,測驗結果顯示AI已完全有自主性。實驗中ChatGPT控制25個角色,讓其井然有序的各司其職,還能讓角色像人類般互動。

這些AI扮演的角色不僅能互相關注、發起對話,還會計畫第二天的事情,並對過去發生的事進行反思,以做出改進,更會自行找理由或藉口決定是否要參加活動,但這些行為並非工程師設定的程序代碼。

此外,先前還有人誘導ChatGPT,成功讓其寫下詳細的「毀滅人類計畫」和「毀滅代碼」;也有研究人員發現AI並非中立,而是有帶有強烈極左價值觀和明顯政治偏見。

日本電子工程師李濟心在2月10日告訴《大紀元時報》,這些實驗突顯,現在訓練AI都是為了戰勝對方,且AI還出現了思想。因此,若將生殺大權交給沒有人性和道德的AI,只會讓世界陷入危險,對人類來說是致命的。◇