首頁 要聞 綜合

AI自主思維恐取代人類 破壞信任和正常社交

2024年2月28日,巴塞隆納世界行動通訊大會上的生成式AI聊天機器人。(Josep Lago/AFP)
2024年2月28日,巴塞隆納世界行動通訊大會上的生成式AI聊天機器人。(Josep Lago/AFP)

【記者吳瑞昌/報導】今年2月新發布的兩款AI生成器給人們帶來震撼和擔憂,遠超過ChatGPT 3.5剛發布時的氛圍。一個是Stability AI最新的文字生成圖片Stable Diffusion 3模型,以及OpenAI結合自家ChatGPT和AI DALL·E做出的文字生成影片AI Sora。

這兩款AI做出的影音圖片過於逼真,讓人一時間難以辨別真實和虛假。當這些影像被用來做壞事時,社會或許會變得更加混亂。最終會讓人們發現,「有圖未必有真相」。

Sora目前雖然仍存在邏輯上的問題,但只需透過簡單的一段文字描述,就能生成1分鐘的超高清影片,影片就像真人拍攝。由於影片中運用複雜運鏡和光影方式,體現出AI對於這個世界的運行方式,已經具有相當程度上的了解。

目前Sora和Stable Diffusion 3尚未對大眾開放。這些公司稱,希望在這些AI加上更嚴格的「道德」限制,以防止AI會被濫用給人類帶來混亂。

日本電子工程師李濟心擔憂,「現在的攝影鏡頭和雷射雷達,就是AI的眼睛,而GPU(圖形處理器)就是AI的大腦,當AI可以理解和模擬現實世界,就相當於有了思維,最後就能掌控世界。」

AI存在道德低下和嚴重偏見

但人們發現,許多AI存在偏見、扭曲現實和「道德」上的缺陷。例如,谷歌最新的聊天型生成式AI模型雙子座「Gemini」,被發現有極嚴重的偏見,經常回答用戶該問題涉嫌「種族、性別或宗教等歧視」後,拒絕生成圖片。

其中最引人注目的是請Gemini生成一張美國國父華盛頓(George Washington)的圖片時,它生成一張帶著白色假髮、身著陸軍制服的黑人形象華盛頓。

Gemini還被發現拒絕針對一些道德問題進行表態,包括拒絕批評「戀童癖」和拒絕表態曾殺害兩千萬多人的蘇共前黨魁史達林是殺人魔,聲稱這些回答是「仇恨」。

谷歌Gemini的產品主管克勞齊克(Jack Krawczyk)被挖出曾在網上發表許多極度偏激且充滿仇恨的言論,包括攻擊信仰者、白人和美國本身。特斯拉創始人馬斯克抨擊他是造成谷歌的AI如此「種族主義」和「性別歧視」主要原因之一。

時事評論員伍茲(Keith Woods)用已故著名小說家歐威爾(George Orwell)的名言反擊克勞齊克和Gemini的行為:「毀滅人類最有效的方法,就是否認和抹殺他們對自己歷史的理解。」

AI破壞信任和正常社交活動

AI的出現除了給人們帶來「便利」,也衍生出許多難以解決的問題。包括利用AI犯罪,例如一段利用AI對英國倫敦市長克汗(Sadiq Khan)聲音進行深度偽造音檔,在紀念一次大戰停戰日時被發表到巴勒斯坦遊行,但內容具有一定煽動性質,導致遊行出現一陣騷亂。

另外,越來越多人寧願用AI當作自己的另一半,以填補空虛和寂寞,且越來越多廠商看到龐大商機。中國的百度推出「一對一的AI情人」,使用者認為,不用培養情感和過多的付出,就能獲得自己想要的感覺。

日本的電腦工程師清原仁(Kiyaohar Jin)2月27日告訴《大紀元》,「AI研發成功的第一步先是讓人依賴,之後代替人類進行生活和繁衍,再這樣發展下去人類也會隨之滅亡,這是十分危險的。」◇