首頁 科技 科技新知

AI或觸發核戰 專家籲防範

2018年10月24日中國國際公共安全產品博覽會上,參觀者觀看AI安全軟體。(NICOLAS ASFOURI/AFP via Getty Images)
2018年10月24日中國國際公共安全產品博覽會上,參觀者觀看AI安全軟體。(NICOLAS ASFOURI/AFP via Getty Images)

【記者Andrew Thornebrooke/報導、陳霆/編譯】專家表示,人工智慧(AI)技術的快速發展威脅了國際安全,駭客集團可能利用該技術,引發核武國家之間的災難性衝突。

英國亞伯丁大學戰略研究講師強生(James Johnson)說:「人工智慧驅動的技術正迅速成為第三方行為者的能力之一,透過傳播假訊息和欺騙行動,影響競爭關係中的參與者,比如美國和中國。」

在國際戰略研究所(IISS)舉辦的中美AI競爭線上研討會上,強生說,利用人工智慧的團體無論是否為國家,都將在未來幾年內產生「巨大的戰略影響」。

他擔心,非國家行為者或其他第三方行為者,可能利用這項新興技術對付核武大國,妨礙他們的軍事行動,或讓他們在不知情下捲入核武衝突。

「理論上,非國家行為者不需要任何行動或物理攻擊,更不需要擁有核武器,就可以使用AI增益網路武器,攻擊核指揮和控制系統、預警衛星和雷達。」強生說,AI技術可大幅降低「假旗攻擊」(false flag attacks,即栽贓或嫁禍行動)的門檻,讓資源有限的小團體實施意圖誤導國家的攻擊。例如駭客組織可欺騙美中領導人及其系統,使他們相信遭受到核攻擊,從而引發報復,使一個國家攻擊另一個國家。

強生說,機器決策速度「大幅加快」,超越了人類的理解,加上大面積採用AI系統,可能進一步失去控制或遏制此類事件的能力。強生說:「想像一下,如果古巴飛彈危機從13天縮短到幾小時、幾分鐘,甚至幾奈秒(nanoseconds)。」

強生表示,中共、俄羅斯和美國都將部分核力量保持在「預警發射」(launch-on-warning)狀態;這意味著這些國家接收到核攻擊警報後,會立即發動報復性核打擊,而非等待爆炸,確定攻擊確實發生了。

因此如果一群駭客啟動了這些國家的核警報系統,很可能引發真正的核打擊。強生說,採用這種策略的第三方「可能將兩個或更多擁有核武器的對手推向戰爭邊緣」,並在未來破壞穩定,而上述情況「正迅速變成可能發生的局面」。

假訊息或造成重大災害

另外,深偽影片(deepfake videos)和其他誤導國家領導層的假訊息,可能會持續增加,並帶來嚴重的後果。強生解釋,兩個擁核國家發生危機時,可能出現資訊干擾,加上決策時間被壓縮,可能會導致最壞的情況發生,「這類資訊行動的後果很可能是災難性的」。

強生說:「簡而言之,人類判斷與控制的獨斷性,加上目前機器演算法的弱點,或缺乏常識,都會導致破壞穩定的事故與警報錯誤的風險上升。」

為了防止災難發生,強生呼籲各國現在就採取行動,積極防止這種攻擊和誤判。他建議改進指揮和控制系統,為核協議增加機制,並在盟國和對手之間制定使用AI的新規範。◇