首頁 地方 台北

控管AI代理風險 數發部長談監理布局

AI監理上採平衡策略 一面控管風險一面避免影響產業 推動深偽影像標示與加速下架遏止犯罪

近期科技圈興起以「養龍蝦」比喻部署代理式AI。圖為OpenClaw。(記者宋碧龍/攝影)
近期科技圈興起以「養龍蝦」比喻部署代理式AI。圖為OpenClaw。(記者宋碧龍/攝影)

【記者戴德蔓/台北報導】開源AI工具OpenClaw近期引發資安疑慮,數位發展部長林宜敬3月18日表示,這類具備代理執行能力的「Agentic AI」可自動完成任務,但也潛藏個資外洩與金流風險,政府在AI監理上須取得平衡,一方面控管風險,另一方面避免過度限制影響產業發展。

林宜敬針對「落實台灣AI治理與基礎建設,發展台灣AI軟體產業」赴立院進行專題報告。他表示,OpenClaw屬於Agentic AI,可代為執行多項任務,例如自動在YouTube發布影片、訂購機票,甚至進行信用卡交易,但也伴隨風險,「有時候可能亂刷卡,一覺醒來發現錢包破了洞」。

數位發展部長林宜敬。數位發展部長林宜敬。(記者宋碧龍/攝影)

強化資安機制與三層治理

對於Meta、Google等企業已限制員工使用相關工具,是否有監理措施,林宜敬表示,AI技術發展快速,相關風險與防護機制也持續演進,例如輝達在GTC大會推出的NemoClaw,即在OpenClaw基礎上強化資安機制。

他強調,數發部在AI監理上將採取平衡策略,「一方面控管風險,一方面避免過度限制影響產業發展」。在治理架構上,將採三層設計,包括上位的《人工智慧基本法》、中層的AI風險分類框架,以及由各部會依業務訂定的相關做法。

林宜敬指出,長期而言,AI代理有機會導入公務體系,提升行政效率,但短期仍需審慎評估資安與應用風險。

跨境深偽犯罪面臨管轄困境

隨著AI技術快速發展,新型態犯罪也隨之增加。立委萬美玲關注,深偽(Deepfake)、AI生成裸露影像技術濫用,已導致兒少性影像申訴案件大幅攀升,從2023年僅56件,到2024年已突破千件。

對此,林宜敬表示,相關案件多涉及境外IP,雲端工具與平台多設於國外,導致台灣面臨司法管轄限制的困境,「現在最大的問題不是無法可管而已,相關雲端工具多設於境外,所以我們在司法上並沒有管轄權,這也是很多國家都非常頭大的一個問題」。

他說,數發部已提出因應措施,包括加速違法內容下架機制,以及推動AI生成影像標示制度,要求標註由AI產生的內容;同時也將與衛福部合作,縮短違法影像下架時程,以降低對兒少的傷害。

算力設施納入促參重大建設

在AI基礎建設方面,立委黃健豪關切算力布局情形。林宜敬表示,台灣必須建立自主算力,若算力中心與AI模型均設於海外,恐面臨「無法可管」的問題,這也是推動主權AI的重要原因。他說,數發部前年已購入40片GPU,但去年相關預算遭刪,未能如期擴充,今年規劃再採購100片GPU,盼立法院支持。

為引導民間資金投入,數發部將AI算力中心明確列為策略性產業,並透過租稅與投資機制提高投資誘因。林宜敬表示,數發部已與財政部研商,將投資逾新台幣3億元且達一定算力規模的設施,納入《促進民間參與公共建設法》的重大公共建設範圍。目前鴻海已提出投資申請。

數發部表示,將持續逐步建構台灣AI產業生態系並提升國際競爭力。◇

★相關閱讀: