◎ 蘇緯政
最近常聽到:「你養龍蝦了嗎?」這裡說的不是水產養殖,而是指具自主執行能力的AI代理工具,如近來備受矚目的OpenClaw。不同於以對話回答為主的生成式AI,「AI代理」已不只是「會說」,而是開始「會做」,能代你查資料、使用工具、收發郵件、整理文件,甚至跨系統執行任務。這看似是一場效率革命,卻也意味著風險型態正在快速改變。
真正該警覺的,不是AI偶爾答錯一句話,而是它可能在錯誤判斷下,真的替你付諸行動。代理式AI常見的風險,包括:可能在瀏覽外部網站或社群內容時,被藏在文字裡的惡意指令誤導;也可能因安裝來源不明的擴充技能(Skills),被植入後門或惡意程式;或是在長時間運作後,因記憶壓縮或污染,而逐漸偏離原本設定的安全規則;甚至因資安漏洞遭駭客利用等。
更麻煩的是,AI代理通常具有較高權限,且可能全天候運作;一旦防護不足,使用者的個資、帳號密碼、金融資料等都可能全部外洩,進而引發身分冒用與財產損失。舉例來說,攻擊者只要誘導使用者瀏覽惡意網頁,就可能奪取AI代理的控制權。換言之,當我們將API金鑰、帳號憑證、公司文件或個人資料交給AI代理時,交出去的不只是便利,也可能是整個系統的入口。
面對AI代理快速發展,政府應儘速建立明確的風險分級與最低安全標準,將沙盒測試、權限控管、日誌留存、人工覆核、事件通報及採購規範等納入,讓企業在導入前就有可遵循的治理框架。企業則不應在缺乏管理機制下搶快上線,而應先做好環境隔離、落實權限最小化、高風險操作需人工介入把關、第三方擴充技能與套件需事前嚴審,以及長期記憶資料定期備份等措施。
小心AI龍蝦,不是反對創新,而是提醒:科技走得越快,治理就越要前瞻;AI越能代勞,人類越不能放下判斷與責任。唯有政府完善法令政策、企業落實內控機制、人民提升資安素養,才能避免AI代理從提升效率的助手,淪為新的資安破口。
(作者是大學講師、前立法院院長秘書)
編輯精選