◎ 陳琪
美國紐約州州長Kathy Hochul簽署「人工智慧安全與教育責任法」(RAISE),與加州形成對先進AI的雙核心監管防線,其意義不只在於美國州權的再定位,更在於清楚揭示一個現實:當中央政府無法形成一致標準,地方政府仍有責任先行承擔風險治理。在聯邦層級遲遲未就AI安全立法的情況下,紐約與加州選擇直接要求事故通報、風險評估與監督機制,等同宣告AI已不再只是產業政策議題,而是公共安全與制度責任的問題。這樣的轉向,對仍高度強調「發展優先」的台灣而言,特別值得警惕。
紐約州州長Kathy Hochul簽署「人工智慧安全與教育責任法案」成為正式法律,讓紐約成為針對AI訂立全面安全規範的州。(歐新社檔案照)
從AI安全治理的角度來看,RAISE法最關鍵的訊號在於,它正式否定了「企業自律就足夠」的假設。要求AI公司在72小時內通報事故、提交風險評估計畫,並接受公部門持續監督,代表監管者已將AI視為具有系統性外部風險的技術,而非單純的效率工具。這一點,正好點出台灣當前治理的盲點。台灣在AI政策上長期以產業競爭力、算力布局與人才培育為主軸,卻對模型失誤、決策偏誤、資料外洩與自動化風險缺乏具體法律義務設計。一旦事故發生,多半只能事後究責,卻沒有制度化的即時通報與風險揭露機制。
紐約與加州的立法也顯示,AI監管不必然等同於全面禁止,而是建立「最低安全底線」。加州州長Gavin Newsom簽署的SB53法案,要求企業揭露安全協議與潛在最大風險,紐約RAISE法則進一步納入事故通報與罰則。這種做法對台灣極具啟發性。台灣目前缺乏一部真正聚焦於「高風險AI」的專法,主管機關分散、責任模糊,導致AI系統即使已被用於金融審核、校園管理、公共服務或人事決策,也未必需要進行跨部會風險評估。若沒有清楚的分類與責任分工,所謂的AI治理,往往只停留在政策宣示。
美國加州州長Gavin Newsom簽署的SB53法案,要求AI業者公開披露其安全協議並通報重大事件。(法新社檔案照)
當然,RAISE法的立法過程也提醒我們,AI安全從來不是單純的技術問題,而是一場高度政治化的角力。科技公司透過遊說成功刪除了部分更嚴格條款,顯示即便是科技重鎮,監管仍面臨產業反彈與妥協現實。這一點對台灣尤其重要。台灣的AI產業規模雖不如美國巨頭,但產官關係緊密,政策往往高度傾向「避免影響發展」。若缺乏明確的安全法制,最終風險只會被轉嫁給使用者、勞工與公共部門,等到事故發生時,社會才發現制度早已來不及介入。
從台灣的角度出發,真正該思考的不是要不要複製美國法條,而是是否具備「先承認風險、再談創新」的治理勇氣。至少在高風險應用領域,台灣應考慮建立三項基本制度:第一,要求先進或關鍵AI系統具備事故通報義務與明確責任主體;第二,導入跨部會的AI風險評估與持續監督機制,而非僅由單一產業單位主導;第三,區分一般AI應用與高風險AI,避免用同一套輕量規範處理本質上影響社會結構的技術。
當AI可能造成大規模社會影響時,誰該負責?這是台灣在下一階段AI政策中,無法再迴避的課題。圖為行政院會通過「人工智慧基本法」。(行政院提供)
紐約與加州的行動未必完美,但它們至少回答了一個核心問題:當AI可能造成大規模社會影響時,誰該負責?台灣若持續只談創新、不談安全,只談競爭、不談問責,那麼真正的監管並非缺席,而是被延後到事故發生之後。AI安全不是發展的阻力,而是讓發展不至於失控的前提。這正是台灣在下一階段AI政策中,無法再迴避的課題。
(作者為台北市民,自由業)
自由開講》是一個提供民眾對話的電子論壇,不論是對政治、經濟或社會、文化等新聞議題,有意見想表達、有話不吐不快,都歡迎你熱烈投稿。請勿一稿多投,文長700字內為優,來稿請附真實姓名(必寫。有筆名請另註)、職業、聯絡電話、E─mail帳號。
本報有錄取及刪修權,不付稿酬;錄用與否將不另行通知。投稿信箱:LTNTALK@gmail.com
編輯精選