◎ 陳鋕雄
馬斯克等千餘位專家連署,希望暫停下一世代先進AI系統開發六個月,不少輿論認為此事不可能實現,但此連署真正的意思是:這些重量級科技專家已預見先進AI對社會造成的負面衝擊,而且他們認為無法靠科技的力量來節制這些衝擊。
舉例而言,已證實ChatGPT可被誘導透露原本不該透露的資訊,例如青少年不宜的色情網站列表等等。若AI所使用的資料來源沒有限制,AI有可能散佈槍械彈藥的製造方法,或低成本恐怖攻擊的方式。而先進AI加以訓練之後,也可用於金融詐騙。另外,生成式AI造成職缺的大量減少,也是可預見的發展,因為這類AI的主要任務就是取代一些原本屬於服務業的工作。
雖然科技本身不容易監管,但科技要能維持運作,需要商業模式獲取資源,而不合法的商業模式不容易在社會中生存,這就是監管力量可切入之處。面對即將襲捲而來的AI社會衝擊,世界各國含東亞國家均已展開修立法布局,我國也需要更加速進行準備因應,包括加速進行AI立法。AI立法的基本原則,要儘量把各種AI產品或服務都納管,但可以基於風險評估,對風險小產品給予比較鬆的規範。
生醫法規科學是經常面對創新科技上市審查的學科。面對使用AI技術的軟體醫材,美國FDA提出Good Machine Learning Practice的概念,認為AI研發設計的過程應在監管下遵守一定原則。面對AI黑盒效應不易解釋的難題,FDA並對AI軟體醫材實施Pre-Cert的監理沙盒,把監管的重心不是放在最終產品本身,而是著重於確保軟體製造商在開發過程各階段是否遵守一定的原則。這個強調監管「開發過程」而非「結果」的思維,對於未來AI產品的管制策略,非常值得參考。例如,google成立過內部倫理委員會,但只有一週就解散了。但對高風險產品而言,在開發過程有外部專家監督,熟悉整個開發過程,會比開發完成後才由外部人員檢視產品服務技術,來得更有效。
歐美制定AI管制法律,並非只由法律人主導,而是基於風險評估、科學證據法則等,由不同領域的AI專家共同組成委員會持續討論,發表報告書上線供公眾檢視,最後才形成詳細的管制條款。這是因為AI立法會對產業形成限制,而此種限制在公法上必須遵守比例原則。如果法律專家只懂法律,不懂科技,很容易對科技進行過度管制,形成國家發展AI產業的不當阻力。跨領域與擴大參與是我國AI立法的必要方式。
(作者為陽明交通大學科技法律學院院長)