晴時多雲

自由廣場》AI判決的演算法須讓法官知悉

◎ 許凱傑

司法院積極建置的人工智慧(Artificial Intelligence;AI)判決撰寫系統即將上線,首階段試行針對酒駕和人頭帳戶詐欺等兩類案件。法官只需點擊「自動生成」選項,AI將自動生成完整的判決草稿。然而,在為我國司法邁出重大一步而驚歎之前,我們是否做足了準備?

黑盒子解決不了黑盒子產生的問題

AI的系統運作是由一連串演算法(Algorithms)所構成,單從生成器所產生的結果,不易得知演算法的內容,而演算法因缺乏透明度,常被定義為黑盒子(Black Box);台灣的司法過去也常被詬病為不透明或偏袒被告,或刑事庭法官的量刑像是黑盒子,產生不一致的結果。若僅跟隨趨勢而大量使用AI於法庭上,恐怕損及建立不易的司法信賴。

司法院這套新的「智慧」系統立意良善,僅係輔助法官判決寫作。但若有法官完全依照AI系統作成判決,或有法官完全拒絕適用的結果,是否又將產生不一致的判決,造成人民對司法信賴的二度傷害。這也是司法院在二○二一年通過,但至今仍躺在立法院的《刑事案件妥適量刑法》草案,須一併考量及解決的問題。

建立標準及信賴

因此,在充分了解AI的運作及演算法公開之前,應該建立民眾可信賴的標準。美國聯邦第五巡迴上訴法院的法官在今年五月宣布,「除非有人可以確認AI的正確信,否則在我的法庭禁止使用AI」;美國國際貿易法院的法官在今年六月也表示,「在法庭中,若律師有使用AI,應充分揭露給法院」。所以法院使用AI系統時,至少也應向公眾充分揭露,知悉演算法的內容,例如資料從何而來?擷取哪段時間的資料作為演算法的資料庫?是擷取量刑因子還是量刑刑度?有哪些例外?更應讓法官充分知悉系統的內容,否則法官對自己使用AI所生的判決「內容」都不知悉,如何妥當利用AI或是參考輔助判決?而針對個案,訴訟當事者在法庭或判決中,也應充分揭露AI使用的「程度」。

減輕司法負擔,重塑人民信賴

唯有職司司法審判工作的法官,或陸續加入的國民法官,才知道這份工作的艱辛。司法院近年固然積極爭取審判人力,最終在一○八年底總統公布施行,將司法機關員額由一萬三千九百人修正提高為一萬五千人,但爭取人力的速度仍然趕不上案件成長的速度。而今,趁著AI浪潮之際,司法院仍嘗試協助法官減輕案件負荷,立意良善。參考美國學者Kovera的研究,可以發現,非裔美國人佔美國總人口約百分之十三,而美國有百分之卅的監獄受刑人是非裔美國人,學者都期待透過AI或可透過演算法,消弭人類的個體偏見,達到追求公平法院的目的。在台灣,民眾最期待的正義,通常是量刑正義,但如何建構可信賴的標準,避免舊瓶裝新酒,才是司法在AI浪潮下,不得不面對的重要課題。

走筆至此,特別聲明本文未使用任何AI為寫作或輔助工具。

(作者是台北地方法院法官,紐約大學訪問學者)

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法

已經加好友了,謝謝
歡迎加入【自由評論網】
按個讚 心情好
已經按讚了,謝謝。

編輯精選

載入中