◎ 林基興
今年五月,七大工業國組織(G7)商討人工智慧(AI)等的監管法規。五月底,包括推出聊天機器人ChatGPT的OpenAI執行長奧特曼(Altman)等,全球350位人工智慧領袖聯合聲明:「減輕人工智慧帶來的滅絕風險,應與核戰等其他大規模風險,一起成為全球優先事項。」六月,歐洲議會討論管理人工智慧的法案。我國已提「人工智慧基本法」草案,正反聲音皆有,例如,由於變革速度快,使得急促法規可能綁住產業發展機會。
人類共同監管科技事項已有前例,包括「聯合國氣候變遷綱要公約」,也與時俱進,例如,二○一五年《巴黎協定》取代一九九七年《京都議定書》。參酌需求而隨時更新,就可確保監管的最大效益與最小風險。
最新一期的《原子科學家公報》日前公佈,當前人氣旺盛的電影《奧本海默》(Oppenheimer)導演諾蘭,接受該公報採訪時表示,製作這電影的首因是,只有該公報與其《世界末日時鐘》提醒人類,核武器會造成可怕的局面。
俄烏之戰,今年二月,因西方助烏致俄軍落下風,俄國前總統梅德維傑夫(Medvedev)竟然威脅,俄國若崩潰,將以核彈拉世界陪葬:「我們不需要一個沒有俄羅斯的世界。」反觀冷戰之初,美國研議發展氫彈時,諾貝爾物理獎得主康普頓(Compton)說「若需動用威力巨大的氫彈才能獲勝,我們寧願認輸。」,兩人善惡,形成對照,反映古希哲普達哥拉斯(Protagoras)名言「人是萬物的量尺」。德國哲學家康德(Kant)主張「只有善意是無條件的」;在科技威脅日趨強大時,此言更顯發聾振聵。
英國科學家布羅諾斯基(Bronowski)名著《文明的躍昇》提到人性的善良面,例如,一九四六年,物理學家斯洛坦(Slotin)實驗時,不慎導致臨界連鎖反應,為了保護免身邊的同事,他立即徒手撥開核原料,結果使自己受到大量輻射而亡。
上述均源自「利他」思維,裨益文明,科技隨時橫空出世,但為了民生福祉,社會理當支持與時俱進的監管。
(作者是大學教授)