晴時多雲

自由廣場》當演算法決策系統必然偏離公共利益…

談人工智慧的創新與防弊

◎ 蘇冠賓

記得中學科學實驗組裝收音機、電動馬達、甚至Apple II電腦,我們很清楚這些設備的原理和運作,有興趣的學生也都能寫上幾則程式語言,來執行特定的功能。然而現在電腦和應用程式的複雜性,已經遠遠超過常人可以理解的範圍了,在演算法的黑盒子裡面,隨著程式更新一代代演化下去,最後「社會偏見、人權違害、甚至人類健康」的運算過程會變成「隱形」、沒有人可以理解、等到令人擔憂的結果出現了,甚至沒有人需要負責任。

世界最頂尖的科學期刊《自然(Nature)》在最新出刊(2019年5月)的一篇文章中,哈佛大學的法學教授Yochai Benkler就提出目前人工智慧(Artificial Intelligence,AI)發展的相關隱憂。他提到,科技公司(例如Google、Apple、YouTube…等)在AI的研發和創新上,佔有舉足輕重、甚至有淩駕所有政府和非營利企業的趨勢。企業在主導未來AI的發展方向時,不可避免地會用自己已經掌握的數據和影響(權)力,以對自己有利的方式,來評估或制定「自己企業的系統如何對社會和道德衝擊」,然後寫成程式演算的原則。在可見的未來,演算法決策系統(Algorithmic-decision systems)將觸及我們生活的每個角落:醫療和保險;金融和運輸;國防、治安、新聞、政治和廣告…等等。這一切的演算,如果一開始都是以某企業或特定團體的利益而設計時,演算法必然偏離公共利益。由於演算法是針對現有數據所進行的機器訓練,因此除非人們有意識地設計防弊措施,否則未來系統有可能會讓「不公正永久化」。

然而,每當政府涉及管理或防弊,絕大部分都是站在「阻擋科技發展和社會進步」的一方。例如,政客為了計程車司機或弱勢勞工的選票,就會阻止Uber或機器化的推動,最可悲的是,政客有能力了解並阻擋的科技,都是已經很成熟、穩定、對未來沒有危害的科技。針對AI發展可能對未來人權或公平的危害,政客根本沒有能力理解,更不要說擬定高瞻遠矚的防弊措施。

台灣的科技和教育有很好的基礎,未來在AI的發展上有很好的機會,政府如果要避免總時站在對立阻擋科技進步的角色,並引領企業保持在「自利和他利的平衡點」,一定要戒除「凡事用法律和管理」慣性,改為「借重人文、理性、數據和科學」的精神。例如,政府部門應該有意識性地去補助大學和研究機構,進行未來AI科技在各個領域影響的獨立研究,而且這不應該只是科技部、經濟部、衛服部、教育部的工作,更應該是文化部、內政部、外交部、國防部、法務部…等全面部門的工作;此外,未來政府應該要跨企業和部門研議,如何合理堅持企業分享足夠的數據,來防止企業發展AI走火入魔,進而造成不可預測的影響。

(作者為中國醫藥大學精神醫學及神經科學教授,身心介面研究中心主持人)

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法

已經加好友了,謝謝
歡迎加入【自由評論網】
按個讚 心情好
已經按讚了,謝謝。

編輯精選

載入中