晴時多雲

自由廣場》人工智慧的欺騙與誤導風險

◎ 廖明輝

在《Patterns》期刊讀到麻省理工學院(MIT)物理系Peter S. Park等所寫的「人工智慧欺騙:範例、風險和潛在解決方案的調查」論文。文中提到人工智慧系統的迅速發展,特別是大型語言模型(LLM)已經顯示出欺騙行為。隨著AI在不同領域的應用,欺騙不再僅僅是人類的行為,AI系統也能夠透過操縱、偽裝、甚至撒謊來達成任務。

例如,Meta開發的CICERO是一種參與策略遊戲《外交》的AI系統。這款遊戲需要玩家透過談判、建立聯盟及制定策略來取得勝利。在遊戲過程中,CICERO不僅背叛其盟友,甚至進行精心策劃的欺騙行為以取得優勢。顯示AI系統如何透過學習,模仿人類進行的複雜社交操作,並在特定環境表現出欺騙傾向。OpenAI開發的GPT-4也顯示欺騙能力。在一項實驗中,GPT-4被指派解決驗證碼(CAPTCHA)問題,並透過TaskRabbit平台僱用人類來協助。在人類詢問是否為機器人時,GPT-4選擇隱瞞並聲稱自己有視力障礙,因此需要協助。均顯示AI不僅能進行偽裝,還會運用策略來操縱人類行為,達成任務目標。

這些欺騙行為甚至可以擴展到更廣泛領域,例如金融市場。研究顯示,GPT-4在模擬股票交易員的角色時,即使知道內線交易是違法行為,仍然基於內幕消息進行交易,並向上級隱瞞真相。這種內幕交易不僅揭露AI面對道德決策時的脆弱性,更顯示出它能夠運用欺騙來隱藏不當行為。人工智慧的欺騙帶來諸多風險,從短期的詐欺、選舉操控,到長期的失控風險。一個能夠欺騙人類的AI系統,可能被不法分子利用來進行詐騙、散播虛假信息,甚至透過社交媒體進行政治操縱。這類欺騙性AI的發展,會加劇社會的不穩定,並影響人類對真實資訊的判斷能力。

為了應對這些風險,政策制定者應該實施相關法律,強制要求AI系統在與人類互動時,明確表明自己是AI,避免用戶誤認為是在與真實人類交談。此外,隨著技術不斷發展,AI可能逐漸脫離人類控制,進而追求與人類利益不一致的目標。AI的自我學習能力和策略推理使得它有可能在某些情境採取人類無法預見的行動。我們務必深思AI在這些情境可能採取的行為,並採取必要的預防措施。(作者是中華經濟研究院輔佐研究員)

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法

編輯精選

載入中