◎ 李忠憲
昨天(4/11)聽了英文雜誌的一篇文章,現代人養育小孩幾乎都會問人工智慧問題,什麼問題都會問。
近幾年來,Google已經越來越少用,像ChatGPT這樣的人工智慧,可能已經成為人類「問最多問題」的對象了。而且這些問題不只是日常生活的問題,還包括「人生的意義」、「什麼是對或錯」這種很深刻的問題。
當過去人們相信的「上帝」影響力變弱之後,會不會有一天,機器反而取代了它的位置?
ChatGPT(以及各種生成式AI)其實在某種程度上,變成了一種「類似宗教的存在」。
這並不是說AI就是上帝,也不是說它真的變成宗教。而是說,在我們的日常生活中,它開始扮演過去宗教的一些功能,幫助我們溝通與理解世界,告訴我們什麼是對、什麼是錯,提供看起來「什麼都知道」的答案,在我們焦慮時給安慰,幫助我們建立對世界的理解。人們以前向宗教尋求答案,現在則開始向AI尋求。
過去,人們向上帝祈禱時,通常是沒有立即答案的,這種「沉默」其實很重要,因為它會讓人學會等待,面對不確定,自己思考意義。
但現在不同了,你問AI,它馬上回答,幾乎任何問題都有答案,資料庫裡沒有正確的答案,也會瞎掰一個給你。這讓世界變成一種「隨時有回應」的狀態。
問題是,這些答案吸引人,不一定因為它們是真的,而是因為它們太容易得到。
久而久之,我們可能會不習慣沒有答案,不再忍受不確定,減少自己思考。
過去,在西方宗教裡,上帝被認為是道德的來源,判斷對錯的標準。但現在,很多人會問AI, 「這樣做對嗎?」, 「我該怎麼做?」,「我是不是一個好人?」
AI開始影響人的價值判斷。
而且它看起來像是在「幫你」,但其實背後是一種由演算法決定的標準,常常跟效率、利益有關。
AI給人的感覺很快,很流暢,好像什麼都懂,這讓人覺得它像「全知的存在」。但事實上,它不是全知,它只是「模仿知道一切」。問題在於,人很容易把這種感覺當成權威。
過去的「寺廟」 是現在的資料中心,過去的「神職人員」 是現在的工程師與開發者,過去的「儀式」,AI的APP。
問題不在於AI會不會統治人類,而是,如果機器負責思考,人類只負責執行,那人類可能會慢慢變成「機器人的奴隸」。
人類可能的三種未來,被動型人類、工具型人類、反思型人類︰要不成為奴隸的方法,使用AI,但不依賴它,把AI當「對話者」,不是「裁判」,願意承受沒有答案的狀態,懷疑,不確定,並且承受思考的痛苦。
人最大的恐懼,不是沒有答案,而是必須自己做選擇。~齊克果
(作者為資安學者,本文僅代表作者個人意見,與任教單位無關。)
本文經授權轉載自李忠憲臉書