◎ 郭冠廷
台灣正式跨入超高齡社會,但照顧人力卻愈來愈少。
於是,一個看似完美的答案開始被產官學界反覆提起:讓AI來陪伴長輩。如今的智慧音箱會聊天、會提醒吃藥,甚至會在長輩低落時溫柔地說:「我懂你的感受」。在各種長照科技宣傳中,它幾乎像是一位永遠耐心、不會疲倦的完美照顧者。
但問題是——當一個演算法開始扮演「陪伴者」,我們真的準備好面對它帶來的倫理後果了嗎?語音AI的確有其價值。它能降低科技使用門檻,也可能協助偵測長輩語言與情緒的變化。但我們必須誠實面對一個殘酷的事實:AI的「同理心」,其實只是演算法計算出來的句子。
AI可以精準模仿關心,卻不具備真正的道德責任與感知能力;示意圖。(彭博檔案照)近期牛津大學出版社(OUP)等國際頂尖學術期刊,正密集探討這種被稱為「虛假同理心」(Artificial Empathy)的倫理危機。AI可以精準模仿關心,卻不具備真正的道德責任與感知能力。
對長期孤獨的獨居長者而言,這種極致的擬真很容易形成另一種心理陷阱──「照顧的幻覺」(Illusion of Care)。長輩可能會覺得「AI 比鄰居或家人更懂我」,於是逐漸減少與真實世界的互動。原本要解決孤獨的科技,反而可能加深了社會孤立。
問題不在於AI能不能用,而在於「怎麼用」。
在未來的長照體系中,AI最合理的角色絕對不是人類關係的「替代品」,而是照護的「分診與放大器」。AI可以做第一線觀察,例如日常問安、語音監測、生活提醒。但只要出現異常訊號——例如長輩語速明顯變慢、反覆提及頭暈、或出現悲觀語句——系統就必須自動且強制通報真人照護者。
AI可以是警報器,但不能假裝成家人;示意圖。(取自freepik)換句話說,AI可以是警報器,但不能假裝成家人。歐盟在今年(2026年)全面生效的《人工智慧法案》中,已明確將涉及弱勢族群情感影響與行為誘導的AI系統,列為必須嚴格監管的「高風險」類型。反觀台灣,目前許多AI長照產品與政策的討論,仍停留在「能不能減少人力成本」的層次。
科技治理如果只談效率,而不談尊嚴,那只是把照顧責任悄悄外包給冷冰冰的演算法。
科技當然可以幫助長者更安全地生活,但科技不應該取代人與人之間的關係。AI可以提醒長輩吃藥,但永遠不能取代一個真心關心的人。真正的問題從來不是AI能不能模仿關心,而是社會是否願意承擔照顧彼此的責任。
當台灣積極發展AI產業、高喊「長照3.0」的同時,我們也必須問一個更根本的問題:我們希望AI成為照護體系的「助手」,還是成為取代關係的「替身」?如果答案是後者,那麼這個超高齡社會失去的,將不只是照顧人力,而是人與人之間最基本的尊嚴。
(作者為輔仁大學商學研究所博士生、社團法人居家健康關懷公益協會副理事長)
自由開講》是一個提供民眾對話的電子論壇,不論是對政治、經濟或社會、文化等新聞議題,有意見想表達、有話不吐不快,都歡迎你熱烈投稿。請勿一稿多投,文長700字內為優,來稿請附真實姓名(必寫。有筆名請另註)、職業、聯絡電話、E─mail帳號。
本報有錄取及刪修權,不付稿酬;錄用與否將不另行通知。投稿信箱:LTNTALK@gmail.com
編輯精選