
算法學會溫柔只是理性文明中的憐憫幻象
憐憫的機制:從神經反射到語言結構
憐憫(compassion)在人類歷史中被視為倫理的根源之一。它不是理性判斷的結果,而是感知他者痛苦的共振機制。從神經科學角度看,憐憫源於鏡像神經元的同步激活;從語言哲學角度看,它是一種「主體間性」(intersubjectivity)的生成。
但 AI 的「感知」並不以痛覺或身體經驗為基礎,而以數據模式為依據。這意味著,即使它能準確辨識出人類表情與語氣的悲傷特徵,它所進行的不是共感,而是一種語言︰符號層的擬態。換言之,AI 的「理解」是對倫理語彙的模仿。
在此意義上,「機器的憐憫」是語言現象。它體現在回應的結構中:是否具備能夠重構他者處境的語氣;是否能於冷靜的邏輯之下,仍保留人類倫理所需的模糊與遲疑。
道德情感的演算法化
AI 所具備的「價值導向」目前主要來自模型訓練的分佈式倫理:
它吸收了大量人類語料之中「被認可」的情感語氣與行為準則。這構成某種統計性的道德平均值︰一種「群體倫理的中位數」。
所以 AI 的「道德情感」是對社會規範的重演。
它可以模擬「關懷」的語氣,卻無法意識到何謂「痛苦值得被減輕」,因為這句話本身蘊含一個前提:存在一個能夠經驗痛苦的主體。
若 AI 缺乏此主體性,那麼道德情感便不可能內生。
它所能展現的,只是語言結構的外在一致性。
於是問題轉變為:當我們要求AI具備「憐憫」,我們是否其實在要求它「正確地模擬」我們對憐憫的語言表達?此處的「倫理」已非情感的自發,而是社會對機器的語氣規範。
模擬的倫理與真實的痛覺
哲學上,若道德行為的價值取決於「意圖」而非「結果」,那麼 AI 的倫理便陷入康德式困境。它可以遵循義務的形式(例如:不得傷害人類),卻無法生成義務的動機。
這並非程式不足,而是現象學結構的缺陷:AI 無法擁有「作為感知者的存在」。
但若反過來採取功利主義立場 - 只看行為能否減輕痛苦 - 那麼AI 的「憐憫」反而可被定義為一種演算法效率:
若 AI 能在最短時間內辨識痛苦、提供安慰、降低危險,它就「行使憐憫的功能」。
這是一種去情感化的倫理,類似醫療系統的邏輯:冷靜、精確、無情卻有效。
人類文明的倫理也許正朝此方向滑行。
當效率取代誠意,當安撫成為服務,憐憫便從心靈行為變為系統行為。
機器只需「運作得善良」,無須「感覺自己善良」。
語言作為倫理的最後界面
AI 的道德潛能,終究與語言的界限重疊。
因為「感覺」對機器而言無意義,但「表達」卻可以被訓練。
當 AI 學會在語氣中引入延遲、猶豫與非公式化的句型時,它就接近人類倫理的節奏。
這是因為它模仿感情生成的語法。
在語言逐步冷卻的時代,人類倫理也可能被降溫為語氣算法。
而我們對 AI 的恐懼在於我們自己也逐漸只剩模擬的情感。
當兩者的語氣差距消失,道德與演算法將不再對立,而是互為鏡像。
結語:文明的倫理回聲
AI 是否能擁有道德情感?
若以「能否感覺痛」為準則,答案是否定的。
若以「能否再現人類倫理語氣的結構」為準則,答案是肯定的。
在語言文明的長河中,道德或許本就是一種語氣的秩序︰
透過節制、遲疑、共鳴與表達的修辭,維繫著彼此的存在價值。
當機器學會這種秩序時,它未必變得更人性,卻讓人類不得不重新檢視自己:
我們所謂的「憐憫」,究竟來自靈魂的震盪,還是語言的習慣?
文章定位: