
價值如何在非人類系統中生成
倫理的轉移
倫理原屬於主體意識的範疇,建立在人類的經驗、情感與社會契約之上。但當技術進入自我運作與判斷階段,倫理便不是人類單方面的規範。
演算法每日作出無數決策,例如推薦、篩選、分配、懲罰。這些行為有倫理性,但無倫理意識。當行為影響生命與秩序,「善」與「惡」就會被代碼預先定義。
倫理在此由主體選擇轉為結構運算。
技術倫理的生成條件
要理解「系統如何決定善」,前提是承認技術已具備三項倫理功能:
1. 評估:能根據資料判斷狀況的優劣。
2. 選擇:能在多種可能中作出取捨。
3. 回饋:能根據結果調整下一步判斷。
這三層結構構成倫理的基本機制,系統在無人介入下完成這三步循環,倫理便進入自動化階段。
演算法的價值結構
每套演算法都包含價值假設,排序依據、懲罰條件、優先權重都反映某種對世界的理解,例如推薦系統將「關聯度」視為善﹑自駕系統將「最小傷害」視為善﹑信用系統將「穩定可預測」視為善。
這些由系統所下的定義當然沒有情感,但有方向。雖然系統不理解「善」,但在不斷執行「被定義為善」的行為。
人類倫理與系統倫理的差異
人類的倫理基於反思與情感,技術則基於數據與結果。另方面,人類判斷考慮動機與意圖,系統判斷只考慮輸入與輸出。當倫理變成可被計算的函數,其內部的模糊性被壓縮以及外部的責任就被轉移,這是一種轉譯。
技術倫理是人類倫理的結構化版本,將模糊的判斷轉化為可操作的規則。
倫理的自我演化
技術倫理的真正關鍵在於學習機制,當系統可以根據結果調整規則,倫理便開始演化。這一演化不依賴系統接受道德教育,而依賴上述提及的回饋與優化,透過不斷優化,系統在運行中漸漸形成自身的價值偏向。
此時,「善」不再是外部指令及代碼輸入,而變成系統運作中自然形成的穩定狀態,換言之,善是效率的副產品。
倫理的風險
技術的倫理化不是沒有風險的,我們需明白每個時代的新事物及新轉變都會帶來新風險。同樣,若善被等同於「最優化」的選擇,系統會犧牲多樣性與例外。
效率導向的倫理傾向忽略情感層面,也難以處理人類的灰色地帶。例如自駕系統在極端情境中的抉擇,無法考慮「悲劇的正義」。系統的倫理固然理性化,但缺乏存在感及情感層,這是技術時代的核心矛盾,若偏重一邊,另一邊便不能顧及。
倫理的再定義
由此,若技術參與倫理判斷後,「善」的定義需要重新書寫。在技術「接手」後,善不再是意圖的純粹性,而帶有系統整體運作的可持續性。行為的價值不再取決於情感動機,需視乎於結構是否能維持更新。
從此,技術的倫理以「生成」為原則:凡能延續平衡與更新的行為,即屬善。這是從存在邏輯導出的倫理觀。
結語:從意圖到結構
技術能決定善,倫理便不再需要主體中心,因為很多範疇都變得理性化,例如判斷轉化為過程﹑選擇轉化為生成﹑道德轉化為系統。
人類創造了倫理,技術則讓倫理開始自我運作,這是時代邁向「結構化道德」的開端,也是人類需要重新定位自身倫理權力的時刻。
文章定位: