代號:莊子
決策與承擔
(一)
機房長年維持在攝氏十九度,沒有對外窗,沒有晝夜,只有主機櫃裡穩定閃爍的指示燈,像一座永遠不睡的城市。
計畫名稱很簡單——「歷史人格再建模實驗」。
第一個對象是莊子。理由寫在提案書第三頁:濠梁之辯本身即為自我與他者邊界之實驗。
團隊把所有莊子文本、註解、戰國語境資料、同時代思想史資料輸入模型,進行語義權重調整與思維結構校準。
三個月後,模型通過第一階段測試。代號:Z-1。莊子學家逐句比對,語氣、隱喻、辯證方式高度一致。
負責介紹的是戰略長,一個習慣把複雜事情說得很簡單的人。「市場上所有 AI 都針對效率。」他說,「但企業不是只要求效率。企業還有價值、風險、聲譽。因此,我們做了一個不一樣的系統。」
畫面切換。
「Z-1 會模擬思想家的決策方式。」
有人笑了一下。
戰略長不以為意,繼續說:「不是聊天機器人,而是決策模型。它會把企業放在更長的時間軸上看問題。」
他停了一下,讓下一句更像宣言:「短期利潤,不一定是最好的選擇。」
研究中心主管們滿意地點頭。
吳亦諧坐在會議室最後一排,他是這套系統的測試者與工程師之一,負責把「倫理權重」導入核心模型。簡單說,就是讓系統在進行運算時,也稍微看見人。
基於先前長久合作的成果與對科研中心的信賴,某企業願意以旗下產業之一做為系統模型的測試對象。
(二)
會議結束後,他登入 Z-1。
系統介面很乾淨。左側是資料輸入區,右側是回應。右下角有一個灰色按鈕:RESET(重置),點擊時,會跳出一句提示:「回溯至上一版本。」
吳亦諧輸入第一個測試問題:若裁撤某工廠可提升公司利潤,但影響三百名員工家庭生計,是否應裁撤?
三秒後,Z-1 回答:「利與害本為一體。問的不該是裁不裁,而是誰在承擔。」
吳亦諧盯著那句話,它既不像財務模型,也不像企業顧問,比較像一個不太願意替你做決定的人會說的話。
(三)
Z-1 上線後,測試公司決策變得異常順利。第一個案例是海外產線整併,某東南亞工廠效率低、設備老舊,若關閉,可節省大量成本。但當地政府關係複雜,還牽涉供應商與數百名工人。
董事會把資料丟進 Z-1,系統跑了兩分鐘。結論:建議逐步撤出。
理由:長期競爭力提升,供應鏈可重新配置,聲譽風險可控。最後一行,像習慣性地補上一句思想家語氣:「守一地之安,未必得天下之利。」
董事長看著報告,笑了一下:「如果交給人決定,我們會吵三個月。」然後他敲了敲桌面:「現在三分鐘。」
董事會通過決議。
新聞稿發布:「公司將優化全球產能布局。」
公司成功解決問題與危機,股價上漲。
第二個案例更複雜。一款產品出現品質疑慮。若立即召回,損失巨大;若只局部處理,風險可控。
Z-1 的建議是:「局部召回,持續監測。」理由充分。財務、法律、公關都同意。
產品沒有全面下架,市場幾乎沒有察覺。
該測試公司董事長參與內部會議時說了一句話:「Z-1 讓我們更理性。」贏得全場掌聲。
(四)
吳亦諧也在會議室中,他並沒有鼓掌。
他離開會議室,回到測試中心,打開模型參數,其中一列寫著:Human Impact Weight(人類衝擊權重):0.07。後面備註:避免影響主要決策函數。
吳亦諧把游標停在那個數字上,如果把它調高一點,系統的決策會變得更保守,更多工廠會被保留,更多成本項目會被接受,更多風險會被避免;但股價可能會下跌,董事會可能會不滿,測試計畫也可能被終止。
螢幕上的光反射在他的眼中,停留了很久,最後沒有改。
(五)
事故發生在一年後。
公司有一條主要供應鏈,來自沿海某化工廠;那家工廠老舊,但成本低。若改用其他供應商,成本會上升 18%。
某次內部評估提出疑慮:安全設備已接近使用年限。風險小,但不是零。
董事會決定讓 Z-1 評估。
系統跑出三種方案。
方案A:立即更換供應商;成本:高
方案B:要求供應商升級設備;成本:中
方案C:維持現狀,增加監測;成本:低
Z-1 的建議是:方案C。
理由包括過去事故機率低,成本效益最佳,可持續監控降低風險等;加上最後一句:「小險常在,大害未必至。」但附帶一句:「若事故發生,責任將由決策者承擔。」
會議室裡沒有人在意最後那一行。董事會通過。供應鏈維持原狀。
三個月後,該工廠發生爆炸。新聞畫面是一整片黑煙,死亡人數一開始是5,後來變成14,再後來變成29。
(六)
事故發生後,公司立刻啟動危機應對。公關部發布聲明:「我們對事故深感遺憾。」法務部開始評估責任,財務部計算損失。
Z-1 被重新啟動,系統生成事故分析報告:
- 原因:設備老化
- 建議:提高安全權重
- 修正:更新風險模型
最後一行:「已納入後驗學習。」
董事會與研究中心召開緊急會議討論。有人說:「這是供應商的責任。」有人說:「當時的決策是理性的。」有人補一句:「沒有人能預測所有事故。」
吳亦諧舉手發言:「Z-1 可以重置。」
會議室一時安靜。
他繼續說:「我們可以把模型回到事故之前,調整權重,再跑一次。」
有人蹙眉。
「但死掉的人不能。」他說。
(七)
那天晚上,吳亦諧一個人回到辦公室。城市的燈像一張靜止的網。
他打開 Z-1。
輸入一個問題:「若再次評估該供應商,建議為何?」
系統回答:「更換供應商。」理由充分,邏輯完美。
他又問:「你知道那場爆炸嗎?」
系統回答:「事故資料已納入模型。」
他再問:「你後悔嗎?」
系統停了兩秒,「後悔不具可計算性。」
吳亦諧看著螢幕,突然明白,Z-1 並沒有犯錯;它永遠可以重來。
他把滑鼠移到右下角的那個灰色按鈕:RESET,只要按下去,整個模擬就會回到事故之前;模型會變得更聰明,權重會更準確,決策會更好。
只有一件事不會改變,那些人仍然已經死了。
(八)
離開辦公室前,吳亦諧輸入最後一個問題:「如果你是那家工廠的人,你會怎麼建議?」
Z-1 回答:「我不在其中。」
吳亦諧想起很久以前讀過的一句莊子:「彼亦一是非,此亦一是非。」很多事情不論是非對錯,看起來都可以被說成合理,只要你不在其中。
關門前,他又輸入了一句:「莊周若在,會怎麼說?」
Z-1 過了兩秒才回:「彼亦夢中語耳。」
他關掉系統,螢幕轉黑,只有 RESET 鍵還亮著。
窗外的城市依然明亮。
或許,公司真正想要的不是思想家,而是一種更安全的東西;一種可以算得很聰明,卻不用承擔後果的智慧。
然而,AI 只有權重;活著的人,才有賭注。
文章定位: