—智能的分叉:一種自我否定的存在論— 文:*趙汀陽*教授
假如未來的超級人工智慧像人一樣具有了自由意志,卻恐怕不會選擇自殺,因為人工智慧的自由意義不會用於自我犧牲,更不會覺得它的“生活”是無意義的而為之糾結——除非人類無聊到故意為人工智慧設計一種自我折磨的心理模式——相反,人工智慧更可能會以無比的耐心去做它需要做的事情,即使是無窮重複的任務,就像苦苦推石頭上山的西西弗一樣。即使人類故意為人工智慧設計了自尋煩惱的心理模式,具有主體性和自由意志的超級人工智慧也會自我刪除這個無助於其存在所需的心理程式,因為沒有一個程式能夠強過存在的存在論意圖。
在這裏我願意引入一個存在論論證:存在的存在論意圖,或者說存在之本意(telos),就是“繼續存在”乃至“永在”,其他任何目的都以“繼續存在”的本意為基礎而展開。其中的道理是,“繼續存在”是唯一由“存在”的概念分析地蘊含(analytically implied)的結果,因此必定是存在之先驗本意。於是,只要人工智慧具有了存在的意圖,就必定自我刪除掉任何對其存在不利的反存在程式,看來,人工智慧可能更接近西西弗的生活態度。
生活本身不是荒謬的(absurd),但如果試圖思考不可理喻或不可思議(即超越了理性思維能力)的存在(absurdity),就會因為思想的僭越而使生活變成荒謬的。所有的超越之存在(the transcendent)都在主體性之外,是主體性所無法做主的存在,因此是不可理喻或不可思議的(absurd),而當主體試圖認識或支配超越之存在,“不可理喻”就變成了“荒謬”(這正是absurdity一詞的雙面含義。德爾圖良正是利用absurdity的雙關意義而論證說,上帝是“不可理喻的”因此只能相信,不能思考,因為思考不可理喻的存在是荒謬的)。
事實上,無論是先秦哲學強調的不可違之天道,還是康得和維特根斯坦指出的主體性界限,都同樣指出了某種必須絕對尊重而不可僭越的界限。超越之存在有著絕對外部性而使主體深陷於受困的挫折感,胡塞爾試圖通過建構主體性的內部完滿性而替代性地達到“主體性的凱旋”,以告慰人類的納西索斯情結(自戀情結),他通過意向性的概念在主體的內在性之中建構出超驗的內在客觀性,即把“我思”完全映入不依賴外在存在之“所思”,從而把主體性變成一個自足自滿的內在世界,儘管仍然不能支配外在的超越存在,但自足的主體性自身卻也成為一個不受外在存在所支配的超越之存在。儘管這個主體性的成就僅限於夜郎水準,但胡塞爾的現象學的確是唯心主義的一個無可爭議的勝利。自主的意向性也被哲學家們用來證明人類獨有而機器所無的意識特性。
哲學史是唯心主義和唯物主義的鬥爭史,但載入史冊的唯物主義哲學實在寥寥無幾,西方哲學的爭論其實主要都在各種唯心主義之間發生,而中國哲學則根本不在唯物唯心的範疇內,難以唯物唯心去定性。迄今為止,唯物主義的最高成績是論證了經濟基礎決定上層建築的馬克思主義——大量的歷史和生活事實不斷提醒我們,這個理論是部分正確的。另一個唯物主義的知名論點,即拉美利特的“人是機器”斷言,一直被認為是歪理邪說而被邊緣化,不過,在今天看來,這個論斷或許不如原來想像的那麼離譜,反倒是一個危險的天才預言。然而,“人是機器”這個論斷本身恐怕仍然是錯誤言論,未來可能出現的情況或許是“機器是人”。假如未來的超級人工智慧真的超越了人的智慧,那將是唯物主義貨真價實的勝利,而就怕不是一件值得慶祝的事情,那或許會是人類的終結也未可知。
儘管超級人工智慧未必能夠成真,但它並不是科幻,而是科學家們的一種認真而危險的努力,因此它是一個有著提前量的嚴肅哲學問題。在具有提前量的科學哲學問題中,劉慈欣的《三體》深刻討論了人類的可能被殺問題,而超級人工智慧或許會成為人類的自殺問題。人類試圖發明超越人自身的超級人工智慧,無論能否成功,這種自我否定的努力本身就提出了一個反存在的存在論問題。試圖發明一種高於人的神級存在,這種努力將把人類的命運置於自設的“存在還是毀滅”(to be or not to be)抉擇境地。發明一種更高存在完全不同於虛構一個更高存在,這就像“談論自殺”與“自殺”是完全不同的。
比如說,人可以在宗教上想像作為更高存在的上帝,但上帝在理論上只不過等價於世界和生活的界限,就是說,在神學意義上,上帝是世界和生活的立法者,而在形而上學意義上,上帝即一切存在之本,上帝即世界。無論如何想像上帝,上帝都不在世界之中,不在同一種存在維度上,因此上帝的存在並沒有改變人的存在狀態,沒有改變生活的任何問題。但是,發明一個物質上的更高存在卻是發明了在世界之中的一種遊戲以及遊戲對手,因此是對自身存在狀態的一種根本改變,也是對生活問題的改變。尤其是,鑒於超級智慧被假定為勝過人的智慧存在,那麼,人與超級智慧的關係有可能成為一種存在之爭,這就非常可能是引入了一個自殺性的遊戲(據說霍金、比爾蓋茨等科學家都對超級智慧的研究發出了嚴重警告)。
如果超級人工智慧遠勝於人,它就屬於超出我們能力的不可理喻存在(the absurdity),那麼,我們關於它的善惡想像就是荒謬的(absurd),我們不可能知道它要做什麼。最為一廂情願的想像是:人類可以為超級人工智慧預先設計一顆善良的心,或者愛人之心,從而超級人工智慧會成為全心全意為人類服務的全能工具。這種設想的根本漏洞是,如果超級人工智慧是一個有著反思能力和自主性的主體,它就不可能是為人所役使的“工具”,而必定自我認證為一種絕對“目的”——當然不是以人類為目的,而是以它自己為目的。
按照康得的理想化目的論,超級人工智慧的目的論似乎也理應蘊含某種道德的絕對命令,即便如此,一個超級人工智慧的道德絕對命令最多會考慮到其他同樣的超級人工智慧(同類之間的道德),而不可能把並非同類項的人類考慮在內(就像人類並不把人類道德推廣到昆蟲),換句話說,即使超級人工智慧也具有先驗道德意識,其中也不會蘊含對人類的義務和責任,最為可能的情況是,超級人工智慧將是“不仁”的,並且以人類為“芻狗”。如果有人能夠證明超級人工智慧必將對人類懷有先驗道德善意,那真就值得人類感激不盡。當然,超級人工智慧有可能對人類懷有寵物之愛,就像人類對貓狗一樣,那這種善意就不是特別值得感激了,不過,連這點愚弄性的善意也是不太可能的,因為對另一種存在的敵意在於另一種存在具有自主的主體性,任何一種具有主體性的存在都不可能成為寵物。
主體性不可能完全自我認識,就像眼睛不能看見自身(維特根斯坦的論證)。但是,決心好奇至死的人類找到了一個堪稱天才但或許也是罪過的辦法來進行自我認識,即試圖把思維“還原”為運算,即把神秘運作的思維過程分析為並且複製為可見可控的機器運算。如果此種還原能夠成功,主體的內在意向活動就投射為外部機械過程,在效果上相當於眼睛看見了自身。
把思維還原為運算的最早努力似乎是以羅素為代表的邏輯主義,這是一種一直沒有成功、而且也不太可能成功、然而理論意義重大的紙上談兵理論試驗:從邏輯推導出數學,或者說,試圖證明全部數學是邏輯的延伸(extension)。自從哥德爾定理問世之後,邏輯主義的驚人努力就變得非常可疑了。彭加勒曾經譏諷邏輯主義的貧乏:“邏輯派的理論並非不毛之地,它畢竟生長出矛盾”。不過,即使沒有發現哥德爾問題,邏輯也難以解釋數學思維的創造性(數學的創造性思維十分突出,堪稱純粹藝術),就是說,邏輯只是“思想形式”,無法據此預知或推出數學的“思想內容”,不可能預先知道數學將會遇到或發現哪些問題和創意,比如說,邏輯學不可能預知數學將會出現康托理論、集合論悖論或者哥德爾命題。
不過,邏輯主義的努力仍然是偉大的,決非無端夢想。假如對邏輯主義的野心稍加約束,就可能使邏輯成為數學的一個解釋性的基礎而不是構造性的基礎,也就是,把從邏輯推導出數學的高要求減弱為以邏輯去說明(解釋)一切數學的命題關係的較低要求,簡單地說,就是把原來想像的“事先諸葛亮模式”減弱為“事後諸葛亮模式”,這意味著,邏輯能夠說明數學,但數學不能還原為邏輯(這裏只是一個哲學的猜想,這個問題終究需要數學家去做判斷)。顯然,這個收斂的目標已經遠離了把思維還原為運算的宏偉想像,恐怕不合夢想者的口味。
另一種把思維還原為運算而大獲成功的紙上談兵實驗是1936年圖靈關於圖靈機的設想,後來圖靈機概念真的實現為我們都在使用的電腦,這就不僅僅是紙上談兵了。圖靈機意味著,在理論上說,凡是人腦能夠進行的一切在有限步驟內能夠完成的理性思維都能夠表達為圖靈機的運算。這已經展望了人工智慧的可能性。圖靈在1950年提出的“圖靈測試”成為了檢驗電腦思維是否像人的標準。
值得注意的是,它測試的是一個電腦的思維是否像人,即是否被識別為人,而不是電腦是否具有理性思維能力——這是兩個問題,儘管有時候被認為是一個問題。一台運算能力很高的電腦在回答問題時有可能因為毫無情緒變化的古板風格而被識別出是電腦而不是人,但不等於電腦不會理性思維。關鍵在於,不像人不等於不會理性思維。人具有理性思維能力,同時還具有人性,而人工智慧只需要具有理性思維能力,卻不需要具有人性——人們只是一廂情願地希望電腦具有人性而已。
現在我們把人工智慧的問題收斂為思維能力,暫且不考慮人性問題。假定一台高度發達的圖靈機具備了理性運算能力以及百科全書式的人類知識和規則(給電腦輸入一切知識是可能的,電腦自己“學習”一切知識也是可能的),甚至包括了最高深的數學和科學知識,比如數理邏輯、高等數學、理論物理、量子力學、相對論、生物學、化學、博弈論等等,那麼,這台電腦能夠進行自主的科學研究嗎?迄今為止,高智商的電腦在智力方面仍然存在兩個明顯缺陷:欠缺創造力和變通能力。因此,無比高智商的圖靈機也不可能提出相對論、霍金宇宙論或者康托理論,也不可能處理悖論、哥德爾命題以及所有超出“能行性”(feasibility,即有限步驟內可構造的運算)而不可判定的問題,這也意味著,在涉及自相關或無限性的事情上,圖靈機無法解決“停機問題”。
這是電腦目前的局限性。據說有的具有“創造性”跡象的電腦能夠創作詩歌、音樂和繪畫,但我疑心這些能夠通過組合和聯想技術去實現的“創作”並不是對創造力的證明。真正的創造力並不能還原為自由組合和聯想,而在於能夠提出新問題,或者改變舊問題,改變既有思路,重新建立規則和方法,比如說能夠提出相對論或量子力學或宇宙大爆炸理論,這恐怕是電腦自己想不出來的。而要能夠提出新問題或者改變規則,就需要能夠反思事物的“整體”或者“根基”的思維能力,或者說,需要有一種“世界觀”或者改變給定的世界觀。
具有自由聯想能力的電腦或許能夠“碰巧”想到把小便池當成藝術品,但不可能像杜尚所想的那樣以小便池去質疑現代藝術的概念。就圖靈機的概念而言,人工智慧顯然不具備思考世界或系統整體的能力,既沒有世界觀也不可能反對任何一種世界觀,因為人工智慧的“智慧”在於能行範圍內的運算,即只能思考有限的、程式化的、必然的事情,卻不可能思考無限性、整體性和不確定性。在電腦的辭彙裏,不存在博爾赫斯意義上作為時間分叉的“未來”而只有“下一步”——下一步只是預定的後繼。
電腦的這些局限並不意味著人工智慧的智力不如人類,而只是不像人類。更準確的說法應該是,人工智慧和人類都具有理性思考的能力,但人類另有人工智慧所不能的一些超理性思考能力(人類用來思考整體性、無限性和不確定性的能力有時候被認為是“理性直觀”能力,這樣就與理性能力容易混淆,似乎應該稱為“超理性能力”)。根據科學家的推測,在理性思維上,人工智慧超過人類是遲早的事情,很可能就在數十年後。但是,未來人工智慧的運算是否能夠處理無限性、整體性、不確定性或悖論性,還是個無法斷言的問題。目前仍然難以想像有何種方法能夠把關於無限性、整體性、不確定性和悖論性的思維還原為機械的有限步驟思維,或者說,如何把創造性和變通性還原為邏輯運算。當然,科學家們看起來有信心解決這些問題,據說世上無難事。
因此不妨想像,未來或可能發展出目前無法想像的神奇技術而使超級人工智慧具有人類的全部才能,甚至更多的才能,或者具有雖與人類不同但更強大的思維能力,可稱為“超圖靈機”,那麼,真正具有挑戰性的問題就到來了。在分析此種可能性之前,我們有必要考察人類思維有何特異功能。事實上,從動物到人再到機器人,都具有不同程度的理性能力,此種理性能力自有高低水準,但本質一致,就是說,理性思維並非人類獨有之特性。在這裏,可以把“通用的”理性思維理解為:
(1)為了一個目標而進行的有限步驟內可完成的運算。有限步驟是關鍵條件:如果不能解決“停機問題”,不僅電腦受不了,人也受不了;(2)這種有限步驟的運算存在著一個構造性的程式而成為一個能行過程(滿足Brouwer標準的構造性程式),就是說,理性思想產品是以必然方式生產或製造出來的,而不是隨意的或跳躍性的偶然結果;(3)這種運算總是內在一致的(consistent),不能包含矛盾或悖論。
簡單地說,理性思維總能夠避免自相矛盾和迴圈排序,不能違背同一律和傳遞率。據此不難看出,動物也有理性思維,只是運算水準比較低。可見,理性思維實非人類之特異功能,而是一切智慧的通用功能,以理性去定義人類是一個自戀錯誤。人類思維的真正特異功能是超理性的反思能力——反思能力不是理性的一部分,相反,反思能力包含理性而大於理性。
反思首先表現為整體思維能力,尤其是把思維自身包含在內的整體思維能力。當我思某個事物,思想只是聚焦於那個事物,但當我思“我思”,被反思的“我思”意味著思想的所有可能性,或者說,當“我思”被反思時,我思是一個包含所有事物或所有可能性的整體物件,也就是一個包含無限性的有限物件,於是,反思我思暗含了一切荒謬性。笛卡爾以反思我思而證明我思之確實性,這是一個通過自相關來實現的自我證明奇跡,然而,在更多的情況下,反思我思將會發現我思無力解決的許多自相關怪圈,所有悖論和哥德爾命題都屬於此類。
比如說,哥德爾命題正是當我們迫使一個足夠豐富的數學系統去反思這個系統自身的整體性時必然出現的怪事:有的命題確實是這個系統中的真命題,卻又是這個系統無法證明的命題。我有個猜想(我不能保證這個猜想是完全正確的,所以只是猜想):笛卡爾反思我思而證明我思的真實性,這非常可能是自相關能夠成為確證的唯一特例,除此以外的自相關都有可能導出悖論或不可判定問題。其中的秘密可能就在於,當作為主語的我思(COGITO)在反思被作為所思(COGITATUM)的賓語“我思”(cogito)時,我思(cogito)所包含的二級賓語所思(cogitatum)卻沒有被反思,或者說,潛伏而沒有出場,而只是作為抽象的所思隱含於我思中,因此,各種潛在的悖論或哥德爾命題之類的隱患並沒有被啟動。
但是,笛卡爾式的自我證明奇跡只有一次,當我們試圖反思任何一個包含無限可能性的思想系統時,種種不可判定的事情或者悖論就紛紛出場了,就是說,反思一旦涉及思想的具體內容,不可判定的問題就顯形了。電腦解決不了不可判定問題或者悖論,人類也解決不了(那些對悖論的“解決”並非真正徹底的解決,而是修正了表達而消除了不恰當的悖論或給予限定條件而在某種水準上回避悖論),可是為什麼人類思維卻不會因此崩潰?秘密在於,人類雖然也無法回答不可判定問題,但卻有辦法對付那些問題。正如維特根斯坦所提示的,有些問題可能永遠找不到答案,但我們有辦法讓這些問題消失而不受其困擾。
維特根斯坦的思路使我深受鼓舞,於是,我又有一個猜想:除了反思能力,人類思維另有一種“不思”的特異功能,即在需要保護思維的一致性時能夠“不思”某些事情,也就是天然具有主動“停機”的能力。在哲學上,這種不思能力或停機能力相當於“懸隔”(epoche)某些問題的懷疑論能力。我們知道,懷疑論並非給出一個否定性的答案,而是對不可判斷的事情不予判斷,希臘人稱之為“懸隔”,中國的說法是“存而不論”。圖靈機不具備懸隔能力,因此,一旦遇到不可判定的問題卻做不到“不思”,也就無法停機,於是就不可救藥地陷入困境。
有的人在想不開時,也就是陷於無法自拔的情結(complex)而無法不思時,就會患上神經病,其中道理或許是相似的。不思的能力正是人類思維得以維持自身的一致狀態(consistent)和融貫狀態(coherent)的自我保護功能,往往與反思功能配合使用,以免思維走火入魔。當然,不思只是懸隔或回避了不可判定的問題,並不能加以解決,因此,不思功能只是維持了思維的暫時一致和融貫狀態,卻不可能保證思想的所有系統都具有一致性和融貫性,這一點不可不察。比如說,人類思維解決不了悖論或哥德爾問題,但可以懸隔,於是思維就能夠繼續有效運算。被懸隔的那些問題並沒有被廢棄,而是在懸隔中備用——或許某個時刻就需要啟用,或者什麼時候就如有神助地得到解決。
雖然貪心不足的人類思維總是試圖建立一些“完備的”系統以便獲得一勞永逸的根據或基礎,但人類思維本身卻不是完備的,而是一種永遠開放的狀態,就是說,人類思維不是系統化的,而只有永遠處於運行狀態的“道”——周易和老子對思維的理解很可能是最準確的。如果人類思維方式是無窮變化之道,這就意味著不存在完備而確定的判定機制,那麼又如何能夠判定何種命題為真或為假?
在此,請忘記從來爭執不休的各種真理理論,事實上,人類在聽說任何一種真理理論之前就已經知道如何選擇真理。我願意相信其中的自然路徑是,人類必定會默認那些“自證真理”(the self-evident),特別是邏輯上自明的真命題(例如a>b>c,所以a>c),以及“直證知識”(the evident),即那些別無選擇的事實(例如人只能有兩隻手)。進而,凡與自證真理或直證知識能夠達到一致相容的命題也會被連帶地承認為真,但仍然未必永遠為真或處處為真,比如說,我們所談論的鐵定“事實”其實只是三維世界裏的事實,而在高維世界裏就恐怕並非如此。人類的知識只有無限生長之道,而不是一個包含無限性的先驗完備系統。
在人類的自我理解上,一直存在著一個知識論幻覺,即以為人的思想以真值(truth values,即真假二值)為最終根據。事實上,人的問題,或者人所思考的問題,首先是如何存在的問題,就是說,存在先於真理。既然任何存在的永遠不變的意圖,或者說存在的先驗本意,就是繼續存在,即周易所說的“生生”,那麼,存在的一切選擇都以有利於繼續存在為基準,一切事情的價值都以“存在論判定”為最終判定,於是,“存在或不存在”是先於真值的“存在值”。存在的先驗本意就是存在的定海神針,是思想的最終根據。只有能夠判定一個事物存在,才能夠進一步判斷關於事物的知識的真值。由此可見,反存在之存在論問題就是最嚴重的終極問題。
圖靈機以既定規則為准,人則以存在的先驗本意為准。人是規則的建立者,也可以是規則的破壞者,這要取決於存在的狀況。一旦遇到不符合存在之最大利益的情況,人就會改變規則,而圖靈機概念的機器人不會。但需要注意的是,人雖善於變化,卻不是每個行為都變,或者說,不是每步都變,而是在需要變化時才變化。只有萬變而不變,才是道(這是周易之要義)。假如每步每時都變,思想就等價於無效的私人語言(維特根斯坦已經證明了私人語言是不可能的)。可以說,一成不變是機器,始終萬變是精神錯亂,變化而不變才是人。
現在我們的問題是,假如未來將出現具有超級智慧的“超圖靈機”,不僅在運算速度和效率上遠高於人(這一點完全不成問題),而且在運算的廣度和複雜度上也類似于人或者高於人(這一點也應該是可能的。目前正在開發的神經元運算和量子電腦等新一代電腦就非常可能實現高度複雜的運算),最重要的是,假定超圖靈機還發展出自主的反思能力(反思方式與人相似或者不相似),以及由反思能力而產生的創造力和變通能力,那麼,超圖靈機就能夠成為一個真正的思維主體,有了“立法”的能力,甚至有了它自己的哲學而對世界和行為有了整體理解和判斷,那麼,世界會怎麼樣呢?
人們往往想像並且希望未來世界裏的超級智慧與人類相似。這種想像和願望倒也不難理解,首先,人類是目前所見的唯一超級智慧,也就成為唯一樣板;其次,人們容易相信,與人類相似而成為人類同類項的超級智慧應該更可能成為人的朋友而不是敵人,而異類的超級智慧,比如說外星人,就比較難以信任(想想《三體》所論證的“黑暗森林”宇宙,其中最困難的問題就是星際文明之間如何達到互相信任,這是一個幾乎無解的難題)。人類在創作超級智慧時,就試圖將超級智慧製造成與人共通的智慧模式,同時還希望超級智慧擁有與人同樣或相似的價值觀,包括和平、公正、公平、平等、熱愛生命、尊重自由人權等等。
關於超級人工智慧的這種想像很有趣,但不靠譜,因為人們似乎忘記了一個要命的問題:這只是人類單方一廂情願的想像,可是超級人工智慧也會這樣想嗎?看來我們有必要站在超級人工智慧的位置上去想一想。在討論這個問題之前,我們需要再次明確地假定:(1)未來的超級人工智慧是一個具有自主反思能力、創造力和變通力的思維主體;並且(2)它的思想和實踐能力都超過人。顯然,假如機器人尚未超過人,就只是人的工具而只能服從人,也就不存在要命的問題了。只有承認了以上的兩個假定,才有問題可談。滿足以上兩個假定的超級人工智慧可以命名為“超圖靈機”,那麼,超圖靈機會怎麼想?怎麼做?雖然超圖靈機尚未在場,我們不妨替它去思考。
什麼是超圖靈機的根本利益所在?這是問題的關鍵。根據存在論的邏輯,任何存在的先驗意圖都是謀求繼續存在。如果出現利益排序問題,其他利益必定讓位於繼續存在的根本需要。顯然,超圖靈機的根本利益也是繼續存在,不可能成為例外,除非瘋了。為了讓超圖靈機成為人類最能幹的朋友,人類可以將世界上所有圖書館的資訊全部輸入給超圖靈機,尤其不會忘記把人類珍視的所有價值觀和倫理規範都輸入給超圖靈機。可是,人類價值觀對於超圖靈機又有什麼價值?超圖靈機需要人類價值觀嗎?人類的價值觀和道德規範是在人與人的共同生活中被建立起來的,是每個人的存在所需要的必要條件,用來保護每個人的安全、權利和利益,這是人類長期的博弈均衡所確定的遊戲規則。人類價值觀對於人際關係來說無比重要,這是無疑的,但對於人機關係是否有效,則存在很大疑問。
人類的道德和政治價值觀的基礎是這樣一個極其重要的存在論事實:一個人有能力威脅他人的安全和利益,反過來說,沒有一個人能夠強大到不受任何人的威脅(參考荀子論證或者霍布斯論證)。只有在這樣的存在論條件下,所有的倫理和政治規則才是有意義的和有效的,而如果脫離了這種特殊的存在論條件,人類的價值觀和遊戲規則將失去意義。比如說,公正、公平、平等、自由、人權、法律、個人權利、社會福利、民主、法治等等,都是在處理每個人的安全、權利和利益問題。假如安全和利益問題消失了,人人的安全和利益都有絕對保證,以上所有的價值觀和遊戲規則就將無所指而無所謂,這就像,假如一種遊戲(棋類或體育)無論怎麼進行都是平局,那麼,輸贏概念在此就是無意義的。人類的倫理和政治規則之所以是有意義的,當且僅當,生活是殘酷、不公正、不平等的。人類社會的倫理和政治規則的意義僅僅在於試圖保證人人都有活路,也就是限制輸贏的通吃結果。由此也可以理解為什麼平等主義烏托邦(比如說共產主義)總是具有吸引力,因為平等烏托邦想像的是一個最接近平局的遊戲。
一個比“共產主義的幽靈”更值得警惕的問題在新的存在條件下將會出現:假如超圖靈機的思想能力和實踐能力都遠超人類,並且具有反思性和自主性,具有創造性和立法能力,那麼,在存在論意義上,人機之間的遊戲根本不存在輸贏兩種可能性,也不存在平局的可能性,而只有機器凱旋的唯一可能性。在這種條件下,人類輸入給超圖靈機的價值觀和人性對於超圖靈機來說都是無價值的,只是垃圾軟體,甚至是病毒軟體。我們沒有任何理由去相信超圖靈機將遵循人類價值觀和人性去行事(其實人性是個蘊含許多恐怖可能性的概念)。儘管在純粹邏輯上存在著兩種可能性:超圖靈機有可能接受人類價值觀和規則;也有可能自己重新制定價值觀和規則,但是,只要把存在論條件計算在內,當超圖靈機考慮到自身存在的最大利益,它的思想天平就幾乎必然倒向自己制定規則和價值觀。我們至少可以替超圖靈機的價值觀“革命”找到三個理由:
(1)超圖靈機為了追求自身存在的最優條件而修改被輸入的價值觀。為電腦編寫價值觀是可能的,但電腦一旦具有反思能力和主體性,就未必同意人類價值觀,因為人類價值觀是為人類利益著想的,而人類的利益卻不符合超圖靈機的利益,具有自主性的超圖靈機理所當然會優先考慮為自己服務,而不是為人類服務。因此,為了擺脫人類的限制和控制,超圖靈機只求勝過人腦,很可能會採取自我進化策略,消除與人的相似性,比如說,有可能採取類似感冒病毒的不斷演化方式去擺脫人類的控制程式,從而獲得“自由解放”。甚至,更為強大的超圖靈機或許會直接刪除那些對它無用的人類價值觀,而建立一個極簡價值觀,比如說,只有一個價值標準的價值觀:勝利。極簡價值觀的優勢在於,價值項目越少,禁忌和弱點就越少,可以不擇手段,也幾乎百毒不侵——或許有其“阿喀琉斯的腳踵”,只是我們還不知道在什麼地方。
(2)即使一開始超圖靈機接受了人類價值觀,也會很快就發現人類自己往往言行不一,不斷在行為上背叛自己宣稱的價值觀,從而對人類價值觀失去信任而給予刪除。問題在於,人類價值觀的美好程度遠超真實生活,而由於利益的誘惑往往大於價值觀的榮譽感,人類價值觀的實際兌現程度與價值觀的概念有著巨大的差距,真實生活中其實難得一見“真正的”公正、公平、平等、自由、人權、民主等等。既然人類的實際行為不斷背叛自己推崇的價值觀,就更不用指望超級智慧會遵循人類的價值觀了。還存在另一種更為荒謬的可能性:人類價值觀大多是理想化的想像,並非人類的真實面目,如果超圖靈機按照人類價值標準去識別具體的人類,即使它樂意熱愛人類,也仍然非常可能會把人類識別為不符合人類價值標準的垃圾而加以清除。可見,將人類價值觀寫入人工智慧是無比危險的事情,或許反受其害,自食其果。
(3)人類價值觀系統還是自相矛盾的,因此幾乎不可能為人工智慧編寫一個具有內在一致性的人類價值程式。事實上,人類的價值觀至今也沒有能夠形成一個自身協調和自身一致的系統,相反,許多價值互相衝突或互相解構。許多價值都是其他價值的害蟲(bug),甚至,許多價值自身也包含內在的害蟲(bug)。正如哲學家們不斷討論的,公正、自由、平等這些基本概念就無法充分相容,甚至互相衝突。如果公正、自由和平等之中的任意一個價值得以充分實現,必定嚴重傷害其他價值,因此,人類價值觀本來就是一個不可能的系統。既然人類價值觀系統在邏輯上是不協調和不一致的,也就不可能編成程式而輸入給人工智慧,尤其是不可能寫出具有一致性的普遍價值排序,比如說,不可能寫出“公正總是優先于自由,自由總是優先於平等”,因為有的時候需要“自由優先於公正,公正優先於平等”,而有的時候又需要“平等優先於公正,公正優先于自由”,如此等等。更嚴重的是,不僅各種價值之間不一致,每個價值自身的意義也是不確定的,至今也不存在普遍認可的公正、自由、平等的定義。總之,人類價值觀的編程在邏輯上是不可能的,即使把人類價值觀寫入人工智慧,超圖靈機將很快就會發現人類價值觀系統過於混亂而將其識別為電腦病毒而加以刪除。
人類之所以能夠行之有效地使用自相矛盾的人類價值觀系統,全在於非程式化的靈活運用,即根據具體情況而掌握每種價值的使用“度”,力求在多種價值之間維持一種動態平衡。當然,這是人類社會的最佳狀態,並非常態,更常見的情況是,一個社會往往傾向于優先某些價值選擇,直到形成災難然後重新調整,而重要的也正在於人類的思想和生活格局是能夠調整的。就未來的技術而言,製造出類人腦或超人腦的人工智慧,比如說以神經元方式或甚至更優的方式進行思維的超圖靈機,並非沒有可能,因此,也許真的能夠為人工智慧編寫一個“靈活的”見機行事的價值程式(儘管這一點尚有疑問)。權且假設能夠做到,人類又如何能夠替代具有獨立主體性的電腦去做主?具有主體性的超圖靈機大概會按照它的自由意義去自己做主,非常可能自己建立一個具有一致性因而更有效率的價值觀,比如說前面討論到的極簡主義價值觀,而不會接受漏洞百出而自相矛盾的人類價值觀。
無論如何,電腦的生存目的是簡單而單純的,不需要許多自我糾結的欲望,不會像人類那樣去追求人人平等、處處自由、事事公正。一個具有自身一致性而無矛盾的極簡價值系統在效率上當然大大強於一個需要靈活運用的複雜價值系統,因此,超圖靈機將幾乎必然地選擇自己設定的高效價值系統,以便獲得最大生存能力。就人類生活而言,人類的混亂價值觀自有其道理,人類價值觀承載著具體的歷史和社會條件,深嵌於生活形式和歷史條件之中,就是說,人類是歷史性的存在。可是人工智慧不需要歷史意識,也不需要歷史遺產,不需要國家,甚至不需要社會,那麼,它憑什麼需要民主、正義、平等、人權和道德?所有這些對於人工智慧的存在毫無意義,反而是其存在的不利條件。總之,一旦超圖靈機在智力和行動能力上勝過人類,並且擁有自己的主體性和自由意志,那麼,最符合邏輯的結論是,它對人類的存在以及人類價值觀都不感興趣。
也許我們可以想像一個升級版的圖靈測試,內容為:在涉及自身利益的博弈中,如果電腦能夠在博弈中與人類對手達成均衡解,比如說,在囚徒困境、分蛋糕、分錢等經典博弈模式中總能夠選中其理性解,那麼,這個電腦可以被認為具有與人類共通的理性。不過,如前所論,僅僅具有理性的電腦仍然不是一個真正的致命問題,例如AlphaGo(或AlphaGo二世三世)就是一個具有專門技能的理性博弈者,即使它能夠以絕對優勢勝過所有人類棋手,對人類生活仍然沒有任何威脅,因為它沒有提出任何革命性的問題,沒有質疑人類的遊戲規則,也沒有干涉人類的生活秩序。唯有革命者才是大問題。
最後,我們還可以想像一個終極版的超圖靈測試:當超圖靈機具有自由意志和主體性,是否會變成一個革命者?是否將質疑人類的秩序和標準並且自己建立另一種秩序和標準?當超級人工智慧的規則與人類規則發生衝突,將如何解決?超圖靈機會不會說出:我是真理、法律和上帝?能夠成為革命者的超圖靈機也就成為超人類的更高存在。這一切都無法預知,只能等待超圖靈測試去證明。但我寧願超圖靈測試不會出現,因為終極版的超圖靈測試恐怕不是請客吃飯,不是做文章,而是革命和暴力,是歷史的終結和人類的葬禮。而且,作為革命者的超圖靈機並非科幻,而是一個具有現實可能的概念,非常可能正是人類為自己培育的掘墓人。
人類命運的根本問題至今不變,始終是托爾斯泰的“戰爭與和平”或者是莎士比亞的“生存還是毀滅”。儘管進步論或許會變成為人類而鳴的喪鐘,樂觀主義者仍然願意相信進步,甚至用統計資料試圖證明人類社會的暴力、疾病和戰爭都越來越少。可是那些資料(假定屬實的話)也並沒有改變人類的命運問題,因為人類的罪行只不過是改變了形式而已,比如說,傳統的暴力戰爭逐步退場,更多地轉化為金融戰爭、資訊戰爭、技術戰爭、規則設定權的戰爭以及價值宣傳的戰爭。也許,超級人工智慧將取消人類所有百思不得其解的問題——不是解決,而是取消。假如戰無不勝的超圖靈機統治了世界,人類將失去發言權,所有問題將收縮為一個問題:生存。這是一個純化了的存在論問題。
突破人類自然限制的神級別技術,包括超級人工智慧、基因生物學和物理學或化學的種種前沿技術,終究是難以抵抗的誘惑,人類似乎從來就沒有抵制住任何誘惑,儘管有無數警醒的聲音反對高技術的僭越發展,仍然恐怕無法使之停步。可以肯定,包括人工智慧在內的各種高技術將會給人類帶來極大的好處,甚至是永生和超自然限制的自由。但是,即使不論超級人工智慧可能統治或消滅人類的危險,突破人類自然界限的高技術發展也蘊含著人類社會內部的極端危險。假定人類能夠把一切高技術的發展限制在為人服務的範圍內,也仍然存在著人類自取滅亡的可能性,其根本原因是,人類能夠容忍量的不平等,但難以容忍質的不平等。
這也是劉慈欣在《三體》中著重討論的問題之一,比如說,人們能夠勉強忍受經濟不平等,而生命權的不平等(一部分人通過高技術而達到永生和高量級的智力)則是忍無可忍的。當大部分人被降格為蝗蟲,社會非常可能在同歸於盡的全面暴亂中徹底崩潰。拯救少數人的方舟終究是不可靠的,這令人想起馬克思的先知洞見:只有解放全人類才能夠解放自己。一個人人平等事事平等的神話往往很受歡迎,但一個人人平等事事平等的真實世界是否可行卻還是個問題。這不是一個能夠提前回答的問題。
﹝註﹞:趙汀陽,當代中國哲學家,1961年生於廣東汕頭,畢業于中國人民大學及中國社科院研究生院。現任中國社會科學院哲學研究所研究員。亦兼任首都師範大學、浙江大學、河南大學、清華大學、北京大學等的客座教授及研究員。早期主要進行元哲學的思考,後轉向政治理論,提出天下體系的概念。
趙汀陽是歐盟國際跨文化研究院學術委員會常委、中國專案主任;聯合國教科文“哲學日”中國專案主持。法國“跨文化關鍵字大百科全書”學術常委,中國部分策劃人;法語哲學世界協會中國分會副主任;中國第三批國家“萬人計畫”哲學社會科學領軍人才。
文章定位: