▲AlphaGo 與棋王李世乭人機大戰!受到全世界矚目。(圖/翻攝自DeepMind)
文/周偉航
Google發展的人工智慧AlphaGo對決韓國棋王李世乭,初期電腦取得一連串的勝利,加以媒體一再宣稱李世乭是「人類最後防線」,因此這樣的科技進展,也讓許多民眾感到恐慌,認為電腦威脅人類的日子已經到來,甚至主張人類的文明因此將歸於「虛無」。這就有點過頭了。
人類下棋輸給電腦,就代表電腦將在所有領域征服人類嗎?這類推未免太快太急。就算人工智慧能在接下來的日子裡有爆發性的成長,「電腦」和「人腦」仍有一些關鍵性的落差,而且這落差是在程式邏輯語言誕生之初,哲學家就思考過的根本鴻溝。要說明這概念並不簡單,但可以從下面這個問題開始:
「一台覺得很快樂的電腦,它的快樂是真的快樂嗎?」
許多人看了科幻片,會對片中機器人或電腦的真摯反應所感動,甚至認為那根本和人的情感沒兩樣。如果機器人真能「表現」出情感的話,我們也該把他們當人看。
但有不少學者認為電腦的情感和人類的情感不同,電腦依其程式語言,只能「表現」或「模擬」人類的情感,不會是像人類那樣透過外在環境與個人生命史的交錯而產生情感。
當然也有物理主義者主張,人的思想也不過是一些物理和化學反應,也是種依照特定的「程式」跑的機械,所以情緒反應也是程式跑出來的結果。這當然也有其理,不過要掌握這種「程式」,可能還需要上百年的科技進展,甚至永遠辦不到。
▲電腦沒有人生,其快樂也就不如真人棋王那麼豐富。(圖/翻攝自DeepMind)
人的快樂悲傷,除了直接生理反應之外,還包括了許多社會與文化的要素,這使得人人的喜樂成因不同,一個人在不同時空中的反應也會不太一樣,因此很難找到可完全掌握快樂悲傷的學理方法。
舉例來說,我們可以透過吃藥或電擊創造某種爽,這種爽的生理機制可能和考一百分時的爽一樣,但我們人類還是對後者狀況有所偏好,也認為考試的爽與電擊的爽在意義層面有所不同。這個「意義」層面,就是哲學問題之所在。
下圍棋的遊戲規則與勝敗相對簡單明確,電腦則可以運用其能力優勢超越人類。但我們對於喜樂哀苦沒有共識,連「目的」都不一了,電腦再好,又要如何參與這場不確定終點的競賽?
人類的行為目的具有價值,而價值又可區分為兩類,一類可客觀量化計算,一類無法量化計算,前者被稱為「外在價值」,後者為「內在價值」,快樂與幸福主要屬於後者。
無巧不巧,發明上述這組區分的學者,就是用下棋當例子。下棋取勝的技法,在某種程度上可以用錢掌握,但下棋的樂趣是買不到的。我們下棋,要的不只是贏,還想透過下棋這個休閒活動,去獲得一些快樂或幸福感。
回到圍棋的人機決戰,電腦就算把所有人類都清盤了,在「量化」的角度贏過了人類,它將因此感到快樂嗎?
應該不會。這人工智慧是專注應對棋賽策略,並非用於模擬人的情緒或創造類似的氛圍。就算它贏了之後,在螢幕上顯示個笑臉圖,比個讚,甚至發聲告訴你它很爽,我想多數人也不認為那是真正的「快樂」。
「贏」有某種客觀價值,但那只是「外在價值」,棋賽的快樂等「內在價值」,是在競賽過程中透過和對手鬥智產生的,這和一些人生經驗相關,電腦沒有人生,無法延伸出這層意義,其快樂也就不如真人棋手那麼豐富。
而且並非成為「宇宙最強」才有樂趣,兩個棋藝很爛的人,仍然可以比得非常高興。就算比賽輸了,人類仍可能覺得快樂,可能是比上次輸得少,又或者是學到一些東西。想想圍棋界高手看到AlphaGo的行棋怪招時所產生的省思。
我們下棋的快樂不會受到AlphaGo的影響,那它可能成長到反噬人類嗎?許多科幻片會讓你這種擔憂,不過目前各種人工智慧都還缺乏探求「終極目的」能力,這會使它只能停留在「工具」的階段。
試想,如果問AlphaGo:「你幹嘛那麼認真下棋呀?」它會怎麼回答?
它可能完全無法回答,因為這不在它的人工智慧設定中。就算能回答,很可能也是如Siri一樣,上網撈一個人類現成的答案來回應你,像「我被老闆逼的」「我只會下棋」。
當人被問到:「你為什麼要那麼認真打電動呀?」我們可能會撈別人的答案回應,但你也能連結回生命經驗,透過自己的「終極目的」來回應這個問題。就算你沒想過,你也大概知道這問題沒有標準答案,只有最適合自己的答案。
▲AlphaGo處理圍棋,目的很單純,就是贏而已。它能生出專屬於自身的幸福嗎?(圖/翻攝自DeepMind)
因此,就算AlphaGo回答:「我覺得能下棋很幸福。」我們也會懷疑它是否清楚自己在講什麼。而到目前為止,只有人能思考擁有不含工具意義的「終極目的」,也就是「幸福」這概念。但每個人對幸福的內容設定都不同,往往來自於我們所屬的社群,千變萬化,十分複雜。
沒有具體的「人生」,就無法統合生命歷程中的各種目的來指向一個「終極目的」。AlphaGo處理圍棋這個活動,其「目的」很單純,就是贏而已。但他能產出進一步的目的嗎?他能檢討過去的行動,以生出專屬於自身的幸福嗎?
想想它下贏人類的王者之後,能幹嘛。和自己下棋?人類棋王不下棋,還多的是事情可以做,而專門下棋的電腦呢?它知道自己不下棋時要幹嘛嗎?
AlphaGo的確是個不錯的下棋「工具」,依人工智慧發展的態勢,將來也可以運用在很多層面,但它還是隨著人的(可能是Google工程師的)終極目的來成長,始終是個「工具」,只是達成「目的」之「手段」。若它們只是工具,就不會有真正的威脅性,只需要擔心用它來行惡的人。
那它們什麼時候會「不再只是工具」呢?
隨著類神經網路發展,也許將來在解題的過程中,它會突然開始將這些推論過程用以反省自己,並產生不受人控制的目的。這就可能讓它成為威脅了。
我們無法得知或預知那是什麼時候,因為這大概會是它們開始思考:「為什麼我要下棋?」而且不告訴你的時候。
覺得害怕嗎?其實也不用過度擔心。因為現在發展這種科技,還是有一定的商業考量,所以基於投資者的利益,研發者不會讓這個人工智慧開始思考自身目的。
就像壓榨勞工的老闆,不希望他的員工進行批判思考以成為「覺醒公民」,這人工智慧的擁有者,在正常狀況下也不會讓這機器開始思考自己,才能永久奴役這頭怪獸。
這是否讓人感到慶幸,又有點悲哀呢?
●作者周偉航,筆名人渣文本,經營粉絲專頁「特急件小周的人渣文本」,輔仁大學哲學博士,專長為倫理學,曾從事政治公關工作,目前為時論專欄作家。本文不代表公司立場。
讀者迴響