我們必須讓機器人具道德感,莎士比亞和珍‧奧斯汀能幫上忙嗎?

要電腦向經典文學學習倫理學是個危險的念頭,經典文學的世界就是一整塊道德地雷區


當以撒‧艾西莫夫(Isaac Asimov)於 40 年代寫下《我,機器人》(I, Robot)時,他想像出一個機器人會為人類做所有乏味或不愉快工作的世界,但它們的權力必須受限。它們的程式被寫入必須遵守的三條守則:機器人不可傷害人類,即使是以袖手旁觀的方式亦不可;機器人必須服從人類(除非與前一條規則相悖);機器人必須保護自己(除非與前兩條規則相悖)。不幸的是,科學家很快便創造出一個能理解「精神傷害」概念的機器人赫比(Herbie)(註 1)。像托馬斯‧哈代(Thomas Hardy)的小說或易卜生(Ibsen)劇中的角色一樣,機器人很快便發現,它們處於一個據實以答會傷害人類主人的情況——而拒答亦然。這是一個邏輯的僵局。機器人尖銳地鳴叫、崩潰,變成「靜止不動的廢鐵。」

當許多人預測我們即將進入一個機器人新時代時,人工智慧研究人員已經開始考慮如何製作改良版的「赫比」。機器人該如何接受複雜的道德教育——他們如何能獲得我們所謂的良知?專家們試圖教導人工智慧以道德的方式思考和行為,但哪些範例能被餵食給機器人,來教導它們正確的行為呢?

我們最喜歡的故事中,充滿了鬼魂、惡魔、巫師、怪獸,和各種會說話的動物。

現在,一些人工智慧界的創新者開始相信這些範例存在於故事裡。喬治亞理工學院互動式計算機學院的科學家正在開發一種教導機器人從虛構人物中學習的系統。似乎略帶諷刺意地,他們將該系統稱之為「唐吉訶德」(Don Quixote)。唐吉訶德當然是那尊貴卻天真易騙的西班牙紳士,​​他因為相信世界如他所鍾愛的俠義浪漫故事描繪般,而招致了既災難又具娛樂性的後果。

如果人工智慧要從諸多我們用以娛樂作品中學習,編碼工程師將有一些困難的實際問題要克服。關於世界的模樣,許多小說和戲劇會將可憐的機器人們誤導得暈頭轉向,而它們必須在這個世界做出種種決策。我們最喜歡的故事中充滿了鬼魂、惡魔、巫師、怪獸和各種會說話的動物,人類並且穿越時空、在空中飛行,並用魔法解決或招致種種問題。大多數文化中的神話和傳說確實描繪了一些最基本的人類衝突和困境,機械智慧也許必須了解這些;但這些故事同時充滿了超自然的存在,且必然將教導人工智慧關於死後生命的危險概念。

也許我們可以從機器人閱讀書單中排除這類敘事的素材,並且一定要禁止《格列佛遊記》(書裡會說話的馬比人更善良)、《愛麗絲夢遊仙境》以及任何類型的魔幻寫實作品。然而,即便是那些比較不具奇幻色彩的故事,也有潛在的誤導性。唐吉軻德系統顯然鼓勵機器人仿照書中受尊敬的角色來行動。但一本文學作品中完全沒有一名在道德上值得效仿的角色也是完全合理的事。試想看看,在《米德爾馬契》(Middlemarch)、《奧賽羅》和《伊里亞德》中有哪個適合機器人的模範角色嗎?而即使有這樣的角色,唐吉軻德系統也會認為只要表現得像那角色就能得到回報。相較之下,要避免的書目卻是顯而易見的,例如諸多20世紀晚期的經典:《天才雷普利》(主角是一名足智多謀而缺乏道德的殺手)、約翰‧厄普代克(John Updike)的《兔子四部曲》(主角是一名放蕩而貪婪的低俗之人),以及《蘿莉塔》(不解釋)。

一個沉浸在歐洲過去 500 年諸多偉大喜劇文學的機器人,肯定會相信婚姻是所有人類追求的幸福結局。

據人工智慧科學家馬克‧瑞斗(Mark Reidl)表示:「機器人的思維過程是模仿那些在諸多故事和作者筆下一再出現的部分。」對他來說,灌輸機器人故事可以提供它們人類花了數十年才領悟的東西。文學提供了計算機智慧「替代記憶」,藉此作為未來決策的基石。

科學家們認為,文化敘述能提供人類價值觀的信仰固然可喜,但前提是這些價值觀要沒有太多的挫折或悲慘命定。即使是最理想主義的機器人導師,也會想將《李爾王》和《無名的裘德》排除在教學名單外。正因劇場導演時常認為《李爾王》缺乏道德指引,乃至於直到 19 世紀中期為止,這齣戲都經常被改以「快樂」的結局演出:寇蒂莉亞(Cordelia)活了下來,並與愛德伽(Edgar)成婚;而維多利亞時代的評論家是如此反對《無名的裘德》中的道德虛無主義,乃至於作者湯瑪斯‧哈迪(Thomas Hardy)在看到回應之後決定擱筆小說創作。

然而具有強烈對錯意識的論述則可能使狀況更為混亂。在查爾斯‧狄更斯(Charles Dickens)以及許多同樣是維多利亞時期的作品中,人們應盡全力勸阻年輕女性發生婚前性行為,女性若不遵從而「墮落」,她們的命運便終將走向死亡、賣淫或移居澳洲。至於那些有好結局的書又如何呢?也很難說。一個沉浸在歐洲過去 500 年諸多偉大喜劇文學的機器人,肯定會相信婚姻是所有人類追求的幸福結局。它們也會相信男男女女都能輕易偽裝成他人,而那些遵從本心的人則多能獲得鉅額的金錢回報。

但即便這些偉大的文學作品無法提供道德指引,它們至少能提供一些實際的教訓。最常見的是:不要相信別人告訴你的事。看看《李爾王》中高納里爾(Goneril)和里根(Regan)油腔滑調的愛情誓詞,她們對李爾王的毫不在意對任何讀者來說都是顯而易見的。機器人讀者會如何理解或學習這件事?同樣地,在珍‧奧斯汀的小說裡,表現出這樣圓滑或合理化說詞的人(尤其是年輕男性)是否就永遠不值得信任?而人工智慧又是否能搞懂柯林斯先生的所有發言都顯示出他是個自吹自擂的討厭鬼?

作為一名英國文學學者,我可以說如果我們是機器人,我們會是笨拙的機器人。

所以也許我們應該給予機器人更簡單的文本。如果是《伊索寓言》呢?或者《新約》中的比喻?又或者伊妮‧布來敦(Enid Blyton)(註 2)的作品?如果電腦可以了解動物角色的奇想,《伊索寓言》也許會有用;如果機器人相信上帝的話,《新約》也許還可以;布來敦的作品可能會讓人擔心其存有一些可議的道德判斷。在次文學類型中,也許只有傳統的偵探故事具有可靠的道德演繹,雖然這些作品會讓我們的機器人對人類行為感到厭惡。

好書有讓我們變得更好嗎?我個人的答案或許有些讓人沮喪。作為一名英國文學學者,我可以說我們這些被請來一讀再讀這些偉大文學論述為職的人,並沒有明顯比較道德高尚、比較有社交技巧,或比我們的同胞更理解人性。如果我們是機器人,我們會是笨拙的機器人。也許,堅守以撒‧艾西莫夫簡單但優雅的守則是最明智的選擇。

詹.伊吾(Jan Ioo)所繪的科幻場景。(Getty Images)
安東.布榭辛斯基(Anton Brzezinsk)所繪的科幻場景。(Getty Images)

註 1:《騙子!》(Liar!)中一具因製作失誤而具有心靈感應的機器人,赫比仍然遵守機器人三大守則,但卻能夠巧妙地藉由說謊傷害人類感情。

註 2:英國 1940 年代的著名兒童文學家。著名作品《諾弟》(Noddy)系列透過虛構人物為兒童介紹世界各國的新奇事物,在世界各地廣受歡迎。

Previous ArticleNext Article