我們必須民主化人工智慧,才能避免卡夫卡式的噩夢未來

人工智慧的歷史由國家與企業權力交織而成。現在,它必須反映出那些一直以來,遭排除在外的人們


試想這樣一個系統,它所做的決策對個人前途有著巨大影響——甚至能左右生死。想像這樣一個複雜而不透明的系統:它將人類區分為贏者與輸家,但其區分標準卻從未被明確定義。那些被評量的對象並不知道這個系統搜集了他們的哪些資料,也不知道他們的資料被與何種資料進行比對。並且,無人願意為這個系統所做決策擔起責任——所有人都宣稱,自己是在履行己身如同齒輪般的功能。

這是法蘭茲‧卡夫卡(Franz Kafka)1915 年小說《審判》給我們的啟示。在該書中,卡夫卡講了一個荒謬的、與冷漠官僚的政治機構交手的故事。主角約瑟夫‧K(Joseph K)並不知道自己為何被捕,也不知道對他不利的證據為何;沒有人願意為此負責,也沒有人願意好好向他解釋這個系統是如何運作的。而這個故事在無望中結束,約瑟夫‧K 被徹底擊敗,讓自己任由命運擺布。

向後快轉 100 年,如今人工智慧和數據驅動的電腦系統,也經常被批評者們以類似的方式描繪:後果日益嚴重,卻不透明,且不負責任。這並非一個巧合。約瑟夫‧K 的審判和人工智慧帶來的道德與政治問題之間,有著直接關聯。與炒作所說的不同,在過去幾年間,這項科技似乎仍未完全成形。如同歷史學家約翰尼‧潘(Jonnie Penn)近來的論點,人工智慧擁有悠久歷史,與國家和企業權力緊密相連。人工智慧系統的發展,主要是為近一步促成其資助者的利益:政府、軍方,和大企業。

最重要的是,這些人工智慧系統試圖自動化,而所依據的決策模型直接取自這些官僚機構。機器智慧的兩位偉大先驅,艾倫‧圖靈(Alan Turing)和約翰‧馮‧諾伊曼(John von Neumann),都在二戰的嚴峻考驗中開發出產品原型。在馮‧諾伊曼的監督下,第一台通用型計算機 ENIAC 甫誕生,便是用於處理氫彈運算。

換言之,「人工智慧」中的「智慧」一詞並不是作曲家、照護員,或醫生等人類個體的智慧,而是官僚機制的系統智慧,該機制處理人們生活中的大量數據,再將其分類、歸檔,為其做出決策,並將人們放在各自的位置上。人工智慧的問題與卡夫卡式(Kafkaesque)的政府相似,因為它們就是此種政府下的的產物。約瑟夫‧K 將立刻認出我們這個時代裡「電腦說不」(computer says no)(註 1)的文化特徵。

當然,人工智慧及其相關科技有無數種方式能用於人民賦權:舉例來說,為更多人提供更好的醫療服務,並從數位私人助理到客製化在線學習等,提供許多其他服務的管道。

但與此同時,他們也冒著使不公正恆久存在的風險。因為,儘管它們是最新、最耀眼的技術,它們也象徵著過去的偏見——簡化的系統性思考,以及自其根源便存在的制度性偏見。在默認情況下,這些卡夫卡式的系統將使得現存偏見形式得以恆在,甚至加劇。亞馬遜現已停用的「招聘演算法」就是一個很好的案例,該算法從過往紀錄中分析該公司通常聘用哪類人,並以此為基礎,降低在簡歷上顯示為女性的新申請者的分數。

因此,對人工智慧最為有益的關鍵步驟,是要確保在開發和部署過程中,各種不同的聲音都有所參與。這代表著,包括遭排除在人工智慧生產的權力體系外的人,如女性;或那些曾遭權力體系所殖民者,如已開發國家的許多族群和多數發展中國家;或是那些因這些體系而受害者,如貧困者或殘疾人士。

這是一項巨大挑戰。世界經濟論壇(World Economic Forum)去年 12 月時發表的一篇報告結論指出,全世界人工智慧專業人士中,僅有 22% 為女性。有色人種所面臨狀況同等艱難:去年 12 月,超過百位研究員欲前往加拿大參加神經資訊處理系統大會(NeurIPS),簽證卻遭拒,該大會是人工智慧領域最重要會議之一。由於許多人來自非洲,這也對旨在增加黑人科學家在該領域的代表性的「Black in AI」組織之活動產生特別影響。

但,還是有好消息。有賴於美國的研究者倡議團體如 AI Now Institute 和 演算法正義聯盟 (Algorithmic Justice League)(註 2),邊緣化團體參與研究的重要性正逐漸獲得認可。在英國,新成立的愛達‧勒芙蕾絲機構(Ada Lovelace Institute)(註 3)三個核心目標之一,便是在形塑人工智慧社群的未來時「匯聚不同的聲音」。該機構正處於有利位置:獨立,但又有足夠關係以確保那些聲音能被聽到;且它能夠在其創始人奈飛爾基金會(Nuffield Foundation)(註 4)已有紀錄的基礎上,將倫理帶入科學。

那些在歷史上曾受權力體系所挫的人們,如卡夫卡——一個生活在布拉格、講德文的猶太人——一直總處於特別「合適」的位置,能辨認出系統的不透明、不負責任和武斷妄為。將那些聲音納入,將因此確保人工智慧不僅使未來更有效率,也更合乎道德。


註 1:「電腦說不」(Computer Says no)為一種面對客戶要求時常見的公關說法,這是一種刻意將問題推卸給電腦程式,而不試圖解決問題的態度。

註 2:AI Now Institute 長期關注人工智慧領域發展,並於去年 12 月發布人工智慧十大建議報告,要求政府規範及監控人工智慧與人臉辨識技術的發展。「演算法正義聯盟」由 MIT 非裔研究員喬伊‧卜拉維尼(Joy Buolanwini)創辦,旨在防止人類偏見被編入軟體中。

註 3:愛達‧勒芙蕾絲被公認為史上第一位完全了解電腦潛能的人,也是第一位程式設計師,對早期電腦發展史有著巨大貢獻。這個以她為名的機構旨在讓數位資料與人工智慧能夠為人類與社會所用。

註 4:奈飛爾基金會為補助學術性科目研究的單位,其主要目的在於鼓勵學校科學課程之發展與研究。

Previous ArticleNext Article