人工智能的道德代碼應該如何編寫?

36氪 於 24/10/2016 發表 收藏文章

編者按:人工智能正在以幾何級數的速度在發展,雖然對我們生活產生大規模深遠影響的AI技術尚未正式部署,但是提前對AI引發的社會與倫理問題進行探討是必要的。不幸的是,此前公眾對人工智能產生的道德倫理問題並沒有太多太廣泛的討論。David Newhoff總結了最近以電車難題為標誌的AI倫理問題的相關事件,並分析了不同思路的問題。從目前來看,無論是功利主義還是道德決定論,似乎都解決不了AI的道德代碼問題,也許我們需要道德虛無主義?讓機器像人一樣在千鈞一髮的情況下做出基於直覺的決定?



隨着人工智能從科幻小説變成大眾科學,領先的技術學家與科學家正在向自己提出如何編寫道德代碼的問題。報道最廣泛的道德困境是無人車與所謂的電車難題。這個假想挑戰的內容大致是:一個瘋子把五個無辜的人綁在電車軌道上。一輛失控的電車朝他們駛來,並且片刻後就要碾壓到他們。幸運的是,你可以拉一個拉桿,讓電車開到另一條軌道上。然而問題在於,那個瘋子在另一個電車軌道上也綁了一個人。考慮以上狀況,你是否應拉桿?

這個問題後來被轉移到了無人車領域,問的是一輛車的AI如何做出千鈞一髮、生死攸關的決定。這個問題不僅是技術或者道德問題,同樣也很富有哲理性。因為我們在現代發達社會應對悲劇的方式,或者對潛在悲劇的預期,通常並沒有包含該AI挑戰所藴含的這類道德決定論。

許多人是靠信仰來應對悲劇事故。這種信念認為,凡是計劃必有神性,即便這個計劃無法知曉。那些沒有宗教信仰的人對計劃則不抱信念,而是與這個事實和解:即混亂和人的不可靠是會製造出可怕後果的。無論是哪種情況,大家對不確定性都有一定程度的安慰感——不是對減少損失痛苦本身感到安慰,而是因為這讓我們能夠對可怕事件合理化,或者為出門不會活在恐懼之中感到安慰。這種不確定性加上可能性,以及保持着控制手段,讓我們可以自信地步入自己的車子開車到處轉而不怕被幹掉。去掉一個因素,比方説控制手段,可能就可以解釋為什麼更多人坐飛機要比坐車更焦慮,儘管統計數據表明其實他們應該反過來(汽車事故率比飛機高)。

就這一點而言,當預見不到的事情比如剎車失靈、路面突遇障礙物等發生時——人類司機的瞬時反應無疑更多是偶然性的結果而不是任何類型的理性決策。哪怕是在相對常見的例子裏面,司機被教導的也是永遠都不要為了避免橫闖馬路的野生動物受傷害而打急轉彎,以免增加被對向來車撞上或者自己撞樹的風險。但是那種避免碰撞的直覺是很強烈的,而且一旦突現出現的是阿貓阿狗是還會更加強烈。此處的要點是無論結果如何——不管是松鼠被壓扁還是幾位乘客死亡,包括司機反應在內的這一系列的事件,都要歸咎於一定程度的不確定性,而在這不確定性當中就有許多我們哲學上的應對機制。

但是當人類預先確定特定道德困境的結果,並且把它編碼進機器裏面,授權機器做出這些決定時會發生什麼呢?在上面提到的簡單例子裏面,松鼠被殺死了而所有的人都活下來了,但如果那瞬間的決定要麼導致乘客死亡要麼導致橫穿馬路的母子身亡呢?2016年夏,MIT的研究人員推出了一個名為道德機器的網站提出的正是這類問題,在各種假設交通場景下,用户必須做出一系列的雙輸決定,也就是不管怎麼決策都會有人死。任何人都可以進行“測試”,測試完之後網站就會公佈你的“分數”以及與其他人所做道德決策的對比情況。

當然,從原則上來説,道德機器測試展現給用户的信息是汽車AI永遠也無法知道的——比如其中一些潛在受害者是犯罪分子。但在更有可能的場景下,年齡是某些場景的因素之一,這個條件我覺得會更加可信一些——汽車是有可能知道自己搭載的是一堆七十多歲的夫婦,因此決定殺死他們而不是一個年輕家庭會顯得更有道德一點。而那對老夫婦自己可能也會做出這個無私的決定,但在人類操作者在面臨比自己思考還要快的緊急情況時,這類算計不會真正發生。

這類道德機器測試的可怕之處在於,它隱含意味着用於讓AI做出道德決定的數據集理論上可不僅僅包括數字(比方説機器可以簡單地把拯救數多於殺死數設為默認)。年齡也可以成為因素,但是對社會的淨值或者相對“價值”呢?AI可以為了拯救一位物理學家或者外科醫生或者一個卡戴珊而毀了整整一校車孩子的生命嗎?種族或者性別方面呢?這然後又會引發這些預設定決策是大家都知道的還是商業祕密的問題,這兩個都會引發巨大且空前的道德困境。

在這一點上,幾天前出現的一篇文章告訴我們説,奔馳的下一代無人車將會被設定為無論任何情況下都拯救乘客。一方面,這屬於一個算法派生,這種派生的主題是特權階級在任何其他生命面前都有一條優先通行車道。但也有説法認為奔馳這樣做事未來避免陷進對AI進行道德編程的烏煙瘴氣裏面。可能如果法律要求所有車輛默認都要接受一個指令,比如拯救乘客,這接近於人類司機的直覺但易犯錯的反應,同時仍然允許不確定性扮演角色,從而免除了工程師“扮演上帝”的責任。至少在AI具備自我意識並開始自行做出此類決定前是這樣。

畢竟,一旦去掉偶然性和放棄權利,把生死決策交給機器之後,很難不會注意到人為道德決定論的反烏托邦啟示。當我們去掉了偶然性、命運、上帝旨意等所提供的這些心理緩衝之後,發生了悲劇事故自然就要求做出解釋,因此本能上就要求追責。這當然會引發一些伴生的問題,比如誰不可避免地要玩弄系統,誰會對自己的車輛進行“越獄”,以便推翻有可能對自己不利的代碼,確保自己成為事故的倖存者。突然之間,這把抱怨擺弄技術資產“權利”的意志論者推到了理論上“犧牲小我”觀點的對立面。

AI道德問題還成為了導致得出無人車的私人產權也許不會持久結論的又一個因素。就理性而言,要想讓AI負責所有人的往來穿梭,各個AI系統就必須站在同一水平線上,這樣才能汽車去到哪裏都講道德。從這一點來説,奔馳或Tesla的模式只不過是公共系統或者高度管制化系統的墊腳石罷了。但是這樣的結果不會是製造商或者投資這一未來的領先數據公司想要的。

這就是我同意奧巴馬總統的理由之一。他最近在跟伊藤穰一(Joi Ito ,MIT媒體實驗室主管)聯合接受《連線》雜誌Scott Dadich採訪時表示,公共基金在AI開發中扮演角色是必不可少的。“......我們必須理解的事情之一是,如果我們希望這些突破性技術體現出多元化社區的價值,那麼政府基金就必須成為其中一部分。如果政府沒有參與提供資金支持,那麼伊藤穰一提出的所有這些技術價值問題最終可能都會失去,或者至少沒有經過適當的辯證。”

當然,奧巴馬所指的AI並不僅限於車輛,他的觀點闡述的很好。AI的科幻未來已經到來。但用什麼樣的價值觀來推動決策的問題在公開辯論當中幾乎很少被提及。與此同時,企業用“顛覆”的修辭已經赦免了隱私和知識產權侵權方面的許多原罪。或者就像Sam Kriss在《大西洋》的文章中的出色概括那樣:“矽谷解決的是此前並不存在的問題,矽谷文化對‘顛覆’的執着已經達到了病態的地步。技術產品不再感覺像是提供給公眾的東西,而像是強加於人:偉大的願景家觀察大家做某件事情的方式,然後決定以一己之力去改變它。”

今年9月底的時候,美國的技術巨頭——IBM、蘋果、Amazon、微軟、Facebook以及Google的計算機科學家聯合成立了一個新聯盟,名字叫做“造福社會與公眾的人工智能合作伙伴關係”。該聯盟的目標之一是建立AI領域最佳實踐的規範標準,其中就包括了類似無人車電車難題這樣的倫理問題的處理。但是這些技術研發體現出公共利益是必不可少的,雖然我本人可能比較挑刺奧巴馬政府在許多公共領域過於Google化,但是我相信總統本人對如何開發出有道德的AI是有着深刻思考的。從目前的研發和投資力度來看,我們唯有希望未來的領導人仍然能繼續推進這類話題的深入了。


資料來源:36Kr

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→