蓋茨、馬斯克不再反對人工智能,是什麼改變了他們

雷鋒網 於 31/03/2015 發表 收藏文章

如果您和我一樣是科幻粉,並且密切關注近幾年大熱的“人工智能”,一定對上週末博鰲論壇的“巔峯對話”期待已久。特斯拉汽車總裁埃隆·馬斯克和比爾·蓋茨,“人工智能魔鬼論”的代表人物;百度總裁李彥宏,人工智能技術實戰派,三位科技界頂尖大佬,博鰲論劍,一場世紀交鋒萬眾期待。

不過有些意外的是,現場我們並沒有看到三位在觀點上的激烈交鋒。而且馬斯克、蓋茨從態度激烈的“人工智能魔鬼論者”開始走向理性和緩和,表示在注重安全性的前提下,他們支持人工智能技術的發展。這無疑將對人工智能爭取了極大的輿論支持。那麼,究竟是什麼促使他們二位發生瞭如此的觀點轉變呢?

對人工智能的擔憂並非毫無道理,但缺乏事實支持

人工智能作為一項人類技術史上的新事物,從心理層面上講顯然難以在短時間內為人所接受,況且不斷地將生物邏輯植入到機器當中,將模糊生命體與人造物之間的界限,由此使得具備人工智能的機器成為一個新的物種,這對人類的存在顯然是個潛在的挑戰。不過,這些擔憂大多帶有強烈的主觀意識,缺乏足夠的理性和事實支持。

從經驗主義出發,遵從思維的惰性,放棄對科學的理性推論和觀察,輕易得出人工智能將無限逼近甚至取代人類智慧的結論是不負責任的。雖然目前計算機科學已經在人工智能領域取得了一定成績,甚至有計算機通過了著名的“圖靈測試”,但機器的深度學習能力還遠遠不能與人腦相提並論。不能否認計算機在運算、博弈、預測等能力上已經超越人類,但這些建立在固定的公式和邏輯上的結果,並不能作為人工智能超越人類智慧的依據。

奇點大學的校長庫茲·韋爾提出的“奇點”理論,目前仍然只停留在理論的層面,至於那個所謂的奇點距離現在還有多遠,相信庫茲·韋爾本人也不得而知。相對輿論的大肆鼓吹,業內對奇點理論保持着謹慎和質疑的態度,批評其報道搞混科學和科幻的概念。也許,人工智能距離人類大腦之間的距離,就是科學與科幻之間的距離。缺乏足夠的事實支持,讓對人工智能的擔憂既有些道理又有些荒謬。

人工智能的智慧距離人類大腦還有很遠的距離

人類的大腦是個複雜的生命器官,它由眾多分工不同的區域構成,不同的神經中樞配合相應的肢體,來完成語言表達、直立行走等身體機能。你可以形象地將大腦比喻成一個文件箱,不同的文件夾中存放着不同的資料,需要使用某些資料時,便從相應的文件夾中隨時取出。但若試圖將此模式直接複製到人工智能技術中時,顯然無法模擬出一個人類大腦。

凱文·凱利在《失控》一書中曾引述了幾個失語症患者的案例,其中一個患者突然喪失了識字能力,他能夠準確的形容出數字的形狀但就是無法讀出它,也記不起數字所代表的意義。有的患者能夠準確地表達出板凳、電視等實物,但卻對“懇求”、“感謝”等詞語喪失了認知能力。人類大腦的複雜程度在醫學界、科學界都仍然存在巨大的認識空白,人類本身尚且沒有完全認識到自己大腦的構成、學習和思考方式,又如何給機器製造一顆大腦呢?

人工智能技術之所以沒有取得突破性的進展,也許原因並不在於我們不夠了解機器,而是不夠了解人類的大腦本身。目前人工智能的學習方式仍然依賴於大量數據的積累,而無法在現有數據的基礎上實現“頓悟式”的學習,也無法通過掌握某一項方法而同時解決一系列同類問題,像人類一樣做到“舉一反三”。機器的學習是“填鴨式”的,只有通過不斷地數據積累和場景模擬才能夠得到進步。

所以在目前的階段,人工智能還遠遠無法對人類造成威脅,機器的深度學習只是一個開始,距離自主學習還有巨大的無法跨越的溝壑。

目前人工智能在現實生活中的應用,表現非常“友善”

迥異於科技大佬的威脅論,人工智能目前在現實生活中的應用表現得可謂相當“友善”,為改善人類生活,協助完成人類無法做到的工作,將人們從大量的重複勞動中解脱出來發揮了重要作用。

百度CEO李彥宏在兩會上的“中國大腦”提案,提議將人工智能、大數據分析和無人駕駛等核心技術上升到國家戰略層面,這也與李克強總理針對中國的製造業提出的“中國製造2025”計劃相吻合,人工智能將開創出全新的人機交互界面,在家電製造等領域發揮作用,製造出更懂用户更人性化的家電,實現人與機器之間的交流溝通,推動中國的製造業從“中國製造”走向智慧高端的“中國智造”。

百度和Google都在從事無人駕駛汽車的研發,Google的無人駕駛汽車目前已經進入實際道路測試階段,百度的無人駕駛汽車據悉也將在今年問世。與傳統汽車不同,無人駕駛汽車上的人工智能系統和傳感器代替了方向盤、剎車、油門,將人們從駕駛中解放出來以便做其他事。更重要的是,每年90%的車禍由司機不遵守交通規則引發,而無人駕駛汽車的出現有望徹底改變這一局面。

隨着可穿戴智能設備的井噴,作為基礎的人工智能技術,語音識別技術也將成為幫助人們更好交流的重要技術。機器能夠聽懂人類的語言,理解人類下達的指令,從而提升工作和生活的效率。比如Google眼鏡便可以識別語音指令進行拍照、導航等操作。同時,百度等國際領先企業已經將人工智能語音識別率提升到比人類更優秀的水平,這或將改變同聲傳譯行業,通過語音識別技術和智能翻譯技術,實現智能化的同聲傳譯,將世界上不同語言的人們之間的交流障礙徹底消除。

人工智能機器人也將在安保、勘探、監測等領域幫助人們更好的完成作業。矽谷的一家科技公司便開發出一款智能安保機器人,用於廣場巡邏時發現可疑狀況及時反饋至控制中心,機器人的投入使用取代了人員保安,節省了社會開支,也避免了安保工作中潛在的人身危險。

總之,人工智能在現階段的表現可謂相當友善,而且在可以遇見的未來將在人類的掌控下很好的為改善生產效率做出貢獻。

機器未必一定不會有害,至少現階段無需過慮

對於人工智能的擔憂大多集中在機器一旦超越人類智慧會否擺脱人類控制上。對此,科幻小説阿西莫夫曾在《我,機器人》一書中為機器人制定出三大定律:“一、機器人不得傷害人類個體,或目睹人類個體將遭受危險而不顧;二、機器人必須服從人類的命令,當該命令與第零定律或者第一定律衝突時例外;三、機器人在不違反第零、第一、第二定律的情況下要儘可能保護自己的生存。”不過,即便我們制定出這套定律,未來的人工智能未必會遵守。

我們既無法完全保證機器對人類的絕對無害,也無法通過合理的推論得出機器將在未來對人類造成威脅。人類創造了機器,並且在安全性上為其制定了嚴密的運行規則,但我們也無法保證具備高度智慧的機器會否完全遵從這套規則。當然任何事物由好到壞的轉變都有一定的先前徵兆,就好比希特勒成為好戰的獨裁者之前,在性格、能力等方面就已經表現出了此類潛質。防止機器在未來威脅人類的關鍵在於,保證規則的穩定有序執行,以及在安全問題出現之前及時發現苗頭。

社會學家通過對二戰的反思,得出之所以有希特勒的出現是因為人類社會的某些運行規則、倫理規則和價值判斷出了問題的結論。希特勒早年的成功與德國當時的社會背景有關,也與其極富感染力的演説能力和指揮羣眾的能力有關,當大眾的狂熱情緒被煽動起來時,在他們眼中獨裁者反而成為了民族英雄,這種價值觀上的扭曲是造成德國二戰悲劇的根源。對於機器來説,我們所能做的就是為機器制定規則,未來在人工智能露出威脅人類安全的苗頭時及時作出反應,或許有可能避免悲劇的發生。


資料來源:雷鋒網
作者/編輯:郝小亮
標籤: 人工智能  蓋茨  馬斯克  

留言


請按此登錄後留言。未成為會員? 立即註冊
    快捷鍵:←
    快捷鍵:→