專題 | 我們該如何與機器相處 ——從弱人工智能到無所不包的擴展現(xiàn)實

稿源:南方人物周刊 | 作者: 特約撰稿 翟振明 日期: 2018-01-03

AI給我們卸載,VR讓我們飛翔,但這個全新人造空間暫時還沒有航標(biāo)燈也沒有雷達,那里充滿機會又危機四伏,最緊迫的,是要制定“虛擬世界大憲章”。天空還是深淵,就看我們此時的抉擇

這次圍棋人機對決,第三場一見分曉,馬上有人說,“從此再也不是人工智能挑戰(zhàn)人類,而是人類挑戰(zhàn)人工智能了”,這不無道理。但如果有人說,這只是一個韓國(棋)人輸給了一只英(美)國狗(Go),那也不全錯。 

第四輪李世乭扳回了一局,又是否表明人類挑戰(zhàn)機器初見曙光? 

需要先聲明的是,我在美國期間除了在大學(xué)教書還兼職寫過代碼,主要是為程序除錯(debug),但從未下過圍棋。主業(yè)則一直從事哲學(xué)研究和“擴展現(xiàn)實”(即虛擬現(xiàn)實和物聯(lián)網(wǎng)融合后類似電影《黑客帝國》那樣的人造世界)的理念構(gòu)架和技術(shù)路線設(shè)計,我創(chuàng)建和主持的人機互聯(lián)實驗室已通過沙盤測試,目前正在升級改造之中。 

棋局之外的重重玄機 

有人以為,這次AlphaGo贏了,但畢竟沒有5局全勝,這說明人類還是有希望反撲的。在我看來,無論是AlphaGo橫掃李世乭,還是互有輸贏,其間并沒有什么特別的不同,都說明人類在AI這一領(lǐng)域的技術(shù)取得了長足進步,但與“機器人征服人類”之類的噩夢式前景無甚關(guān)聯(lián)。假若這次機器徹底贏了,總有假設(shè)的一個過去的時間點,他們之間會互有輸贏。早幾天遲幾天,會有多少實質(zhì)性差別呢?長遠來看,機器必勝。 

焦慮和恐懼有不同的來源,其中一種反應(yīng)是由于覺得人類的智力優(yōu)勢被機器奪走后,自己就會在就業(yè)市場上被淘汰。這些人主要把自己的存在價值理解成只是一種工具價值,李世乭的完敗,幾乎等于讓他們丟掉了最后一根稻草。 

其實這是自我矮化的傭工思維,與整個人類的前途無甚關(guān)聯(lián)。說到底,我們?nèi)祟惖膬?nèi)在價值,并不在于我們會干活。體力勞動和腦力勞動,都是為了解決問題,完成我們自己給自己設(shè)定的任務(wù),這種設(shè)定源于我們的自我意識和意義系統(tǒng)。有了這種設(shè)定,才能知道什么是該干的“活”,什么是服務(wù)于我們的訴求的有效勞動。下棋一類的智力活動,在人類這里剛好不是用來“干活”完成功利目標(biāo)的技能,而是屬于生活內(nèi)容一部分的高級游戲活動,這很有工具理性之上的自足意義。但是,這場人機大賽,引起嘩然的并不是這個,而是人們感覺到的一種基于工具效能理解的自我認同挫敗。 

這種強大智能機器的發(fā)明,與人類從科技進步中期待得到的東西之間并沒有什么特別的違和感。你說是了不起的里程碑也可以,但這里涉及的主要并不是 AI技術(shù)內(nèi)部邏輯的斷裂性突破,而是我們一些人把圍棋和李世乭預(yù)先設(shè)想為當(dāng)然標(biāo)桿后,標(biāo)桿在某種光照下投下的張揚的影子。玄機在哪里呢?不在棋局中,不在 DeepMind的工坊里,不在阿爾法狗的“神經(jīng)網(wǎng)絡(luò)”里,而在我們自己心智的幻影中。這就是腦力勞動自動機的一個演示版,搞好了就是一個不鬧情緒的超級秘書而已。 

那么,是否可以這么認為,這種人機大戰(zhàn),只是人設(shè)計的機器戰(zhàn)勝真人棋手,實際還是人和人之間的大戰(zhàn)? 

這個說法還算靠譜,但是我不太想用戰(zhàn)爭隱喻來刻畫這個事件。換句話說,這只說明了,在單一的抽象博弈智能方面,體制化的學(xué)術(shù)集體戰(zhàn)勝了天賦極高的自然個體。機器沒有獨立的意志,最終說來,“輸”與“贏”的說法,都是我們?nèi)祟悊畏矫娴耐渡?,與AI“自己”無關(guān),因為AlphaGo根本就沒有所謂的“自己”。沒有獨立的意志,怎么和人發(fā)生“大戰(zhàn)”呢?相反,棋盤之外,人們的反應(yīng),比如無名的焦慮、不可克制的興奮。更具體點,中國看客幾乎異口同聲地把 AlphaGo稱作“狗”,這卻是要超出現(xiàn)今任何人工智能可以“理解”的范圍的,這不又是玄機么? 

有圍棋人士指出,AlphaGo給出選點的思維方式與人類很不同,一個流行的說法是,“最可怕的不是AlphaGo戰(zhàn)勝李世乭,而在于它能贏卻故意輸?shù)簟!边@句話雖然只是玩笑,但其內(nèi)涵可以非常深刻。這里引出的問題就是,什么叫“故意”輸?shù)簦緼lphaGo并沒有自我意識,沒有自由意志,如何談得 上“故意”?“故意”可是一種截然不同的能力。這已經(jīng)涉及到人們常說的“強人工智能”與“弱人工智能”的根本差別的問題。 

AlphaGo系統(tǒng)雖還屬于“弱人工智能”的范疇,但也不就是“弱爆了”,它還是有令人興奮的亮點,那就是所謂的“學(xué)習(xí)能力”。但這個“學(xué)習(xí)能力”的說法,不加澄清就會誤導(dǎo)人。其實,這是基于一種模仿人腦神經(jīng)元的網(wǎng)狀連接結(jié)構(gòu)的軟件運行時的符號累積迭代過程。這種神經(jīng)網(wǎng)絡(luò)算法裝在高速計算機上,使得這個AI棋手可以永不疲倦地練習(xí)對弈,就練棋次數(shù)而言,所有人類“棋圣”合起來與之相比都只是零頭。再加上巨大數(shù)據(jù)庫和無與倫比的推演速度,絲毫不受情緒影響的阿爾法狗不贏才怪。

在我看來,人工智能到現(xiàn)在才開始贏,而不是更早些,倒有點兒不太正常。畢竟,美國邏輯學(xué)家匹茨(W?Pitts)首次 提出神經(jīng)元網(wǎng)絡(luò)數(shù)學(xué)模型至今已經(jīng)七十多年了,當(dāng)時他是哲學(xué)大師羅素和卡爾納普的追隨者。 

從技術(shù)上講,AlphaGo可以說達到了目前人類 AI研究的一大高度。它有了“深度學(xué)習(xí)”的能力,能在圍棋這種擁有“3的361次方”種局面的超高難度比賽中獲勝,突破了傳統(tǒng)的程序,搭建了兩套模仿人類思維方式的深度神經(jīng)網(wǎng)絡(luò)。加上高效的搜索算法和巨大的數(shù)據(jù)庫,它讓計算機程序?qū)W習(xí)人類棋手的下法,挑選出比較有勝率的棋譜,拋棄明顯的差棋,使總運算量維持在可以控制的范圍內(nèi)。此外,高手一年下一千盤棋了不得了,AlphaGo每天能下三百萬盤棋,通過大量的操練,它拋棄可能失敗的方案,精中選精,這就是所謂的“深度學(xué)習(xí)”——通過大樣本量棋局對弈,它能不斷從中挑選最優(yōu)的對弈方案并保存下來供臨場搜索比較。 

更要命的是,阿爾法狗與人相比的最大缺憾,恰好是它對弈時的最大優(yōu)勢。它沒有感官系統(tǒng)、沒有主體內(nèi)可體驗內(nèi)容、沒有主觀意向、沒有情緒涌動。缺了這些,它在解決完全信息情況下的博弈問題超級強大。與當(dāng)年擊敗國際象棋冠軍的“深藍”不同,基于AlphaGo同種原理的AI系統(tǒng),可以學(xué)習(xí)把握醫(yī)療數(shù)據(jù),掌握治療方法,幫助人們解除病痛。 它可以讓人類從純功利性質(zhì)的腦力勞動中解放出來,給我們的生活帶來極大的便利。DeepMind團隊的新目標(biāo),據(jù)說是開發(fā)出可以從零開始的參與所有博弈競賽的通用學(xué)習(xí)型人工智能。 

翟振明

所謂“機器消滅人類”的臆想 

提到人工智能,很多人會問,人工智能一旦強大到一定地步,或者“失控”,會威脅人類生存嗎?這次AlphaGo贏得圍棋比賽,這樣的問題再一次牽動人們的神經(jīng)。本來,比爾?蓋茨、史蒂芬?霍金等大牛就警告說人工智能的發(fā)展可能意味著人類的滅亡。2015年1月,比爾?蓋茨在Reddit的“Ask Me Anything”論壇上表示,人類應(yīng)該敬畏人工智能的崛起。蓋茨認為,人工智能將最終構(gòu)成一個現(xiàn)實性的威脅,雖然在此之前,它會使我們的生活更輕松。 

這種擔(dān)心可以理解,并且這種警醒也并非多余。只是,像“機器人會消滅人類嗎”之類的問題,在我看來都不過是暴露了人們由于概念混亂而導(dǎo)致的摸不著北的狀態(tài),這種狀態(tài)又與不合時宜的思維陋習(xí)結(jié)合,才將人們帶入無根基的焦慮或者恐懼之中。

我們要看到,所有的人造機器,包括AlphaGo,都是某些方面的能力高于人類。這本來就是人造機器的目的。在現(xiàn)有條件下,它還不會失控,以后真失控了的話,與飛機高鐵大壩火箭核能之類的失控基本屬同類性質(zhì)。無論是谷歌的無人駕駛技術(shù),還是如今的AlphaGo下棋程序,或者更早前的微軟小冰,這些智能機器的發(fā)明,復(fù)雜程度日益提升、智能日趨強大,但與人們驚呼的“人類將要被機器消滅”之間,并不存在什么客觀的聯(lián)系。

以上提到的AlphaGo的相對于人的缺陷,正是它能贏棋的重要因素?,F(xiàn)在,我們又要反過來想想,又正是這些缺憾,使得它只能在“弱人工智能”的領(lǐng)地中徘徊,充當(dāng)純粹的工具。這種“弱人工智能”很可能通過圖靈測試,但這與人的意向性(intentionality)及主體感受內(nèi)容(qualia)不相干,也不會有愛恨情仇、自由意志,而沒有這些,它就不可能產(chǎn)生“征服”或“消滅”誰誰誰的動機。 

在學(xué)界和業(yè)界,早就有“強人工智能”相對“弱人工智能”的概念,雖然初聽起來好像這里只有強弱程度的差別,但這種區(qū)別具有分立的性質(zhì),而不只是程度問題。所謂的“強”,其實指的是超越工具型智能而達到第一人稱主體世界內(nèi)容的涌現(xiàn),還包括剛才提到的意向性、自由意志等的發(fā)生。 

哲學(xué)家波斯特姆(Nick Bostrom)在美國《連線》雜志2016年1月刊發(fā)表了看法,直接針對AlphaGo的新技術(shù)。在波斯特姆看來,這(指此前AlphaGo的發(fā)展)并不一定是一次巨大飛躍。波斯特姆指出,多年來,系統(tǒng)背后的技術(shù)一直處于穩(wěn)定提升中,其中包括有過諸多討論的人工智能技術(shù),比如深度學(xué)習(xí)和強化學(xué)習(xí)。波斯特姆說,“過去和現(xiàn)在,最先進的人工智能都取得了很多進展”,“(谷歌)的基礎(chǔ)技術(shù)與過去幾年中的技術(shù)發(fā)展密切相連?!?nbsp;

看起來,AlphaGo的表現(xiàn)在波斯特姆意料之中。在《超級智能:路線圖、危險性與應(yīng)對策略》一書中,他曾經(jīng)這樣表述:“專業(yè)國際象棋比賽曾被認為是人類智能活動的集中體現(xiàn)。20世紀(jì) 50年代后期的一些專家認為, ‘如果能造出成功的下棋機器,那么就一定能夠找到人類智能的本質(zhì)所在?!F(xiàn)在,我們卻不這么認為了?!币簿褪钦f,能下棋能贏人類的機器,終究還是機器,與人類智能的本質(zhì)無甚關(guān)聯(lián),曾經(jīng)那么宣稱的人,不是神化了下棋技藝的智力本質(zhì),就是幻想了下棋程序的“人性”特質(zhì)。波斯特姆看來也不會認為 AlphaGo與“強人工智能”有何相干。 

我去年剛在《哲學(xué)研究》發(fā)過一篇文章,論證按照現(xiàn)在這種思路來搞人工智能,搞出來的東西是不可能有自我意識和意志的。按照量子力學(xué)的基本構(gòu)架來進行,倒有可能。

對這種思路,1998年我在美國出版的專著(英文)中已有闡述。最近,美國量子物理學(xué)家斯塔普(Henry Stapp)、英國物理學(xué)家彭羅斯(Roger Penrose)、美國基因工程科學(xué)家蘭策(Robert Lanza)都提出了人類意識的量子假設(shè)。清華大學(xué)副校長施一公院士、中科大副校長潘建偉院士等也大膽猜測,人類智能的底層機理就是量子力學(xué)效應(yīng)??磥泶蠹业南敕ú恢\而合。早先我提出了一個針對強人工智能的判準(zhǔn),為了與圖靈測試相對照,叫作“逆向圖靈人工智能認證判準(zhǔn)”,就是——

任何不以已經(jīng)具有意識功能的材料為基質(zhì)的人工系統(tǒng),除非能有充足理由斷定在其人工生成過程中引入并隨之留駐了意識的機制或內(nèi)容,否則我們必須認為該系統(tǒng)像原先的基質(zhì)材料那樣不具備意識,不管其行為看起來多么接近人類意識主體的行為。 

基于以上看法,我認為“強人工智能”實現(xiàn)以后,這種造物就不能被當(dāng)作純粹的工具了,因為它們具有人格結(jié)構(gòu),正常人類成員所擁有的權(quán)利地位、道德地位、社會尊嚴(yán)等等,他們應(yīng)該平等地擁有。與我們平起平坐的具有獨立人格的“機器人”,還是機器人嗎?不是了,這才是真正的突破。 

最為關(guān)鍵的是, 這樣的“強人工智能”主體,不就真的可以與人類對抗、毀滅人類嗎?要理解這種擔(dān)憂的實質(zhì),就需要我們好好自我反思一下,我們在這里如何把基于個人經(jīng)歷形成的一己情懷當(dāng)作有效的價值判斷了。我們主動地設(shè)計制造了這種新型主體存在,不就等于以新的途徑創(chuàng)生了我們的后代嗎?長江后浪推前浪、青出于藍而勝于藍,人類過往的歷史不都是這樣的、或至少是我們希望的嗎?一旦徹底做到了,為何又恐懼了呢?所以,我們看待它們的最好和最合理的態(tài)度是:他們是我們自己進化了的后代,只是繁殖方式改變了而已。退一萬步講,假如它們真聯(lián)合起來向前輩造反并將前輩“征服”,那也不過就像以往發(fā)生過的征服一樣,新人類征服了舊人類,而不是人類的末日。 

其實,對人工智能的過度期待或深度憂慮,大多基于缺乏學(xué)理根據(jù)的科幻想象或人們對自身的身份認同前景的恐慌。一百年前小說家講述的科學(xué)怪人 “弗蘭肯斯坦”創(chuàng)造了怪物最后自己被怪物控制的故事,確實讓我們覺得,與一般的自然災(zāi)難相比,我們自造的怪物“失控”了回過頭來對付我們,的確讓人更加懊惱。但是,目前這種人工智能,再怎么自動學(xué)習(xí)自我改善,都不會有“征服”的意志,也不會有“利益”訴求和“權(quán)利”意識,這是我多年研究后得出的結(jié)論。 

杭州,一位小朋友在中國圍棋博物館玩“人機對弈”游戲

AI給我們卸載,VR讓我們飛翔 

當(dāng)前,無論從緊迫性還是從終極可能性上看,人工智能問題都屬于常規(guī)性問題,并且都是漸進呈現(xiàn)的,我們不必過于興奮或擔(dān)憂。我們有更值得擔(dān)心、警醒的緊迫事情要去做。 

比如說,人工智能對人類生活的影響,無論從哪個角度看,都遠沒有虛擬現(xiàn)實與物聯(lián)網(wǎng)整合后的“擴展現(xiàn)實”的影響更具顛覆性。并且,這樣的擴展現(xiàn)實很快會在大家都不知不覺之際突然撲面而來。臉書、百度、騰訊、索尼、蔡司、HTC、暴風(fēng)影音……全世界都在做這種東西啊,因此今年被稱作“虛擬現(xiàn)實元年”。微信的領(lǐng)頭人張小龍不經(jīng)意地說,“希望5年后大家開會不用出門,戴上一個眼鏡全都和在現(xiàn)場一模一樣?!钡綍r,我們的微信群就不是一個頭像一個昵稱湊一起了,而是共同進入一個與現(xiàn)實世界的“會所”不能分別的虛擬會所,面對面互動交流。 

另一方面,各國政府和非政府力量都在大量投入物聯(lián)網(wǎng)領(lǐng)域,谷歌掌門人施密特又宣稱“物聯(lián)網(wǎng)即將代替互聯(lián)網(wǎng)”。在我看來,網(wǎng)絡(luò)化的虛擬現(xiàn)實和物聯(lián)網(wǎng)整合后就是“擴展現(xiàn)實”。這里,人工智能可以被用來豐富世界的內(nèi)涵,也可以方便我們操控物聯(lián)網(wǎng),但起關(guān)鍵作用的卻是主從機器人,這基本上是一種“無智能機器人”,與人工智能無甚關(guān)聯(lián)。 

2016年2月23日,西班牙巴塞羅那,世界移動通信大會的參加者體驗三星VR眼鏡

由此建造出來的人工世界,必須以由分別的自由主體直接操控的“人替”為中心,它們各自的主體性必須具有絕對優(yōu)先的權(quán)能地位。這就要求一開始就在技術(shù)標(biāo)準(zhǔn)中為每一個人替建立一堵防火墻,使得它們與外界的信息交換具有本體論上的不對稱性。對于監(jiān)視和操控性的信號和信息的攝入和輸出,決定權(quán)和控制權(quán)要完全落腳在人替端,這樣才能保證每個人都可以通過人替認識和操縱外在世界,而來自外在世界(包括他人)的監(jiān)視和操控信號和信息,則不能擅自進入。這樣的不對稱性,應(yīng)該成為人替本體工程的第一原則。 

這條原則,也就是“人是目的”原則的技術(shù)標(biāo)準(zhǔn)化,其功能與在我們現(xiàn)今世界的一樣,就是要維護人的基本尊嚴(yán)和促進大家獲得更多的幸福,等等。 

此外,因為虛擬世界的“物理”規(guī)律是人為設(shè)定的,這就要求有一個“造世倫理學(xué)”的學(xué)術(shù)領(lǐng)域,在這個領(lǐng)域我們以理性的方式探討和制定一套“最佳”的相互協(xié)調(diào)的“物理”規(guī)律。譬如,虛擬世界中的造物是否可以變舊?人替是否可以在與自然和他人的互動中被損壞?虛擬世界中是否允許“自然災(zāi)害”的發(fā)生?等等。要回答這類問題,有賴于一種前所未有的“造世倫理學(xué)”的誕生。如果我們不想把創(chuàng)建和開發(fā)虛擬世界這個將對人類文明產(chǎn)生巨大影響的事業(yè)建立在毫無理性根據(jù)的基礎(chǔ) 上,我們必須以高度的責(zé)任心創(chuàng)建這個學(xué)術(shù)領(lǐng)域并在這里進行系統(tǒng)深入的研究探討。 

總而言之,在虛擬現(xiàn)實和物聯(lián)網(wǎng)融合成無所不包的“擴展現(xiàn)實”之前,我們必須事先預(yù)想、防范可能出現(xiàn)的侵犯人的尊嚴(yán)和權(quán)利的問題。正像我們和騰訊基金會簽訂的協(xié)議中所說的那樣,讓大家一起在這里“預(yù)先注入鮮活的人文理性”。這個世界上,總有一些權(quán)力欲、控制欲爆棚的人,想要以思想控制和信息壟斷乃至物理強制的方式壓制他人從而凌駕于他人之上。這樣,他們很渴望把大多數(shù)人及其虛擬替身變成物聯(lián)網(wǎng)的附屬,進而服務(wù)于他們的權(quán)力意志。擴展現(xiàn)實如果向這個方向發(fā)展,將是人類的大災(zāi)難。 

只是,我在這里沒機會深入討論這個激動人心又令人擔(dān)憂的話題。我只能說:AI給我們卸載,VR讓我們飛翔,但這個全新人造空間暫時還沒有航標(biāo)燈也沒有雷達,那里充滿機會又危機四伏,最緊迫的,是要制定“虛擬世界大憲章”。天空還是深淵,就看我們此時的抉擇了。 

日本宇航員若田光一與機器人Kirobo在國際空間站進行對話實驗。Kirobo創(chuàng)造了“首個進入太空機器人”和“最高海拔聊天機器人”兩項吉尼斯世界紀(jì)錄

(翟振明教授系中山大學(xué)人機互聯(lián)實驗室主任、哲學(xué)系教授、博士生導(dǎo)師。他于上世紀(jì)90年代就開始研究虛擬現(xiàn)實的基本構(gòu)架及與物聯(lián)網(wǎng)整合后對人類生活方式的可能影響,其思想實驗已派生出一批技術(shù)發(fā)明,被認為是虛擬現(xiàn)實領(lǐng)域的先行探索者和領(lǐng)頭人)

網(wǎng)友評論

用戶名:
你的評論:

   
南方人物周刊 2024 第806期 總第806期
出版時間:2024年09月16日
 
?2004-2022 廣東南方數(shù)媒工場科技有限責(zé)任公司 版權(quán)所有
粵ICP備13019428號-3
地址:廣東省廣州市廣州大道中289號南方報業(yè)傳媒集團南方人物周刊雜志社
聯(lián)系:南方人物周刊新媒體部