強(qiáng)人工智能論文
人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議?;?ldquo;神經(jīng)網(wǎng)絡(luò)”構(gòu)架的軟件在機(jī)器學(xué)習(xí)能力方面的進(jìn)展,讓人耳目一新的同時,也讓不少人焦慮乃至恐懼。以下是學(xué)習(xí)啦小編整理分享的強(qiáng)人工智能論文的相關(guān)資料,歡迎閱讀!
強(qiáng)人工智能論文篇一
“強(qiáng)人工智能”將如何改變世界
【摘要】人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議?;?ldquo;神經(jīng)網(wǎng)絡(luò)”構(gòu)架的軟件在機(jī)器學(xué)習(xí)能力方面的進(jìn)展,讓人耳目一新的同時,也讓不少人焦慮乃至恐懼。這是因為,“學(xué)習(xí)”能力原被認(rèn)為是人類特有的能力,機(jī)器難以勝任。如今突破了這條界線,機(jī)器與人之間的界限似乎就被抹掉了。關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價值植入的技術(shù)限度。實際上,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會挑戰(zhàn)我們過往的既有經(jīng)驗,卻不是顛覆性的“消滅”。無論人工智能如何模仿人腦的“神經(jīng)網(wǎng)絡(luò)”,表現(xiàn)如何像人,只要人類心智現(xiàn)象的最終解釋沒有取得突破性進(jìn)展,關(guān)于人工智能是否逼近人類智能的設(shè)問就缺少必要的前提。
【關(guān)鍵詞】弱人工智能 強(qiáng)人工智能 量子力學(xué) 物理主義 倫理困境 價值理性
【中圖分類號】 B82-057 【文獻(xiàn)標(biāo)識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2016.07.003
AlphaGo的“勝利”與人工智能的演進(jìn)
2016年,是人工智能(Artificial Intelligence,英文縮寫為AI)議題高度亢奮的一年。谷歌DeepMind團(tuán)隊開發(fā)的AlphaGo程序以4比1的成績“戰(zhàn)勝”韓國棋手、世界冠軍李世石,使這種亢奮達(dá)到了頂點。
AlphaGo程序利用“神經(jīng)網(wǎng)絡(luò)”來模仿專業(yè)棋手,并通過與其他同類程序比賽、加上程序自身的“對壘”進(jìn)行“自我學(xué)習(xí)”,從而進(jìn)一步提高其性能。AlphaGo對陣其他圍棋程序的勝率達(dá)到了99%,并在過去的一場巡回賽中以5比0戰(zhàn)勝了衛(wèi)冕歐洲冠軍樊麾。此番AlphaGo與李世石的對壘,五連勝還是負(fù)一贏四,并不妨礙我們對人工智能的發(fā)展作出進(jìn)一步的評估。恰如本次賽前發(fā)布會上谷歌董事長施密特所表示的,輸贏都是人類的勝利。因為正是人類的努力才讓人工智能有了今天的突破,人工智能在圍棋上“戰(zhàn)勝”人類智能只是時間問題。
AlphaGo贏得圍棋比賽,使得知識界科技界對待人工智能的兩種典型態(tài)度再度引起關(guān)注:一種是霍金、比爾・蓋茨式的“警惕人工智能”,一種是雷・庫茲韋爾式的樂觀興奮與期待憧憬。2014年12月,英國理論物理學(xué)家史蒂芬・霍金警告說,人工智能的發(fā)展可能意味著人類的滅亡。2015年1月,比爾・蓋茨在Reddit的“Ask Me Anything”論壇上表示,人類應(yīng)該敬畏人工智能的崛起。蓋茨認(rèn)為,人工智能將最終構(gòu)成一個現(xiàn)實性的威脅,雖然在此之前,它會使我們的生活更輕松。庫茲韋爾是“奇點論”和“加速回報定律”主張的代表人物,他曾經(jīng)表示:“要成為一位發(fā)明家或企業(yè)家,你必須得是個樂觀派。對未來所存在的風(fēng)險,我并非是渾然不覺,我只是對人類安然渡過奇點而無需以摧毀文明為代價持樂觀態(tài)度而已。”①
自被1956年的達(dá)特茅斯學(xué)院會議正式確立為一個學(xué)科以來,“人工智能”的發(fā)展經(jīng)歷了多次起伏。到了1970年代,人工智能的發(fā)展開始遭遇更多的批評,隨之而來的還有資金支持的銳減。研究者的過于樂觀使得一些項目的承諾無法兌現(xiàn),比較知名的諸如閔斯基(Marvin Minsky)對傳感器技術(shù)的激烈批評,使得聯(lián)結(jié)主義(即神經(jīng)網(wǎng)絡(luò))近乎銷聲匿跡了10年。1973年,美國和英國政府更是嚴(yán)格控制對人工智能的投入,那些“沒有明確目標(biāo)的人工智能研究項目”被停止了撥款。
1980~1987年,人工智能重新迎來一個發(fā)展高潮,首先是日本投入了8.5億美金研發(fā)機(jī)器人。受日本政府投資野心的刺激,發(fā)達(dá)國家進(jìn)入了“人工智能”研究的競賽狀態(tài),美國政府和企業(yè)再次在AI領(lǐng)域投入數(shù)十億研究經(jīng)費(fèi),但由于研究人員低估了人工智能研發(fā)的難度,進(jìn)展有限,這些投資在80年代末再次受到質(zhì)疑。1987~1993年,人工智能的發(fā)展又一次陷入低谷,美國研究機(jī)構(gòu)DARPA(國防高等研究計劃署)的主任甚至認(rèn)為人工智能不再是研究的重要方向??▋?nèi)基梅隆大學(xué)移動機(jī)器人實驗室主任莫拉維克(Hans Moravec)將這種挫敗歸咎于他的同行們不切實際的預(yù)言和承諾。②
從1993年到今天,人工智能進(jìn)入了加速發(fā)展軌道。2012年6月23日,在位于米爾頓凱恩斯的布萊切利公園舉行了紀(jì)念圖靈百年誕辰的圖靈測試。一個被設(shè)計為擁有“高度可信度”的個性化機(jī)器人“古斯特曼”在競賽中獲勝。這次競賽主要有5臺機(jī)器人、25名人類成員和30名評委參與,是有史以來規(guī)模最大的一次競賽。經(jīng)過一系列的5分鐘對話后,29%的評委相信古斯特曼擁有類人的人工智能。③這次測試,使得人工智能樂觀派相信,人工智能的飛躍式發(fā)展即將來臨。早在2005年,雷・庫茲韋爾在他的《奇點臨近》一書中,預(yù)言機(jī)器的智能將在2045年超過人類的智能。④
在學(xué)術(shù)界,“奇點理論”遭到了強(qiáng)烈而持久的質(zhì)疑。牛津大學(xué)哲學(xué)教授、人類未來研究院創(chuàng)始人和主任(人類未來研究院是一個多學(xué)科研究院,旨在幫助一些非常優(yōu)秀的數(shù)學(xué)家、哲學(xué)家和科學(xué)家對人類大問題和全球大事務(wù)進(jìn)行仔細(xì)的思考)波斯特姆(Nick Bostrom)在其出版于2014年的《超級智能:途徑、危險與戰(zhàn)略》一書中認(rèn)為:“‘奇點’這一術(shù)語在很多不同領(lǐng)域被混亂地使用,并催生出一種不合理的技術(shù)烏托邦氛圍,就好像我們會就此迎來太平盛世了。考慮到‘奇點’這個詞所指的大部分涵義與本文的論述不甚相關(guān),我們可以去掉這個詞并代替以更精確的術(shù)語。”⑤波斯特姆使用“超級智能”(superintelligence)一詞來描述機(jī)器“智能爆發(fā)”之后的智能狀態(tài)。但是,波斯特姆的這個概念沒有把工具性智能與人類的意識和自我意識等第一人稱世界的內(nèi)容區(qū)分開來,根據(jù)我們下面的討論可以看出,這種混淆是誤入歧途的,但這并不妨礙他的警示的有效性。
弱人工智能復(fù)雜化:人類的“超級秘書”
AlphaGo贏得圍棋比賽,是不是像有些人驚呼的那樣,人類智慧最后的壁壘即將坍塌,“人類應(yīng)放下自己的驕傲”?⑥其實,人類以這種工具性智能為傲,本來就是概念錯置。況且,以下圍棋的能力來代表人類智能,也站不住腳。說到底,這是在單一的抽象博弈智能方面,體制化的學(xué)術(shù)集體戰(zhàn)勝了天賦極高的自然個體。這種博弈,無論哪一方贏,都是人類在贏。 圍棋作為一種古老的棋術(shù),其規(guī)則簡單明晰,卻因組合可能性的數(shù)據(jù)龐大而令一些人感到癡迷。圍棋棋盤上每一點,都有黑、白、空三種情況,棋盤上共有19*19=361個點,所以可能產(chǎn)生的合法棋局?jǐn)?shù)為3的361次方種??赡苄缘碾y以窮盡,催生了圍棋朗朗上口的口訣式經(jīng)驗總結(jié),其實就是快速對應(yīng)勝負(fù)的概率計算,這與AlphaGo通過“深度學(xué)習(xí)”而減少計算量的邏輯是一致的。不同的是,計算機(jī)可以記住趨于無窮多的作為程序的口訣和案例,而人窮其一生,也只能記住有限的經(jīng)驗,很多時候就只能靠現(xiàn)場推算,甚至靠直覺領(lǐng)悟了。一些對圍棋技藝癡迷且不愿意相信電腦能贏的人,陷入的恰恰是將圍棋神秘化的有限經(jīng)驗當(dāng)中。更有意思的是,有些棋手按照平時訓(xùn)練的圍棋技藝來評價人機(jī)大戰(zhàn)時,會認(rèn)為AlphaGo哪招哪式在下“臭棋”,哪招是“失誤”,其實,在以最終取勝為目的的電腦程序里,只要達(dá)成程序設(shè)定目標(biāo),就不能有所謂“臭棋”或“失誤”之說。
那么,會“深度學(xué)習(xí)”、用“神經(jīng)網(wǎng)絡(luò)”打造的AlphaGo究竟算不算“強(qiáng)人工智能”或波斯特姆所言的“超級智能”呢?
波斯特姆在美國《連線》雜志2016年1月刊發(fā)表了看法。在他看來,這(指此前AlphaGo的發(fā)展)并不一定是一次巨大飛躍。波斯特姆指出,多年來,系統(tǒng)背后的技術(shù)一直處于穩(wěn)定提升中,其中包括有過諸多討論的人工智能技術(shù),比如深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。谷歌擊敗圍棋大師不過是一項重大進(jìn)程中的一部分。這一進(jìn)程始于很久以前,也將延續(xù)至未來幾年。波斯特姆說,“過去和現(xiàn)在,最先進(jìn)的人工智能都取得了很多進(jìn)展”,“(谷歌)的基礎(chǔ)技術(shù)只是過去幾年中的技術(shù)研發(fā)的技術(shù)正常延續(xù)”。⑦
看起來,雖然波斯特姆在總體上有關(guān)智能本質(zhì)的理解是不成立的,AlphaGo的表現(xiàn)也沒有出乎他的意料。在《超級智能:路線圖、危險性與應(yīng)對策略》一書中,他曾經(jīng)這樣表述:“專業(yè)國際象棋比賽曾被認(rèn)為是人類智能活動的集中體現(xiàn)。20世紀(jì)50年代后期的一些專家認(rèn)為:‘如果能造出成功的下棋機(jī)器,那么就一定能夠找到人類智能的本質(zhì)所在。’但現(xiàn)在,我們卻不這么認(rèn)為了。約翰・麥肯錫曾不無惋惜地悲嘆:‘這種機(jī)器被造出來之后,人們就不稱其為人工智能了。’”⑧也就是說,能下棋能贏人類的機(jī)器,終究還是機(jī)器,與人類的心智本質(zhì)無甚關(guān)聯(lián)。感到不可思議或驚呼“聰明的人類輸給了機(jī)器”的人,不是神化了下棋技藝的智力本質(zhì),就是給下棋程序橫加賦予了“人性”特質(zhì)。
初看起來,波斯特姆所謂的“超級智能”,應(yīng)該是能夠全面取代人類智能的一種“強(qiáng)人工智能”,區(qū)別于當(dāng)前已經(jīng)廣泛應(yīng)用中的“弱人工智能”(包括自動駕駛、下棋技能、機(jī)器視覺、指紋識別、人臉識別、視網(wǎng)膜識別、虹膜識別、掌紋識別、專家系統(tǒng)、自動規(guī)劃,等等)。但他并沒有深入探討人類的智能現(xiàn)象的本質(zhì)究竟是什么,對經(jīng)典的“他心問題”也無涉及,這又讓人覺得他說的“超級智能”還是屬于工具性智能的“弱人工智能”的范疇。
就這一點,他本人也有所認(rèn)識,他說:“用超級智能來指代在許多普遍的認(rèn)知領(lǐng)域中,表現(xiàn)遠(yuǎn)遠(yuǎn)超越目前最聰明的人類頭腦的智能。這個定義仍然十分模糊。按照這個定義,很多系統(tǒng)具有迥然不同的性能特質(zhì),都可以被視為超級智能。”⑨為了進(jìn)一步解釋他的構(gòu)思,他試圖通過區(qū)分智能層面的超級能力,將超級智能的這種簡單定義分解。于是,他將超級智能分為三種形式:高速超級智能、集體超級智能和素質(zhì)超級智能。由于未能把握人類意識現(xiàn)象的本質(zhì)以及指出解釋意識現(xiàn)象的方向,不管波斯特姆在展望“超級智能”時如何分類,都無法提供接近“機(jī)器人是人嗎?人是機(jī)器人嗎?”這個根本命題的方向乃至答案。
無論是谷歌的無人駕駛技術(shù),還是如今的AlphaGo下棋程序,或者更早前的“微軟小冰”,這些智能機(jī)器的發(fā)明,與人類從科技進(jìn)步中期待得到的工具理性之間,并無根本的內(nèi)在沖突,復(fù)雜程度日益提升、智能的日趨強(qiáng)大,與人們驚呼的“人類將要被機(jī)器消滅”的后果之間,并沒有什么必然的關(guān)聯(lián)。
可以說,迄今為止機(jī)器下棋技術(shù)的每一次重要進(jìn)展,都可能是“弱人工智能”領(lǐng)域的路標(biāo),但其中涉及的主要并不是人工智能技術(shù)內(nèi)部邏輯的斷裂性突破,而這次AlphaGo贏了人類冠軍所謂的重要意涵,是一些圍棋愛好者把圍棋和李世石預(yù)先設(shè)想為當(dāng)然標(biāo)桿后,標(biāo)桿在某種光照中投下的張揚(yáng)扭曲的影子。要超出這個,我們必須對人類意識的“整一性”難題和“他心問題”有了可操作的解釋以后才有可能,就目前情況來看,玄機(jī)在哪里呢?不在棋局中,不在DeepMind的工坊里,也不在“阿法狗”的“神經(jīng)網(wǎng)絡(luò)”里,而在我們自己心智的幻影中。就“弱人工智能”范疇而言,智能再強(qiáng)大的機(jī)器,再像人的機(jī)器,也就是人類的一個不鬧情緒的“超級秘書”而已。
價值失落:人類的身份認(rèn)同危機(jī)與技術(shù)焦慮癥
2014年,史蒂芬・霍金與麻省理工學(xué)院物理學(xué)家馬克思・泰格馬克(Max Tegmark)、諾貝爾獎得主弗朗克・韋爾切克(Frank Wilczek)、計算機(jī)科學(xué)家斯圖亞特・羅素(Stuart Ressell)合寫了一篇署名評論文章《在超級智能機(jī)器上超越自滿》,該文引起了廣泛關(guān)注。霍金在文章中表達(dá)了對人工智能的憂慮:“可以想象,人工智能會以其‘聰明’在金融市場勝出,在發(fā)明方面勝過人類研究者,在操縱民意方面將勝過人類領(lǐng)導(dǎo)人,研發(fā)出人類甚至理解不了的武器。盡管人工智能的短期影響取決于誰在控制人工智能,而它的長期影響則取決于人工智能到底能否受到任何控制。”⑩
關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價值植入的技術(shù)限度。
人類的價值系統(tǒng),粗泛地區(qū)分,可以分為外在價值和內(nèi)在價值,即所謂“有用”與“無用”之辨。當(dāng)我們說什么東西有用時,是就這東西對于它之外的某個目標(biāo)、目的或者是功能而言的,比如錢可以拿來購買面包充饑,這叫工具價值。由于它把其他東西當(dāng)作自己服務(wù)的對象,所以它沒有內(nèi)在價值,只有外在價值。外在價值即是那些工具性的價值,最終服務(wù)于人類的內(nèi)在價值訴求。 那么,什么是內(nèi)在價值呢?哲學(xué)家們或許會就某些含混地帶進(jìn)行爭論,但無論如何,很少有人會把一些基本的要素排除出去,比如自由、快樂、尊嚴(yán)、情愛、創(chuàng)造、自我超越,等等。這些東西不是為了其它東西而存在,相反,生活中沒有了這些東西,就等于失去了值得欲求的內(nèi)容。當(dāng)然,要有自由、尊嚴(yán),需要一個最低版本的生存條件。這個條件,人和任何其他動物沒有什么不同,不是人之為人的本質(zhì)所在。如果我們談?wù)撊祟惿畹膬?nèi)在價值及其意義系統(tǒng),則必然集中在人所特有的東西上??档碌牡赖抡軐W(xué)已向我們表明,追求自由、尊嚴(yán)是所有理性存在主體的內(nèi)在規(guī)定,鮮有其他哲學(xué)家會否認(rèn)這一點。
在談?wù)撊斯ぶ悄軐θ说那治g和威脅時,有一部分研究人員會使用喪失“人類關(guān)切”(human-centric)一詞來描述這種內(nèi)在價值的虧損。比如法格拉(Daniel Faggella)采訪了12位活躍在AI領(lǐng)域的權(quán)威專家和研究人員。其中,科爾奈(Kornai)博士和阿肯色大學(xué)的博爾林特(Daniel Berleant)博士都預(yù)見到了自動化金融算法被它們的所有者們用來作為賺錢工具所帶來的潛在災(zāi)難性問題,他們說,這其中沒有任何“人類關(guān)切”的目標(biāo)。認(rèn)知科學(xué)家巴赫(Joscha Bach)則說:“近期的人工智能引起的危機(jī)最終可能成為現(xiàn)在社會中已經(jīng)存在的一樣的危機(jī)。如果我們不能走出基于工薪的經(jīng)濟(jì)模式的話,人工智能的自動化會提高生產(chǎn)力,卻不會改善我們的生存條件。”?這種憂慮不無道理,不過主要是基于財富分配的急遽變化而引起的社會階層流動而言的,實際上,并不是技術(shù)進(jìn)步和人工智能自身的問題。
如前所述,人類的內(nèi)在價值并不在于謀生存的基本勞作,無論是體力勞動還是腦力勞動,都是為了解決問題來完成給自己設(shè)定的任務(wù),這種設(shè)定源于我們的自我意識和意義系統(tǒng)。有了這種設(shè)定,才能知道什么是該干的“活”,什么是服務(wù)于我們的訴求的有效勞動。像下棋一類的智力活動,在人類這里剛好不是用來“干活”完成功利目標(biāo)的技能,而是生活內(nèi)容中的一部分高級游戲,這很有工具價值之外的意義。但是,這場人機(jī)大賽,引起嘩然的并不是這個,而是人們感覺到的一種基于工具效能理解的自我認(rèn)同危機(jī)。這種自我認(rèn)同,其實是傭工思維,是一種價值上的自我貶損。
在單一的抽象博弈智能方面,體制化、學(xué)術(shù)化的集體戰(zhàn)勝了天賦極高的自然個體。這令依賴這種稟賦的自然個體感到焦慮,正如有人馬上反應(yīng)過來:“以后還帶不帶孩子學(xué)圍棋了?大街小巷的圍棋興趣班還有生意么?”圍棋冠軍們更是感受到一種職業(yè)性的惶恐:究竟我們此前對圍棋的認(rèn)知還有多少盲區(qū)?
其實,機(jī)器沒有獨(dú)立的意志,所謂“輸”與“贏”的說法,都是我們?nèi)祟悊畏矫娴耐渡?,與AI“自己”無關(guān),因為AlphaGo根本就沒有所謂的“自己”。沒有獨(dú)立的意志,怎么和人發(fā)生“大戰(zhàn)”呢?相反,棋盤之外,人們的反應(yīng),比如無名的焦慮,不可克制的興奮,更具體點,漢語世界的看客幾乎異口同聲地把AlphaGo稱作“狗”,這卻是要超出現(xiàn)今任何人工智能可以“理解”的范圍的。
一些圍棋資深人士感到困惑,他們認(rèn)為AlphaGo給出選點的思維方式與人類很不同,還有一個流行的說法是,“最可怕的不是AlphaGo戰(zhàn)勝李世石,而在于它能贏卻故意輸?shù)?rdquo;。這本來是個玩笑,但這個玩笑引出的問題確實切中要害的。什么叫“故意”輸?shù)?AlphaGo并沒有自我意識,沒有自由意志,如何談得上“故意”?“故意”可是一種截然不同的能力。這就要求我們理解“弱人工智能”與“強(qiáng)人工智能”的原則區(qū)別了。
波斯特姆似乎會把機(jī)器的所謂“故意”描述為“超級智能的意愿”,在他看來,智能大爆發(fā)將會導(dǎo)向一個叫做“背叛轉(zhuǎn)折”的臨界點。關(guān)于背叛轉(zhuǎn)折,他這樣定義:“當(dāng)人工智能本來愚蠢時,變聰明是更安全的;但是當(dāng)它本來就聰明時,變得更聰明則是更危險的。就像有一個軸心點,到這個點上,原來很有效的策略會突然產(chǎn)生相反的結(jié)果。我們把這個現(xiàn)象叫作背叛轉(zhuǎn)折。”?
波斯特姆假想的人工智能厄運(yùn)圍繞的仍是人的動機(jī),而不是機(jī)器真正有了意圖。諸如他所列舉的,“機(jī)器”為了使得開發(fā)人工智能的贊助者高興,而“故意”表現(xiàn)得不那么“聰明”來蒙蔽人類,諸如在贊助者的大腦中植入負(fù)責(zé)快樂的電極,以使得贊助者被蒙蔽而不知覺,反而覺得很快樂。這里面涉及的,仍然是人與人之間的欺騙與控制。
只要沒有出離人與人之間的關(guān)系,人工智能呈現(xiàn)的問題與危機(jī),就沒有超乎人類已經(jīng)面對過的控制與反控制的議題。也就是說,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會挑戰(zhàn)我們過往的既有經(jīng)驗,卻不是顛覆性的“消滅”;它會改變社會學(xué)階層分析的經(jīng)典框架,卻不會產(chǎn)生什么新型的劫難。
對人工智能的過度期待或深度憂慮,大多基于缺乏學(xué)理根據(jù)的科幻想象或人們對自身的身份認(rèn)同前景的恐慌。出版于1818年的《科學(xué)怪人》?就描述了“弗蘭肯斯坦”這個科學(xué)狂人,他以“科學(xué)”的方式使死尸復(fù)活,結(jié)果那個被稱為“弗蘭肯斯坦的怪物”的人造人反過來控制了弗蘭肯斯坦。文學(xué)作品展示人類的這種身份認(rèn)同焦慮,已經(jīng)源遠(yuǎn)流長,但今天的知識界科學(xué)界,如果還是止步于無的放矢的焦灼和恐懼,則無助于我們真正認(rèn)識人工智能與人類意識的本質(zhì)關(guān)系。
從人工智能目前的發(fā)展方向看,無論它再怎么“自動學(xué)習(xí)”“自我改善”,都不會有“征服”的意志,不會有“利益”訴求和“權(quán)利”意識。當(dāng)前,無論從緊迫性上看,還是從終極可能性上看,“弱人工智能”問題都屬于常規(guī)性問題,并且是漸進(jìn)呈現(xiàn)的。如果說在可見的未來,技術(shù)發(fā)展領(lǐng)域有什么更值得擔(dān)心、警醒、緊迫的事情,那么,或許基于虛擬技術(shù)的“擴(kuò)展現(xiàn)實”的實現(xiàn)帶來的影響將更具顛覆性。?
強(qiáng)人工智能的可能性與物理主義的困境
“弱人工智能”的機(jī)制比較清晰可控,那么,“強(qiáng)人工智能”會失控嗎?這就要看我們究竟如何定義“強(qiáng)人工智能”。
在學(xué)界和業(yè)界,早有“強(qiáng)人工智能”相對“弱人工智能”的概念。這個命名容易讓人誤認(rèn)為兩者只是強(qiáng)弱程度的差別,但這種區(qū)別具有分立的性質(zhì)――如果我們把“強(qiáng)人工智能”定義為出現(xiàn)真正有自主意識并且可確證其主體資格的“智能”,而不是AlphaGo這樣僅僅比機(jī)械計算發(fā)展了更多層次的推理能力和學(xué)習(xí)能力的程序的話。這樣定義下的所謂的“強(qiáng)”,指的是超越工具型智能而達(dá)到第一人稱主體世界內(nèi)容的涌現(xiàn),還包括意向性、命題態(tài)度,乃至自由意志的發(fā)生。 這樣的“強(qiáng)人工智能”是可能實現(xiàn)的嗎?有的科學(xué)家哲學(xué)家說永遠(yuǎn)不可能,有的則說近在咫尺。
波斯特姆試圖從“人工智能、全腦仿真、生物認(rèn)知、人機(jī)交互以及網(wǎng)絡(luò)和組織”等路徑分析強(qiáng)人工智能或者他稱之為“超級智能”的幾種可能的實現(xiàn)方式,他詳細(xì)評估了每種路徑實現(xiàn)超級智能的可行性,并且認(rèn)為“由于目前存在多條技術(shù)路徑,因此至少有一條路徑能實現(xiàn)超級智能的可能性很大”。?
波斯特姆的分析看起來龐大蕪雜,但他給出的實現(xiàn)路徑更多是在人腦上的直接迭代或高仿真,這很可能混淆了“強(qiáng)大的弱人工智能”與擁有主體性的“強(qiáng)人工智能”,他把通往不同本質(zhì)的路徑視為同一種性質(zhì)的多種可能性。
在他看來,“若有足夠先進(jìn)的掃描技術(shù)和強(qiáng)大的計算機(jī)能力,即使只有很少的大腦理論知識也可以模仿全腦。極端情況下,我們可以想象采用施羅丁格(即薛定諤)量子力學(xué)方程在基本粒子水平來模擬大腦。這樣我們就可以完全依靠現(xiàn)有的物理學(xué)知識,而不用任何生物模型。這種極端案例說明,沒有計算機(jī)技術(shù)和數(shù)據(jù)分析也可以制造人工智能。一個聽起來更合理的仿真水平是,將單個神經(jīng)元和它們的連接矩陣合并,連帶著它們的樹狀結(jié)構(gòu)和每一個觸突的變化狀態(tài)。我們無法模擬單個的神經(jīng)遞質(zhì)分子,但是可以粗略地將它們的波動濃度模型化。為了評價全腦仿真的可行性,人們必須理解成功的評判標(biāo)準(zhǔn)。我們的目的不是精確模擬出一個大腦,用它來預(yù)測在受到一系列刺激后,原始大腦會做出何種反應(yīng)。相反,我們的目的是獲得足夠的大腦的計算機(jī)功能屬性,以使最終得到的仿真進(jìn)行智能工作。因此,真實大腦的很多復(fù)雜的生物學(xué)細(xì)節(jié)就無關(guān)緊要了。”?
這段論述是波斯特姆《超級智能:路線圖、危險性與應(yīng)對策略》一書中唯一一處提及量子力學(xué),但他后面的分析卻遠(yuǎn)離了量子力學(xué)才是對意識進(jìn)行物理學(xué)研究的可能進(jìn)路這一方向,回到了一般的計算主義/物理主義的“牢籠”。
在心智哲學(xué)和認(rèn)知科學(xué)領(lǐng)域,的確有不少所謂的“計算主義者”“物理主義者”,他們認(rèn)為,人的情感、意向性、自由意志等以及意識與自我意識直接相關(guān)的內(nèi)容,在牛頓力學(xué)框架下的物理因果關(guān)系模已足具解釋力,在人的第一人稱主觀世界與第三人稱客體世界之間,也不存在最后的鴻溝。但是,也有一部分研究者持相反的看法,極力論證這種“計算主義”“物理主義”的悖謬本性,只承認(rèn)從量子力學(xué)原理才有些許可能解決意識和自我意識這個真正的問題。
最近,美國量子物理學(xué)家斯塔普(Henry Stapp)、英國物理學(xué)家彭羅斯(Roger Penrose)、美國基因工程科學(xué)家蘭策(Robert Lanza)都提出了人類意識的量子假設(shè),中國清華大學(xué)副校長施一公院士、中科大副校長潘建偉院士等也大膽猜測,人類智能的底層機(jī)理就是量子效應(yīng)。對于這個問題,筆者在出版于1998年的著作中嘗試論證這個問題?,同樣的看法日漸增強(qiáng)。
不久前,筆者把這種論證進(jìn)一步系統(tǒng)化,在《哲學(xué)研究》上發(fā)表了分析物理主義(包括計算主義)如何在研究中陷入“整一性投射謬誤”,并論證定域性假設(shè)為何與腦神經(jīng)元細(xì)胞層次對意識現(xiàn)象的解釋注定要失敗的文章。?
也就是說,以定域性預(yù)設(shè)為前提的物理主義和計算主義,在原則上就不可能解釋人類的意識現(xiàn)象,量子力學(xué)已經(jīng)不得不拋棄定域性預(yù)設(shè),這就在邏輯上打開了其解釋意識現(xiàn)象可能性之大門。
包括計算主義在內(nèi)的物理主義有一個基本預(yù)設(shè),即設(shè)定任何物理系統(tǒng)都能夠被分解為單個獨(dú)立的局部要素的集合,且各要素僅同其直接鄰近物發(fā)生相互作用。這是經(jīng)典力學(xué)的基本原則,也是當(dāng)代神經(jīng)科學(xué)默認(rèn)的前提,從而也是物理主義心智哲學(xué)的預(yù)設(shè)。計算主義則強(qiáng)調(diào)符號關(guān)系,它與其他版本的物理主義相比,主要是分析要素的不同,但這種不同卻無關(guān)宏旨。這是因為,符號關(guān)系試圖解釋的,也是意識現(xiàn)象或心智事件的產(chǎn)生和關(guān)聯(lián)的機(jī)理,而不是純邏輯的關(guān)系。基于這種認(rèn)知框架,他們傾向于認(rèn)為,大腦的符號系統(tǒng)的狀態(tài),就是各個單一獨(dú)立要素的神經(jīng)元的激發(fā)/抑制狀態(tài)聚合起來的某個區(qū)域的總體呈現(xiàn)。
這樣也就不難理解,波斯特姆為什么認(rèn)為“獲得足夠的大腦的計算機(jī)功能屬性”,就能最終使得仿真大腦進(jìn)行智能工作。于是,在計算主義/物理主義這里,神經(jīng)元系統(tǒng)可望實現(xiàn)的某個整一性功能,就被他們完全等價于各個分立神經(jīng)元符號功能的關(guān)系的總和。
但是,筆者和斯塔普都詳細(xì)論證過,這樣的出發(fā)點,連最基本的意識感知現(xiàn)象(比如說雙眼綜合成像)都解釋不了,因為這類現(xiàn)象中涉及的同一時空點的變量的個數(shù)遠(yuǎn)遠(yuǎn)超出在局域性預(yù)設(shè)中每個空間點可容納的物理變量個數(shù)。他們無視這種困境的存在,正是他們混淆了“內(nèi)在描述”與“外在描述”功能而陷入“整一性投射謬誤”的結(jié)果。?
盡管從量子力學(xué)效應(yīng)解釋人類智能的頂層機(jī)理尚未取得突破性成果,但意識導(dǎo)致坍塌這一原理似乎是量子力學(xué)與身心問題的最為接近的終極解釋,研究者們正試圖檢測與物理事件相關(guān)的意識事件?,相對明確的結(jié)論暫時付諸厥如。
但無論如何,基于上述討論,我們可以得知,所謂的“圖靈測試”對判定“強(qiáng)人工智能”毫無用處,不能作為智能意識產(chǎn)生的推演依據(jù),無論試驗中的以假亂真效應(yīng)有多么逼真。有鑒于此,本文擬提出一個“人工智能逆反圖靈判據(jù)”,陳述如下:
任何不以已經(jīng)具有意識功能的材料為基質(zhì)的人工系統(tǒng),除非能有充足理由斷定在其人工生成過程中引入并隨之留駐了意識的機(jī)制或內(nèi)容,否則我們必須認(rèn)為該系統(tǒng)像原先的基質(zhì)材料那樣不具備意識,不管其行為看起來多么接近意識主體的行為。
這里說的“充足理由”,在人類現(xiàn)有的科學(xué)視野中,按照筆者和斯塔普等人的論證,唯有量子力學(xué)才有可能提供。
因此,無論是圖靈測試中的機(jī)器人還是新近由日本軟銀公司研發(fā)、富士康代工的所謂“情感機(jī)器人”Pepper,抑或如今被驚嘆有了“深度學(xué)習(xí)”能力的AlphaGo等有了多么強(qiáng)大的所謂“超級智能”,也無論它們及其未來的升級版看起來多么像具有人類的情感,除非有人確鑿證明,在制造或升級這些機(jī)器的過程中,在哪一個關(guān)節(jié)點把人類情感、人類意識整合了進(jìn)去,否則,我們就只能認(rèn)為把Pepper稱作“有情感的機(jī)器人”只是一種比喻。 結(jié)語:“強(qiáng)人工智能”與人類繁殖倫理前瞻
如上所述,沒進(jìn)入量子力學(xué)之前,所有的人造機(jī)器,包括AlphaGo,必然只是在某些方面具備高于人類的能力。這本來就是人造機(jī)器的目的,即人為了自身的內(nèi)在價值實現(xiàn)同時不斷改進(jìn)人類的生存處境而作出的努力。在現(xiàn)有條件下,人造機(jī)器不會失控,如果有所謂“失控”的話,這與我們對飛機(jī)、高鐵、大壩、核能之類的失控基本上屬于同類性質(zhì)。
AlphaGo的確有隱喻意義上的“學(xué)習(xí)”能力,自行調(diào)整累積迭代的能力,但說到底仍是一種工具能力,是“弱人工智能”。這種“弱人工智能”很可能通過圖靈測試,但這與人的意向性(intentionality)及主體感受內(nèi)容(qualia)不相干。
當(dāng)然,基于人類理性和道德能力的限度,我們有理由相信,即便是弱人工智能,在其應(yīng)用中也應(yīng)當(dāng)秉持審慎的人文理性態(tài)度。
不少比較理性的研究者提出,由于人工智能的發(fā)展呈“加速回報”的態(tài)勢,人類既有的道德資源和倫理框架或許難以覆蓋技術(shù)飛躍變革提出的新議題。他們提出應(yīng)當(dāng)發(fā)展一種叫做機(jī)器倫理(Machine ethics)的道德態(tài)度,加利福尼亞大學(xué)伯克利分校計算機(jī)學(xué)教授拉塞爾(Stuart Russell)在美國時代雜志發(fā)表觀點認(rèn)為,避免機(jī)器的不當(dāng)使用威脅人類的生存,就應(yīng)該考慮如何把人類價值變成可編程的代碼,把人類的道德轉(zhuǎn)化為人工智能語言。他認(rèn)為,在機(jī)器人領(lǐng)域,“道德哲學(xué)將是一個非常重要的產(chǎn)業(yè)部門”。
歸根結(jié)底,這些訴求跟當(dāng)前的一系列技術(shù)推進(jìn)所遭遇的倫理困境并無實質(zhì)上的差異,就像我們已經(jīng)提出的在虛擬現(xiàn)實、擴(kuò)展現(xiàn)實領(lǐng)域應(yīng)當(dāng)引起重視的“大憲章”問題一樣,指向的都是如何避免少數(shù)人掌控技術(shù)以更便捷更隱蔽的手段損害人的自由與尊嚴(yán)的問題。其中需要的關(guān)鍵要素有兩點:第一,如何更準(zhǔn)確更敏銳地分析科技推進(jìn)中的結(jié)構(gòu)性變革,以技術(shù)手段防范技術(shù)黑箱操作,這需要技術(shù)的發(fā)展始終在一個社會開放空間中進(jìn)行,使技術(shù)不被少數(shù)人的權(quán)力和資本所壟斷;第二,如何在技術(shù)推進(jìn)中注入人文理性,這需要哲學(xué)家、藝術(shù)家以及社會科學(xué)各界在技術(shù)變革中積極參與,及時發(fā)現(xiàn)技術(shù)當(dāng)中隱含的道德議題、社會議題,向科學(xué)界、技術(shù)界和企業(yè)界發(fā)出他們觀察慎思后的最強(qiáng)音,以起到建立一個人文倫理防火墻的作用。
此外,我們需要著重提出的是,弱人工智能和強(qiáng)人工智能之間,鑒于其生發(fā)機(jī)理性質(zhì)的全然不同,在應(yīng)對的倫理規(guī)則方面,也必然需要在認(rèn)清本有的界限的基礎(chǔ)上分別制定。
如果讓我們對“強(qiáng)人工智能”的可能實現(xiàn)做一點倫理前瞻的話,那么,基于上述分析,“強(qiáng)人工智能”實現(xiàn)以后的這種造物就不能被當(dāng)做純粹的工具了。這時,它們已經(jīng)具有自主意識,具有與人類對等的人格結(jié)構(gòu),今日人類成員所擁有的權(quán)利地位、道德地位、社會尊嚴(yán)等等,他們就應(yīng)該平等地?fù)碛小?/p>
與我們平起平坐的具有獨(dú)立人格的“機(jī)器人”,還是機(jī)器嗎?不是了,這才是真正的“奇點”和“智能大爆發(fā)”。但是,有人會認(rèn)為,最為關(guān)鍵的問題是,這樣的“強(qiáng)人工智能”主體,不就可以與人類對抗,毀滅人類了嗎?
要理解這種擔(dān)憂的實質(zhì),就需要我們以價值理性和科學(xué)理性出發(fā)進(jìn)行自我反思。所謂的人類毀滅恐懼與人類身份認(rèn)同焦慮,實際上是把基于個體經(jīng)驗形成的一己情懷,等價于有效的價值判斷了。我們主動設(shè)計、制造了某種新型主體的存在,但并不對他們的個體特質(zhì)進(jìn)行設(shè)計,不就等于以新的途徑繁殖了我們的后代嗎?我們千萬不要以一時的人文情懷來遮掩甚至拒斥可普遍化的人文理性,將人類引入迷途。
因此,如果真有強(qiáng)人工智能實現(xiàn)的一天,最合理的態(tài)度就是:承認(rèn)他們是我們自己進(jìn)化了的后代,人類進(jìn)入了一種改變了繁殖方式的發(fā)展新階段。后代取代前輩繼續(xù)生存,實現(xiàn)更好的發(fā)展,這不是人類的災(zāi)難,而是人類的進(jìn)化飛躍到了一個新階段。退一萬步講,假如“后人類”真的聯(lián)合起來向“前人類”造反并將前輩“征服”,那也不過就像以往發(fā)生過的征服一樣,一批人征服了另一批人或新人征服了舊人,而不是人類的末日。
至于以量子計算為基礎(chǔ)的人工智能到底會給我們的生活帶來何種沖擊,恐怕我們的想象力暫時還是鞭長莫及。
注釋
http://www.thinkwithgoogle.co.uk/quarterly/innovation/transgressive-man.html.
Crevier, Daniel, AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, 1993, p.115. Moravec explains, "Their initial promises to DARPA had been much too optimistic. Of course, what they delivered stopped considerably short of that. But they felt they couldn't in their next proposal promise less than in the first one, so they promised more."
https://www.newscientist.com/blogs/onepercent/2012/06/bot-with-boyish-personality-wi.html?DCMP=OTC-rss&nsref=online-news.
The Singularity Is Near: When Humans Transcend Biology是Raymond Kurzweil于2005年出版的關(guān)于未來學(xué)的書籍。中文譯著已由機(jī)械工業(yè)出版社于2011年10月1日出版發(fā)行,譯著書名為“奇點臨近”。
[英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,北京:中信出版股份有限公司,2015年,Kindle位置:328/5236。 http://sports.sina.com.cn/go/2016-01-30/doc-ifxnzanh0397466.shtml.
Wired, "Google's Go Victory Is Just a Glimpse of How Powerful AI Will Be, " http://www.wired.com/2016/01/googles-go-victory-is-just-a-glimpse-of-how-powerful-ai-will-be/, 2016.1.29.
[英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,Kindle位置:518/5236。
[英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,Kindle位置:1199/5236。
One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all.見http://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html.
http://www.huffingtonpost.com/daniel-faggella/artificial-intelligence-r_b_9344088.html.
[英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,Kindle位置:2416/5236。
Frankenstein or The Modern Prometheus,又譯作《弗蘭肯斯坦》,后世有部分學(xué)者認(rèn)為這部小說可視為科幻小說或恐怖小說的始祖。
見翟振明:《虛擬現(xiàn)實比人工智能更具顛覆性》,《高科技與產(chǎn)業(yè)化》,2015年11月。
[英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,kindle版位置:685/5236。
[英]尼克・波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,kindle版位置:867/5236。
翟振明:《有無之間――虛擬實在的哲學(xué)探險》,北京大學(xué)出版社,2007年。(Zhai, Philip, Get real: A philosophical adventure in virtual reality,Rowman& Littlefield, 1998.)
詳見翟振明、李豐:《心智哲學(xué)中的整一性投射謬誤與物理主義困境》,《哲學(xué)研究》,2015年06期。
見于:Dick J. Bierman and Stephen Whitmarsh, "Consciousness and Quantum Physics: Empirical Research on the Subjective Reduction of the State Vector," in Jack A. Tuszynski (Ed), The Emerging Physics of Consciousness, 2006, pp. 27-48.C. M. H. Nunn et. al.,"Collapse of a Quantum Field May Affect Brain Function," Journal of Consciousness Studies, 1994, 1(1), pp.127-139.
Anderson, Michael, and Susan Leigh Anderson, "Machine ethics: Creating an ethical intelligent agent," AI Magazine 28.4 , 2007, p.15.
Stuart Russell, "Moral Philosophy Will Become Part of the Tech Industry," http://time.com/4026723/stuart-russell-will-ai-overtake-humans/.
哲學(xué)家丹尼爾・丹尼特在其著作《意識的解釋》(Consciousness Explained)里錯誤地認(rèn)為,人也不過是一臺有靈魂的機(jī)器而已,為什么我們認(rèn)為:“人可以有智能,而普通機(jī)器就不能”呢?有的哲學(xué)家認(rèn)為如果弱人工智能是可實現(xiàn)的,那么強(qiáng)人工智能也是可實現(xiàn)的。比如西蒙・布萊克本(Simon Blackburn)在其哲學(xué)入門教材Think里說道,一個人的看起來是“智能”的行動并不能真正說明這個人就真的是智能的。我永遠(yuǎn)不可能知道另一個人是否真的像我一樣是智能的,還是說她/他僅僅是看起來是智能的。布萊克本認(rèn)為這個“他心問題”是一個主觀認(rèn)定的問題。本文引入量子力學(xué)解釋方向,就是試圖回答意識和智能的認(rèn)定問題的可能途徑的問題。量子力學(xué)中的遙距糾纏,很可能就是解決“他心問題”的有效途徑,最后并不需要訴諸“主觀認(rèn)定”。這種認(rèn)定的實現(xiàn),也許才是真正的“奇點來臨”。
下一頁分享更優(yōu)秀的<<<強(qiáng)人工智能論文