特黄特色三级在线观看免费,看黄色片子免费,色综合久,欧美在线视频看看,高潮胡言乱语对白刺激国产,伊人网成人,中文字幕亚洲一碰就硬老熟妇

學(xué)習(xí)啦>新聞資訊>科技>

強(qiáng)人工智能論文

時(shí)間: 坤杰951 分享

  人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議?;?ldquo;神經(jīng)網(wǎng)絡(luò)”構(gòu)架的軟件在機(jī)器學(xué)習(xí)能力方面的進(jìn)展,讓人耳目一新的同時(shí),也讓不少人焦慮乃至恐懼。以下是學(xué)習(xí)啦小編整理分享的強(qiáng)人工智能論文的相關(guān)資料,歡迎閱讀!

  強(qiáng)人工智能論文篇一

  “強(qiáng)人工智能”將如何改變世界

  【摘要】人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議。基于“神經(jīng)網(wǎng)絡(luò)”構(gòu)架的軟件在機(jī)器學(xué)習(xí)能力方面的進(jìn)展,讓人耳目一新的同時(shí),也讓不少人焦慮乃至恐懼。這是因?yàn)椋?ldquo;學(xué)習(xí)”能力原被認(rèn)為是人類特有的能力,機(jī)器難以勝任。如今突破了這條界線,機(jī)器與人之間的界限似乎就被抹掉了。關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價(jià)值植入的技術(shù)限度。實(shí)際上,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會(huì)挑戰(zhàn)我們過往的既有經(jīng)驗(yàn),卻不是顛覆性的“消滅”。無(wú)論人工智能如何模仿人腦的“神經(jīng)網(wǎng)絡(luò)”,表現(xiàn)如何像人,只要人類心智現(xiàn)象的最終解釋沒有取得突破性進(jìn)展,關(guān)于人工智能是否逼近人類智能的設(shè)問就缺少必要的前提。

  【關(guān)鍵詞】弱人工智能 強(qiáng)人工智能 量子力學(xué) 物理主義 倫理困境 價(jià)值理性

  【中圖分類號(hào)】 B82-057 【文獻(xiàn)標(biāo)識(shí)碼】A

  【DOI】10.16619/j.cnki.rmltxsqy.2016.07.003

  AlphaGo的“勝利”與人工智能的演進(jìn)

  2016年,是人工智能(Artificial Intelligence,英文縮寫為AI)議題高度亢奮的一年。谷歌DeepMind團(tuán)隊(duì)開發(fā)的AlphaGo程序以4比1的成績(jī)“戰(zhàn)勝”韓國(guó)棋手、世界冠軍李世石,使這種亢奮達(dá)到了頂點(diǎn)。

  AlphaGo程序利用“神經(jīng)網(wǎng)絡(luò)”來模仿專業(yè)棋手,并通過與其他同類程序比賽、加上程序自身的“對(duì)壘”進(jìn)行“自我學(xué)習(xí)”,從而進(jìn)一步提高其性能。AlphaGo對(duì)陣其他圍棋程序的勝率達(dá)到了99%,并在過去的一場(chǎng)巡回賽中以5比0戰(zhàn)勝了衛(wèi)冕歐洲冠軍樊麾。此番AlphaGo與李世石的對(duì)壘,五連勝還是負(fù)一贏四,并不妨礙我們對(duì)人工智能的發(fā)展作出進(jìn)一步的評(píng)估。恰如本次賽前發(fā)布會(huì)上谷歌董事長(zhǎng)施密特所表示的,輸贏都是人類的勝利。因?yàn)檎侨祟惖呐Σ抛屓斯ぶ悄苡辛私裉斓耐黄?,人工智能在圍棋?ldquo;戰(zhàn)勝”人類智能只是時(shí)間問題。

  AlphaGo贏得圍棋比賽,使得知識(shí)界科技界對(duì)待人工智能的兩種典型態(tài)度再度引起關(guān)注:一種是霍金、比爾・蓋茨式的“警惕人工智能”,一種是雷・庫(kù)茲韋爾式的樂觀興奮與期待憧憬。2014年12月,英國(guó)理論物理學(xué)家史蒂芬・霍金警告說,人工智能的發(fā)展可能意味著人類的滅亡。2015年1月,比爾・蓋茨在Reddit的“Ask Me Anything”論壇上表示,人類應(yīng)該敬畏人工智能的崛起。蓋茨認(rèn)為,人工智能將最終構(gòu)成一個(gè)現(xiàn)實(shí)性的威脅,雖然在此之前,它會(huì)使我們的生活更輕松。庫(kù)茲韋爾是“奇點(diǎn)論”和“加速回報(bào)定律”主張的代表人物,他曾經(jīng)表示:“要成為一位發(fā)明家或企業(yè)家,你必須得是個(gè)樂觀派。對(duì)未來所存在的風(fēng)險(xiǎn),我并非是渾然不覺,我只是對(duì)人類安然渡過奇點(diǎn)而無(wú)需以摧毀文明為代價(jià)持樂觀態(tài)度而已。”①

  自被1956年的達(dá)特茅斯學(xué)院會(huì)議正式確立為一個(gè)學(xué)科以來,“人工智能”的發(fā)展經(jīng)歷了多次起伏。到了1970年代,人工智能的發(fā)展開始遭遇更多的批評(píng),隨之而來的還有資金支持的銳減。研究者的過于樂觀使得一些項(xiàng)目的承諾無(wú)法兌現(xiàn),比較知名的諸如閔斯基(Marvin Minsky)對(duì)傳感器技術(shù)的激烈批評(píng),使得聯(lián)結(jié)主義(即神經(jīng)網(wǎng)絡(luò))近乎銷聲匿跡了10年。1973年,美國(guó)和英國(guó)政府更是嚴(yán)格控制對(duì)人工智能的投入,那些“沒有明確目標(biāo)的人工智能研究項(xiàng)目”被停止了撥款。

  1980~1987年,人工智能重新迎來一個(gè)發(fā)展高潮,首先是日本投入了8.5億美金研發(fā)機(jī)器人。受日本政府投資野心的刺激,發(fā)達(dá)國(guó)家進(jìn)入了“人工智能”研究的競(jìng)賽狀態(tài),美國(guó)政府和企業(yè)再次在AI領(lǐng)域投入數(shù)十億研究經(jīng)費(fèi),但由于研究人員低估了人工智能研發(fā)的難度,進(jìn)展有限,這些投資在80年代末再次受到質(zhì)疑。1987~1993年,人工智能的發(fā)展又一次陷入低谷,美國(guó)研究機(jī)構(gòu)DARPA(國(guó)防高等研究計(jì)劃署)的主任甚至認(rèn)為人工智能不再是研究的重要方向??▋?nèi)基梅隆大學(xué)移動(dòng)機(jī)器人實(shí)驗(yàn)室主任莫拉維克(Hans Moravec)將這種挫敗歸咎于他的同行們不切實(shí)際的預(yù)言和承諾。②

  從1993年到今天,人工智能進(jìn)入了加速發(fā)展軌道。2012年6月23日,在位于米爾頓凱恩斯的布萊切利公園舉行了紀(jì)念圖靈百年誕辰的圖靈測(cè)試。一個(gè)被設(shè)計(jì)為擁有“高度可信度”的個(gè)性化機(jī)器人“古斯特曼”在競(jìng)賽中獲勝。這次競(jìng)賽主要有5臺(tái)機(jī)器人、25名人類成員和30名評(píng)委參與,是有史以來規(guī)模最大的一次競(jìng)賽。經(jīng)過一系列的5分鐘對(duì)話后,29%的評(píng)委相信古斯特曼擁有類人的人工智能。③這次測(cè)試,使得人工智能樂觀派相信,人工智能的飛躍式發(fā)展即將來臨。早在2005年,雷・庫(kù)茲韋爾在他的《奇點(diǎn)臨近》一書中,預(yù)言機(jī)器的智能將在2045年超過人類的智能。④

  在學(xué)術(shù)界,“奇點(diǎn)理論”遭到了強(qiáng)烈而持久的質(zhì)疑。牛津大學(xué)哲學(xué)教授、人類未來研究院創(chuàng)始人和主任(人類未來研究院是一個(gè)多學(xué)科研究院,旨在幫助一些非常優(yōu)秀的數(shù)學(xué)家、哲學(xué)家和科學(xué)家對(duì)人類大問題和全球大事務(wù)進(jìn)行仔細(xì)的思考)波斯特姆(Nick Bostrom)在其出版于2014年的《超級(jí)智能:途徑、危險(xiǎn)與戰(zhàn)略》一書中認(rèn)為:“‘奇點(diǎn)’這一術(shù)語(yǔ)在很多不同領(lǐng)域被混亂地使用,并催生出一種不合理的技術(shù)烏托邦氛圍,就好像我們會(huì)就此迎來太平盛世了。考慮到‘奇點(diǎn)’這個(gè)詞所指的大部分涵義與本文的論述不甚相關(guān),我們可以去掉這個(gè)詞并代替以更精確的術(shù)語(yǔ)。”⑤波斯特姆使用“超級(jí)智能”(superintelligence)一詞來描述機(jī)器“智能爆發(fā)”之后的智能狀態(tài)。但是,波斯特姆的這個(gè)概念沒有把工具性智能與人類的意識(shí)和自我意識(shí)等第一人稱世界的內(nèi)容區(qū)分開來,根據(jù)我們下面的討論可以看出,這種混淆是誤入歧途的,但這并不妨礙他的警示的有效性。

  弱人工智能復(fù)雜化:人類的“超級(jí)秘書”

  AlphaGo贏得圍棋比賽,是不是像有些人驚呼的那樣,人類智慧最后的壁壘即將坍塌,“人類應(yīng)放下自己的驕傲”?⑥其實(shí),人類以這種工具性智能為傲,本來就是概念錯(cuò)置。況且,以下圍棋的能力來代表人類智能,也站不住腳。說到底,這是在單一的抽象博弈智能方面,體制化的學(xué)術(shù)集體戰(zhàn)勝了天賦極高的自然個(gè)體。這種博弈,無(wú)論哪一方贏,都是人類在贏。   圍棋作為一種古老的棋術(shù),其規(guī)則簡(jiǎn)單明晰,卻因組合可能性的數(shù)據(jù)龐大而令一些人感到癡迷。圍棋棋盤上每一點(diǎn),都有黑、白、空三種情況,棋盤上共有19*19=361個(gè)點(diǎn),所以可能產(chǎn)生的合法棋局?jǐn)?shù)為3的361次方種??赡苄缘碾y以窮盡,催生了圍棋朗朗上口的口訣式經(jīng)驗(yàn)總結(jié),其實(shí)就是快速對(duì)應(yīng)勝負(fù)的概率計(jì)算,這與AlphaGo通過“深度學(xué)習(xí)”而減少計(jì)算量的邏輯是一致的。不同的是,計(jì)算機(jī)可以記住趨于無(wú)窮多的作為程序的口訣和案例,而人窮其一生,也只能記住有限的經(jīng)驗(yàn),很多時(shí)候就只能靠現(xiàn)場(chǎng)推算,甚至靠直覺領(lǐng)悟了。一些對(duì)圍棋技藝癡迷且不愿意相信電腦能贏的人,陷入的恰恰是將圍棋神秘化的有限經(jīng)驗(yàn)當(dāng)中。更有意思的是,有些棋手按照平時(shí)訓(xùn)練的圍棋技藝來評(píng)價(jià)人機(jī)大戰(zhàn)時(shí),會(huì)認(rèn)為AlphaGo哪招哪式在下“臭棋”,哪招是“失誤”,其實(shí),在以最終取勝為目的的電腦程序里,只要達(dá)成程序設(shè)定目標(biāo),就不能有所謂“臭棋”或“失誤”之說。

  那么,會(huì)“深度學(xué)習(xí)”、用“神經(jīng)網(wǎng)絡(luò)”打造的AlphaGo究竟算不算“強(qiáng)人工智能”或波斯特姆所言的“超級(jí)智能”呢?

  波斯特姆在美國(guó)《連線》雜志2016年1月刊發(fā)表了看法。在他看來,這(指此前AlphaGo的發(fā)展)并不一定是一次巨大飛躍。波斯特姆指出,多年來,系統(tǒng)背后的技術(shù)一直處于穩(wěn)定提升中,其中包括有過諸多討論的人工智能技術(shù),比如深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。谷歌擊敗圍棋大師不過是一項(xiàng)重大進(jìn)程中的一部分。這一進(jìn)程始于很久以前,也將延續(xù)至未來幾年。波斯特姆說,“過去和現(xiàn)在,最先進(jìn)的人工智能都取得了很多進(jìn)展”,“(谷歌)的基礎(chǔ)技術(shù)只是過去幾年中的技術(shù)研發(fā)的技術(shù)正常延續(xù)”。⑦

  看起來,雖然波斯特姆在總體上有關(guān)智能本質(zhì)的理解是不成立的,AlphaGo的表現(xiàn)也沒有出乎他的意料。在《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》一書中,他曾經(jīng)這樣表述:“專業(yè)國(guó)際象棋比賽曾被認(rèn)為是人類智能活動(dòng)的集中體現(xiàn)。20世紀(jì)50年代后期的一些專家認(rèn)為:‘如果能造出成功的下棋機(jī)器,那么就一定能夠找到人類智能的本質(zhì)所在。’但現(xiàn)在,我們卻不這么認(rèn)為了。約翰・麥肯錫曾不無(wú)惋惜地悲嘆:‘這種機(jī)器被造出來之后,人們就不稱其為人工智能了。’”⑧也就是說,能下棋能贏人類的機(jī)器,終究還是機(jī)器,與人類的心智本質(zhì)無(wú)甚關(guān)聯(lián)。感到不可思議或驚呼“聰明的人類輸給了機(jī)器”的人,不是神化了下棋技藝的智力本質(zhì),就是給下棋程序橫加賦予了“人性”特質(zhì)。

  初看起來,波斯特姆所謂的“超級(jí)智能”,應(yīng)該是能夠全面取代人類智能的一種“強(qiáng)人工智能”,區(qū)別于當(dāng)前已經(jīng)廣泛應(yīng)用中的“弱人工智能”(包括自動(dòng)駕駛、下棋技能、機(jī)器視覺、指紋識(shí)別、人臉識(shí)別、視網(wǎng)膜識(shí)別、虹膜識(shí)別、掌紋識(shí)別、專家系統(tǒng)、自動(dòng)規(guī)劃,等等)。但他并沒有深入探討人類的智能現(xiàn)象的本質(zhì)究竟是什么,對(duì)經(jīng)典的“他心問題”也無(wú)涉及,這又讓人覺得他說的“超級(jí)智能”還是屬于工具性智能的“弱人工智能”的范疇。

  就這一點(diǎn),他本人也有所認(rèn)識(shí),他說:“用超級(jí)智能來指代在許多普遍的認(rèn)知領(lǐng)域中,表現(xiàn)遠(yuǎn)遠(yuǎn)超越目前最聰明的人類頭腦的智能。這個(gè)定義仍然十分模糊。按照這個(gè)定義,很多系統(tǒng)具有迥然不同的性能特質(zhì),都可以被視為超級(jí)智能。”⑨為了進(jìn)一步解釋他的構(gòu)思,他試圖通過區(qū)分智能層面的超級(jí)能力,將超級(jí)智能的這種簡(jiǎn)單定義分解。于是,他將超級(jí)智能分為三種形式:高速超級(jí)智能、集體超級(jí)智能和素質(zhì)超級(jí)智能。由于未能把握人類意識(shí)現(xiàn)象的本質(zhì)以及指出解釋意識(shí)現(xiàn)象的方向,不管波斯特姆在展望“超級(jí)智能”時(shí)如何分類,都無(wú)法提供接近“機(jī)器人是人嗎?人是機(jī)器人嗎?”這個(gè)根本命題的方向乃至答案。

  無(wú)論是谷歌的無(wú)人駕駛技術(shù),還是如今的AlphaGo下棋程序,或者更早前的“微軟小冰”,這些智能機(jī)器的發(fā)明,與人類從科技進(jìn)步中期待得到的工具理性之間,并無(wú)根本的內(nèi)在沖突,復(fù)雜程度日益提升、智能的日趨強(qiáng)大,與人們驚呼的“人類將要被機(jī)器消滅”的后果之間,并沒有什么必然的關(guān)聯(lián)。

  可以說,迄今為止機(jī)器下棋技術(shù)的每一次重要進(jìn)展,都可能是“弱人工智能”領(lǐng)域的路標(biāo),但其中涉及的主要并不是人工智能技術(shù)內(nèi)部邏輯的斷裂性突破,而這次AlphaGo贏了人類冠軍所謂的重要意涵,是一些圍棋愛好者把圍棋和李世石預(yù)先設(shè)想為當(dāng)然標(biāo)桿后,標(biāo)桿在某種光照中投下的張揚(yáng)扭曲的影子。要超出這個(gè),我們必須對(duì)人類意識(shí)的“整一性”難題和“他心問題”有了可操作的解釋以后才有可能,就目前情況來看,玄機(jī)在哪里呢?不在棋局中,不在DeepMind的工坊里,也不在“阿法狗”的“神經(jīng)網(wǎng)絡(luò)”里,而在我們自己心智的幻影中。就“弱人工智能”范疇而言,智能再?gòu)?qiáng)大的機(jī)器,再像人的機(jī)器,也就是人類的一個(gè)不鬧情緒的“超級(jí)秘書”而已。

  價(jià)值失落:人類的身份認(rèn)同危機(jī)與技術(shù)焦慮癥

  2014年,史蒂芬・霍金與麻省理工學(xué)院物理學(xué)家馬克思・泰格馬克(Max Tegmark)、諾貝爾獎(jiǎng)得主弗朗克・韋爾切克(Frank Wilczek)、計(jì)算機(jī)科學(xué)家斯圖亞特・羅素(Stuart Ressell)合寫了一篇署名評(píng)論文章《在超級(jí)智能機(jī)器上超越自滿》,該文引起了廣泛關(guān)注。霍金在文章中表達(dá)了對(duì)人工智能的憂慮:“可以想象,人工智能會(huì)以其‘聰明’在金融市場(chǎng)勝出,在發(fā)明方面勝過人類研究者,在操縱民意方面將勝過人類領(lǐng)導(dǎo)人,研發(fā)出人類甚至理解不了的武器。盡管人工智能的短期影響取決于誰(shuí)在控制人工智能,而它的長(zhǎng)期影響則取決于人工智能到底能否受到任何控制。”⑩

  關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價(jià)值植入的技術(shù)限度。

  人類的價(jià)值系統(tǒng),粗泛地區(qū)分,可以分為外在價(jià)值和內(nèi)在價(jià)值,即所謂“有用”與“無(wú)用”之辨。當(dāng)我們說什么東西有用時(shí),是就這東西對(duì)于它之外的某個(gè)目標(biāo)、目的或者是功能而言的,比如錢可以拿來購(gòu)買面包充饑,這叫工具價(jià)值。由于它把其他東西當(dāng)作自己服務(wù)的對(duì)象,所以它沒有內(nèi)在價(jià)值,只有外在價(jià)值。外在價(jià)值即是那些工具性的價(jià)值,最終服務(wù)于人類的內(nèi)在價(jià)值訴求。   那么,什么是內(nèi)在價(jià)值呢?哲學(xué)家們或許會(huì)就某些含混地帶進(jìn)行爭(zhēng)論,但無(wú)論如何,很少有人會(huì)把一些基本的要素排除出去,比如自由、快樂、尊嚴(yán)、情愛、創(chuàng)造、自我超越,等等。這些東西不是為了其它東西而存在,相反,生活中沒有了這些東西,就等于失去了值得欲求的內(nèi)容。當(dāng)然,要有自由、尊嚴(yán),需要一個(gè)最低版本的生存條件。這個(gè)條件,人和任何其他動(dòng)物沒有什么不同,不是人之為人的本質(zhì)所在。如果我們談?wù)撊祟惿畹膬?nèi)在價(jià)值及其意義系統(tǒng),則必然集中在人所特有的東西上。康德的道德哲學(xué)已向我們表明,追求自由、尊嚴(yán)是所有理性存在主體的內(nèi)在規(guī)定,鮮有其他哲學(xué)家會(huì)否認(rèn)這一點(diǎn)。

  在談?wù)撊斯ぶ悄軐?duì)人的侵蝕和威脅時(shí),有一部分研究人員會(huì)使用喪失“人類關(guān)切”(human-centric)一詞來描述這種內(nèi)在價(jià)值的虧損。比如法格拉(Daniel Faggella)采訪了12位活躍在AI領(lǐng)域的權(quán)威專家和研究人員。其中,科爾奈(Kornai)博士和阿肯色大學(xué)的博爾林特(Daniel Berleant)博士都預(yù)見到了自動(dòng)化金融算法被它們的所有者們用來作為賺錢工具所帶來的潛在災(zāi)難性問題,他們說,這其中沒有任何“人類關(guān)切”的目標(biāo)。認(rèn)知科學(xué)家巴赫(Joscha Bach)則說:“近期的人工智能引起的危機(jī)最終可能成為現(xiàn)在社會(huì)中已經(jīng)存在的一樣的危機(jī)。如果我們不能走出基于工薪的經(jīng)濟(jì)模式的話,人工智能的自動(dòng)化會(huì)提高生產(chǎn)力,卻不會(huì)改善我們的生存條件。”?這種憂慮不無(wú)道理,不過主要是基于財(cái)富分配的急遽變化而引起的社會(huì)階層流動(dòng)而言的,實(shí)際上,并不是技術(shù)進(jìn)步和人工智能自身的問題。

  如前所述,人類的內(nèi)在價(jià)值并不在于謀生存的基本勞作,無(wú)論是體力勞動(dòng)還是腦力勞動(dòng),都是為了解決問題來完成給自己設(shè)定的任務(wù),這種設(shè)定源于我們的自我意識(shí)和意義系統(tǒng)。有了這種設(shè)定,才能知道什么是該干的“活”,什么是服務(wù)于我們的訴求的有效勞動(dòng)。像下棋一類的智力活動(dòng),在人類這里剛好不是用來“干活”完成功利目標(biāo)的技能,而是生活內(nèi)容中的一部分高級(jí)游戲,這很有工具價(jià)值之外的意義。但是,這場(chǎng)人機(jī)大賽,引起嘩然的并不是這個(gè),而是人們感覺到的一種基于工具效能理解的自我認(rèn)同危機(jī)。這種自我認(rèn)同,其實(shí)是傭工思維,是一種價(jià)值上的自我貶損。

  在單一的抽象博弈智能方面,體制化、學(xué)術(shù)化的集體戰(zhàn)勝了天賦極高的自然個(gè)體。這令依賴這種稟賦的自然個(gè)體感到焦慮,正如有人馬上反應(yīng)過來:“以后還帶不帶孩子學(xué)圍棋了?大街小巷的圍棋興趣班還有生意么?”圍棋冠軍們更是感受到一種職業(yè)性的惶恐:究竟我們此前對(duì)圍棋的認(rèn)知還有多少盲區(qū)?

  其實(shí),機(jī)器沒有獨(dú)立的意志,所謂“輸”與“贏”的說法,都是我們?nèi)祟悊畏矫娴耐渡洌cAI“自己”無(wú)關(guān),因?yàn)锳lphaGo根本就沒有所謂的“自己”。沒有獨(dú)立的意志,怎么和人發(fā)生“大戰(zhàn)”呢?相反,棋盤之外,人們的反應(yīng),比如無(wú)名的焦慮,不可克制的興奮,更具體點(diǎn),漢語(yǔ)世界的看客幾乎異口同聲地把AlphaGo稱作“狗”,這卻是要超出現(xiàn)今任何人工智能可以“理解”的范圍的。

  一些圍棋資深人士感到困惑,他們認(rèn)為AlphaGo給出選點(diǎn)的思維方式與人類很不同,還有一個(gè)流行的說法是,“最可怕的不是AlphaGo戰(zhàn)勝李世石,而在于它能贏卻故意輸?shù)?rdquo;。這本來是個(gè)玩笑,但這個(gè)玩笑引出的問題確實(shí)切中要害的。什么叫“故意”輸?shù)?AlphaGo并沒有自我意識(shí),沒有自由意志,如何談得上“故意”?“故意”可是一種截然不同的能力。這就要求我們理解“弱人工智能”與“強(qiáng)人工智能”的原則區(qū)別了。

  波斯特姆似乎會(huì)把機(jī)器的所謂“故意”描述為“超級(jí)智能的意愿”,在他看來,智能大爆發(fā)將會(huì)導(dǎo)向一個(gè)叫做“背叛轉(zhuǎn)折”的臨界點(diǎn)。關(guān)于背叛轉(zhuǎn)折,他這樣定義:“當(dāng)人工智能本來愚蠢時(shí),變聰明是更安全的;但是當(dāng)它本來就聰明時(shí),變得更聰明則是更危險(xiǎn)的。就像有一個(gè)軸心點(diǎn),到這個(gè)點(diǎn)上,原來很有效的策略會(huì)突然產(chǎn)生相反的結(jié)果。我們把這個(gè)現(xiàn)象叫作背叛轉(zhuǎn)折。”?

  波斯特姆假想的人工智能厄運(yùn)圍繞的仍是人的動(dòng)機(jī),而不是機(jī)器真正有了意圖。諸如他所列舉的,“機(jī)器”為了使得開發(fā)人工智能的贊助者高興,而“故意”表現(xiàn)得不那么“聰明”來蒙蔽人類,諸如在贊助者的大腦中植入負(fù)責(zé)快樂的電極,以使得贊助者被蒙蔽而不知覺,反而覺得很快樂。這里面涉及的,仍然是人與人之間的欺騙與控制。

  只要沒有出離人與人之間的關(guān)系,人工智能呈現(xiàn)的問題與危機(jī),就沒有超乎人類已經(jīng)面對(duì)過的控制與反控制的議題。也就是說,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會(huì)挑戰(zhàn)我們過往的既有經(jīng)驗(yàn),卻不是顛覆性的“消滅”;它會(huì)改變社會(huì)學(xué)階層分析的經(jīng)典框架,卻不會(huì)產(chǎn)生什么新型的劫難。

  對(duì)人工智能的過度期待或深度憂慮,大多基于缺乏學(xué)理根據(jù)的科幻想象或人們對(duì)自身的身份認(rèn)同前景的恐慌。出版于1818年的《科學(xué)怪人》?就描述了“弗蘭肯斯坦”這個(gè)科學(xué)狂人,他以“科學(xué)”的方式使死尸復(fù)活,結(jié)果那個(gè)被稱為“弗蘭肯斯坦的怪物”的人造人反過來控制了弗蘭肯斯坦。文學(xué)作品展示人類的這種身份認(rèn)同焦慮,已經(jīng)源遠(yuǎn)流長(zhǎng),但今天的知識(shí)界科學(xué)界,如果還是止步于無(wú)的放矢的焦灼和恐懼,則無(wú)助于我們真正認(rèn)識(shí)人工智能與人類意識(shí)的本質(zhì)關(guān)系。

  從人工智能目前的發(fā)展方向看,無(wú)論它再怎么“自動(dòng)學(xué)習(xí)”“自我改善”,都不會(huì)有“征服”的意志,不會(huì)有“利益”訴求和“權(quán)利”意識(shí)。當(dāng)前,無(wú)論從緊迫性上看,還是從終極可能性上看,“弱人工智能”問題都屬于常規(guī)性問題,并且是漸進(jìn)呈現(xiàn)的。如果說在可見的未來,技術(shù)發(fā)展領(lǐng)域有什么更值得擔(dān)心、警醒、緊迫的事情,那么,或許基于虛擬技術(shù)的“擴(kuò)展現(xiàn)實(shí)”的實(shí)現(xiàn)帶來的影響將更具顛覆性。?

  強(qiáng)人工智能的可能性與物理主義的困境

  “弱人工智能”的機(jī)制比較清晰可控,那么,“強(qiáng)人工智能”會(huì)失控嗎?這就要看我們究竟如何定義“強(qiáng)人工智能”。

  在學(xué)界和業(yè)界,早有“強(qiáng)人工智能”相對(duì)“弱人工智能”的概念。這個(gè)命名容易讓人誤認(rèn)為兩者只是強(qiáng)弱程度的差別,但這種區(qū)別具有分立的性質(zhì)――如果我們把“強(qiáng)人工智能”定義為出現(xiàn)真正有自主意識(shí)并且可確證其主體資格的“智能”,而不是AlphaGo這樣僅僅比機(jī)械計(jì)算發(fā)展了更多層次的推理能力和學(xué)習(xí)能力的程序的話。這樣定義下的所謂的“強(qiáng)”,指的是超越工具型智能而達(dá)到第一人稱主體世界內(nèi)容的涌現(xiàn),還包括意向性、命題態(tài)度,乃至自由意志的發(fā)生。   這樣的“強(qiáng)人工智能”是可能實(shí)現(xiàn)的嗎?有的科學(xué)家哲學(xué)家說永遠(yuǎn)不可能,有的則說近在咫尺。

  波斯特姆試圖從“人工智能、全腦仿真、生物認(rèn)知、人機(jī)交互以及網(wǎng)絡(luò)和組織”等路徑分析強(qiáng)人工智能或者他稱之為“超級(jí)智能”的幾種可能的實(shí)現(xiàn)方式,他詳細(xì)評(píng)估了每種路徑實(shí)現(xiàn)超級(jí)智能的可行性,并且認(rèn)為“由于目前存在多條技術(shù)路徑,因此至少有一條路徑能實(shí)現(xiàn)超級(jí)智能的可能性很大”。?

  波斯特姆的分析看起來龐大蕪雜,但他給出的實(shí)現(xiàn)路徑更多是在人腦上的直接迭代或高仿真,這很可能混淆了“強(qiáng)大的弱人工智能”與擁有主體性的“強(qiáng)人工智能”,他把通往不同本質(zhì)的路徑視為同一種性質(zhì)的多種可能性。

  在他看來,“若有足夠先進(jìn)的掃描技術(shù)和強(qiáng)大的計(jì)算機(jī)能力,即使只有很少的大腦理論知識(shí)也可以模仿全腦。極端情況下,我們可以想象采用施羅丁格(即薛定諤)量子力學(xué)方程在基本粒子水平來模擬大腦。這樣我們就可以完全依靠現(xiàn)有的物理學(xué)知識(shí),而不用任何生物模型。這種極端案例說明,沒有計(jì)算機(jī)技術(shù)和數(shù)據(jù)分析也可以制造人工智能。一個(gè)聽起來更合理的仿真水平是,將單個(gè)神經(jīng)元和它們的連接矩陣合并,連帶著它們的樹狀結(jié)構(gòu)和每一個(gè)觸突的變化狀態(tài)。我們無(wú)法模擬單個(gè)的神經(jīng)遞質(zhì)分子,但是可以粗略地將它們的波動(dòng)濃度模型化。為了評(píng)價(jià)全腦仿真的可行性,人們必須理解成功的評(píng)判標(biāo)準(zhǔn)。我們的目的不是精確模擬出一個(gè)大腦,用它來預(yù)測(cè)在受到一系列刺激后,原始大腦會(huì)做出何種反應(yīng)。相反,我們的目的是獲得足夠的大腦的計(jì)算機(jī)功能屬性,以使最終得到的仿真進(jìn)行智能工作。因此,真實(shí)大腦的很多復(fù)雜的生物學(xué)細(xì)節(jié)就無(wú)關(guān)緊要了。”?

  這段論述是波斯特姆《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》一書中唯一一處提及量子力學(xué),但他后面的分析卻遠(yuǎn)離了量子力學(xué)才是對(duì)意識(shí)進(jìn)行物理學(xué)研究的可能進(jìn)路這一方向,回到了一般的計(jì)算主義/物理主義的“牢籠”。

  在心智哲學(xué)和認(rèn)知科學(xué)領(lǐng)域,的確有不少所謂的“計(jì)算主義者”“物理主義者”,他們認(rèn)為,人的情感、意向性、自由意志等以及意識(shí)與自我意識(shí)直接相關(guān)的內(nèi)容,在牛頓力學(xué)框架下的物理因果關(guān)系模已足具解釋力,在人的第一人稱主觀世界與第三人稱客體世界之間,也不存在最后的鴻溝。但是,也有一部分研究者持相反的看法,極力論證這種“計(jì)算主義”“物理主義”的悖謬本性,只承認(rèn)從量子力學(xué)原理才有些許可能解決意識(shí)和自我意識(shí)這個(gè)真正的問題。

  最近,美國(guó)量子物理學(xué)家斯塔普(Henry Stapp)、英國(guó)物理學(xué)家彭羅斯(Roger Penrose)、美國(guó)基因工程科學(xué)家蘭策(Robert Lanza)都提出了人類意識(shí)的量子假設(shè),中國(guó)清華大學(xué)副校長(zhǎng)施一公院士、中科大副校長(zhǎng)潘建偉院士等也大膽猜測(cè),人類智能的底層機(jī)理就是量子效應(yīng)。對(duì)于這個(gè)問題,筆者在出版于1998年的著作中嘗試論證這個(gè)問題?,同樣的看法日漸增強(qiáng)。

  不久前,筆者把這種論證進(jìn)一步系統(tǒng)化,在《哲學(xué)研究》上發(fā)表了分析物理主義(包括計(jì)算主義)如何在研究中陷入“整一性投射謬誤”,并論證定域性假設(shè)為何與腦神經(jīng)元細(xì)胞層次對(duì)意識(shí)現(xiàn)象的解釋注定要失敗的文章。?

  也就是說,以定域性預(yù)設(shè)為前提的物理主義和計(jì)算主義,在原則上就不可能解釋人類的意識(shí)現(xiàn)象,量子力學(xué)已經(jīng)不得不拋棄定域性預(yù)設(shè),這就在邏輯上打開了其解釋意識(shí)現(xiàn)象可能性之大門。

  包括計(jì)算主義在內(nèi)的物理主義有一個(gè)基本預(yù)設(shè),即設(shè)定任何物理系統(tǒng)都能夠被分解為單個(gè)獨(dú)立的局部要素的集合,且各要素僅同其直接鄰近物發(fā)生相互作用。這是經(jīng)典力學(xué)的基本原則,也是當(dāng)代神經(jīng)科學(xué)默認(rèn)的前提,從而也是物理主義心智哲學(xué)的預(yù)設(shè)。計(jì)算主義則強(qiáng)調(diào)符號(hào)關(guān)系,它與其他版本的物理主義相比,主要是分析要素的不同,但這種不同卻無(wú)關(guān)宏旨。這是因?yàn)?,符?hào)關(guān)系試圖解釋的,也是意識(shí)現(xiàn)象或心智事件的產(chǎn)生和關(guān)聯(lián)的機(jī)理,而不是純邏輯的關(guān)系?;谶@種認(rèn)知框架,他們傾向于認(rèn)為,大腦的符號(hào)系統(tǒng)的狀態(tài),就是各個(gè)單一獨(dú)立要素的神經(jīng)元的激發(fā)/抑制狀態(tài)聚合起來的某個(gè)區(qū)域的總體呈現(xiàn)。

  這樣也就不難理解,波斯特姆為什么認(rèn)為“獲得足夠的大腦的計(jì)算機(jī)功能屬性”,就能最終使得仿真大腦進(jìn)行智能工作。于是,在計(jì)算主義/物理主義這里,神經(jīng)元系統(tǒng)可望實(shí)現(xiàn)的某個(gè)整一性功能,就被他們完全等價(jià)于各個(gè)分立神經(jīng)元符號(hào)功能的關(guān)系的總和。

  但是,筆者和斯塔普都詳細(xì)論證過,這樣的出發(fā)點(diǎn),連最基本的意識(shí)感知現(xiàn)象(比如說雙眼綜合成像)都解釋不了,因?yàn)檫@類現(xiàn)象中涉及的同一時(shí)空點(diǎn)的變量的個(gè)數(shù)遠(yuǎn)遠(yuǎn)超出在局域性預(yù)設(shè)中每個(gè)空間點(diǎn)可容納的物理變量個(gè)數(shù)。他們無(wú)視這種困境的存在,正是他們混淆了“內(nèi)在描述”與“外在描述”功能而陷入“整一性投射謬誤”的結(jié)果。?

  盡管從量子力學(xué)效應(yīng)解釋人類智能的頂層機(jī)理尚未取得突破性成果,但意識(shí)導(dǎo)致坍塌這一原理似乎是量子力學(xué)與身心問題的最為接近的終極解釋,研究者們正試圖檢測(cè)與物理事件相關(guān)的意識(shí)事件?,相對(duì)明確的結(jié)論暫時(shí)付諸厥如。

  但無(wú)論如何,基于上述討論,我們可以得知,所謂的“圖靈測(cè)試”對(duì)判定“強(qiáng)人工智能”毫無(wú)用處,不能作為智能意識(shí)產(chǎn)生的推演依據(jù),無(wú)論試驗(yàn)中的以假亂真效應(yīng)有多么逼真。有鑒于此,本文擬提出一個(gè)“人工智能逆反圖靈判據(jù)”,陳述如下:

  任何不以已經(jīng)具有意識(shí)功能的材料為基質(zhì)的人工系統(tǒng),除非能有充足理由斷定在其人工生成過程中引入并隨之留駐了意識(shí)的機(jī)制或內(nèi)容,否則我們必須認(rèn)為該系統(tǒng)像原先的基質(zhì)材料那樣不具備意識(shí),不管其行為看起來多么接近意識(shí)主體的行為。

  這里說的“充足理由”,在人類現(xiàn)有的科學(xué)視野中,按照筆者和斯塔普等人的論證,唯有量子力學(xué)才有可能提供。

  因此,無(wú)論是圖靈測(cè)試中的機(jī)器人還是新近由日本軟銀公司研發(fā)、富士康代工的所謂“情感機(jī)器人”Pepper,抑或如今被驚嘆有了“深度學(xué)習(xí)”能力的AlphaGo等有了多么強(qiáng)大的所謂“超級(jí)智能”,也無(wú)論它們及其未來的升級(jí)版看起來多么像具有人類的情感,除非有人確鑿證明,在制造或升級(jí)這些機(jī)器的過程中,在哪一個(gè)關(guān)節(jié)點(diǎn)把人類情感、人類意識(shí)整合了進(jìn)去,否則,我們就只能認(rèn)為把Pepper稱作“有情感的機(jī)器人”只是一種比喻。   結(jié)語(yǔ):“強(qiáng)人工智能”與人類繁殖倫理前瞻

  如上所述,沒進(jìn)入量子力學(xué)之前,所有的人造機(jī)器,包括AlphaGo,必然只是在某些方面具備高于人類的能力。這本來就是人造機(jī)器的目的,即人為了自身的內(nèi)在價(jià)值實(shí)現(xiàn)同時(shí)不斷改進(jìn)人類的生存處境而作出的努力。在現(xiàn)有條件下,人造機(jī)器不會(huì)失控,如果有所謂“失控”的話,這與我們對(duì)飛機(jī)、高鐵、大壩、核能之類的失控基本上屬于同類性質(zhì)。

  AlphaGo的確有隱喻意義上的“學(xué)習(xí)”能力,自行調(diào)整累積迭代的能力,但說到底仍是一種工具能力,是“弱人工智能”。這種“弱人工智能”很可能通過圖靈測(cè)試,但這與人的意向性(intentionality)及主體感受內(nèi)容(qualia)不相干。

  當(dāng)然,基于人類理性和道德能力的限度,我們有理由相信,即便是弱人工智能,在其應(yīng)用中也應(yīng)當(dāng)秉持審慎的人文理性態(tài)度。

  不少比較理性的研究者提出,由于人工智能的發(fā)展呈“加速回報(bào)”的態(tài)勢(shì),人類既有的道德資源和倫理框架或許難以覆蓋技術(shù)飛躍變革提出的新議題。他們提出應(yīng)當(dāng)發(fā)展一種叫做機(jī)器倫理(Machine ethics)的道德態(tài)度,加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)學(xué)教授拉塞爾(Stuart Russell)在美國(guó)時(shí)代雜志發(fā)表觀點(diǎn)認(rèn)為,避免機(jī)器的不當(dāng)使用威脅人類的生存,就應(yīng)該考慮如何把人類價(jià)值變成可編程的代碼,把人類的道德轉(zhuǎn)化為人工智能語(yǔ)言。他認(rèn)為,在機(jī)器人領(lǐng)域,“道德哲學(xué)將是一個(gè)非常重要的產(chǎn)業(yè)部門”。

  歸根結(jié)底,這些訴求跟當(dāng)前的一系列技術(shù)推進(jìn)所遭遇的倫理困境并無(wú)實(shí)質(zhì)上的差異,就像我們已經(jīng)提出的在虛擬現(xiàn)實(shí)、擴(kuò)展現(xiàn)實(shí)領(lǐng)域應(yīng)當(dāng)引起重視的“大憲章”問題一樣,指向的都是如何避免少數(shù)人掌控技術(shù)以更便捷更隱蔽的手段損害人的自由與尊嚴(yán)的問題。其中需要的關(guān)鍵要素有兩點(diǎn):第一,如何更準(zhǔn)確更敏銳地分析科技推進(jìn)中的結(jié)構(gòu)性變革,以技術(shù)手段防范技術(shù)黑箱操作,這需要技術(shù)的發(fā)展始終在一個(gè)社會(huì)開放空間中進(jìn)行,使技術(shù)不被少數(shù)人的權(quán)力和資本所壟斷;第二,如何在技術(shù)推進(jìn)中注入人文理性,這需要哲學(xué)家、藝術(shù)家以及社會(huì)科學(xué)各界在技術(shù)變革中積極參與,及時(shí)發(fā)現(xiàn)技術(shù)當(dāng)中隱含的道德議題、社會(huì)議題,向科學(xué)界、技術(shù)界和企業(yè)界發(fā)出他們觀察慎思后的最強(qiáng)音,以起到建立一個(gè)人文倫理防火墻的作用。

  此外,我們需要著重提出的是,弱人工智能和強(qiáng)人工智能之間,鑒于其生發(fā)機(jī)理性質(zhì)的全然不同,在應(yīng)對(duì)的倫理規(guī)則方面,也必然需要在認(rèn)清本有的界限的基礎(chǔ)上分別制定。

  如果讓我們對(duì)“強(qiáng)人工智能”的可能實(shí)現(xiàn)做一點(diǎn)倫理前瞻的話,那么,基于上述分析,“強(qiáng)人工智能”實(shí)現(xiàn)以后的這種造物就不能被當(dāng)做純粹的工具了。這時(shí),它們已經(jīng)具有自主意識(shí),具有與人類對(duì)等的人格結(jié)構(gòu),今日人類成員所擁有的權(quán)利地位、道德地位、社會(huì)尊嚴(yán)等等,他們就應(yīng)該平等地?fù)碛小?/p>

  與我們平起平坐的具有獨(dú)立人格的“機(jī)器人”,還是機(jī)器嗎?不是了,這才是真正的“奇點(diǎn)”和“智能大爆發(fā)”。但是,有人會(huì)認(rèn)為,最為關(guān)鍵的問題是,這樣的“強(qiáng)人工智能”主體,不就可以與人類對(duì)抗,毀滅人類了嗎?

  要理解這種擔(dān)憂的實(shí)質(zhì),就需要我們以價(jià)值理性和科學(xué)理性出發(fā)進(jìn)行自我反思。所謂的人類毀滅恐懼與人類身份認(rèn)同焦慮,實(shí)際上是把基于個(gè)體經(jīng)驗(yàn)形成的一己情懷,等價(jià)于有效的價(jià)值判斷了。我們主動(dòng)設(shè)計(jì)、制造了某種新型主體的存在,但并不對(duì)他們的個(gè)體特質(zhì)進(jìn)行設(shè)計(jì),不就等于以新的途徑繁殖了我們的后代嗎?我們千萬(wàn)不要以一時(shí)的人文情懷來遮掩甚至拒斥可普遍化的人文理性,將人類引入迷途。

  因此,如果真有強(qiáng)人工智能實(shí)現(xiàn)的一天,最合理的態(tài)度就是:承認(rèn)他們是我們自己進(jìn)化了的后代,人類進(jìn)入了一種改變了繁殖方式的發(fā)展新階段。后代取代前輩繼續(xù)生存,實(shí)現(xiàn)更好的發(fā)展,這不是人類的災(zāi)難,而是人類的進(jìn)化飛躍到了一個(gè)新階段。退一萬(wàn)步講,假如“后人類”真的聯(lián)合起來向“前人類”造反并將前輩“征服”,那也不過就像以往發(fā)生過的征服一樣,一批人征服了另一批人或新人征服了舊人,而不是人類的末日。

  至于以量子計(jì)算為基礎(chǔ)的人工智能到底會(huì)給我們的生活帶來何種沖擊,恐怕我們的想象力暫時(shí)還是鞭長(zhǎng)莫及。

  注釋

  http://www.thinkwithgoogle.co.uk/quarterly/innovation/transgressive-man.html.

  Crevier, Daniel, AI: The Tumultuous Search for Artificial Intelligence, New York, NY: BasicBooks, 1993, p.115. Moravec explains, "Their initial promises to DARPA had been much too optimistic. Of course, what they delivered stopped considerably short of that. But they felt they couldn't in their next proposal promise less than in the first one, so they promised more."

  https://www.newscientist.com/blogs/onepercent/2012/06/bot-with-boyish-personality-wi.html?DCMP=OTC-rss&nsref=online-news.

  The Singularity Is Near: When Humans Transcend Biology是Raymond Kurzweil于2005年出版的關(guān)于未來學(xué)的書籍。中文譯著已由機(jī)械工業(yè)出版社于2011年10月1日出版發(fā)行,譯著書名為“奇點(diǎn)臨近”。

  [英]尼克・波斯特洛姆:《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》,北京:中信出版股份有限公司,2015年,Kindle位置:328/5236。   http://sports.sina.com.cn/go/2016-01-30/doc-ifxnzanh0397466.shtml.

  Wired, "Google's Go Victory Is Just a Glimpse of How Powerful AI Will Be, " http://www.wired.com/2016/01/googles-go-victory-is-just-a-glimpse-of-how-powerful-ai-will-be/, 2016.1.29.

  [英]尼克・波斯特洛姆:《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》,Kindle位置:518/5236。

  [英]尼克・波斯特洛姆:《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》,Kindle位置:1199/5236。

  One can imagine such technology outsmarting financial markets, out-inventing human researchers, out-manipulating human leaders, and developing weapons we cannot even understand. Whereas the short-term impact of AI depends on who controls it, the long-term impact depends on whether it can be controlled at all.見http://www.huffingtonpost.com/stephen-hawking/artificial-intelligence_b_5174265.html.

  http://www.huffingtonpost.com/daniel-faggella/artificial-intelligence-r_b_9344088.html.

  [英]尼克・波斯特洛姆:《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》,Kindle位置:2416/5236。

  Frankenstein or The Modern Prometheus,又譯作《弗蘭肯斯坦》,后世有部分學(xué)者認(rèn)為這部小說可視為科幻小說或恐怖小說的始祖。

  見翟振明:《虛擬現(xiàn)實(shí)比人工智能更具顛覆性》,《高科技與產(chǎn)業(yè)化》,2015年11月。

  [英]尼克・波斯特洛姆:《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》,kindle版位置:685/5236。

  [英]尼克・波斯特洛姆:《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》,kindle版位置:867/5236。

  翟振明:《有無(wú)之間――虛擬實(shí)在的哲學(xué)探險(xiǎn)》,北京大學(xué)出版社,2007年。(Zhai, Philip, Get real: A philosophical adventure in virtual reality,Rowman& Littlefield, 1998.)

  詳見翟振明、李豐:《心智哲學(xué)中的整一性投射謬誤與物理主義困境》,《哲學(xué)研究》,2015年06期。

  見于:Dick J. Bierman and Stephen Whitmarsh, "Consciousness and Quantum Physics: Empirical Research on the Subjective Reduction of the State Vector," in Jack A. Tuszynski (Ed), The Emerging Physics of Consciousness, 2006, pp. 27-48.C. M. H. Nunn et. al.,"Collapse of a Quantum Field May Affect Brain Function," Journal of Consciousness Studies, 1994, 1(1), pp.127-139.

  Anderson, Michael, and Susan Leigh Anderson, "Machine ethics: Creating an ethical intelligent agent," AI Magazine 28.4 , 2007, p.15.

  Stuart Russell, "Moral Philosophy Will Become Part of the Tech Industry," http://time.com/4026723/stuart-russell-will-ai-overtake-humans/.

  哲學(xué)家丹尼爾・丹尼特在其著作《意識(shí)的解釋》(Consciousness Explained)里錯(cuò)誤地認(rèn)為,人也不過是一臺(tái)有靈魂的機(jī)器而已,為什么我們認(rèn)為:“人可以有智能,而普通機(jī)器就不能”呢?有的哲學(xué)家認(rèn)為如果弱人工智能是可實(shí)現(xiàn)的,那么強(qiáng)人工智能也是可實(shí)現(xiàn)的。比如西蒙・布萊克本(Simon Blackburn)在其哲學(xué)入門教材Think里說道,一個(gè)人的看起來是“智能”的行動(dòng)并不能真正說明這個(gè)人就真的是智能的。我永遠(yuǎn)不可能知道另一個(gè)人是否真的像我一樣是智能的,還是說她/他僅僅是看起來是智能的。布萊克本認(rèn)為這個(gè)“他心問題”是一個(gè)主觀認(rèn)定的問題。本文引入量子力學(xué)解釋方向,就是試圖回答意識(shí)和智能的認(rèn)定問題的可能途徑的問題。量子力學(xué)中的遙距糾纏,很可能就是解決“他心問題”的有效途徑,最后并不需要訴諸“主觀認(rèn)定”。這種認(rèn)定的實(shí)現(xiàn),也許才是真正的“奇點(diǎn)來臨”。

下一頁(yè)分享更優(yōu)秀的<<<強(qiáng)人工智能論文

2600538