特黄特色三级在线观看免费,看黄色片子免费,色综合久,欧美在线视频看看,高潮胡言乱语对白刺激国产,伊人网成人,中文字幕亚洲一碰就硬老熟妇

學(xué)習(xí)啦 > 新聞資訊 > 科技 > 人工智能改變生活的相關(guān)論文

人工智能改變生活的相關(guān)論文

時(shí)間: 坤杰951 分享

人工智能改變生活的相關(guān)論文

  人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議?;?ldquo;神經(jīng)網(wǎng)絡(luò)”構(gòu)架的軟件在機(jī)器學(xué)習(xí)能力方面的進(jìn)展,讓人耳目一新的同時(shí),也讓不少人焦慮乃至恐懼。以下是學(xué)習(xí)啦小編整理的人工智能改變生活的論文,歡迎閱讀!

  人工智能改變生活的論文篇一

  【摘要】人工智能話題,在經(jīng)歷多年沉寂之后,最近重新引起熱議。基于“神經(jīng)網(wǎng)絡(luò)”構(gòu)架的軟件在機(jī)器學(xué)習(xí)能力方面的進(jìn)展,讓人耳目一新的同時(shí),也讓不少人焦慮乃至恐懼。這是因?yàn)椋?ldquo;學(xué)習(xí)”能力原被認(rèn)為是人類特有的能力,機(jī)器難以勝任。如今突破了這條界線,機(jī)器與人之間的界限似乎就被抹掉了。關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價(jià)值植入的技術(shù)限度。實(shí)際上,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會(huì)挑戰(zhàn)我們過往的既有經(jīng)驗(yàn),卻不是顛覆性的“消滅”。無論人工智能如何模仿人腦的“神經(jīng)網(wǎng)絡(luò)”,表現(xiàn)如何像人,只要人類心智現(xiàn)象的最終解釋沒有取得突破性進(jìn)展,關(guān)于人工智能是否逼近人類智能的設(shè)問就缺少必要的前提。

  【關(guān)鍵詞】弱人工智能 強(qiáng)人工智能 量子力學(xué) 物理主義 倫理困境 價(jià)值理性

  【中圖分類號(hào)】 B82-057 【文獻(xiàn)標(biāo)識(shí)碼】A

  【DOI】10.16619/j.cnki.rmltxsqy.2016.07.003

  AlphaGo的“勝利”與人工智能的演進(jìn)

  2016年,是人工智能(Artificial Intelligence,英文縮寫為AI)議題高度亢奮的一年。谷歌DeepMind團(tuán)隊(duì)開發(fā)的AlphaGo程序以4比1的成績“戰(zhàn)勝”韓國棋手、世界冠軍李世石,使這種亢奮達(dá)到了頂點(diǎn)。

  AlphaGo程序利用“神經(jīng)網(wǎng)絡(luò)”來模仿專業(yè)棋手,并通過與其他同類程序比賽、加上程序自身的“對(duì)壘”進(jìn)行“自我學(xué)習(xí)”,從而進(jìn)一步提高其性能。AlphaGo對(duì)陣其他圍棋程序的勝率達(dá)到了99%,并在過去的一場巡回賽中以5比0戰(zhàn)勝了衛(wèi)冕歐洲冠軍樊麾。此番AlphaGo與李世石的對(duì)壘,五連勝還是負(fù)一贏四,并不妨礙我們對(duì)人工智能的發(fā)展作出進(jìn)一步的評(píng)估。恰如本次賽前發(fā)布會(huì)上谷歌董事長施密特所表示的,輸贏都是人類的勝利。因?yàn)檎侨祟惖呐Σ抛屓斯ぶ悄苡辛私裉斓耐黄?,人工智能在圍棋?ldquo;戰(zhàn)勝”人類智能只是時(shí)間問題。

  AlphaGo贏得圍棋比賽,使得知識(shí)界科技界對(duì)待人工智能的兩種典型態(tài)度再度引起關(guān)注:一種是霍金、比爾・蓋茨式的“警惕人工智能”,一種是雷・庫茲韋爾式的樂觀興奮與期待憧憬。2014年12月,英國理論物理學(xué)家史蒂芬・霍金警告說,人工智能的發(fā)展可能意味著人類的滅亡。2015年1月,比爾・蓋茨在Reddit的“Ask Me Anything”論壇上表示,人類應(yīng)該敬畏人工智能的崛起。蓋茨認(rèn)為,人工智能將最終構(gòu)成一個(gè)現(xiàn)實(shí)性的威脅,雖然在此之前,它會(huì)使我們的生活更輕松。庫茲韋爾是“奇點(diǎn)論”和“加速回報(bào)定律”主張的代表人物,他曾經(jīng)表示:“要成為一位發(fā)明家或企業(yè)家,你必須得是個(gè)樂觀派。對(duì)未來所存在的風(fēng)險(xiǎn),我并非是渾然不覺,我只是對(duì)人類安然渡過奇點(diǎn)而無需以摧毀文明為代價(jià)持樂觀態(tài)度而已。”①

  自被1956年的達(dá)特茅斯學(xué)院會(huì)議正式確立為一個(gè)學(xué)科以來,“人工智能”的發(fā)展經(jīng)歷了多次起伏。到了1970年代,人工智能的發(fā)展開始遭遇更多的批評(píng),隨之而來的還有資金支持的銳減。研究者的過于樂觀使得一些項(xiàng)目的承諾無法兌現(xiàn),比較知名的諸如閔斯基(Marvin Minsky)對(duì)傳感器技術(shù)的激烈批評(píng),使得聯(lián)結(jié)主義(即神經(jīng)網(wǎng)絡(luò))近乎銷聲匿跡了10年。1973年,美國和英國政府更是嚴(yán)格控制對(duì)人工智能的投入,那些“沒有明確目標(biāo)的人工智能研究項(xiàng)目”被停止了撥款。

  1980~1987年,人工智能重新迎來一個(gè)發(fā)展高潮,首先是日本投入了8.5億美金研發(fā)機(jī)器人。受日本政府投資野心的刺激,發(fā)達(dá)國家進(jìn)入了“人工智能”研究的競賽狀態(tài),美國政府和企業(yè)再次在AI領(lǐng)域投入數(shù)十億研究經(jīng)費(fèi),但由于研究人員低估了人工智能研發(fā)的難度,進(jìn)展有限,這些投資在80年代末再次受到質(zhì)疑。1987~1993年,人工智能的發(fā)展又一次陷入低谷,美國研究機(jī)構(gòu)DARPA(國防高等研究計(jì)劃署)的主任甚至認(rèn)為人工智能不再是研究的重要方向??▋?nèi)基梅隆大學(xué)移動(dòng)機(jī)器人實(shí)驗(yàn)室主任莫拉維克(Hans Moravec)將這種挫敗歸咎于他的同行們不切實(shí)際的預(yù)言和承諾。②

  從1993年到今天,人工智能進(jìn)入了加速發(fā)展軌道。2012年6月23日,在位于米爾頓凱恩斯的布萊切利公園舉行了紀(jì)念圖靈百年誕辰的圖靈測試。一個(gè)被設(shè)計(jì)為擁有“高度可信度”的個(gè)性化機(jī)器人“古斯特曼”在競賽中獲勝。這次競賽主要有5臺(tái)機(jī)器人、25名人類成員和30名評(píng)委參與,是有史以來規(guī)模最大的一次競賽。經(jīng)過一系列的5分鐘對(duì)話后,29%的評(píng)委相信古斯特曼擁有類人的人工智能。③這次測試,使得人工智能樂觀派相信,人工智能的飛躍式發(fā)展即將來臨。早在2005年,雷・庫茲韋爾在他的《奇點(diǎn)臨近》一書中,預(yù)言機(jī)器的智能將在2045年超過人類的智能。④

  在學(xué)術(shù)界,“奇點(diǎn)理論”遭到了強(qiáng)烈而持久的質(zhì)疑。牛津大學(xué)哲學(xué)教授、人類未來研究院創(chuàng)始人和主任(人類未來研究院是一個(gè)多學(xué)科研究院,旨在幫助一些非常優(yōu)秀的數(shù)學(xué)家、哲學(xué)家和科學(xué)家對(duì)人類大問題和全球大事務(wù)進(jìn)行仔細(xì)的思考)波斯特姆(Nick Bostrom)在其出版于2014年的《超級(jí)智能:途徑、危險(xiǎn)與戰(zhàn)略》一書中認(rèn)為:“‘奇點(diǎn)’這一術(shù)語在很多不同領(lǐng)域被混亂地使用,并催生出一種不合理的技術(shù)烏托邦氛圍,就好像我們會(huì)就此迎來太平盛世了。考慮到‘奇點(diǎn)’這個(gè)詞所指的大部分涵義與本文的論述不甚相關(guān),我們可以去掉這個(gè)詞并代替以更精確的術(shù)語。”⑤波斯特姆使用“超級(jí)智能”(superintelligence)一詞來描述機(jī)器“智能爆發(fā)”之后的智能狀態(tài)。但是,波斯特姆的這個(gè)概念沒有把工具性智能與人類的意識(shí)和自我意識(shí)等第一人稱世界的內(nèi)容區(qū)分開來,根據(jù)我們下面的討論可以看出,這種混淆是誤入歧途的,但這并不妨礙他的警示的有效性。

  弱人工智能復(fù)雜化:人類的“超級(jí)秘書”

  AlphaGo贏得圍棋比賽,是不是像有些人驚呼的那樣,人類智慧最后的壁壘即將坍塌,“人類應(yīng)放下自己的驕傲”?⑥其實(shí),人類以這種工具性智能為傲,本來就是概念錯(cuò)置。況且,以下圍棋的能力來代表人類智能,也站不住腳。說到底,這是在單一的抽象博弈智能方面,體制化的學(xué)術(shù)集體戰(zhàn)勝了天賦極高的自然個(gè)體。這種博弈,無論哪一方贏,都是人類在贏。   圍棋作為一種古老的棋術(shù),其規(guī)則簡單明晰,卻因組合可能性的數(shù)據(jù)龐大而令一些人感到癡迷。圍棋棋盤上每一點(diǎn),都有黑、白、空三種情況,棋盤上共有19*19=361個(gè)點(diǎn),所以可能產(chǎn)生的合法棋局?jǐn)?shù)為3的361次方種。可能性的難以窮盡,催生了圍棋朗朗上口的口訣式經(jīng)驗(yàn)總結(jié),其實(shí)就是快速對(duì)應(yīng)勝負(fù)的概率計(jì)算,這與AlphaGo通過“深度學(xué)習(xí)”而減少計(jì)算量的邏輯是一致的。不同的是,計(jì)算機(jī)可以記住趨于無窮多的作為程序的口訣和案例,而人窮其一生,也只能記住有限的經(jīng)驗(yàn),很多時(shí)候就只能靠現(xiàn)場推算,甚至靠直覺領(lǐng)悟了。一些對(duì)圍棋技藝癡迷且不愿意相信電腦能贏的人,陷入的恰恰是將圍棋神秘化的有限經(jīng)驗(yàn)當(dāng)中。更有意思的是,有些棋手按照平時(shí)訓(xùn)練的圍棋技藝來評(píng)價(jià)人機(jī)大戰(zhàn)時(shí),會(huì)認(rèn)為AlphaGo哪招哪式在下“臭棋”,哪招是“失誤”,其實(shí),在以最終取勝為目的的電腦程序里,只要達(dá)成程序設(shè)定目標(biāo),就不能有所謂“臭棋”或“失誤”之說。

  那么,會(huì)“深度學(xué)習(xí)”、用“神經(jīng)網(wǎng)絡(luò)”打造的AlphaGo究竟算不算“強(qiáng)人工智能”或波斯特姆所言的“超級(jí)智能”呢?

  波斯特姆在美國《連線》雜志2016年1月刊發(fā)表了看法。在他看來,這(指此前AlphaGo的發(fā)展)并不一定是一次巨大飛躍。波斯特姆指出,多年來,系統(tǒng)背后的技術(shù)一直處于穩(wěn)定提升中,其中包括有過諸多討論的人工智能技術(shù),比如深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)。谷歌擊敗圍棋大師不過是一項(xiàng)重大進(jìn)程中的一部分。這一進(jìn)程始于很久以前,也將延續(xù)至未來幾年。波斯特姆說,“過去和現(xiàn)在,最先進(jìn)的人工智能都取得了很多進(jìn)展”,“(谷歌)的基礎(chǔ)技術(shù)只是過去幾年中的技術(shù)研發(fā)的技術(shù)正常延續(xù)”。⑦

  看起來,雖然波斯特姆在總體上有關(guān)智能本質(zhì)的理解是不成立的,AlphaGo的表現(xiàn)也沒有出乎他的意料。在《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》一書中,他曾經(jīng)這樣表述:“專業(yè)國際象棋比賽曾被認(rèn)為是人類智能活動(dòng)的集中體現(xiàn)。20世紀(jì)50年代后期的一些專家認(rèn)為:‘如果能造出成功的下棋機(jī)器,那么就一定能夠找到人類智能的本質(zhì)所在。’但現(xiàn)在,我們卻不這么認(rèn)為了。約翰・麥肯錫曾不無惋惜地悲嘆:‘這種機(jī)器被造出來之后,人們就不稱其為人工智能了。’”⑧也就是說,能下棋能贏人類的機(jī)器,終究還是機(jī)器,與人類的心智本質(zhì)無甚關(guān)聯(lián)。感到不可思議或驚呼“聰明的人類輸給了機(jī)器”的人,不是神化了下棋技藝的智力本質(zhì),就是給下棋程序橫加賦予了“人性”特質(zhì)。

  初看起來,波斯特姆所謂的“超級(jí)智能”,應(yīng)該是能夠全面取代人類智能的一種“強(qiáng)人工智能”,區(qū)別于當(dāng)前已經(jīng)廣泛應(yīng)用中的“弱人工智能”(包括自動(dòng)駕駛、下棋技能、機(jī)器視覺、指紋識(shí)別、人臉識(shí)別、視網(wǎng)膜識(shí)別、虹膜識(shí)別、掌紋識(shí)別、專家系統(tǒng)、自動(dòng)規(guī)劃,等等)。但他并沒有深入探討人類的智能現(xiàn)象的本質(zhì)究竟是什么,對(duì)經(jīng)典的“他心問題”也無涉及,這又讓人覺得他說的“超級(jí)智能”還是屬于工具性智能的“弱人工智能”的范疇。

  就這一點(diǎn),他本人也有所認(rèn)識(shí),他說:“用超級(jí)智能來指代在許多普遍的認(rèn)知領(lǐng)域中,表現(xiàn)遠(yuǎn)遠(yuǎn)超越目前最聰明的人類頭腦的智能。這個(gè)定義仍然十分模糊。按照這個(gè)定義,很多系統(tǒng)具有迥然不同的性能特質(zhì),都可以被視為超級(jí)智能。”⑨為了進(jìn)一步解釋他的構(gòu)思,他試圖通過區(qū)分智能層面的超級(jí)能力,將超級(jí)智能的這種簡單定義分解。于是,他將超級(jí)智能分為三種形式:高速超級(jí)智能、集體超級(jí)智能和素質(zhì)超級(jí)智能。由于未能把握人類意識(shí)現(xiàn)象的本質(zhì)以及指出解釋意識(shí)現(xiàn)象的方向,不管波斯特姆在展望“超級(jí)智能”時(shí)如何分類,都無法提供接近“機(jī)器人是人嗎?人是機(jī)器人嗎?”這個(gè)根本命題的方向乃至答案。

  無論是谷歌的無人駕駛技術(shù),還是如今的AlphaGo下棋程序,或者更早前的“微軟小冰”,這些智能機(jī)器的發(fā)明,與人類從科技進(jìn)步中期待得到的工具理性之間,并無根本的內(nèi)在沖突,復(fù)雜程度日益提升、智能的日趨強(qiáng)大,與人們驚呼的“人類將要被機(jī)器消滅”的后果之間,并沒有什么必然的關(guān)聯(lián)。

  可以說,迄今為止機(jī)器下棋技術(shù)的每一次重要進(jìn)展,都可能是“弱人工智能”領(lǐng)域的路標(biāo),但其中涉及的主要并不是人工智能技術(shù)內(nèi)部邏輯的斷裂性突破,而這次AlphaGo贏了人類冠軍所謂的重要意涵,是一些圍棋愛好者把圍棋和李世石預(yù)先設(shè)想為當(dāng)然標(biāo)桿后,標(biāo)桿在某種光照中投下的張揚(yáng)扭曲的影子。要超出這個(gè),我們必須對(duì)人類意識(shí)的“整一性”難題和“他心問題”有了可操作的解釋以后才有可能,就目前情況來看,玄機(jī)在哪里呢?不在棋局中,不在DeepMind的工坊里,也不在“阿法狗”的“神經(jīng)網(wǎng)絡(luò)”里,而在我們自己心智的幻影中。就“弱人工智能”范疇而言,智能再強(qiáng)大的機(jī)器,再像人的機(jī)器,也就是人類的一個(gè)不鬧情緒的“超級(jí)秘書”而已。

  價(jià)值失落:人類的身份認(rèn)同危機(jī)與技術(shù)焦慮癥

  2014年,史蒂芬・霍金與麻省理工學(xué)院物理學(xué)家馬克思・泰格馬克(Max Tegmark)、諾貝爾獎(jiǎng)得主弗朗克・韋爾切克(Frank Wilczek)、計(jì)算機(jī)科學(xué)家斯圖亞特・羅素(Stuart Ressell)合寫了一篇署名評(píng)論文章《在超級(jí)智能機(jī)器上超越自滿》,該文引起了廣泛關(guān)注?;艚鹪谖恼轮斜磉_(dá)了對(duì)人工智能的憂慮:“可以想象,人工智能會(huì)以其‘聰明’在金融市場勝出,在發(fā)明方面勝過人類研究者,在操縱民意方面將勝過人類領(lǐng)導(dǎo)人,研發(fā)出人類甚至理解不了的武器。盡管人工智能的短期影響取決于誰在控制人工智能,而它的長期影響則取決于人工智能到底能否受到任何控制。”⑩

  關(guān)于人工智能的憂慮中,最為值得關(guān)切的是人工智能的應(yīng)用倫理及其價(jià)值植入的技術(shù)限度。

  人類的價(jià)值系統(tǒng),粗泛地區(qū)分,可以分為外在價(jià)值和內(nèi)在價(jià)值,即所謂“有用”與“無用”之辨。當(dāng)我們說什么東西有用時(shí),是就這東西對(duì)于它之外的某個(gè)目標(biāo)、目的或者是功能而言的,比如錢可以拿來購買面包充饑,這叫工具價(jià)值。由于它把其他東西當(dāng)作自己服務(wù)的對(duì)象,所以它沒有內(nèi)在價(jià)值,只有外在價(jià)值。外在價(jià)值即是那些工具性的價(jià)值,最終服務(wù)于人類的內(nèi)在價(jià)值訴求。   那么,什么是內(nèi)在價(jià)值呢?哲學(xué)家們或許會(huì)就某些含混地帶進(jìn)行爭論,但無論如何,很少有人會(huì)把一些基本的要素排除出去,比如自由、快樂、尊嚴(yán)、情愛、創(chuàng)造、自我超越,等等。這些東西不是為了其它東西而存在,相反,生活中沒有了這些東西,就等于失去了值得欲求的內(nèi)容。當(dāng)然,要有自由、尊嚴(yán),需要一個(gè)最低版本的生存條件。這個(gè)條件,人和任何其他動(dòng)物沒有什么不同,不是人之為人的本質(zhì)所在。如果我們談?wù)撊祟惿畹膬?nèi)在價(jià)值及其意義系統(tǒng),則必然集中在人所特有的東西上??档碌牡赖抡軐W(xué)已向我們表明,追求自由、尊嚴(yán)是所有理性存在主體的內(nèi)在規(guī)定,鮮有其他哲學(xué)家會(huì)否認(rèn)這一點(diǎn)。

  在談?wù)撊斯ぶ悄軐?duì)人的侵蝕和威脅時(shí),有一部分研究人員會(huì)使用喪失“人類關(guān)切”(human-centric)一詞來描述這種內(nèi)在價(jià)值的虧損。比如法格拉(Daniel Faggella)采訪了12位活躍在AI領(lǐng)域的權(quán)威專家和研究人員。其中,科爾奈(Kornai)博士和阿肯色大學(xué)的博爾林特(Daniel Berleant)博士都預(yù)見到了自動(dòng)化金融算法被它們的所有者們用來作為賺錢工具所帶來的潛在災(zāi)難性問題,他們說,這其中沒有任何“人類關(guān)切”的目標(biāo)。認(rèn)知科學(xué)家巴赫(Joscha Bach)則說:“近期的人工智能引起的危機(jī)最終可能成為現(xiàn)在社會(huì)中已經(jīng)存在的一樣的危機(jī)。如果我們不能走出基于工薪的經(jīng)濟(jì)模式的話,人工智能的自動(dòng)化會(huì)提高生產(chǎn)力,卻不會(huì)改善我們的生存條件。”?這種憂慮不無道理,不過主要是基于財(cái)富分配的急遽變化而引起的社會(huì)階層流動(dòng)而言的,實(shí)際上,并不是技術(shù)進(jìn)步和人工智能自身的問題。

  如前所述,人類的內(nèi)在價(jià)值并不在于謀生存的基本勞作,無論是體力勞動(dòng)還是腦力勞動(dòng),都是為了解決問題來完成給自己設(shè)定的任務(wù),這種設(shè)定源于我們的自我意識(shí)和意義系統(tǒng)。有了這種設(shè)定,才能知道什么是該干的“活”,什么是服務(wù)于我們的訴求的有效勞動(dòng)。像下棋一類的智力活動(dòng),在人類這里剛好不是用來“干活”完成功利目標(biāo)的技能,而是生活內(nèi)容中的一部分高級(jí)游戲,這很有工具價(jià)值之外的意義。但是,這場人機(jī)大賽,引起嘩然的并不是這個(gè),而是人們感覺到的一種基于工具效能理解的自我認(rèn)同危機(jī)。這種自我認(rèn)同,其實(shí)是傭工思維,是一種價(jià)值上的自我貶損。

  在單一的抽象博弈智能方面,體制化、學(xué)術(shù)化的集體戰(zhàn)勝了天賦極高的自然個(gè)體。這令依賴這種稟賦的自然個(gè)體感到焦慮,正如有人馬上反應(yīng)過來:“以后還帶不帶孩子學(xué)圍棋了?大街小巷的圍棋興趣班還有生意么?”圍棋冠軍們更是感受到一種職業(yè)性的惶恐:究竟我們此前對(duì)圍棋的認(rèn)知還有多少盲區(qū)?

  其實(shí),機(jī)器沒有獨(dú)立的意志,所謂“輸”與“贏”的說法,都是我們?nèi)祟悊畏矫娴耐渡?,與AI“自己”無關(guān),因?yàn)锳lphaGo根本就沒有所謂的“自己”。沒有獨(dú)立的意志,怎么和人發(fā)生“大戰(zhàn)”呢?相反,棋盤之外,人們的反應(yīng),比如無名的焦慮,不可克制的興奮,更具體點(diǎn),漢語世界的看客幾乎異口同聲地把AlphaGo稱作“狗”,這卻是要超出現(xiàn)今任何人工智能可以“理解”的范圍的。

  一些圍棋資深人士感到困惑,他們認(rèn)為AlphaGo給出選點(diǎn)的思維方式與人類很不同,還有一個(gè)流行的說法是,“最可怕的不是AlphaGo戰(zhàn)勝李世石,而在于它能贏卻故意輸?shù)?rdquo;。這本來是個(gè)玩笑,但這個(gè)玩笑引出的問題確實(shí)切中要害的。什么叫“故意”輸?shù)?AlphaGo并沒有自我意識(shí),沒有自由意志,如何談得上“故意”?“故意”可是一種截然不同的能力。這就要求我們理解“弱人工智能”與“強(qiáng)人工智能”的原則區(qū)別了。

  波斯特姆似乎會(huì)把機(jī)器的所謂“故意”描述為“超級(jí)智能的意愿”,在他看來,智能大爆發(fā)將會(huì)導(dǎo)向一個(gè)叫做“背叛轉(zhuǎn)折”的臨界點(diǎn)。關(guān)于背叛轉(zhuǎn)折,他這樣定義:“當(dāng)人工智能本來愚蠢時(shí),變聰明是更安全的;但是當(dāng)它本來就聰明時(shí),變得更聰明則是更危險(xiǎn)的。就像有一個(gè)軸心點(diǎn),到這個(gè)點(diǎn)上,原來很有效的策略會(huì)突然產(chǎn)生相反的結(jié)果。我們把這個(gè)現(xiàn)象叫作背叛轉(zhuǎn)折。”?

  波斯特姆假想的人工智能厄運(yùn)圍繞的仍是人的動(dòng)機(jī),而不是機(jī)器真正有了意圖。諸如他所列舉的,“機(jī)器”為了使得開發(fā)人工智能的贊助者高興,而“故意”表現(xiàn)得不那么“聰明”來蒙蔽人類,諸如在贊助者的大腦中植入負(fù)責(zé)快樂的電極,以使得贊助者被蒙蔽而不知覺,反而覺得很快樂。這里面涉及的,仍然是人與人之間的欺騙與控制。

  只要沒有出離人與人之間的關(guān)系,人工智能呈現(xiàn)的問題與危機(jī),就沒有超乎人類已經(jīng)面對(duì)過的控制與反控制的議題。也就是說,人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題,并不是新問題,而是一系列老問題的疊加。它會(huì)挑戰(zhàn)我們過往的既有經(jīng)驗(yàn),卻不是顛覆性的“消滅”;它會(huì)改變社會(huì)學(xué)階層分析的經(jīng)典框架,卻不會(huì)產(chǎn)生什么新型的劫難。

  對(duì)人工智能的過度期待或深度憂慮,大多基于缺乏學(xué)理根據(jù)的科幻想象或人們對(duì)自身的身份認(rèn)同前景的恐慌。出版于1818年的《科學(xué)怪人》?就描述了“弗蘭肯斯坦”這個(gè)科學(xué)狂人,他以“科學(xué)”的方式使死尸復(fù)活,結(jié)果那個(gè)被稱為“弗蘭肯斯坦的怪物”的人造人反過來控制了弗蘭肯斯坦。文學(xué)作品展示人類的這種身份認(rèn)同焦慮,已經(jīng)源遠(yuǎn)流長,但今天的知識(shí)界科學(xué)界,如果還是止步于無的放矢的焦灼和恐懼,則無助于我們真正認(rèn)識(shí)人工智能與人類意識(shí)的本質(zhì)關(guān)系。

  從人工智能目前的發(fā)展方向看,無論它再怎么“自動(dòng)學(xué)習(xí)”“自我改善”,都不會(huì)有“征服”的意志,不會(huì)有“利益”訴求和“權(quán)利”意識(shí)。當(dāng)前,無論從緊迫性上看,還是從終極可能性上看,“弱人工智能”問題都屬于常規(guī)性問題,并且是漸進(jìn)呈現(xiàn)的。如果說在可見的未來,技術(shù)發(fā)展領(lǐng)域有什么更值得擔(dān)心、警醒、緊迫的事情,那么,或許基于虛擬技術(shù)的“擴(kuò)展現(xiàn)實(shí)”的實(shí)現(xiàn)帶來的影響將更具顛覆性。?

  強(qiáng)人工智能的可能性與物理主義的困境

  “弱人工智能”的機(jī)制比較清晰可控,那么,“強(qiáng)人工智能”會(huì)失控嗎?這就要看我們究竟如何定義“強(qiáng)人工智能”。

  在學(xué)界和業(yè)界,早有“強(qiáng)人工智能”相對(duì)“弱人工智能”的概念。這個(gè)命名容易讓人誤認(rèn)為兩者只是強(qiáng)弱程度的差別,但這種區(qū)別具有分立的性質(zhì)――如果我們把“強(qiáng)人工智能”定義為出現(xiàn)真正有自主意識(shí)并且可確證其主體資格的“智能”,而不是AlphaGo這樣僅僅比機(jī)械計(jì)算發(fā)展了更多層次的推理能力和學(xué)習(xí)能力的程序的話。這樣定義下的所謂的“強(qiáng)”,指的是超越工具型智能而達(dá)到第一人稱主體世界內(nèi)容的涌現(xiàn),還包括意向性、命題態(tài)度,乃至自由意志的發(fā)生。   這樣的“強(qiáng)人工智能”是可能實(shí)現(xiàn)的嗎?有的科學(xué)家哲學(xué)家說永遠(yuǎn)不可能,有的則說近在咫尺。

  波斯特姆試圖從“人工智能、全腦仿真、生物認(rèn)知、人機(jī)交互以及網(wǎng)絡(luò)和組織”等路徑分析強(qiáng)人工智能或者他稱之為“超級(jí)智能”的幾種可能的實(shí)現(xiàn)方式,他詳細(xì)評(píng)估了每種路徑實(shí)現(xiàn)超級(jí)智能的可行性,并且認(rèn)為“由于目前存在多條技術(shù)路徑,因此至少有一條路徑能實(shí)現(xiàn)超級(jí)智能的可能性很大”。?

  波斯特姆的分析看起來龐大蕪雜,但他給出的實(shí)現(xiàn)路徑更多是在人腦上的直接迭代或高仿真,這很可能混淆了“強(qiáng)大的弱人工智能”與擁有主體性的“強(qiáng)人工智能”,他把通往不同本質(zhì)的路徑視為同一種性質(zhì)的多種可能性。

  在他看來,“若有足夠先進(jìn)的掃描技術(shù)和強(qiáng)大的計(jì)算機(jī)能力,即使只有很少的大腦理論知識(shí)也可以模仿全腦。極端情況下,我們可以想象采用施羅丁格(即薛定諤)量子力學(xué)方程在基本粒子水平來模擬大腦。這樣我們就可以完全依靠現(xiàn)有的物理學(xué)知識(shí),而不用任何生物模型。這種極端案例說明,沒有計(jì)算機(jī)技術(shù)和數(shù)據(jù)分析也可以制造人工智能。一個(gè)聽起來更合理的仿真水平是,將單個(gè)神經(jīng)元和它們的連接矩陣合并,連帶著它們的樹狀結(jié)構(gòu)和每一個(gè)觸突的變化狀態(tài)。我們無法模擬單個(gè)的神經(jīng)遞質(zhì)分子,但是可以粗略地將它們的波動(dòng)濃度模型化。為了評(píng)價(jià)全腦仿真的可行性,人們必須理解成功的評(píng)判標(biāo)準(zhǔn)。我們的目的不是精確模擬出一個(gè)大腦,用它來預(yù)測在受到一系列刺激后,原始大腦會(huì)做出何種反應(yīng)。相反,我們的目的是獲得足夠的大腦的計(jì)算機(jī)功能屬性,以使最終得到的仿真進(jìn)行智能工作。因此,真實(shí)大腦的很多復(fù)雜的生物學(xué)細(xì)節(jié)就無關(guān)緊要了。”?

  這段論述是波斯特姆《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》一書中唯一一處提及量子力學(xué),但他后面的分析卻遠(yuǎn)離了量子力學(xué)才是對(duì)意識(shí)進(jìn)行物理學(xué)研究的可能進(jìn)路這一方向,回到了一般的計(jì)算主義/物理主義的“牢籠”。

  在心智哲學(xué)和認(rèn)知科學(xué)領(lǐng)域,的確有不少所謂的“計(jì)算主義者”“物理主義者”,他們認(rèn)為,人的情感、意向性、自由意志等以及意識(shí)與自我意識(shí)直接相關(guān)的內(nèi)容,在牛頓力學(xué)框架下的物理因果關(guān)系模已足具解釋力,在人的第一人稱主觀世界與第三人稱客體世界之間,也不存在最后的鴻溝。但是,也有一部分研究者持相反的看法,極力論證這種“計(jì)算主義”“物理主義”的悖謬本性,只承認(rèn)從量子力學(xué)原理才有些許可能解決意識(shí)和自我意識(shí)這個(gè)真正的問題。

  最近,美國量子物理學(xué)家斯塔普(Henry Stapp)、英國物理學(xué)家彭羅斯(Roger Penrose)、美國基因工程科學(xué)家蘭策(Robert Lanza)都提出了人類意識(shí)的量子假設(shè),中國清華大學(xué)副校長施一公院士、中科大副校長潘建偉院士等也大膽猜測,人類智能的底層機(jī)理就是量子效應(yīng)。對(duì)于這個(gè)問題,筆者在出版于1998年的著作中嘗試論證這個(gè)問題?,同樣的看法日漸增強(qiáng)。

  不久前,筆者把這種論證進(jìn)一步系統(tǒng)化,在《哲學(xué)研究》上發(fā)表了分析物理主義(包括計(jì)算主義)如何在研究中陷入“整一性投射謬誤”,并論證定域性假設(shè)為何與腦神經(jīng)元細(xì)胞層次對(duì)意識(shí)現(xiàn)象的解釋注定要失敗的文章。?

  也就是說,以定域性預(yù)設(shè)為前提的物理主義和計(jì)算主義,在原則上就不可能解釋人類的意識(shí)現(xiàn)象,量子力學(xué)已經(jīng)不得不拋棄定域性預(yù)設(shè),這就在邏輯上打開了其解釋意識(shí)現(xiàn)象可能性之大門。

  包括計(jì)算主義在內(nèi)的物理主義有一個(gè)基本預(yù)設(shè),即設(shè)定任何物理系統(tǒng)都能夠被分解為單個(gè)獨(dú)立的局部要素的集合,且各要素僅同其直接鄰近物發(fā)生相互作用。這是經(jīng)典力學(xué)的基本原則,也是當(dāng)代神經(jīng)科學(xué)默認(rèn)的前提,從而也是物理主義心智哲學(xué)的預(yù)設(shè)。計(jì)算主義則強(qiáng)調(diào)符號(hào)關(guān)系,它與其他版本的物理主義相比,主要是分析要素的不同,但這種不同卻無關(guān)宏旨。這是因?yàn)?,符?hào)關(guān)系試圖解釋的,也是意識(shí)現(xiàn)象或心智事件的產(chǎn)生和關(guān)聯(lián)的機(jī)理,而不是純邏輯的關(guān)系。基于這種認(rèn)知框架,他們傾向于認(rèn)為,大腦的符號(hào)系統(tǒng)的狀態(tài),就是各個(gè)單一獨(dú)立要素的神經(jīng)元的激發(fā)/抑制狀態(tài)聚合起來的某個(gè)區(qū)域的總體呈現(xiàn)。

  這樣也就不難理解,波斯特姆為什么認(rèn)為“獲得足夠的大腦的計(jì)算機(jī)功能屬性”,就能最終使得仿真大腦進(jìn)行智能工作。于是,在計(jì)算主義/物理主義這里,神經(jīng)元系統(tǒng)可望實(shí)現(xiàn)的某個(gè)整一性功能,就被他們完全等價(jià)于各個(gè)分立神經(jīng)元符號(hào)功能的關(guān)系的總和。

  但是,筆者和斯塔普都詳細(xì)論證過,這樣的出發(fā)點(diǎn),連最基本的意識(shí)感知現(xiàn)象(比如說雙眼綜合成像)都解釋不了,因?yàn)檫@類現(xiàn)象中涉及的同一時(shí)空點(diǎn)的變量的個(gè)數(shù)遠(yuǎn)遠(yuǎn)超出在局域性預(yù)設(shè)中每個(gè)空間點(diǎn)可容納的物理變量個(gè)數(shù)。他們無視這種困境的存在,正是他們混淆了“內(nèi)在描述”與“外在描述”功能而陷入“整一性投射謬誤”的結(jié)果。?

  盡管從量子力學(xué)效應(yīng)解釋人類智能的頂層機(jī)理尚未取得突破性成果,但意識(shí)導(dǎo)致坍塌這一原理似乎是量子力學(xué)與身心問題的最為接近的終極解釋,研究者們正試圖檢測與物理事件相關(guān)的意識(shí)事件?,相對(duì)明確的結(jié)論暫時(shí)付諸厥如。

  但無論如何,基于上述討論,我們可以得知,所謂的“圖靈測試”對(duì)判定“強(qiáng)人工智能”毫無用處,不能作為智能意識(shí)產(chǎn)生的推演依據(jù),無論試驗(yàn)中的以假亂真效應(yīng)有多么逼真。有鑒于此,本文擬提出一個(gè)“人工智能逆反圖靈判據(jù)”,陳述如下:

  任何不以已經(jīng)具有意識(shí)功能的材料為基質(zhì)的人工系統(tǒng),除非能有充足理由斷定在其人工生成過程中引入并隨之留駐了意識(shí)的機(jī)制或內(nèi)容,否則我們必須認(rèn)為該系統(tǒng)像原先的基質(zhì)材料那樣不具備意識(shí),不管其行為看起來多么接近意識(shí)主體的行為。

  這里說的“充足理由”,在人類現(xiàn)有的科學(xué)視野中,按照筆者和斯塔普等人的論證,唯有量子力學(xué)才有可能提供。

  因此,無論是圖靈測試中的機(jī)器人還是新近由日本軟銀公司研發(fā)、富士康代工的所謂“情感機(jī)器人”Pepper,抑或如今被驚嘆有了“深度學(xué)習(xí)”能力的AlphaGo等有了多么強(qiáng)大的所謂“超級(jí)智能”,也無論它們及其未來的升級(jí)版看起來多么像具有人類的情感,除非有人確鑿證明,在制造或升級(jí)這些機(jī)器的過程中,在哪一個(gè)關(guān)節(jié)點(diǎn)把人類情感、人類意識(shí)整合了進(jìn)去,否則,我們就只能認(rèn)為把Pepper稱作“有情感的機(jī)器人”只是一種比喻。   結(jié)語:“強(qiáng)人工智能”與人類繁殖倫理前瞻

  如上所述,沒進(jìn)入量子力學(xué)之前,所有的人造機(jī)器,包括AlphaGo,必然只是在某些方面具備高于人類的能力。這本來就是人造機(jī)器的目的,即人為了自身的內(nèi)在價(jià)值實(shí)現(xiàn)同時(shí)不斷改進(jìn)人類的生存處境而作出的努力。在現(xiàn)有條件下,人造機(jī)器不會(huì)失控,如果有所謂“失控”的話,這與我們對(duì)飛機(jī)、高鐵、大壩、核能之類的失控基本上屬于同類性質(zhì)。

  AlphaGo的確有隱喻意義上的“學(xué)習(xí)”能力,自行調(diào)整累積迭代的能力,但說到底仍是一種工具能力,是“弱人工智能”。這種“弱人工智能”很可能通過圖靈測試,但這與人的意向性(intentionality)及主體感受內(nèi)容(qualia)不相干。

  當(dāng)然,基于人類理性和道德能力的限度,我們有理由相信,即便是弱人工智能,在其應(yīng)用中也應(yīng)當(dāng)秉持審慎的人文理性態(tài)度。

  不少比較理性的研究者提出,由于人工智能的發(fā)展呈“加速回報(bào)”的態(tài)勢,人類既有的道德資源和倫理框架或許難以覆蓋技術(shù)飛躍變革提出的新議題。他們提出應(yīng)當(dāng)發(fā)展一種叫做機(jī)器倫理(Machine ethics)的道德態(tài)度,加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)學(xué)教授拉塞爾(Stuart Russell)在美國時(shí)代雜志發(fā)表觀點(diǎn)認(rèn)為,避免機(jī)器的不當(dāng)使用威脅人類的生存,就應(yīng)該考慮如何把人類價(jià)值變成可編程的代碼,把人類的道德轉(zhuǎn)化為人工智能語言。他認(rèn)為,在機(jī)器人領(lǐng)域,“道德哲學(xué)將是一個(gè)非常重要的產(chǎn)業(yè)部門”。

  歸根結(jié)底,這些訴求跟當(dāng)前的一系列技術(shù)推進(jìn)所遭遇的倫理困境并無實(shí)質(zhì)上的差異,就像我們已經(jīng)提出的在虛擬現(xiàn)實(shí)、擴(kuò)展現(xiàn)實(shí)領(lǐng)域應(yīng)當(dāng)引起重視的“大憲章”問題一樣,指向的都是如何避免少數(shù)人掌控技術(shù)以更便捷更隱蔽的手段損害人的自由與尊嚴(yán)的問題。其中需要的關(guān)鍵要素有兩點(diǎn):第一,如何更準(zhǔn)確更敏銳地分析科技推進(jìn)中的結(jié)構(gòu)性變革,以技術(shù)手段防范技術(shù)黑箱操作,這需要技術(shù)的發(fā)展始終在一個(gè)社會(huì)開放空間中進(jìn)行,使技術(shù)不被少數(shù)人的權(quán)力和資本所壟斷;第二,如何在技術(shù)推進(jìn)中注入人文理性,這需要哲學(xué)家、藝術(shù)家以及社會(huì)科學(xué)各界在技術(shù)變革中積極參與,及時(shí)發(fā)現(xiàn)技術(shù)當(dāng)中隱含的道德議題、社會(huì)議題,向科學(xué)界、技術(shù)界和企業(yè)界發(fā)出他們觀察慎思后的最強(qiáng)音,以起到建立一個(gè)人文倫理防火墻的作用。

  此外,我們需要著重提出的是,弱人工智能和強(qiáng)人工智能之間,鑒于其生發(fā)機(jī)理性質(zhì)的全然不同,在應(yīng)對(duì)的倫理規(guī)則方面,也必然需要在認(rèn)清本有的界限的基礎(chǔ)上分別制定。

  如果讓我們對(duì)“強(qiáng)人工智能”的可能實(shí)現(xiàn)做一點(diǎn)倫理前瞻的話,那么,基于上述分析,“強(qiáng)人工智能”實(shí)現(xiàn)以后的這種造物就不能被當(dāng)做純粹的工具了。這時(shí),它們已經(jīng)具有自主意識(shí),具有與人類對(duì)等的人格結(jié)構(gòu),今日人類成員所擁有的權(quán)利地位、道德地位、社會(huì)尊嚴(yán)等等,他們就應(yīng)該平等地?fù)碛小?/p>

  與我們平起平坐的具有獨(dú)立人格的“機(jī)器人”,還是機(jī)器嗎?不是了,這才是真正的“奇點(diǎn)”和“智能大爆發(fā)”。但是,有人會(huì)認(rèn)為,最為關(guān)鍵的問題是,這樣的“強(qiáng)人工智能”主體,不就可以與人類對(duì)抗,毀滅人類了嗎?

  要理解這種擔(dān)憂的實(shí)質(zhì),就需要我們以價(jià)值理性和科學(xué)理性出發(fā)進(jìn)行自我反思。所謂的人類毀滅恐懼與人類身份認(rèn)同焦慮,實(shí)際上是把基于個(gè)體經(jīng)驗(yàn)形成的一己情懷,等價(jià)于有效的價(jià)值判斷了。我們主動(dòng)設(shè)計(jì)、制造了某種新型主體的存在,但并不對(duì)他們的個(gè)體特質(zhì)進(jìn)行設(shè)計(jì),不就等于以新的途徑繁殖了我們的后代嗎?我們千萬不要以一時(shí)的人文情懷來遮掩甚至拒斥可普遍化的人文理性,將人類引入迷途。

  因此,如果真有強(qiáng)人工智能實(shí)現(xiàn)的一天,最合理的態(tài)度就是:承認(rèn)他們是我們自己進(jìn)化了的后代,人類進(jìn)入了一種改變了繁殖方式的發(fā)展新階段。后代取代前輩繼續(xù)生存,實(shí)現(xiàn)更好的發(fā)展,這不是人類的災(zāi)難,而是人類的進(jìn)化飛躍到了一個(gè)新階段。退一萬步講,假如“后人類”真的聯(lián)合起來向“前人類”造反并將前輩“征服”,那也不過就像以往發(fā)生過的征服一樣,一批人征服了另一批人或新人征服了舊人,而不是人類的末日。

  至于以量子計(jì)算為基礎(chǔ)的人工智能到底會(huì)給我們的生活帶來何種沖擊,恐怕我們的想象力暫時(shí)還是鞭長莫及。

下一頁分享更優(yōu)秀的>>>人工智能改變生活的論文

2663111