人工智能的危險論文(2)
人工智能的危險論文篇二
人工智能的威脅
如果《紐約時報》的報道屬實,當(dāng)今的人工智能已經(jīng)發(fā)展到令人無法想象的程度。比如,自動駕駛汽車;蘋果siri 智能語音能夠聽出你的聲音,幫你找到最近的電影院。IBM 公司最近剛剛推出一款“冒險”智能軟件取代了“沃森”系統(tǒng)用于醫(yī)療作用,最初是用于培訓(xùn)醫(yī)學(xué)院學(xué)生,最終將運用于臨床治療階段。現(xiàn)在,幾乎不到一個月就有一款最新的人工智能產(chǎn)品問世。不過,其中有許多最新的發(fā)明還不成熟,據(jù)我之前的分析,目前我們?nèi)匀粵]有發(fā)明出具有想象力,天然語言處理系統(tǒng)的智能,或是智能創(chuàng)造其他機(jī)器的能力,而我們在開發(fā)人類大腦的道路上已經(jīng)停滯不前了。
在某種程度上,支持者與反對者之間的區(qū)別就是時間期限。比如,未來學(xué)家、發(fā)明家雷蒙德・庫茲韋爾就認(rèn)為20年智能就能研發(fā)出真正接近人類智力水平的人工智能。而我認(rèn)為這個過程起碼現(xiàn)在,幾乎不到一個月就有一款最新的人工智能產(chǎn)品問世,而我們在開發(fā)人類大腦的道路上已經(jīng)停滯不前了人工智能的威脅格力・馬庫斯/ 文 李雨蒙/ 譯需要20 年,尤其要考慮到創(chuàng)造常識(正常思維)的困難,發(fā)明人工智能的挑戰(zhàn),還有軟件技術(shù),都比庫茲韋爾預(yù)測的要困難得多。
然而,從今往后的一個世紀(jì)里,沒有人會在意人工智能的發(fā)展需要多久,只會關(guān)心將會出現(xiàn)哪些先進(jìn)的人工智能。或許在這個世紀(jì)末,人工智能就會變得比人類更加智慧――不僅可以解決國際象棋、瑣碎小事等等,基本可以處理所有的事物,無論從數(shù)學(xué)、工廠還是科學(xué)和醫(yī)藥。還剩下一小部分創(chuàng)造類工作留給人類,比如演員,作家或是其他創(chuàng)意類工作。最終的電腦系統(tǒng)可以完成自我編程,獲取大量的最新信息。我們這些“碳基生物”的模糊印象,他們能夠在分分鐘就分析處理完成,也不需要長時間的睡眠或休息。
對于支持者來說,人工智能的未來充滿希望。庫茲韋爾就曾撰文發(fā)表自己一個大膽的設(shè)想,就是人類與智能機(jī)器結(jié)合,將人類的靈魂上傳到人工智能中,使我們的靈魂永生;彼得・迪亞芒蒂斯則認(rèn)為人工智能是開啟“富裕時代”,擁有富足食物、水源、消費工具的重要因素。不過,反對者像埃里克・布林約爾松和我很擔(dān)憂機(jī)器人職業(yè)化和人工智能帶來的隱患,即使不去考慮高級人工智能對勞動力市場的影響,功能強大的智能機(jī)器也會威脅人類的生活,與人類爭奪有限的資源。
大多數(shù)人把這種擔(dān)心看作是科幻小說里的蠢話――像《終結(jié)者》和《黑客帝國》這類。在一定程度上,我們需要未來很長一段時間做好打算,我們要擔(dān)心小行星會撞地球,化石燃料產(chǎn)量下降,全球變暖等問題,而不用擔(dān)心機(jī)器人問題??墒?,詹姆斯・巴雷特的黑暗系新書《我們的最終發(fā)明:人工智能和人類時代的終結(jié)》,描述了一種嚴(yán)峻的情況,我們至少應(yīng)該有所思考。
如果機(jī)器最終取代了人類――正如在人工智能領(lǐng)域工作的人所堅信的那樣,真正的問題在于價值觀:我們?nèi)绾伟褍r值觀輸入機(jī)器中,當(dāng)它們的價值觀與我們的價值觀發(fā)生了很大的沖突時,我們該如何和這些機(jī)器協(xié)商呢?牛津的哲學(xué)家尼克・博斯特羅認(rèn)為:我們不能樂觀地假設(shè),超級智能一定會分享人類的智慧和智能發(fā)展形成的價值觀――對科學(xué)的求知欲,對他人的關(guān)心和仁慈,精神啟發(fā)和沉思,克制物質(zhì)占有欲,高雅的文化品位,對感受簡單生活的快樂,謙虛無私等等?;蛟S通過專門的訓(xùn)練,能夠創(chuàng)造出擁有這些價值觀的超級智能,或是珍惜人類財富和高尚道德的超級智能,或是設(shè)計者想要它擁有一些復(fù)雜目標(biāo)的智能。這是可能的――可能從技術(shù)上說更簡單――打造一個能夠把最終價值都放在計算圓周率小數(shù)上的超級智能。
英國控制論學(xué)者凱文・沃里克曾問道:“當(dāng)機(jī)器不在我們?nèi)祟愃幍乃季S次元中思考時,你如何跟它理論,如何與它做交易,如何能明白它的想法?”
如果說巴雷特黑暗系理論有漏洞的話,那就是他未經(jīng)思考就提出的假設(shè):如果機(jī)器人聰明到可以下棋,那它可能也會“想要制造宇宙飛船”――在任何足夠復(fù)雜,有目標(biāo)驅(qū)動的系統(tǒng)中都是天生具有自我保護(hù)和獲取資源的本能?,F(xiàn)在大部分機(jī)器都非常先進(jìn),比如,IBM公司的深藍(lán)系列電腦,但是目前它們還沒有顯示出想要獲得資源的興趣。
可是,在我們感到沾沾自喜,確定無需擔(dān)心時,別忘了有一點非常重要:我們要意識到隨著機(jī)器越來越聰明,它們的目標(biāo)也是會變化的。一旦電腦能夠有效地重新給自己編程,成功地提升自己的性能,達(dá)到所謂的“技術(shù)奇點”或“智能爆炸”,那么我們就不能忽視機(jī)器在與人類搶奪資源和自我保護(hù)的較量中會有勝過人類的風(fēng)險。
在巴雷特書中,最鮮明的觀點之一是來源于著名的系列人工智能企業(yè)家丹尼・希利斯,他把即將到來的轉(zhuǎn)變比作生物進(jìn)化史上最重大的轉(zhuǎn)變之一:“我們現(xiàn)在達(dá)到的高度就像是一個單細(xì)胞有機(jī)體轉(zhuǎn)變?yōu)槎嗉?xì)胞有機(jī)體的高度。我們是變形蟲,我們不清楚自己在創(chuàng)造的到底是個什么東西。”
無論怎樣,人工智能的進(jìn)步已經(jīng)達(dá)到了我們從未想過的危險。德雷塞爾大學(xué)的電腦風(fēng)險專家加格跟我說:隨著因特網(wǎng)時代的到來和大數(shù)據(jù)時代的爆炸,“人工智能已經(jīng)收集了有關(guān)我們的許多數(shù)據(jù),并輸入計算程序,做出預(yù)測”,“ 我們無法知道數(shù)據(jù)被收集的時間,沒法保證收集的數(shù)據(jù)信息是準(zhǔn)確的,沒法更新信息,或提供必要的信息背景”。甚至在20 年前,幾乎沒有人會預(yù)想到這種風(fēng)險。前方還會有怎樣的危險呢?沒有人真的知道,但是巴雷特提出的問題卻值得我們思考。
人工智能的危險論文相關(guān)文章:
1.人工智能科技論文
2.人工智能小論文