特黄特色三级在线观看免费,看黄色片子免费,色综合久,欧美在线视频看看,高潮胡言乱语对白刺激国产,伊人网成人,中文字幕亚洲一碰就硬老熟妇

學習啦>新聞資訊>科技>

人工智能論文經(jīng)典參考范文(2)

時間: 坤杰951 分享

  人工智能論文經(jīng)典參考范文篇二

  人工智能的威脅

  如果《紐約時報》的報道屬實,當今的人工智能已經(jīng)發(fā)展到令人無法想象的程度。比如,自動駕駛汽車;蘋果siri 智能語音能夠聽出你的聲音,幫你找到最近的電影院。IBM 公司最近剛剛推出一款“冒險”智能軟件取代了“沃森”系統(tǒng)用于醫(yī)療作用,最初是用于培訓醫(yī)學院學生,最終將運用于臨床治療階段?,F(xiàn)在,幾乎不到一個月就有一款最新的人工智能產(chǎn)品問世。不過,其中有許多最新的發(fā)明還不成熟,據(jù)我之前的分析,目前我們?nèi)匀粵]有發(fā)明出具有想象力,天然語言處理系統(tǒng)的智能,或是智能創(chuàng)造其他機器的能力,而我們在開發(fā)人類大腦的道路上已經(jīng)停滯不前了。

  在某種程度上,支持者與反對者之間的區(qū)別就是時間期限。比如,未來學家、發(fā)明家雷蒙德·庫茲韋爾就認為20年智能就能研發(fā)出真正接近人類智力水平的人工智能。而我認為這個過程起碼現(xiàn)在,幾乎不到一個月就有一款最新的人工智能產(chǎn)品問世,而我們在開發(fā)人類大腦的道路上已經(jīng)停滯不前了格力·馬庫斯/ 文 李雨蒙/ 譯需要20 年,尤其要考慮到創(chuàng)造常識(正常思維)的困難,發(fā)明人工智能的挑戰(zhàn),還有軟件技術,都比庫茲韋爾預測的要困難得多。

  然而,從今往后的一個世紀里,沒有人會在意人工智能的發(fā)展需要多久,只會關心將會出現(xiàn)哪些先進的人工智能?;蛟S在這個世紀末,人工智能就會變得比人類更加智慧——不僅可以解決國際象棋、瑣碎小事等等,基本可以處理所有的事物,無論從數(shù)學、工廠還是科學和醫(yī)藥。還剩下一小部分創(chuàng)造類工作留給人類,比如演員,作家或是其他創(chuàng)意類工作。最終的電腦系統(tǒng)可以完成自我編程,獲取大量的最新信息。我們這些“碳基生物”的模糊印象,他們能夠在分分鐘就分析處理完成,也不需要長時間的睡眠或休息。

  對于支持者來說,人工智能的未來充滿希望。庫茲韋爾就曾撰文發(fā)表自己一個大膽的設想,就是人類與智能機器結(jié)合,將人類的靈魂上傳到人工智能中,使我們的靈魂永生;彼得·迪亞芒蒂斯則認為人工智能是開啟“富裕時代”,擁有富足食物、水源、消費工具的重要因素。不過,反對者像埃里克·布林約爾松和我很擔憂機器人職業(yè)化和人工智能帶來的隱患,即使不去考慮高級人工智能對勞動力市場的影響,功能強大的智能機器也會威脅人類的生活,與人類爭奪有限的資源。

  大多數(shù)人把這種擔心看作是科幻小說里的蠢話——像《終結(jié)者》和《黑客帝國》這類。在一定程度上,我們需要未來很長一段時間做好打算,我們要擔心小行星會撞地球,化石燃料產(chǎn)量下降,全球變暖等問題,而不用擔心機器人問題??墒?,詹姆斯·巴雷特的黑暗系新書《我們的最終發(fā)明:人工智能和人類時代的終結(jié)》,描述了一種嚴峻的情況,我們至少應該有所思考。

  如果機器最終取代了人類——正如在人工智能領域工作的人所堅信的那樣,真正的問題在于價值觀:我們?nèi)绾伟褍r值觀輸入機器中,當它們的價值觀與我們的價值觀發(fā)生了很大的沖突時,我們該如何和這些機器協(xié)商呢?牛津的哲學家尼克·博斯特羅認為:我們不能樂觀地假設,超級智能一定會分享人類的智慧和智能發(fā)展形成的價值觀——對科學的求知欲,對他人的關心和仁慈,精神啟發(fā)和沉思,克制物質(zhì)占有欲,高雅的文化品位,對感受簡單生活的快樂,謙虛無私等等?;蛟S通過專門的訓練,能夠創(chuàng)造出擁有這些價值觀的超級智能,或是珍惜人類財富和高尚道德的超級智能,或是設計者想要它擁有一些復雜目標的智能。這是可能的——可能從技術上說更簡單——打造一個能夠把最終價值都放在計算圓周率小數(shù)上的超級智能。

  英國控制論學者凱文·沃里克曾問道:“當機器不在我們?nèi)祟愃幍乃季S次元中思考時,你如何跟它理論,如何與它做交易,如何能明白它的想法?”

  如果說巴雷特黑暗系理論有漏洞的話,那就是他未經(jīng)思考就提出的假設:如果機器人聰明到可以下棋,那它可能也會“想要制造宇宙飛船”——在任何足夠復雜,有目標驅(qū)動的系統(tǒng)中都是天生具有自我保護和獲取資源的本能?,F(xiàn)在大部分機器都非常先進,比如,IBM公司的深藍系列電腦,但是目前它們還沒有顯示出想要獲得資源的興趣。

  可是,在我們感到沾沾自喜,確定無需擔心時,別忘了有一點非常重要:我們要意識到隨著機器越來越聰明,它們的目標也是會變化的。一旦電腦能夠有效地重新給自己編程,成功地提升自己的性能,達到所謂的“技術奇點”或“智能爆炸”,那么我們就不能忽視機器在與人類搶奪資源和自我保護的較量中會有勝過人類的風險。

  在巴雷特書中,最鮮明的觀點之一是來源于著名的系列人工智能企業(yè)家丹尼·希利斯,他把即將到來的轉(zhuǎn)變比作生物進化史上最重大的轉(zhuǎn)變之一:“我們現(xiàn)在達到的高度就像是一個單細胞有機體轉(zhuǎn)變?yōu)槎嗉毎袡C體的高度。我們是變形蟲,我們不清楚自己在創(chuàng)造的到底是個什么東西。”

  無論怎樣,人工智能的進步已經(jīng)達到了我們從未想過的危險。德雷塞爾大學的電腦風險專家加格跟我說:隨著因特網(wǎng)時代的到來和大數(shù)據(jù)時代的爆炸,“人工智能已經(jīng)收集了有關我們的許多數(shù)據(jù),并輸入計算程序,做出預測”,“ 我們無法知道數(shù)據(jù)被收集的時間,沒法保證收集的數(shù)據(jù)信息是準確的,沒法更新信息,或提供必要的信息背景”。甚至在20 年前,幾乎沒有人會預想到這種風險。前方還會有怎樣的危險呢?沒有人真的知道,但是巴雷特提出的問題卻值得我們思考。

人工智能論文經(jīng)典參考范文相關文章:

1.人工智能經(jīng)典論文

2.人工智能經(jīng)典論文(2)

3.關于人工智能的論文

4.關于人工智能論文

5.人工智能的技術論文

6.人工智能小論文

7.淺談智能計算機應用論文

2420251