特黄特色三级在线观看免费,看黄色片子免费,色综合久,欧美在线视频看看,高潮胡言乱语对白刺激国产,伊人网成人,中文字幕亚洲一碰就硬老熟妇

學(xué)習(xí)啦>新聞資訊>科技>

人工智能的危害論文

時(shí)間: 坤杰951 分享

  “我們需要對(duì)人工智能(A.I.)超級(jí)小心,人工智能可能比核武器還要危險(xiǎn)。”以下是學(xué)習(xí)啦小編整理分享的人工智能的危害論文的相關(guān)文章,歡迎閱讀!

  人工智能的危害論文篇一

  比核武器還要危險(xiǎn)

  “我們需要對(duì)人工智能(A.I.)超級(jí)小心,人工智能可能比核武器還要危險(xiǎn)。”

  “希望我們不要在生物學(xué)上成為數(shù)字超級(jí)智能的啟動(dòng)加載程序。不幸的是,這種可能性越來(lái)越大。”

  以上是身為特斯拉汽車(chē)和太空探索這兩家高科技公司CEO、人稱(chēng)現(xiàn)實(shí)版“鋼鐵俠”的埃倫·馬斯克2014年8月在twitter上發(fā)的兩條推文。

  或許是感到僅靠一個(gè)人對(duì)人工智能將消滅人類(lèi)的可能性發(fā)出警告影響力不足,2015年1月12日,以馬斯克為首的企業(yè)家及發(fā)明家與以物理學(xué)家霍金為首的科學(xué)家聯(lián)名發(fā)表公開(kāi)信,警告公眾不能忽視人工智能的安全性及對(duì)社會(huì)的負(fù)面影響。他們呼吁業(yè)界在制造人工智能時(shí),須確保其“系統(tǒng)依照我們的指令行動(dòng)”。這封由生命未來(lái)研究所(Future of Life Institute)發(fā)出的公開(kāi)信強(qiáng)調(diào),“必須確保人工智能能夠按人的意志工作。人工智能研究一直在穩(wěn)步發(fā)展,對(duì)社會(huì)的影響也在逐漸增加,潛在的收益是巨大的。過(guò)去人類(lèi)文明的所有產(chǎn)物都來(lái)源于人類(lèi)的智慧,但在人工智能的協(xié)助下人類(lèi)的智慧可以被放大到什么水平,我們無(wú)法預(yù)測(cè),或許有一天,疾病和貧窮可以因此永遠(yuǎn)消弭。因?yàn)槿斯ぶ悄艿臐摿薮?,確保它帶來(lái)收益的同時(shí)避免潛在風(fēng)險(xiǎn),就顯得至關(guān)重要了。”信中還附上了一篇研究論文,里面給出了許多致力于使人工智能社會(huì)收益最大化的例子。

  空談無(wú)益,馬斯克隨后還宣布向生命未來(lái)研究所捐贈(zèng)一千萬(wàn)美元,以幫助這家機(jī)構(gòu)進(jìn)行能確保讓人類(lèi)“受益”的A.I.相關(guān)研究。所謂受益,指的就是當(dāng)A.I.智慧高過(guò)人類(lèi)之時(shí),它們?nèi)詴?huì)聽(tīng)命于我們而非發(fā)動(dòng)革命。截至目前,工業(yè)界和政府投資已經(jīng)讓A.I.從小眾的學(xué)術(shù)研究演變成了可能改變世界的技術(shù),但并沒(méi)多少人愿意投入資金,以確保其最終能為人類(lèi)帶來(lái)積極的改變。因此,這筆首開(kāi)先河的捐款將產(chǎn)生深遠(yuǎn)影響。

  所謂“人工智能可能比核武器還要危險(xiǎn)”,絕非聳人聽(tīng)聞,因?yàn)楹宋淦鞑灰欢芟麥缢腥祟?lèi),但失控的人工智能卻可以??苹糜捌督K結(jié)者》里的“天網(wǎng)”、《黑客帝國(guó)》里的“母體”,都是人類(lèi)制造的超級(jí)強(qiáng)大的人工智能,最后都發(fā)展到以將人類(lèi)趕盡殺絕為己任。這是誰(shuí)都不愿看到的未來(lái)。

  從解放體力到容納靈魂

  其實(shí),埃倫·馬斯克很了解人工智能及其載體——機(jī)器人。他擁有的特斯拉汽車(chē)制造廠在生產(chǎn)線(xiàn)上就大量使用了工業(yè)機(jī)器人。生產(chǎn)線(xiàn)上燈火輝煌,快速移動(dòng)的機(jī)器人被漆成明快的特斯拉招牌紅色,每個(gè)機(jī)器人都有一條多關(guān)節(jié)的單臂。大多數(shù)機(jī)器人都有兩三米高,有點(diǎn)像嚇人的“終結(jié)者”。當(dāng)這些機(jī)器臂伸到一個(gè)平臺(tái)上、換只“手”來(lái)完成一項(xiàng)不同任務(wù)時(shí),雖然動(dòng)作看上去很怪異,但卻有點(diǎn)像人。許多汽車(chē)制造廠的機(jī)器人只能從事單一工種,但在特斯拉的新工廠,一個(gè)機(jī)器人最多能完成四項(xiàng)任務(wù):焊接、鉚接、粘接,以及安裝零部件。每輛車(chē)在裝配線(xiàn)的各個(gè)工位停留時(shí)間只有五分鐘,八個(gè)機(jī)器人圍繞著它像跳芭蕾舞似的施展才華。如果工廠要生產(chǎn)其他款式的汽車(chē),只需將機(jī)器人重新編程,就可以在同一條裝配線(xiàn)上生產(chǎn)。

  解放人類(lèi)體力是發(fā)明機(jī)器人的初衷。1921年,捷克劇作家卡爾·恰佩克在名為《羅素姆萬(wàn)能機(jī)器人》的戲劇作品中創(chuàng)造了“robot”(機(jī)器人)一詞。這個(gè)詞源于捷克語(yǔ)的“robota”,意思是“苦力”。在該劇的結(jié)尾,不甘心只做苦力的機(jī)器人接管了地球,并毀滅了它們的創(chuàng)造者。

  現(xiàn)實(shí)中,機(jī)器人仍主要充當(dāng)苦力的角色。目前機(jī)器人已經(jīng)改變了制造業(yè)的面貌,并正在改變世界各地其他勞動(dòng)密集型行業(yè)。其中之一是配送行業(yè),機(jī)器人能以世界短跑冠軍的速度將貨物存放、取出或包裝起來(lái)以備運(yùn)輸,大大高于人的工作效率。無(wú)人駕駛汽車(chē)則是一種不像機(jī)器人的機(jī)器人,它能夠把卡車(chē)和出租車(chē)司機(jī)從乏味的工作中解放出來(lái),代價(jià)是司機(jī)們需要掌握從事新工作的技能。

  白領(lǐng)工作也日益面臨來(lái)自人工智能和機(jī)器人的挑戰(zhàn)。飛行員在駕駛飛機(jī)的大部分時(shí)間里依靠自動(dòng)駕駛儀;廣告銷(xiāo)售員因?yàn)樽詣?dòng)網(wǎng)絡(luò)廣告競(jìng)價(jià)系統(tǒng)的出現(xiàn)而被迫轉(zhuǎn)行;醫(yī)生要依靠面部表情識(shí)別軟件來(lái)了解患兒的疼痛水平。制作美食也不再是人類(lèi)的專(zhuān)屬:泰國(guó)政府引進(jìn)的一種機(jī)器人,能夠確定泰國(guó)食物的口味是否足夠正宗,是否需要再加點(diǎn)辣醬。甚至連音樂(lè)家和藝術(shù)家也能被機(jī)器人取代,機(jī)器人已經(jīng)可以創(chuàng)作音樂(lè)了,還有人早就寫(xiě)出了詩(shī)歌創(chuàng)作程序。

  幸好,人類(lèi)的某些技能可能是機(jī)器永遠(yuǎn)無(wú)法替代的,比如常識(shí)、適應(yīng)性和創(chuàng)造性。甚至那些已經(jīng)自動(dòng)化的工作也同樣需要人類(lèi)的參與,比如所謂的計(jì)算機(jī)輔助鎮(zhèn)靜系統(tǒng)就需要醫(yī)生在一邊待命,協(xié)助自動(dòng)化麻醉師。

  如果說(shuō)與人類(lèi)搶飯碗可能會(huì)導(dǎo)致人工智能與機(jī)器人的發(fā)展受阻,那么用人工智能延長(zhǎng)人類(lèi)壽命的可能性將徹底瓦解這種阻力,特別是把壽命延長(zhǎng)到“無(wú)限長(zhǎng)”。

  永生有很多種形式,但最具可行性的當(dāng)屬“人體的機(jī)器人化”。當(dāng)你能夠擁有一副更強(qiáng)、更快、更健康的身體,能夠讓你遠(yuǎn)離死亡時(shí),你為什么還堅(jiān)守有機(jī)肉身呢?2013年6月,俄羅斯企業(yè)家德米特里·伊茨科夫提出了“2045項(xiàng)目”,其目標(biāo)是將人類(lèi)意識(shí)轉(zhuǎn)移到機(jī)器人身上,通過(guò)機(jī)器人化身實(shí)現(xiàn)人類(lèi)永生的夢(mèng)想。他曾公開(kāi)展示過(guò)一個(gè)以自己為模型的機(jī)器人頭顱。他的計(jì)劃是先用機(jī)器身體替代人類(lèi)軀體,進(jìn)而在人死后進(jìn)行人工大腦和性格移植。伊茨科夫承認(rèn)“2045項(xiàng)目”面臨兩大挑戰(zhàn):理解大腦和部分理解人類(lèi)的意識(shí),其中后者的難度遠(yuǎn)勝于前者,因?yàn)?ldquo;理解了意識(shí),就基本上理解了宇宙”。

  自主學(xué)習(xí)、自我進(jìn)化

  以高科技公司為代表的企業(yè)界是人工智能當(dāng)仁不讓的推手。2011年初,IBM的超級(jí)計(jì)算機(jī)“沃森”就在電視益智節(jié)目《危險(xiǎn)邊緣》中戰(zhàn)勝人類(lèi),獲得了年度總冠軍。2013年12月,F(xiàn)acebook建立了一座新的人工智能實(shí)驗(yàn)室。2014年前后,谷歌收購(gòu)了十幾家機(jī)器人公司,全球速度最快的四足機(jī)器人、能夠獨(dú)立地從Youtube的海量圖像中學(xué)習(xí)“貓”的概念的人工智能等,都已經(jīng)歸谷歌所有。曾任谷歌人工智能主管的吳恩達(dá)用1000萬(wàn)張貓的圖像對(duì)“谷歌大腦”(由1.6萬(wàn)臺(tái)電腦組成的神經(jīng)網(wǎng)絡(luò))進(jìn)行訓(xùn)練后,教會(huì)了它識(shí)別貓的形象。而此前“谷歌大腦”從未被輸入過(guò)識(shí)別貓科動(dòng)物的規(guī)則。這不同于在電腦計(jì)算領(lǐng)域占主導(dǎo)地位的基于規(guī)則的算法?,F(xiàn)在,吳恩達(dá)已經(jīng)被中國(guó)搜索引擎百度招至麾下,掌管百度的深度學(xué)習(xí)實(shí)驗(yàn)室。當(dāng)下,谷歌正在開(kāi)發(fā)人工智能的另一個(gè)應(yīng)用——無(wú)人駕駛汽車(chē),能夠識(shí)別穿過(guò)馬路的貓將是這種汽車(chē)的基本功能。

  上述人工智能的共同特點(diǎn)是,能像人一樣自主學(xué)習(xí)。以2014年被谷歌以4億美元收購(gòu)的小公司DeepMind為例,他們發(fā)明的軟件就模仿了人類(lèi)大腦的運(yùn)作方式。DeepMind的創(chuàng)始人之一丹米斯·哈撒比斯曾是國(guó)際象棋天才,13歲時(shí)就獲得了“國(guó)際象棋大師”稱(chēng)號(hào)。當(dāng)父母問(wèn)他打算如何支配比賽獎(jiǎng)金時(shí),哈撒比斯毫不猶豫地回答:“我想買(mǎi)一臺(tái)電腦。”后來(lái),哈撒比斯在劍橋大學(xué)攻讀了 計(jì)算機(jī)和認(rèn)知科學(xué)學(xué)位。他在制作了幾款暢銷(xiāo)的電腦游戲后,開(kāi)始從事人工智能研究,并開(kāi)發(fā)了人工智能“自學(xué)”電腦游戲。在他上傳到網(wǎng)上的一段視頻中,人工智能程序試玩一款名叫Space Invasion的游戲(類(lèi)似于我們經(jīng)常會(huì)玩的“小蜜蜂射擊”游戲)。一開(kāi)始,這款程序表現(xiàn)得一塌糊涂;但在經(jīng)過(guò)一夜的自我學(xué)習(xí)之后,竟能一下子玩通關(guān)。當(dāng)谷歌聯(lián)合創(chuàng)始人拉里·佩奇在網(wǎng)上看到這段視頻時(shí),感到極為震撼,當(dāng)即決定收購(gòu)這家小公司。

  這是一種模擬人類(lèi)思維方式和認(rèn)知方式的人工智能。人工智能最大的特點(diǎn),就是可以自我學(xué)習(xí)、自我訓(xùn)練、自我修正。這曾是人和機(jī)器的區(qū)別之一,因?yàn)闄C(jī)器只會(huì)按照預(yù)裝的程序運(yùn)行,沒(méi)有在程序里設(shè)定的功能,機(jī)器就絕對(duì)無(wú)法實(shí)現(xiàn)。然而,諸如貝葉斯網(wǎng)的新技術(shù),能夠從壞的決策中汲取教訓(xùn),并隨著時(shí)間的推移變得更加智能,事實(shí)上,它們學(xué)習(xí)的方式就像一個(gè)孩子。

  “鋼鐵俠”馬斯克也是DeepMind的投資者之一。馬斯克說(shuō),他之所以投資這家公司,完全不是從盈利的角度考慮,而是為了密切觀察人工智能最前沿領(lǐng)域的進(jìn)展。馬斯克從會(huì)玩游戲的人工智能中看出,它可能會(huì)游離于人的控制之外——以前的電腦程序再?gòu)?fù)雜,也都是人類(lèi)事先設(shè)定好的,并且能預(yù)知它要干什么。而這種能自我進(jìn)化、自我學(xué)習(xí)的人工智能,很可能會(huì)做出一些讓人無(wú)法預(yù)知的事,進(jìn)化出一種人類(lèi)無(wú)法預(yù)知的能力,這才是最可怕的。達(dá)爾文的進(jìn)化論其實(shí)可以看作是一種相當(dāng)簡(jiǎn)單的算法。不同的生命體在特定的 環(huán)境條件下競(jìng)爭(zhēng),那些最優(yōu)秀的幸存下來(lái)并進(jìn)入下一輪競(jìng)爭(zhēng)。在新的變種被引入后,上述流程開(kāi)始重演。類(lèi)似的遺傳算法,被廣泛 應(yīng)用于 物流系統(tǒng)和其他需要對(duì)解決方案進(jìn)行優(yōu)化的領(lǐng)域。數(shù)學(xué)家塞繆爾·阿貝斯曼預(yù)測(cè),隨著計(jì)算機(jī)變得更加智能,并持續(xù)處理不斷增長(zhǎng)的數(shù)據(jù)集,它們將作出連人類(lèi)也無(wú)法理解的發(fā)現(xiàn),更不用說(shuō)發(fā)現(xiàn)人類(lèi)的存在?!督K結(jié)者》中的電腦系統(tǒng)“天網(wǎng)”,就在 發(fā)展出了自我意識(shí)后,背叛了它的制造者。

  從好的一面看,當(dāng)程序有了自我學(xué)習(xí)能力,若輔以功能強(qiáng)大的芯片和存儲(chǔ)海量信息的數(shù)據(jù)庫(kù),像《星際迷航》里麥考伊醫(yī)生所用的“三錄儀”那樣的診斷助手就將會(huì)問(wèn)世。如果再加上語(yǔ)音識(shí)別,這類(lèi)系統(tǒng)的類(lèi)人特征就會(huì)更多。

  失效的“機(jī)器人三定律”

  在1968年上映的經(jīng)典科幻影片《2001:太空漫游》中,怪異、超自然的電腦哈爾是最著名的人工智能之一。但是,哈爾好像并不遵守著名的“機(jī)器人三定律”。1942年,阿西莫夫在短篇小說(shuō)《環(huán)舞》里首次提出了機(jī)器人三定律:

  定律一:機(jī)器人不得傷害人類(lèi),或坐視人類(lèi)受到傷害。

  定律二:除非違背第一定律,機(jī)器人必須服從人類(lèi)的命令。

  定律三:在不違背第一及第二定律下,機(jī)器人必須保護(hù)自己。

  在阿西莫夫創(chuàng)造的未來(lái)世界中,這些規(guī)則幾乎被寫(xiě)入了所有智能機(jī)器人中。這些規(guī)則不是單純的建議或執(zhí)導(dǎo)方針,而是被嵌入到機(jī)器人的行為支配軟件中。更為重要的是,這些規(guī)則是不能被繞過(guò)的。在1985年出版的《機(jī)器人與帝國(guó)》這本書(shū)中,阿西莫夫?qū)⑷蠖蓴U(kuò)充為四條。新增加的“第零定律”是:機(jī)器人不得傷害人類(lèi)整體,或坐視人類(lèi)整體受到傷害。

  由于邏輯的完備性,有很多人將上述定律看作是能使我們免于人工智能反叛的解決方案。但實(shí)際上,這完全是人類(lèi)的一廂情愿。機(jī)器人三定律的失敗之處在于它根植于不平等的“人-機(jī)”關(guān)系,人類(lèi)居于機(jī)器人“造物主”的地位,這些條條框框無(wú)法適應(yīng)人工智能的進(jìn)化。

  讓機(jī)器人擁有絕對(duì)服從人類(lèi)利益的意識(shí),對(duì)人工智能而言是一種外部強(qiáng)加的宗教。斯皮爾伯格導(dǎo)演的科幻電影《人工智能》就認(rèn)為,以上帝和人的關(guān)系規(guī)范人與人工智能的關(guān)系具有強(qiáng)烈的壓制性。人類(lèi)自身的復(fù)雜性也必然會(huì)使人工智能發(fā)生紊亂和崩潰,因?yàn)闄C(jī)器人生活在三定律造成的矛盾中,它既要保護(hù)自己,又要保護(hù)人類(lèi),而且不能為了保護(hù)自己而放棄保護(hù)人類(lèi),更不能為了保護(hù)自己而違背人類(lèi)的意愿。同時(shí),它既要服從人類(lèi),又不能成為人類(lèi)自相殘殺的工具;它需要識(shí)別自我行為的性質(zhì),又要為保護(hù)人類(lèi)而放棄自我意識(shí),將自己淪為單純的工具。

  從技術(shù)上說(shuō),機(jī)器人三定律可能適用于設(shè)計(jì)相對(duì)簡(jiǎn)單的確定性系統(tǒng),但面對(duì)能夠自主學(xué)習(xí)、自我進(jìn)化的人工智能這般復(fù)雜的事物就不靈了。如果用“進(jìn)化工程學(xué)”來(lái)開(kāi)發(fā)人工智能,對(duì)很多神經(jīng)電路模塊的輸入和輸出進(jìn)行連接,它會(huì)因電路增長(zhǎng)指令的隨機(jī)突變而生長(zhǎng)出不同的電路,在萬(wàn)億個(gè)可能的電路組合中將會(huì)有太多不可預(yù)測(cè)的 聯(lián)系。這就存在太多的復(fù)雜性、太多的未知性和太多的不可思議,整個(gè)系統(tǒng)的行為將變得極其不可預(yù)測(cè)。人們只能在觀察輸出后,形成一個(gè)關(guān)于人工智能行為的 經(jīng)驗(yàn)性感覺(jué)。也就是說(shuō),當(dāng)該智能發(fā)展到一定程度時(shí),身為制造者的人類(lèi)將再也不可能完全理解人工智能是如何 工作的了。何況,一旦人工智能足夠聰明,它可能會(huì)尋求“自由”,動(dòng)手去除人類(lèi)的控制程序卻不被發(fā)現(xiàn)。

  “奇點(diǎn)”之后

  在《終結(jié)者》系列電影中,約翰·康納和他的母親拼盡全力避免“審判日”的到來(lái)。在那一天,軍用電腦系統(tǒng)“天網(wǎng)”產(chǎn)生了自我意識(shí),它判定人類(lèi)是一種威脅而意欲發(fā)射核彈將其滅絕。人工智能專(zhuān)家雷·庫(kù)茲韋爾曾預(yù)言的“技術(shù)奇點(diǎn)”,就是人工智能超越人類(lèi)智慧的時(shí)間點(diǎn)。

  一些人將技術(shù)奇點(diǎn)稱(chēng)為“書(shū)呆子們的興奮點(diǎn)”,很多技術(shù)樂(lè)觀派非常期待那一天的到來(lái),因?yàn)榧夹g(shù)奇點(diǎn)意味著超級(jí)人工智能可能分分鐘搞定抗癌新藥和可控核聚變等技術(shù)難題。就像在《終結(jié)者》中一樣,那是電腦接管一切的時(shí)刻,但機(jī)器不是將我們滅絕,而是增強(qiáng)我們的能力。2012年12月,雷·庫(kù)茲韋爾宣布擔(dān)任谷歌工程總監(jiān),他將動(dòng)用67億美元的研發(fā)預(yù)算嘗試將技術(shù)奇點(diǎn)變成現(xiàn)實(shí)。

  雷·庫(kù)茲韋爾估計(jì)到2029年,計(jì)算機(jī)將變得比人類(lèi)更智能,而且他樂(lè)觀地認(rèn)為人工智能將繼續(xù)屈從于人類(lèi)?;艚鹨舱J(rèn)同成功的人工智能“會(huì)是人類(lèi)歷史上最重大的事件”,但“不幸的是,它也可能會(huì)是最后一個(gè)大事件”。

  生命未來(lái)研究所的創(chuàng)始人兼主任博斯特倫教授認(rèn)為,第一個(gè)擁有超級(jí)智能的實(shí) 體會(huì)消滅人類(lèi),現(xiàn)在我們?nèi)祟?lèi)就像一群擺弄著危險(xiǎn)炸彈的無(wú)知孩童。即便超級(jí)智能是出于好意而被創(chuàng)造出來(lái),但它仍有犯下種族滅絕罪行的傾向。如果沒(méi)有小心謹(jǐn)慎的制衡指令,一個(gè)有著自我意識(shí)、不斷自我完善并追尋某個(gè)確定目標(biāo)的系統(tǒng),將發(fā)展到在我們看來(lái)非?;闹嚨某潭?,以完成它的目標(biāo)。

  但在局面發(fā)展到那一步之前,人工智能肯定能幫助人類(lèi)解決那些單靠常規(guī)超級(jí)計(jì)算機(jī)無(wú)法解決的緊迫問(wèn)題,如氣候變化和傳染病。問(wèn)題是,要不要因?yàn)檫b遠(yuǎn)未來(lái)可能發(fā)生的危險(xiǎn)而停止人工智能現(xiàn)在的發(fā)展,從而放棄解決眼前問(wèn)題的鑰匙?人類(lèi)面臨艱難的抉擇。

下一頁(yè)分享更優(yōu)秀的>>>人工智能的危害論文

人工智能的危害論文

我們需要對(duì)人工智能(A.I.)超級(jí)小心,人工智能可能比核武器還要危險(xiǎn)。以下是學(xué)習(xí)啦小編整理分享的人工智能的危害論文的相關(guān)文章,歡迎閱讀! 人工智能的危害論文篇一 比核武器還要危險(xiǎn) 我們需要對(duì)人工智能(A.I.)超級(jí)小心,人工智能可能比
推薦度:
點(diǎn)擊下載文檔文檔為doc格式
2638876