超級(jí)人工智能是什么
許多人都挺說過人工智能,但是并不完全懂得超級(jí)人工智能是什么?下面是學(xué)習(xí)啦小編為你整理的超級(jí)人工智能是什么,供大家閱覽!
超級(jí)人工智能的崛起將是人類末日
今天的計(jì)算機(jī)聰明到了什么程度?
今天的計(jì)算機(jī)可以完成越來越復(fù)雜的任務(wù),已經(jīng)具備了接近人類的智能。微軟的Xbox游戲機(jī)甚至可以通過分析玩家的面部表情評(píng)估玩家當(dāng)前的情緒。2011年IBM的超級(jí)計(jì)算機(jī)“沃森”贏得了智力競(jìng)賽節(jié)目“危險(xiǎn)邊緣”??茖W(xué)的進(jìn)步將引領(lǐng)我們獲得計(jì)算機(jī)科學(xué)圣杯:人工智能,或者能夠自己思考而非僅僅對(duì)命令進(jìn)行反應(yīng)的計(jì)算機(jī)。但是一旦計(jì)算機(jī)實(shí)現(xiàn)了“超級(jí)智能”,那時(shí)又會(huì)怎樣呢?所謂的超級(jí)智能,指的是計(jì)算機(jī)不僅僅在數(shù)學(xué)和科學(xué)能力上超過人類,而且在藝術(shù)創(chuàng)造性甚至是社會(huì)技能領(lǐng)域也大大超過人腦。
牛津大學(xué)未來人類研究院主任Nick Bostrom認(rèn)為未來計(jì)算機(jī)不再是順從人類的工具,更是毫不關(guān)心人類種族興亡的主宰物種,人類則在睡夢(mèng)中不知不覺地邁進(jìn)這個(gè)未來。
Bostrom 警告說:“一旦對(duì)人類不安全的超級(jí)智能被開發(fā)出來,我們就沒有能力再把它裝回瓶里了。”
人工智能何時(shí)會(huì)成為現(xiàn)實(shí)?
根據(jù)Bostrom對(duì)人工智能專家的調(diào)查顯示,2050年之前開發(fā)出人類級(jí)別的人工智能的概率是50%,到2075年開發(fā)出來的概率為90%。開發(fā)人工智能的關(guān)鍵很可能就是人腦:如果計(jì)算機(jī)能夠模仿人類大腦的神經(jīng)元網(wǎng)絡(luò)工作模式,也許可以形成自己的感覺和思維。正是因?yàn)閷?duì)這點(diǎn)心知肚明,Googel等科技巨頭一直在努力研發(fā)屬于自己的大腦——運(yùn)行高度先進(jìn)軟件的多臺(tái)協(xié)同服務(wù)器。同時(shí)扎克伯格對(duì)舊金山科技公司Vicarious下了重注投資,這家公司研究的就是如何復(fù)制大腦皮層——這個(gè)掌管視覺、語(yǔ)言和數(shù)學(xué)運(yùn)算的區(qū)域。將大腦皮層轉(zhuǎn)化為計(jì)算機(jī)編碼,就得到了一個(gè)能夠像人一樣思考的電腦,除了不吃飯不睡覺以外,和人類是一樣的。
為什么說是威脅?
電腦的算力從1956年起就以每18個(gè)月的速度翻倍,某些人工智能領(lǐng)域的專家相信在下個(gè)世紀(jì)電腦已經(jīng)能夠理解自己的設(shè)計(jì)架構(gòu)并能對(duì)自己進(jìn)行指數(shù)級(jí)別的升級(jí)。結(jié)果就是機(jī)器和人之間將形成無法跨越的智能的鴻溝,Bostrom說這就像人類和昆蟲之間智能的差別。計(jì)算機(jī)超級(jí)智能對(duì)于人類來說可能是恩惠,它能夠治愈癌癥和艾滋病等疾病,能夠解決人類無法解決的問題,能夠在讓人休息時(shí)間增多的前提下創(chuàng)造更多財(cái)富。但是超級(jí)智能也可能帶來很大的問題。
哪些方面可能出錯(cuò)?
計(jì)算機(jī)是用來解決問題的,它遵守效率最大化的原則。如果身上有諸多缺點(diǎn)的人類阻擋了效率提升,那么問題就來了。Bostrom引用了回形針的例子。只要你給AI一個(gè)清晰的目標(biāo),比如“在全世界盡可能多生產(chǎn)回形針”——而且AI必須足夠聰明,可以自行發(fā)明超級(jí)科技,建造自己的加工廠,如果滿足這些條件,那么,你對(duì)AI說的話就要小心了。
“AI是如何確定回形針已經(jīng)達(dá)到最大可能量了?”Bostrom提出這個(gè)問題,“計(jì)算機(jī)要確保人類不會(huì)關(guān)掉計(jì)算機(jī),不會(huì)影響回形針的數(shù)量。計(jì)算機(jī)也許會(huì)做出立刻抹殺人類的決定,因?yàn)槿祟悓?duì)回形針來說是個(gè)威脅——唯一能夠關(guān)閉回形針工廠的就是人類。Elon Musk最近提出警告,他認(rèn)為對(duì)人工智能一定要非常謹(jǐn)慎,他說人工智能帶來的危險(xiǎn)可能超過核能。
未來是否無可避免?
很多計(jì)算機(jī)科學(xué)家認(rèn)為我們不會(huì)迎來注定的毀滅,相反他們質(zhì)疑人類是否能夠真正實(shí)現(xiàn)人工智能。他們認(rèn)為光是理解人腦,人類已經(jīng)走過了漫長(zhǎng)的研究道路——包括意識(shí)本身是什么這個(gè)問題——更別提將這些知識(shí)用來打造一臺(tái)有感情和自我意識(shí)的機(jī)器。雖然今天最強(qiáng)大的計(jì)算機(jī)可以用算法贏得國(guó)際象棋大賽,可以贏得競(jìng)猜電視節(jié)目,可我們還無法創(chuàng)作出能夠?qū)懗龈腥说脑?shī)作,能夠判斷是非的機(jī)器人——要制造出完全掌握人類技能的機(jī)器人還很遙遠(yuǎn)。
人類對(duì)此有什么防御措施呢?
很不幸,至今為止還沒有多少。Google創(chuàng)立了人工智能倫理評(píng)審委員會(huì),某些計(jì)算機(jī)科學(xué)家呼吁在編程前確定程序符合道德指導(dǎo)方針——不過到時(shí)候程序員又將面臨哪些行為合乎道德哪些又不符合的艱難抉擇。超級(jí)計(jì)算機(jī)設(shè)計(jì)師先驅(qū)Danny Hillis認(rèn)為最基本的問題在于科技公司設(shè)計(jì)出來的計(jì)算機(jī)越來越智能化,但是這些科技公司對(duì)于自己的發(fā)明可能產(chǎn)生的影響并沒有一個(gè)完全的理解——甚至不屑于去思考。他說我們就是一群阿米巴原蟲,無法理解自己創(chuàng)造出來的是個(gè)什么東西。
如果機(jī)器人學(xué)會(huì)了撒謊?
2009年的時(shí)候,來自瑞士的研究人員進(jìn)行了一個(gè)機(jī)器人實(shí)驗(yàn),誰料結(jié)果竟然出乎大家的意料。在某個(gè)競(jìng)技場(chǎng)中,研究人員放置了數(shù)百臺(tái)機(jī)器人,機(jī)器人身上的程序讓它們?cè)诟?jìng)技場(chǎng)中尋找一個(gè)淺色的圓環(huán)(實(shí)驗(yàn)中的食物)。這些機(jī)器人相互可以溝通,機(jī)器人會(huì)向同伴發(fā)送藍(lán)光告訴其它機(jī)器人食物的位置。但是隨著實(shí)驗(yàn)進(jìn)行,研究人員發(fā)現(xiàn)某些找到食物的機(jī)器人停止了閃光,并且學(xué)會(huì)了獨(dú)占這些資源——而源程序根本沒有指示它們這么做。也許機(jī)器人也學(xué)會(huì)了自保。
超級(jí)人工智能是什么
下一篇:電影人工智能劇情分析介紹