人工智能的結課論文(2)
人工智能的結課論文
人工智能的結課論文篇二
人工智能的曙光
強大的電腦科技將重新規(guī)劃人類的未來,但如何才能確保其帶來的好處會多于危險呢?
“世上真的有上帝嗎?”科學家用顫抖的聲音問道。
“現在有了。”世界上最聰明的人工智能電腦回答。話畢,一道電光閃過它的電源插頭――人們再也關不掉它了。
這是斯蒂芬・霍金在出席脫口秀時闡述的一則“恐怖故事”,而在前不久的倫敦“谷歌時代精神”大會上,霍金平靜地描述了人類的命運:“在未來100年內,結合人工智能的計算機將會變得比人類更聰明。”
斯蒂芬・霍金警示道:“人工智能的全面發(fā)展可能為讓人類征途畫上句號。”特斯拉汽車公司與美國太空探索技術公司CEO伊隆・馬斯克則擔心人工智能可能會成為人類生存所要面臨的最大威脅。持有同樣看法的還有微軟創(chuàng)始人比爾・蓋茨。今年年初,他們都在在一封提倡控制人工智能發(fā)展的公開信上簽下自己的名字。
人們害怕自己所創(chuàng)造出來的人工智能會反客為主成為自己的主宰,或是劊子手――雖然這種觀點還很新,但已然成為一種不可忽視的新趨勢。畢竟,這是由著名的宇宙論者,硅谷企業(yè)家以及微軟的創(chuàng)始人,可能還是盧德派分子(強烈反對提高機械化和自動化者)提出的,而這一觀點也被用來反對諸如谷歌、微軟等大公司對于人工智能開發(fā)的巨大投資。隨著超級電腦的日益普及,機器人在各個戰(zhàn)場的無往不勝,只把人工智能和機器人定義在科學領域就顯得太自欺欺人了,現在的問題是,我們究竟該擔心什么?
你教我語言以及……
首先我們需要了解一下電腦現在能做什么,以及它們未來可能能做什么。得益于加工工藝的發(fā)展以及越來越豐富的數碼數據,人工智能的能力得到了爆炸性增長。通過模仿人類大腦的神經元以及攝入大量的數據,如今的“深度學習”系統可以教會他們自己完成諸多任務。從圖形識別到翻譯,人工智能幾乎可以和人類做的一樣好。結局就是,那些需要動腦完成的游戲,如“青蛙過河”,現在已經可以通過電腦程序解決。2014年由Facebook公司推出的DeepFace演算系統,就可以從圖片中識別出人臉,識別率高達97%。
尤為關鍵的是,這項能力是有特定用途的。如今的人工智能是通過簡單粗暴的數值計算來偽裝成“智能”,而不是像人類的思想一樣是在自主地思考,或是出于對某物的興趣和渴望進行思考?,F在的電腦智能尚無法像人類那樣擁有靈活的推測判斷的能力。
不過,人工智能已有足夠的力量給人類的生活帶來翻天覆地的影響。它可以與人類互補,從而增強人類的能力。就拿國際象棋來說,電腦現在已經玩得比任何人都好,雖然世界頂尖的國際象棋大師并不是機器,但被世界棋王卡斯帕洛夫稱為“半人馬”的就是混合著人類與演算程序的隊伍。這樣一種集成形態(tài)會逐漸成為人機追逐賽的常態(tài):有了人工智能的幫助,醫(yī)生可以更方便地標記癌癥;智能手機中的語音識別系統可以將互聯網帶給數百萬發(fā)展中國家的文盲人群;數字助理會對學術研究提出有用的假說;圖像分類系統讓可穿戴電腦將真實世界的有用信息直觀呈現在人們的眼前。
從短期來看,不是所有的情況都是樂觀的。比如,人工智能又喚醒了機械設備對于國家安全的作用。無論是專制國家還是民主國家,這種可以監(jiān)視上億個場景,并且可以通過人臉或聲音從人群中識別出每一個市民的能力,都會對民眾自由構成重大的威脅。
即使整個社會都能從人工智能那兒得到巨大的好處,仍會有許多個人遭受損失。曾經,做著如今電腦們做的活兒的是苦工們,而且大多是女性:她們?yōu)樽约旱纳纤緜冏鲋鵁o盡的計算工作。而就像現在電腦替代了她們一樣,人工智能可能會讓整個白領階層都丟了工作。當然,更多的教育和訓練會有所幫助,而借助人工智能產生的財富也會被用于創(chuàng)造新的工作,不過工人們注定會失去位置。
監(jiān)視手段和混亂并不是霍金、馬斯克和蓋茨所擔心的,也不是好萊塢近期密集推出未來人工智能電影的原因。他們所擔心的是更長遠、更具啟示的問題:這些具有超人的智慧與能力的機器人們會最終與人類作對。
不過,離這樣的人工智能出現還有很長一段路要走,而實際上它們可能根本不會被創(chuàng)造出來。即使對大腦進行了長達一個世紀之久的研究,心理學家、神經學家、社會學家以及哲學家們仍舊無法理解大腦是由什么構成的,或者它是什么。
我知道如何詛咒
不過即使霍金認為人工智能很有希望將實現,對于科學家們而言這仍是仍重而道遠,必須小心謹慎地進行規(guī)劃。其實這一過程比看上去要容易,尤其是人類已經創(chuàng)造出了有著超人能力和沒有共同利益的自治實體,并且使用了很長一段時間。政府官僚、市場以及軍隊都可以完成獨立的、無組織的人類所不能完成的任務。而這些團體都如人工智能一樣,可以自主運作,承擔自己的生活,以及如果沒有法律法規(guī)的管轄,它們都會對社會造成危害。
這些相似點應該能夠安撫人們對于未來人工智能的恐懼,而這同時也為科學家如何安全地開發(fā)人工智能提出了實質性的建議。就如同軍隊需要平民的監(jiān)督,市場需要被調節(jié),以及政府需要公開化和透明化一樣,人工智能系統也需要公開檢驗。而由于在設計系統時不可能預見到所有的情況及應對方法,所以該系統也一定要有一個關閉按鈕。這些措施也能在不妨礙人工智能系統開發(fā)的同時有效地約束它。從核武器到交通規(guī)則,人類有能力用巧妙的技術和合法的約束控制這些強大的科技革新。
“人類最終會創(chuàng)造出一種自主的非人類的智能”這一觀點就像幽靈一樣一直縈繞在人們心頭。這實在是太特別了,讓人們不斷地為其爭論。是的,這里危機重重,不過這也不能掩蓋,人工智能的曙光所帶來的巨大利益。
看了“人工智能的結課論文”的人還看了: