關于人工智能與人類的論文(2)
關于人工智能與人類的論文
關于人工智能與人類的論文篇二
關于約束人工智能情感的思考
摘 要:人工智能是近來研究熱點。分別在人工智能界別、角色、賦予人以及制度等方面重點探討其可能的情感約束作用,以期達到人工智能技術(shù)在很好的發(fā)展的同時,不至于因為“情感泛濫”而引發(fā)一些嚴重地后果的目的。
關鍵詞:人工智能 情感 約束
1引言
人工智能(Artificial Intelligence,AI)自從20世紀50年代產(chǎn)生,經(jīng)過長期發(fā)展,已經(jīng)有了長足的進步,并且已經(jīng)深入到社會生活的諸多領域,如語言處理、智能數(shù)據(jù)檢索系統(tǒng)、視覺系統(tǒng)、自動定理證明、智能計算、問題求解、人工智能程序語言以及自動程序設計等。隨著科學技術(shù)的不斷發(fā)展,現(xiàn)在的人工智能已經(jīng)不再是僅僅具有簡單的模仿與邏輯思維能力,人們也越來越期待人工智能能夠幫助或者替代人類從事各種復雜的工作,加強人的思維功能、行為功能或是感知功能。這就要求人工智能具有更強的情感識別、情感表達以及情感理解能力。通俗的說,為了使得人工智能對外界的變化適應性更強,需要給它們賦予相應的情感從而能夠應對這個難以預測的世界。
在賦予人工智能“情感”的過程中,面臨著許多的問題,有科技層面上的,也有社會學層面的。本文在這里只討論其中一個比較基本的社會學問題:“人工智能情感約束問題”,即關注于如何約束賦予給人工智能的情感,不至于使其“情感泛濫”。情感指的是一種特殊的思維方式,人工智能具有了情感后的問題是:人工智能的情感是人類賦予的,人工智能自身并不會創(chuàng)造或者控制自己的情感。如果賦予人工智能的情感種類不合理,或者是賦予的情感程度不恰當,都有可能造成“情感泛濫”并導致一些災難性的后果。例如,當人工智能具有了情感之后,如果人類自身管理不恰當,有可能導致人工智能反過來傷害人類。盡管目前我們只能在一些科幻作品中看到這種情況發(fā)生,但誰也不能保證未來有一天會不會真的出現(xiàn)這種悲劇。
本文第二章對人工智能情感研究進行了概要性回顧,第三章對如何約束人工智能情感進行了嘗試性探討,最后一章對全文進行了總結(jié)。
2人工情感發(fā)展情況概述
隨著科學家對人類大腦及精神系統(tǒng)深入的研究,已經(jīng)愈來愈肯定情感是智能的一部分。人工情感是以人類自然情感理論為基礎,結(jié)合人工智能、機器人學等學科,對人類情感過程進行建模,以期獲得用單純理性思維難以達到的智能水平和自主性的一種研究方向。目前,研究者的研究方向主要是人工情感建模、自然情感機器識別與表達、人工情感機理等四個方面的內(nèi)容。其中,尤以人工情感機理的研究困難最大,研究者也最少。
目前人工情感在很多領域得到了應用和發(fā)展,比較典型的是在教育教學、保健護理、家庭助理、服務等行業(yè)領域。在教育教學方面比較典型的例子是德國人工智能研究中心發(fā)展的三個方案:在虛擬劇場、虛擬市場和對話Agent中引入情感模型和個性特征來幫助開發(fā)兒童的想象力及創(chuàng)造力。在保健護理方面比較典型的是家庭保健與護理方向,如Lisetti等人研制的一個用于遠程家庭保健的智能情感界面,用多模態(tài)情感識別手段來識別病人的情感狀態(tài),并輸入不同媒體和編碼模型進行處理,從而為醫(yī)生提供關于病人簡明而有價值的情感信息以便于進行有效的護理。服務型機器人的典型例子是卡內(nèi)基梅隆大學發(fā)明的一個機器人接待員Valerie。Valerie的面孔形象的出現(xiàn)在一個能夠轉(zhuǎn)動方向的移動屏幕上時可以向訪問者提供一些天氣和方位方面的信息,還可以接電話、解答一些問題;并且Valerie有自己的性格和愛好,情感表達較為豐富。當然這些只是人工情感應用領域中的幾個典型的例子,人工智能情感的潛力仍然是巨大的。
盡管關于人工情感的研究已經(jīng)取得了一定的成果,給我們帶來了很多驚喜和利益,但由于情緒表現(xiàn)出的無限紛繁以及它與行為之間的復雜聯(lián)系,人們對它的運行機理了解的還不成熟,以致使得目前人工情感的研究仍面臨著諸如評價標準、情感道德約束等多方面問題。所以必須清楚的認識到我們目前對于人工情感的計算乃至控制機制并沒有一個成熟的體系。
3對人工智能的情感約束
正如上文所述,如果放任人工智能“情感泛濫”,很有可能會造成嚴重的后果。為了使人工智能技術(shù)更好的發(fā)展,使智能與情感恰到好處的結(jié)合起來,我們有必要思考如何對賦予人工智能情感進行引導或者約束。
3.1根據(jù)級別賦予情感
可以根據(jù)人工智能級別來賦予其情感,如低級別人工智能不賦予情感、高級別人工智能賦予其適當?shù)那楦小1娝苤?,人工智能是一門交叉科學科,要正確認識和掌握人工智能的相關技術(shù)的人至少必須同時懂得計算機學、心理學和哲學。首先需要樹立這樣的一個觀點:人工智能的起點不是計算機學而是人的智能本身,也就是說技術(shù)不是最重要的,在這之前必須得先解決思想問題。而人工智能由于這方面沒有一個嚴格的或是量度上的控制而容易出現(xiàn)問題。從哲學的角度來說,量變最終會導致質(zhì)變?,F(xiàn)在是科學技術(shù)飛速發(fā)展的時代,不能排除這個量變導致質(zhì)變時代的人工智能機器人的到來,而到那個時候后果則不堪設想。因此,在現(xiàn)階段我們就應該對人工智能的情感賦予程度進行一個約束。
根據(jù)維納的反饋理論,人工智能可以被分成高低兩個層次。低層次的是智能型的人工智能,主要具備適應環(huán)境和自我優(yōu)化的能力。高層次的是情感型的人工智能,它的輸入過程主要是模仿人的感覺方式,輸出過程則是模仿人的反應情緒。據(jù)此我們可分別將機器人分為一般用途機器人和高級用途機器人兩種。一般用途機器人是指不具有情感,只具有一般編程能力和操作功能的機器人。那么對于一般用途的機器人我們完全可以嚴格的用程序去控制它的行為而沒必要去給他賦予情感。而對于高級層面的情感機器人來說,我們就適當?shù)馁x予一些情感。但即使是這樣一部分高層次的情感機器人,在賦予人工情感仍然需要考慮到可能會帶來的某些潛在的危害,要慎之又慎。 3.2根據(jù)角色賦予情感
同樣也可以根據(jù)人工智能機器人角色的不同選擇性的賦予其不同類型的情感。人類與機器合作起來比任何一方單獨工作都更為強大。正因為如此,人類就要善于與人工智能機器合作,充分發(fā)揮人機合作的最大優(yōu)勢。由于計算機硬件、無線網(wǎng)絡與蜂窩數(shù)據(jù)網(wǎng)絡的高速發(fā)展,目前的這個時代是人工智能發(fā)展的極佳時期,使人工智能機器人處理許多以前無法完成的任務,并使一些全新的應用不再禁錮于研究實驗室,可以在公共渠道上為所有人服務,人機合作也將成為一種大的趨勢,而他們會以不同的角色與我們進行合作。或作為工具、顧問、工人、寵物、伴侶亦或是其他角色??傊覀儜摵瓦@些機器建立一種合作互助的關系,然后共同完任務。這當然是一種很理想的狀態(tài),要做到這樣,首先需要我們?nèi)祟愞D(zhuǎn)變自身現(xiàn)有的思維模式:這些機器不再是一種工具,而是平等的服務提供人。
舉例來說,當機器人照顧老人或是小孩的時候,我們應該賦予它更多的正面情緒,而不要去賦予負面情緒,否則如果機器人的負向情緒被激發(fā)了,對于這些老人或者小孩來說危險性是極大的;但是,如果機器人是作為看門的保安,我們對這種角色的機器人就可以適當?shù)馁x予一些負向的情緒,那么對于那些不按規(guī)則的來訪者或是小偷就有一定的威懾力。總之,在我們賦予這些智能機器人情感前必須要周到的考慮這些情感的程度和種類,不要沒有顧忌的想當然的去賦予,而是按分工、作用賦予限制性的情感約束,達到安全的目的。
3.3對賦予人進行約束
對人工智能情感賦予者進行約束,提高賦予者的自身素質(zhì),并定期考核,并為每一被賦予情感的人工智能制定責任人。
縱觀人工智能技術(shù)發(fā)展史,我們可以發(fā)現(xiàn)很多的事故都是因為人為因素導致的。比如,首起機器人殺人案:1978年9月的一天,在日本廣島,一臺機器人正在切割鋼板,突然電腦系統(tǒng)出現(xiàn)故障,機器人伸出巨臂,把一名工人活生生地送到鋼刀下,切成肉片。
另外,某些研究者也許會因為利益的誘惑,而將人工智能運用在不正當領域,或者人工智能技術(shù)落入犯罪分子的手中,被他們用來進行反對人類和危害社會的犯罪活動。也就是用于所謂的“智能犯罪”。任何新技術(shù)的最大危險莫過于人類對它失去控制,或者是它落入那些企圖利用新技術(shù)反對人類的人的手中。
因此為了減少這些由于人而導致的悲劇,我們需要對這些研究者本身進行約束。比如通過相應的培訓或是定期的思想政治教育、或是理論知識的學習并制定定期的考核制度來保證這些專家自身的素質(zhì),又或者加強對人工智能事故的追究機制,發(fā)生問題能立即查詢到事故方等等,通過這樣一系列強有力的硬性指標達到減少由于人為因素導致悲劇的目的。
3.4制定相應的規(guī)章制度來管理人工智能情感的發(fā)展
目前世界上并未出臺任何一項通用的法律來規(guī)范人工智能的發(fā)展。不過在1939 年,出生在俄國的美籍作家阿西莫夫在他的小說中描繪了工程師們在設計和制造機器人時通過加入保險除惡裝置使機器人有效地被主人控制的情景。這就從技術(shù)上提出了預防機器人犯罪的思路。幾年后, 他又為這種技術(shù)裝置提出了倫理學準則的道德三律:(1)機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;(2)在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;(3)在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。這一“機器人道德三律”表現(xiàn)了一種在道德憂思的基礎上,對如何解決人工智能中有害人類因素所提出的道德原則,雖然得到很多人的指責,但其首創(chuàng)性還是得到公認的。盡管這個定律只是小說家提出來的,但是也代表了很多人的心聲,也是值得借鑒的。
那么對于人工智能情感的約束呢?顯然,更加沒有相應的法律法規(guī)來規(guī)范。那么,我們就只能在賦予人工智能情感的道理上更加的小心翼翼。比如,我們可以制定一些應急方案來防止可能導致的某些后果,也即出現(xiàn)了問題如何及時的處理之。另外我們在操作和管理上應更加慎重的去對待。也希望隨著科學技術(shù)的發(fā)展,能夠在不久的將來出臺一部相應的規(guī)章制度來規(guī)范人工智能情感的管理,使之更加精確化、合理化。
4結(jié)束語
人工智能的情感研究目的就是探索利用情感在生物體中所扮演的一些角色、發(fā)展技術(shù)和方法來增強計算機或機器人的自治性、適應能力和社會交互的能力。但是現(xiàn)階段對這方面的研究雖然在技術(shù)上可能已經(jīng)很成熟,但是人工智能情感畢竟是模擬人的情感,是個很復雜的過程,本文嘗試性的在人工智能發(fā)展中可能遇到的問題進行了有益的探討。但是不可否認仍然有很長的道路要走,但是對于人工智能的發(fā)展勁頭我們不可否認,將來“百分百情感機器人”的問世也許是遲早的事情。
參考文獻:
[1] 趙玉鵬,劉則淵.情感、機器、認知――斯洛曼的人工智能哲學思想探析[J].自然辯證法通訊,2009,31(2):94-99.
[2] 王國江,王志良,楊國亮,等.人工情感研究綜述[J].計算機應用研究,2006,23(11):7-11.
[3] 祝宇虹,魏金海,毛俊鑫.人工情感研究綜述[J].江南大學學報(自然科學版),2012,11(04):497-504.
[4] Christine Lisett,i Cynthia Lerouge.Affective Computing in Tele-home Health[C].Proceedings of the 37th IEEE Hawaii International Conference on System Sciences,2004.
[5] Valerie.The Roboceptionist[EB/OL].http://www.Roboceptionst.com.
[6] 張顯峰,程宇婕.情感機器人:技術(shù)與倫理的雙重困境[N].科技日報,2009-4-21(005).
[7] 張曉麗.跟機器人談倫理道德為時尚早[N].遼寧日報,2011-11-04(007).
[8] Peter Norvig.人工智能:機器會“思考”[J].IT經(jīng)理世界,2012(Z1):331-332.
[9] McCarthy J.Ascribing Mental Qualities to Machines1A2. In Ringle M,editor,Philosophical Perspectives in Artificial Intelligence1C2,Humanities Press Atlantic Highlands,NJ,1979:161-195.
[10] Turkle,S.Artificial Intelligence and Psychoanalysis:A New Alliance 1J2.Boston:Winter 1988,117(1).
[11] (英)瑪格麗特・A・博登.人工智能哲學[M].劉西瑞,王漢琦,譯.上海:上海譯文出版社,2006:72.
關于人工智能與人類的論文相關文章:
2.關于人工智能論文
6.人工智能議論文