http://www.bfqmb.cn 2009-07-01 14:47 來源:科技日報
編者語:隨著機器人越來越融入人類社會,為社會機器人制定一個法律框架的重要性就日漸明顯。在人類與機器人和諧共處的社會到來之前,如何在人類—機器人互動(機器人技術(shù)開發(fā))和社會制度設(shè)計(法律法規(guī)框架制定)之間保持平衡,是橫亙在人類面前最大的安全挑戰(zhàn)。
1981年,一名37歲的日本川崎制造廠工人浦田健司進入安全限制區(qū)域,試圖去維修一個機器人,但倉促之間,他并沒有將機器人完全關(guān)停。由于機器人沒有檢測到他的存在,于是,強大的機器人液壓臂把他拋進一個鄰近的碾磨機內(nèi)。從此,浦田健司成了第一個記錄在案的死于機器人之手的受害者。
在最新一期國際期刊《社會機器人》上描述的上述情景,許多人也許并不認為這是機器人失誤造成的事故。隨著機器人的使用從工業(yè)環(huán)境逐漸擴展到現(xiàn)實生活之中,如何保證在使用機器人時的人類安全已成為一個重要的社會和技術(shù)問題。
目前,像日本和韓國這樣的國家正在大力推進并預(yù)計在2030年前實現(xiàn)“人類與機器人和諧共處的社會”。韓國預(yù)測,到2020年,每個韓國家庭都將擁有一個機器人。
與那些毫無怨言地執(zhí)行重復(fù)任務(wù)的工業(yè)機器人不同的是,這些“下一代機器人”將擁有相對的自主權(quán),它們工作在一個以人為中心的環(huán)境中,如家庭護理或辦公室秘書等。當成群的這些機器人邁開腳步,開始滲透到人類的日常生活中時,人類就不得不對可能發(fā)生的安全和法律問題作出規(guī)范。
近來,研究人員就下一代機器人的安全問題提出了一個法律體系框架。他們試圖通過“安全智能”來確保一個安全的機器人設(shè)計,并提供一種在事故不可避免地發(fā)生時的處理辦法。研究人員還分析了科幻作家艾薩克·阿西莫夫在其1950年出版的短篇科幻小說《我與機器人》中描繪的“機器人三大法則”,像大多數(shù)現(xiàn)今的機器人專家一樣,他們對這些法則是否足以確保機器人可安全地履行其職責(zé)同樣表示懷疑。
阿西莫夫的機器人三大法則是:一、機器人不得傷害人類,或坐視人類受到傷害而袖手旁觀;二、除非違背第一法則,機器人必須服從人類的命令;三、在不違背第一法則及第二法則的情況下,機器人必須保護自己。
建立機器人法律框架
研究人員提出的框架中的一個指導(dǎo)原則是將機器人歸類為“第三存在”的實體,因為下一代機器人被認為既不是生命/生物(第一存在),也不是非生命/生物(第二存在)。一個“第三存在”的實體其外在和行為類似于生命體,但并不具有自我意識。雖然機器人目前在法律上被列為“第二存在”(屬于人類財產(chǎn)),但研究人員認為,“第三存在”的分類將簡化事故發(fā)生時的責(zé)任分擔處理。
將機器人融入人類社會的一個重要挑戰(zhàn)是處理“開放結(jié)構(gòu)風(fēng)險”,此種風(fēng)險發(fā)生在非結(jié)構(gòu)化環(huán)境中不可預(yù)知的相互作用。開放結(jié)構(gòu)風(fēng)險的一個例子是,讓機器人了解自然(人類)語言的細微差別。雖然自然語言中的每個詞語都有一個核心定義,語言的開放結(jié)構(gòu)特征允許其根據(jù)外部因素作出不同解釋。作為其安全智能概念的一部分,研究人員提出了一種“法律上的機器語言”概念,即通過一定的準則將倫理嵌入到機器人中,其目的是解決與開放結(jié)構(gòu)風(fēng)險相關(guān)的問題,這是阿西莫夫三大法則無法具體處理的。
研究人員表示,在過去2000年的法律歷史中,人類在法律事務(wù)中使用人類法律語言來進行交流。這些法則和準則是由自然語言(如英語、漢語、日語、法語等)構(gòu)成的。當阿西莫夫創(chuàng)立了機器人三大法則這個概念時,他就很容易將人類法律語言直接運用于他的科幻情節(jié)中。
阿西莫夫的三大法則最初只是用于文學(xué)目的,其在法律層面上的含糊其辭使得機器人開發(fā)者、機器人擁有者和政府之間的責(zé)任并不明晰。
在人類不久將面臨的安全問題上,“法律上的機器語言”框架必須將兩種基本構(gòu)想相結(jié)合,這兩個構(gòu)想是:“法則即法律”和“內(nèi)嵌式倫理”。在此一框架內(nèi),當其符合阿西莫夫的三大法則時,安全問題不再只是基于機器人的自主智能。相反,安全問題將被分類為帶有個別屬性和方法的幾個不同層次,如機器人的內(nèi)嵌安全智能、機器人和人類之間的運行方式、控制機器人使用的法律規(guī)范等。于是,機器人的安全問題未來就可在此一框架內(nèi)逐步加以解決。
限制機器人能力
研究人員還指出,通過防止機器人理解人類語言,法律上的機器語言在一般情況下就能在人類和機器人之間保持一定的距離。
那么,真的到了機器人能準確解釋人類法律語言的那一天,人類又該如何考慮其合法的地位和權(quán)利呢?人類法律體系應(yīng)當轉(zhuǎn)變成人類—機器人法律體系嗎?研究人員預(yù)測說,也許到時候就會出現(xiàn)機器人律師和機器人法官,它們將與人類律師和法官一起工作,處理發(fā)生在人類和機器人之間的訴訟案件。
機器人可能會學(xué)會人類的善意,也可能會學(xué)會人類的欺騙、虛偽和貪婪。有太多的問題等著人類,因此人類必須考慮,到底是讓機器人與人類法律體系保持一定距離,還是讓其與人類更為接近比較好。
除了使用機器語言來保持人類與機器人之間的距離外,研究人員還考慮限制普通機器人的能力。研究人員建議關(guān)注“基于人類智能的機器人”,這種機器人具有很高的認知能力,從而擁有抽象思維,能以新的方式看待自己的環(huán)境。但是,由于普遍意義上的人類智能的定義并不存在,因此很少有人能對基于人類的智能作出一致的定義。但很多機器人設(shè)計人員預(yù)計,伴隨著計算機人工智能技術(shù)的突破,基于人類的智能將不可避免地成為現(xiàn)實,機器人將可在缺乏明確的程序規(guī)則的情形下學(xué)習(xí)和適應(yīng)環(huán)境。不過,由于此中問題多多且缺乏必要性,越來越多的研究人員已傾向于禁止基于人類智能的機器人。畢竟,發(fā)明機器人的原始目的是為了創(chuàng)造一種工具,而不是設(shè)計出一個偽人類。
面臨巨大的挑戰(zhàn)
在該項研究中,研究人員還描述了此前為實現(xiàn)人類—機器人共存社會的一些嘗試。例如,“歐洲機器人研究網(wǎng)絡(luò)”(EURON)正在對機器人倫理進行研究,并試圖描繪出一幅機器人倫理的藍圖。韓國政府則制定了一個“機器人道德憲章”,其作為世界上第一個官方的機器人道德準則,旨在避免人類濫用機器人。同樣,日本政府的機器人政策委員會也在研究機器人的安全問題。2003年,日本還建立了機器人開發(fā)體驗區(qū),這是一個設(shè)計用來測試機器人如何在現(xiàn)實環(huán)境中行為的“機器人城市”。
除了這些機器人安全的研究之外,監(jiān)管機構(gòu)仍然面臨著如下許多技術(shù)和社會方面的挑戰(zhàn)。在技術(shù)方面,機器人應(yīng)使用安全規(guī)則進行編程,還是使其具有安全推理的能力?機器人倫理應(yīng)基于以人類為中心的價值體系,還是將人類的價值體系與機器人自身的價值體系結(jié)合起來?在法律上,當發(fā)生機器人意外時,應(yīng)如何劃分設(shè)計者、生產(chǎn)者、用戶甚至是機器人本身的責(zé)任?
研究人員表示,隨著機器人越來越融入人類社會,為社會機器人制定一個法律框架的重要性就日漸明顯。在人類與機器人和諧共處的社會到來之前,如何在人類—機器人互動(機器人技術(shù)開發(fā))和社會制度設(shè)計(法律法規(guī)框架制定)之間保持平衡,是橫亙在人類面前最大的安全挑戰(zhàn)。