http://www.bfqmb.cn 2008-12-03 14:30 來源:中國日報(bào)網(wǎng)
據(jù)英國《每日電訊報(bào)》11月30日報(bào)道,美國國防部再次斥巨額投資并邀請英國專家協(xié)助開發(fā)戰(zhàn)爭機(jī)器人。但與以往不同的是,這次他們要制造的是“機(jī)器人戰(zhàn)士”,這些“戰(zhàn)士”不會像它們的人類戰(zhàn)友那樣觸犯戰(zhàn)爭罪。
到2010年為止,美國在戰(zhàn)爭機(jī)器人研究項(xiàng)目上的投資將達(dá)到40億美元。美國陸軍和海軍同時(shí)雇傭了道德規(guī)范領(lǐng)域的英國專家,協(xié)助研制不會違反《日內(nèi)瓦公約》的新型戰(zhàn)爭機(jī)器。這種機(jī)器人既能夠自主辨別何時(shí)、向誰開槍,也不是像電影《終結(jié)者》那樣超道德的殺人機(jī)器。
印第安那大學(xué)哲學(xué)家艾倫教授剛剛出版了一本新書,名為《道德機(jī)器:幫機(jī)器人分辨正誤》。在這本書中,他詳細(xì)闡述了如何將道德倫理“灌輸”給機(jī)器人。佐治亞理工大學(xué)計(jì)算機(jī)專家阿爾金教授目前正在為美軍研制應(yīng)用于戰(zhàn)爭機(jī)器人的計(jì)算機(jī)軟件,他寫了一份相關(guān)報(bào)告。在這份報(bào)告中,他表示,盡管沒有“在戰(zhàn)場上絕對按道德行事”的機(jī)器人,但它們可以“比人類表現(xiàn)得更加合乎倫理”。這是因?yàn)闄C(jī)器人“不需要保護(hù)自己的身體,也沒有感情,因而不會對戰(zhàn)場上不斷變化的情形發(fā)生情緒化反應(yīng)”。這樣,機(jī)器人戰(zhàn)士既不會因恐懼心理作祟而不敢奔赴前線,也不會在抓獲對方戰(zhàn)俘后便出于報(bào)復(fù)心理而對其嚴(yán)刑拷打。
盡管目前已有大量的機(jī)器人在伊拉克和阿富汗戰(zhàn)場上“服役”,但這一代機(jī)器人都是由人工進(jìn)行遠(yuǎn)程控制的。而新一代的機(jī)器人將能夠發(fā)現(xiàn)攻擊的目標(biāo)及其所使用的武器,區(qū)分?jǐn)撤侥繕?biāo)是武器火力還是武裝士兵,并能夠識別救護(hù)車和平民這樣的軟目標(biāo)。專家會將符合《日內(nèi)瓦公約》的戰(zhàn)爭規(guī)則寫入到軟件中,然后將它裝到機(jī)器人體內(nèi),這樣機(jī)器人就可以知道什么時(shí)候開槍了。
然而,一些分析人士擔(dān)心,制造完全不犯錯誤的機(jī)器人是不可能的。設(shè)菲爾德大學(xué)的沙爾奇教授就是這一計(jì)劃的主要批評者之一。他說:“聽到這個(gè)設(shè)想我不禁打了個(gè)寒顫。我已經(jīng)在人工智能領(lǐng)域工作多年,但讓機(jī)器人來決定人類的終結(jié),這種想法太可怕了?!保ㄍ踺迹?/P>