【摘要】關(guān)于人工智能技術(shù)的軍事化運(yùn)用所可能造成的倫理學(xué)后效,既有的批評(píng)意見(jiàn)有:此類運(yùn)用會(huì)鉆現(xiàn)有國(guó)際軍備管控條約的空隙并促發(fā)此類武器的全球擴(kuò)散;會(huì)降低殺戮門(mén)檻,并導(dǎo)致更多平民死亡,等等。然而,這些批評(píng)意見(jiàn)往往對(duì)傳統(tǒng)軍事戰(zhàn)術(shù)平臺(tái)與人工智能化的戰(zhàn)術(shù)平臺(tái)設(shè)置雙重了標(biāo)準(zhǔn),并刻意夸大了后者對(duì)于改變?nèi)虬踩謩?shì)的全局性意義。而要真正使得軍用人工智能技術(shù)的倫理學(xué)后效能夠滿足人類現(xiàn)有的價(jià)值觀體系,其主要舉措并不在于去粗暴地禁止此類裝備的研發(fā),而恰恰在于如何使得此類設(shè)備具備人類意義上的“倫理推理能力”。而在該研發(fā)過(guò)程中,如何解決“各向同性問(wèn)題”亦將成為研究重點(diǎn)。
【關(guān)鍵詞】 軍用機(jī)器人(技術(shù)) 人工智能 倫理學(xué) 各向同性 心靈狀態(tài)指派
【中圖分類號(hào)】TP18 【文獻(xiàn)標(biāo)識(shí)碼】 A
【DOI】10.16619/j.cnki.rmltxsqy.2016.07.004
導(dǎo)論:軍用人工智能系統(tǒng)提出的倫理學(xué)挑戰(zhàn)
眾所周知,人工智能技術(shù)的核心命意,乃是通過(guò)對(duì)于計(jì)算機(jī)的恰當(dāng)編程,以使得相關(guān)設(shè)備能夠在行為層面上表現(xiàn)出與人類類似的“智能性”。盡管關(guān)于什么樣的行為可以被判為“智能的”,學(xué)界尚有不少的爭(zhēng)議,但是一般人都不會(huì)反對(duì)這么一條評(píng)判意見(jiàn):理想中的人工智能產(chǎn)品,應(yīng)當(dāng)能夠在盡量減少人工干預(yù)的情況下,在相關(guān)工作環(huán)境中,按照用戶的要求自主地完成各種任務(wù)。很顯然,人工智能產(chǎn)品的這種特性,倘若真能實(shí)現(xiàn),那么,其對(duì)于人力資源在各種生產(chǎn)活動(dòng)中的地位,便會(huì)構(gòu)成一種傳統(tǒng)機(jī)器所難以比擬的“威脅”,此即:該技術(shù)不僅威脅到了傳統(tǒng)體力勞動(dòng)者的地位,而且也部分威脅到了作為新的有用信息產(chǎn)生者的腦力勞動(dòng)者的地位。而這一點(diǎn)又使得人工智能技術(shù)自身與以通訊技術(shù)為代表的傳統(tǒng)信息技術(shù)有了區(qū)別:在通訊技術(shù)中,技術(shù)承載者本身并不提供新的信息,而只是在傳播信息方面提供便利;與之相比較,理想的人工智能技術(shù)平臺(tái)則成為新的有用信息的供應(yīng)節(jié)點(diǎn)。
雖然目前的人工智能技術(shù)離全面取代各行各業(yè)的人力資源依然有頗長(zhǎng)的一段路要走,但是在一些人力資源相對(duì)稀缺的領(lǐng)域,這方面的社會(huì)需求已經(jīng)非常強(qiáng)勁,甚至相關(guān)的某些應(yīng)用實(shí)踐也已經(jīng)漸漸展開(kāi)。在美國(guó)耶魯大學(xué)的生物倫理學(xué)跨學(xué)科研究中心的研究員瓦拉赫(Wendell Wallach)與美國(guó)印第安納大學(xué)的科學(xué)哲學(xué)與認(rèn)知科學(xué)專家艾倫(Colin Allen)合寫(xiě)的《道德機(jī)器:如何教會(huì)機(jī)器人辨明是非》①一書(shū)第三章中,他們提到了人工智能技術(shù)的三個(gè)最有前途的應(yīng)用領(lǐng)域:軍用機(jī)器人(以便減少戰(zhàn)爭(zhēng)中的直接人力投入,以此避免己方軍隊(duì)傷亡);性愛(ài)機(jī)器人(以便以某種法律上許可的方式滿足單身人士的生理欲望,并以此降低全社會(huì)的性犯罪率),以及工業(yè)機(jī)器人(以便應(yīng)對(duì)因?yàn)槿丝诶淆g化所造成的用工荒)。不難想見(jiàn),雖然人工智能技術(shù)在這三個(gè)領(lǐng)域的運(yùn)用都會(huì)導(dǎo)致相關(guān)的倫理問(wèn)題,但是軍用人工智能系統(tǒng)所構(gòu)成的倫理學(xué)問(wèn)題是最為尖銳的,因?yàn)榇祟愊到y(tǒng)的任務(wù)就是直接殺戮生命,或?yàn)闅⒙咎峁╅g接幫助。這自然也就牽涉到了特定軍事暴力行為自身的合法性問(wèn)題。美國(guó)空軍退役上校,現(xiàn)于塔爾頓州立大學(xué)教授哲學(xué)與宗教的哈爾嘎斯(Matthew Hallgarth)就此寫(xiě)道:
軍事沖突的語(yǔ)言即關(guān)于辯護(hù)(justification)的語(yǔ)言。軍事沖突導(dǎo)致人員的死亡以及財(cái)產(chǎn)的受損,并造成各種形式的可以想象的大量傷害。不給理由就去做這些事情乃是瘋狂的。不過(guò),即使你有了理由去做了這些事情,如果同樣的目標(biāo)可以通過(guò)更少的人員與財(cái)產(chǎn)損失來(lái)達(dá)到,那么,相關(guān)的軍事行動(dòng)還是無(wú)法得到辯護(hù)。②
這段話的基本精神便是:(1)軍事行動(dòng)分為“得到有效辯護(hù)”與“未得到有效辯護(hù)的”兩種;(2)軍事行動(dòng)所導(dǎo)致的破壞,在戰(zhàn)爭(zhēng)行為得到辯護(hù)的前提下,在倫理上便是可以被允許的;(3)不過(guò),對(duì)于某個(gè)特定的軍事行動(dòng)的辯護(hù)本身的門(mén)檻很高,因?yàn)榇祟愞q護(hù)需要比對(duì)戰(zhàn)爭(zhēng)行為與各種其他可能手段各自的損失/效益比,并證明相關(guān)軍事行動(dòng)的損失/效益比最低(譬如,在2004年9月3日結(jié)束的導(dǎo)致333名無(wú)辜人質(zhì)死亡的“別斯蘭人質(zhì)事件”中,俄羅斯安全部隊(duì)所采用的通過(guò)釋放神經(jīng)毒氣、麻痹匪徒的方式來(lái)解救人質(zhì)的行為是否能夠得到合適的倫理學(xué)辯護(hù),在相當(dāng)程度上將取決于我們?nèi)绾晤A(yù)估在不采用此類攻擊方法的前提下人質(zhì)所可能遭到的損失)。
不過(guò),此類關(guān)于軍事行動(dòng)自身可辯護(hù)性的爭(zhēng)鳴可謂古已有之,而軍用人工智能系統(tǒng)的介入,又會(huì)在多大問(wèn)題上會(huì)改變此類問(wèn)題的性質(zhì)呢?
這種改變主要體現(xiàn)在以下兩個(gè)方面:理論方面與實(shí)踐方面。
先來(lái)看實(shí)踐方面。試想:如果別斯蘭事件的處理者從人類士兵轉(zhuǎn)為人工智能系統(tǒng)的話,那么,對(duì)于特定軍事行動(dòng)的決策將由機(jī)器自主完成。而在這樣的情況下,相關(guān)行動(dòng)的倫理學(xué)責(zé)任的承載者也就會(huì)隨之成為一個(gè)問(wèn)題——譬如:我們可以因?yàn)槿祟愔笓]官的錯(cuò)誤軍事決策而將其告上軍事法庭,但是,我們又如何可能將犯下錯(cuò)誤的機(jī)器人戰(zhàn)士告上軍事法庭呢?很顯然,我們目前的法律系統(tǒng)還沒(méi)有為處理此類問(wèn)題做好準(zhǔn)備。
再來(lái)看理論方面的問(wèn)題。在人類指揮官發(fā)出命令或人類士兵執(zhí)行命令的情形下,不必預(yù)設(shè)我們已經(jīng)具備了關(guān)于這些軍人的大腦運(yùn)作的充分知識(shí)(因?yàn)榧词乖谏窠?jīng)科學(xué)知識(shí)付諸闕如的古代,一個(gè)指揮官也應(yīng)當(dāng)知道他的士兵能夠聽(tīng)懂并執(zhí)行其命令)。與之相對(duì)比,由于機(jī)器人士兵的每一個(gè)元件與每一步算法都是人類設(shè)計(jì)者的產(chǎn)物,故而,我們根本就不能設(shè)想這樣的機(jī)器人能夠在“其設(shè)計(jì)者不知其如何運(yùn)作”的前提下還能夠按照設(shè)計(jì)者的要求去運(yùn)作。這也就是說(shuō),恰恰是對(duì)于機(jī)器人戰(zhàn)士的設(shè)計(jì)本身,倒逼著設(shè)計(jì)者們先從理論層面上弄清人類戰(zhàn)士的倫理決策過(guò)程的各個(gè)細(xì)節(jié)——而不幸的是,無(wú)論是現(xiàn)有的倫理學(xué)的研究,還是現(xiàn)有的對(duì)于支持人類倫理決策過(guò)程的神經(jīng)機(jī)制的研究,都還沒(méi)有成熟到能夠?yàn)?ldquo;倫理決策的程序化編制”提供穩(wěn)固的學(xué)理依托的地步。
讀者或許會(huì)說(shuō),既然機(jī)器人戰(zhàn)士的設(shè)計(jì)在實(shí)踐上會(huì)造成麻煩,而在理論上又缺乏扎實(shí)的學(xué)術(shù)準(zhǔn)備,我們又為何要費(fèi)心發(fā)展此類技術(shù)呢?但這樣的反駁其實(shí)并不是很有說(shuō)服力。假設(shè)我們“穿越”回了達(dá)·芬奇的時(shí)代,并由此目睹了這位藝術(shù)大師兼工程學(xué)大師正在設(shè)計(jì)飛行器。請(qǐng)問(wèn),文藝復(fù)興時(shí)代的歐洲法律體系,已經(jīng)為飛行器的安全使用做好相關(guān)準(zhǔn)備了嗎?而當(dāng)時(shí)的物理學(xué)發(fā)展,是否也已經(jīng)為飛行器的設(shè)計(jì)提供了扎實(shí)的學(xué)術(shù)基礎(chǔ)了呢?恐怕都沒(méi)有。但是,我們卻難以由此得出“達(dá)·芬奇在胡鬧”的結(jié)論,因?yàn)闆](méi)有他的這些勇敢的技術(shù)嘗試,歐洲的科學(xué)技術(shù)就難以在日后發(fā)展到足以使得對(duì)于飛行器的設(shè)計(jì)與建造成為現(xiàn)實(shí)的地步。此外,相關(guān)的飛行器交通法規(guī)的出現(xiàn)與完善,也只有在相關(guān)交通工具的確已經(jīng)成熟的前提下才有可能。所以說(shuō),實(shí)踐與理論上的困難,并未構(gòu)成阻礙我們制造軍用人工智能系統(tǒng)的充分理由,相反還會(huì)在一定程度上構(gòu)成相關(guān)技術(shù)努力的“激發(fā)器”(不過(guò),關(guān)于如何克服這些具體的困難,顯然還是有巨大的討論空間的。詳見(jiàn)后文)。
讀者或許還會(huì)說(shuō):飛行器與軍用機(jī)器人不同,前者可以用于戰(zhàn)爭(zhēng)目的,也可以用于和平目的,后者則只可以用于軍事目的。因此,建造軍用機(jī)器人從根本上就是反倫理的。不過(guò),這依然是一個(gè)很薄弱的反駁意見(jiàn)。從手槍到核導(dǎo)彈,人類畢竟已經(jīng)建造出了各種類型的武器彈藥。缺乏對(duì)于運(yùn)用這些武器的歷史語(yǔ)境的考察,抽象地指責(zé)軍火工業(yè)是“反倫理的”還是“有利于促進(jìn)人類道德水平的”,恐怕都是毫無(wú)意義。而這個(gè)一般性的結(jié)論,也應(yīng)當(dāng)能適用于對(duì)于智能化武器的討論中去。
而一些對(duì)智能武器特別抱有敵意的批評(píng)者或許會(huì)繼續(xù)反駁說(shuō):我們并不反對(duì)制造一般意義的有人操控的武器,但是我們反對(duì)制造并且使用具有高度自主性(特別是具有自主開(kāi)火權(quán))的軍用智能機(jī)器人,因?yàn)檫@類武器很特殊——而正是因?yàn)檫@種特殊性,才使得我們有理由禁止開(kāi)發(fā)并且部署它們。
那么,究竟是軍用智能機(jī)器人的哪些“特殊性”才使得它成為被禁止的理由呢?而這些理由是否能夠站得住腳呢?
關(guān)于智能軍用系統(tǒng)之倫理危害性的五個(gè)論證及其薄弱處
前面我們已經(jīng)提及,從倫理學(xué)角度看,軍事行動(dòng)可分為“得到辯護(hù)的”與“未得到辯護(hù)”兩類。這也正是俗稱的“正義的”與“非正義的”軍事行動(dòng)之間的分別。哈爾嘎斯則將“正義的”軍事行動(dòng)所應(yīng)當(dāng)具備的規(guī)范性條件歸結(jié)為七條(見(jiàn)表1③)。很顯然,如果一個(gè)人試圖論證智能軍用系統(tǒng)的廣泛運(yùn)用能夠使得對(duì)于這七條規(guī)范中的至少一部分更難被滿足的話,那么,這樣的論證結(jié)論就自然能夠幫助其導(dǎo)出對(duì)于人工智能的軍事運(yùn)用的負(fù)面?zhèn)惱韺W(xué)評(píng)估。反過(guò)來(lái)說(shuō),如果人工智能的軍事運(yùn)用的支持者能夠證明此類產(chǎn)品的出現(xiàn)不足以對(duì)上述規(guī)范的滿足構(gòu)成明顯的障礙的話,那么,上述負(fù)面評(píng)估的可靠性也就會(huì)由此抵消。
就上述七條規(guī)范性原則與人工智能系統(tǒng)的軍事化運(yùn)用之間的關(guān)系而言,筆者的大致意見(jiàn)是:這些規(guī)范主要關(guān)涉到了戰(zhàn)爭(zhēng)行為的宏觀決策行為,而與個(gè)別作戰(zhàn)人員的當(dāng)下戰(zhàn)術(shù)決策關(guān)系不大(譬如,特定的武裝力量首腦以及其他政治支配力量對(duì)于戰(zhàn)爭(zhēng)理由的解釋是否恰當(dāng),實(shí)際上與基層指戰(zhàn)員的戰(zhàn)術(shù)決策方式并無(wú)直接因果關(guān)系)。而就通常人的理解而言,人工智能技術(shù)對(duì)于現(xiàn)有武器的改造往往是針對(duì)戰(zhàn)術(shù)兵器而言的,并以使之“無(wú)人化”為短期目標(biāo),而一般并不特別針對(duì)洲際導(dǎo)彈等戰(zhàn)略兵器的改造(因?yàn)楹笳弑緛?lái)就已是“無(wú)人化”了)。在這樣的情況下,人工智能技術(shù)的軍事化所導(dǎo)致的戰(zhàn)爭(zhēng)樣態(tài)的變化也只具有戰(zhàn)術(shù)層次上的意義,而不會(huì)在更宏觀的尺度上改變使得戰(zhàn)爭(zhēng)決策本身得以被給出的整個(gè)政治經(jīng)濟(jì)環(huán)境。由是觀之,至少?gòu)脑瓌t上看,軍用機(jī)器人的出現(xiàn)似乎并不會(huì)使得本來(lái)非正義的戰(zhàn)爭(zhēng)變得正義,也不會(huì)使得本來(lái)正義的戰(zhàn)爭(zhēng)變得不正義。此外,由于智能武器的研發(fā)本身,本來(lái)就有“使得軍事打擊更為精準(zhǔn)化”與“降低人類士兵生命風(fēng)險(xiǎn)”這兩大設(shè)計(jì)初衷,因此,它們的出現(xiàn)無(wú)疑還能夠降低戰(zhàn)爭(zhēng)的損失,而由此提高戰(zhàn)爭(zhēng)的“人道指數(shù)”。故而,似乎并不存在著一些特別強(qiáng)的理由去促使倫理學(xué)家們?yōu)橹悄芪淦鞯某霈F(xiàn)打上負(fù)面的印象分。
不過(guò),這樣的粗略的回復(fù)顯然不能夠說(shuō)服堅(jiān)持為軍用人工智能系統(tǒng)的倫理學(xué)面相“打負(fù)分”的倫理學(xué)家們。且看他們?cè)谙旅嫠岢龅母鼮榧?xì)致的反駁意見(jiàn),以及筆者對(duì)于這些意見(jiàn)的再反駁。
反駁意見(jiàn)一:無(wú)人智能武器的出現(xiàn)會(huì)鉆現(xiàn)有的國(guó)際武器控制條約的空子,并由此使得世界和平更為脆弱。
此意見(jiàn)是德國(guó)的技術(shù)倫理學(xué)家阿爾特曼(Jürgen Altmann)提出的。④阿爾特曼提醒我們注意:戰(zhàn)術(shù)兵器(如主戰(zhàn)坦克)與戰(zhàn)略兵器之間的界限,會(huì)在前者的數(shù)量被大量增加的情況下而變得模糊(比如,十個(gè)裝甲師就可以被認(rèn)為是一支戰(zhàn)略性力量了),因此,人工智能技術(shù)與既有作戰(zhàn)平臺(tái)的結(jié)合物,只要乘以巨大的數(shù)量,就會(huì)導(dǎo)致戰(zhàn)略能力的激增,對(duì)國(guó)與國(guó)之間的戰(zhàn)略平衡造成威脅,并進(jìn)而危害世界和平。他同時(shí)提醒我們注意:目前世界上現(xiàn)有的武器控制條約都沒(méi)有對(duì)人工智能技術(shù)的廣泛使用作出明確限定,這就為在這方面掌握技術(shù)優(yōu)勢(shì)的國(guó)家“鉆條約的空子”大開(kāi)了方便之門(mén)。以1990年通過(guò)的《常規(guī)武裝力量裁減條約》(The Treaty on Conventional Armed Forces)為例,此條約對(duì)北約與俄羅斯所各自能夠在歐洲部署的主戰(zhàn)坦克、自行火炮、武裝直升機(jī)等常規(guī)陸戰(zhàn)戰(zhàn)術(shù)平臺(tái)的數(shù)量上限作出了規(guī)定,并允許條約簽訂國(guó)對(duì)彼此的條約執(zhí)行情況進(jìn)行互檢。需要注意的是,該條約在字面上并沒(méi)有談及上述戰(zhàn)術(shù)平臺(tái)應(yīng)當(dāng)是有人駕駛的還是無(wú)人駕駛的,而只對(duì)相關(guān)作戰(zhàn)平臺(tái)的物理特征做出了規(guī)定(如“坦克重量必須在16.5噸以上”,等等)。在這樣的情況下,無(wú)人駕駛的“類坦克兵器”或許就能通過(guò)“減重”而使得其擺脫“坦克”的名義標(biāo)簽,并由此得到不受條約控制的發(fā)展(需要注意的是,在減去三名到四名人類成員的前提下,此類“減重”在技術(shù)上并不困難)。
筆者的再反駁意見(jiàn):沒(méi)有任何一個(gè)軍備控制條約能夠覆蓋未來(lái)兵器的可能的發(fā)展方向,而這一點(diǎn)即使在無(wú)人智能武器出現(xiàn)之前也是成立的。以1922年通過(guò)的《美英法意日五國(guó)關(guān)于限制海軍軍備條約》(或簡(jiǎn)稱《五國(guó)公約》)為例:該條約對(duì)簽約五列強(qiáng)的戰(zhàn)列艦、巡洋艦等主要艦種的噸位分配以及相關(guān)武備(特別是艦載火炮與魚(yú)雷武器)的性能上限均作出了規(guī)定。但是,這個(gè)條約并沒(méi)有對(duì)在日后的海戰(zhàn)中大放光彩的航空母艦的發(fā)展作出明確限制,而這一點(diǎn)也在客觀上為各簽約國(guó)(特別是日本與美國(guó))日后的龐大航母編隊(duì)的出現(xiàn)打下了伏筆。然而,若有人因?yàn)檫@一點(diǎn)“疏漏”,就提出“倘若人類當(dāng)時(shí)就能夠禁止各國(guó)研發(fā)航母,山本五十六就根本無(wú)法制定偷襲珍珠港的計(jì)劃了”之類的議題,未免就顯得過(guò)于天真了。納粹德國(guó)在二戰(zhàn)時(shí)期根本就沒(méi)有一艘可用的航母(其“齊柏林”號(hào)航母直至戰(zhàn)爭(zhēng)結(jié)束時(shí)都未服役),但這似乎并沒(méi)有阻止其研制出V-1與V-2導(dǎo)彈襲擊倫敦——而與早在“一戰(zhàn)”后期就已出現(xiàn)的早期航母相比,導(dǎo)彈武器當(dāng)然更是在《五國(guó)公約》的文本草擬者頭腦之外的事物了。這也就是說(shuō),既然任何軍備控制條約都會(huì)有所遺漏,那么,即使現(xiàn)有的軍備條約包含了限制智能武器使用的條款,也不能夠保證條約草擬者所忽略的其他未來(lái)兵器(如可以小型化的電磁炮與激光炮)不會(huì)比無(wú)人智能武器帶來(lái)更大的“戰(zhàn)略失衡風(fēng)險(xiǎn)”。此外,從純軍事技術(shù)的角度看,阿爾特曼所設(shè)想的無(wú)人駕駛的自主性坦克與傳統(tǒng)有人坦克之間的差異,其實(shí)要遠(yuǎn)遠(yuǎn)小于航母與戰(zhàn)列艦之間的差異。航母畢竟是與戰(zhàn)列艦在作戰(zhàn)功能上非常不同的一類高端海戰(zhàn)兵器,而拋開(kāi)“有人無(wú)人”這一點(diǎn)不談,無(wú)人坦克的作戰(zhàn)功能與有人坦克是基本相同的。譬如,未來(lái)無(wú)人坦克的現(xiàn)有雛型——美軍Robot-TALON-SWORDS系統(tǒng)(2007年服役)——所裝備的M-240機(jī)槍或者40毫米榴彈發(fā)射器,并不會(huì)因?yàn)槠浔话惭b到了無(wú)人駕駛平臺(tái)上,而在技術(shù)參數(shù)上有別于人類士兵手中的同型號(hào)武器。因此,即使此類無(wú)人駕駛戰(zhàn)術(shù)平臺(tái)在數(shù)量上被累積到了可觀的數(shù)字,由此而為新技術(shù)擁有方所帶來(lái)的戰(zhàn)略優(yōu)勢(shì)也是有限的,并很容易被對(duì)方所具有的其他更具摧毀性的武器(如戰(zhàn)術(shù)核武器)所抵消。由此看來(lái),即使在無(wú)人智能武器被廣泛運(yùn)用的明日戰(zhàn)場(chǎng),對(duì)于世界和平最大的威脅依然還將會(huì)是核、生、化等既有的大規(guī)模殺傷性武器。而將武備控制的焦點(diǎn)轉(zhuǎn)向人工智能的軍事化運(yùn)用,或許恰恰反而會(huì)誘使我們錯(cuò)過(guò)了國(guó)際軍備控制問(wèn)題的真正關(guān)節(jié)點(diǎn)。
反駁意見(jiàn)二:無(wú)人智能武器的出現(xiàn),很可能會(huì)為此類的武器的全球擴(kuò)散制造機(jī)緣,并由此使得世界的和平更為脆弱。
這一條反駁意見(jiàn)與上一條反駁意見(jiàn)有一定的意義關(guān)聯(lián),但是其重點(diǎn)是放在軍控條約之外的軍備仿制行為之上的。由帕恰克·林(Patrick Lin)所牽頭的一個(gè)科技倫理研究團(tuán)隊(duì),在由美國(guó)海軍資助的研究報(bào)告《戰(zhàn)爭(zhēng)機(jī)器人的風(fēng)險(xiǎn)與相關(guān)的倫理議題》⑤中指出,即使美國(guó)軍隊(duì)所研制的軍用機(jī)器人能夠暫時(shí)取得戰(zhàn)場(chǎng)上的戰(zhàn)術(shù)優(yōu)勢(shì),一旦此類裝備被具有相當(dāng)?shù)哪嫦蚬こ虒W(xué)仿制能力的敵方所俘獲,那么,此類武器的擴(kuò)散就會(huì)成為不可避免的事情。此外,考慮到任何一個(gè)此類軍品的研發(fā)國(guó)都會(huì)覺(jué)得自己的研發(fā)行為具有政治上的正義性,所以,單純的倫理學(xué)爭(zhēng)辯將無(wú)法說(shuō)服任何一方凍結(jié)此方面的研發(fā)行為。故而,全球范圍內(nèi)的人工智能軍品研發(fā)競(jìng)賽也將無(wú)法避免。
筆者的再反駁意見(jiàn):上述反駁意見(jiàn)其實(shí)已經(jīng)夸大了反向工程學(xué)設(shè)計(jì)對(duì)于新技術(shù)的獲取能力。相關(guān)技術(shù)理由有四:(甲)即使軍用機(jī)器人被敵方俘獲,使得其軟件得以運(yùn)作的源代碼也未必能夠得到技術(shù)能力相對(duì)有限的俘獲方的成功解碼;(乙)即使此類源代碼被成功解碼,被解碼方修改源代碼程序以升級(jí)原有武器的軟件包的技術(shù)難度,也會(huì)遠(yuǎn)遠(yuǎn)小于重新設(shè)計(jì)相關(guān)武器的硬件平臺(tái)的技術(shù)難度——而此類升級(jí)會(huì)立即使得解碼方的解碼成果變得意義甚微;(丙)我們或許不難設(shè)想:未來(lái)軍用機(jī)器人本身的智能力量在很大程度上將依賴于存儲(chǔ)于“云”中的大數(shù)據(jù)信息,故而,對(duì)于單個(gè)平臺(tái)的俘獲未必會(huì)對(duì)已經(jīng)占有信息優(yōu)勢(shì)的一方構(gòu)成真正的損害(除非俘獲方可以“黑”入地方網(wǎng)絡(luò)竊取情報(bào)——但要做到這一點(diǎn),卻未必以俘獲地方戰(zhàn)術(shù)機(jī)器人為前提);(丁)由于人工智能軍品的廣泛運(yùn)用,會(huì)大大降低人類士兵被地方俘獲的幾率,因此,相關(guān)運(yùn)用反而會(huì)降低經(jīng)由被俘人員之口泄露軍事機(jī)密的幾率(因?yàn)闊o(wú)論從技術(shù)還是倫理角度上看,安置人工智能軍品被俘后的自毀程序的難度,均要遠(yuǎn)小于教育人類士兵被俘后“寧死不屈”的難度)。
結(jié)合前面四方面分析,我們不難看出:如果人工智能兵器的俘獲方本身不具備強(qiáng)大的人工智能產(chǎn)品的研發(fā)能力與數(shù)據(jù)采集方面的積累的話,此類俘獲行動(dòng)為其所帶來(lái)的戰(zhàn)術(shù)與戰(zhàn)略優(yōu)勢(shì)恐怕都會(huì)是相對(duì)有限的——而反過(guò)來(lái)說(shuō),倘若其已經(jīng)具備了這方面的很強(qiáng)的科研能力的話,那么,通過(guò)俘獲敵方產(chǎn)品來(lái)提升自身武器性能的做法,意義也就不大了。故而,從人工智能軍品的“可俘獲性”之中,我們恐怕并不會(huì)立即推出相關(guān)技術(shù)的“易擴(kuò)散性”。
反駁意見(jiàn)三:無(wú)人智能武器的出現(xiàn),會(huì)使得殺戮變得更為容易,因此,也會(huì)使得軍事暴力在未來(lái)變得更為頻繁。
謝菲爾德大學(xué)的機(jī)器人與公共事務(wù)方面的專家沙克(Noel Sharkey)從戰(zhàn)爭(zhēng)心理學(xué)的角度,討論了人類士兵直接參與的戰(zhàn)爭(zhēng)與未來(lái)由機(jī)器人所主導(dǎo)的戰(zhàn)爭(zhēng)之間的差別。他援引歷史學(xué)家的研究成果指出,當(dāng)人類士兵面對(duì)敵對(duì)方的其他人類士兵的時(shí)候,其殺戮行為會(huì)受到種種心理壓力的制衡(如在二戰(zhàn)的太平洋戰(zhàn)場(chǎng),有八成的美軍步槍手在面對(duì)敵人時(shí)要么故意不放槍,要么故意將子彈打偏;而通過(guò)對(duì)于美國(guó)內(nèi)戰(zhàn)的蓋茨堡戰(zhàn)役中隨機(jī)回收的27574支火槍的調(diào)查,歷史學(xué)家還驚訝地發(fā)現(xiàn):其中的九成槍支存在著重復(fù)裝彈的問(wèn)題——這就說(shuō)明很多士兵只是在戰(zhàn)場(chǎng)上裝出向敵軍射擊的姿態(tài))。⑥然而,軍用機(jī)器人卻不會(huì)在面對(duì)人類目標(biāo)時(shí)具備同等的心理壓力,因此,其殺戮行為也會(huì)變得更為冷酷而高效。此外,在機(jī)器人戰(zhàn)士已經(jīng)被廣泛運(yùn)用的前提下,戰(zhàn)爭(zhēng)決策人與實(shí)際的殺戮場(chǎng)面之間的“殺戮距離”也會(huì)被拉得很大,以至于殘酷的戰(zhàn)爭(zhēng)場(chǎng)面已經(jīng)難以對(duì)人類決策者的實(shí)際心理構(gòu)成任何值得一提的影響。這同樣亦使得阻礙戰(zhàn)爭(zhēng)決策發(fā)生的相關(guān)心理門(mén)檻變得更低,并使得決策者更容易趨向于使用軍用機(jī)器人(而不是非暴力手段)來(lái)達(dá)到自己的政治、經(jīng)濟(jì)目的。
筆者的再反駁意見(jiàn):
第一,如果有人認(rèn)為機(jī)器人戰(zhàn)士的廣泛參戰(zhàn)對(duì)于殺戮效率的提高會(huì)最終對(duì)和平構(gòu)成威脅的話,那么,從邏輯上看,為了保衛(wèi)和平,我們不僅要阻止機(jī)器人戰(zhàn)士的參戰(zhàn),而且還要阻止任何別的手段去增加殺戮效率,甚至還要努力降低這種效率。由此導(dǎo)致的推論便是:保衛(wèi)和平的最佳方式,就是制造出盡量劣質(zhì)的槍支,在訓(xùn)練中鼓勵(lì)士兵故意不擊中目標(biāo),等等。但這顯然是荒謬的。此外,在傳統(tǒng)戰(zhàn)爭(zhēng)中,緊張、負(fù)罪感等心理壓力對(duì)于人類戰(zhàn)士心理困擾,本身就會(huì)貽誤戰(zhàn)機(jī),并提升己方戰(zhàn)友被敵人殺傷的概率,甚至是誤操作武器傷害自身的概率(比如,南北戰(zhàn)爭(zhēng)時(shí)期前膛槍的彈藥若被重復(fù)裝填,其實(shí)是非常容易導(dǎo)致嚴(yán)重的炸膛事故的)。而在假設(shè)我們所參與的戰(zhàn)爭(zhēng)具有正義性的前提下,上述種種因素的浮現(xiàn),顯然只會(huì)促使邪惡勢(shì)力更快地勝利,并由此反而降低全球的倫理水準(zhǔn)。而反過(guò)來(lái)說(shuō),只要戰(zhàn)爭(zhēng)本身的正義性不成為問(wèn)題,人工智能技術(shù)的軍事運(yùn)用,則會(huì)使得人類指揮員的作戰(zhàn)意圖可以得到更高效、更精準(zhǔn)的貫徹,并使得具有正義性的戰(zhàn)爭(zhēng)早日勝利(筆者的這一意見(jiàn)參考了前文提到的帕恰克·林等人給出的調(diào)研報(bào)告的相關(guān)內(nèi)容,但是筆者根據(jù)自己的意見(jiàn)對(duì)其原始表述作出了改寫(xiě)⑦)。
第二,甚至關(guān)于“軍用機(jī)器人在進(jìn)行殺戮時(shí)毫無(wú)心理壓力”這一斷語(yǔ),我們也不能夠給予充分的贊同。機(jī)器人的設(shè)計(jì)者當(dāng)然不希望自己的產(chǎn)品會(huì)在戰(zhàn)場(chǎng)中因?yàn)?ldquo;緊張”而發(fā)生武器的誤操作,但是,為了能夠在復(fù)雜的戰(zhàn)場(chǎng)環(huán)境中更為有效地進(jìn)行針對(duì)不同行為的倫理后果的推理,一些設(shè)計(jì)者依然希望能夠在軟件層面上模擬出“憐憫”等人類情緒,以便使得機(jī)器人的行為輸出能夠接近富有正常感情的人類戰(zhàn)士的輸出(關(guān)于這一問(wèn)題,后文還要詳談)。因此,即使此類軍用機(jī)器人雖然在面對(duì)真正的敵人的時(shí)候會(huì)有更高的殺戮效率,但這也絕不意味著它們會(huì)“濫殺無(wú)辜”。
第三,至于人工智能的廣泛運(yùn)用是否會(huì)降低戰(zhàn)爭(zhēng)發(fā)動(dòng)的門(mén)檻,則需要結(jié)合多重因素做全面評(píng)估。應(yīng)當(dāng)注意的是,即使在軍用無(wú)人機(jī)技術(shù)還遠(yuǎn)遠(yuǎn)沒(méi)有達(dá)到“無(wú)監(jiān)督自主運(yùn)作”的今天,對(duì)于精確制導(dǎo)彈藥的廣泛運(yùn)用,早已使得以美國(guó)為代表的西方軍事強(qiáng)國(guó)具備了針對(duì)弱國(guó)的巨大軍事優(yōu)勢(shì)。但即使在這樣的前提下,各國(guó)的憲法與相關(guān)的經(jīng)濟(jì)、政治考量,也會(huì)使得相關(guān)國(guó)家的領(lǐng)導(dǎo)人在軍事決策問(wèn)題上有所顧忌(如時(shí)下美國(guó)政府在打擊伊斯蘭國(guó)與干涉敘利亞局勢(shì)時(shí)的瞻望猶豫態(tài)度,便可為明證)。而人工智能因素的介入是否會(huì)對(duì)既有的國(guó)際軍事格局產(chǎn)生根本性的影響,則頗令人懷疑。其具體理由是:(甲)自主運(yùn)作的無(wú)人軍用平臺(tái)自身的高昂價(jià)格與其所攜帶的靈巧彈藥的高昂價(jià)格,依然會(huì)構(gòu)成阻礙當(dāng)事國(guó)輕啟戰(zhàn)端的經(jīng)濟(jì)因素;(乙)在軍用人工智能技術(shù)使用國(guó)的對(duì)手是弱國(guó)的前提下,人工智能技術(shù)的加入對(duì)技術(shù)使用國(guó)的既有軍事優(yōu)勢(shì),并不會(huì)產(chǎn)生明顯的“加分效應(yīng)”,相反還會(huì)成為某種“邊際效應(yīng)”;(丙)而在相關(guān)技術(shù)的使用國(guó)的對(duì)手具備較強(qiáng)軍事實(shí)力的前提下,后者也可以通過(guò)升級(jí)戰(zhàn)略導(dǎo)彈等傳統(tǒng)戰(zhàn)略兵器的方式,來(lái)抵消掉人工智能技術(shù)所帶來(lái)的微弱優(yōu)勢(shì)??傊?,單就人工智能技術(shù)的加入這一因素而言,其使得全球戰(zhàn)爭(zhēng)變得更為頻繁的幾率是微乎其微的。
反駁意見(jiàn)四:無(wú)人智能武器的出現(xiàn)對(duì)于己方士兵生命的保護(hù)是以殺死更多的平民為代價(jià)的,因此從人道主義角度考量(而不是從狹隘的民族主義角度出發(fā)),這些武器的出現(xiàn)降低了全球的倫理水準(zhǔn)。
這一意見(jiàn)是瑞典的科技倫理專家韋伯(Jutta Weber)給出的,為此該作者還專門(mén)提到了美國(guó)與以色列等國(guó)運(yùn)用無(wú)人機(jī)技術(shù)進(jìn)行反恐戰(zhàn)爭(zhēng)時(shí),諸多無(wú)辜平民也被連帶殺死的案例。⑧不過(guò),這樣的反駁是否經(jīng)得起數(shù)據(jù)的考量,還需要更仔細(xì)的考證。
筆者的再反駁意見(jiàn):美國(guó)政治學(xué)專家蒲牢(Avery Plaw)針對(duì)美軍無(wú)人機(jī)部隊(duì)在巴基斯坦以及阿富汗所從事的反恐戰(zhàn)爭(zhēng),而進(jìn)行了認(rèn)真的傷亡估算。⑨根據(jù)此估算結(jié)果,筆者認(rèn)為:前述對(duì)于無(wú)人軍用平臺(tái)“濫殺無(wú)辜”的指控,其實(shí)是在夸大其辭。具體理由如下:
首先我們必須肯定,任何戰(zhàn)爭(zhēng)都難以避免平民的誤傷,而僅僅因?yàn)榭吹狡矫癖徽`傷就否定一切軍事行動(dòng)的合理性,我們就會(huì)轉(zhuǎn)而去否定二戰(zhàn)時(shí)期盟軍轟炸德國(guó)與日本的合理性了(眾所周知,在這些軍事行動(dòng)中被連累的無(wú)辜德日平民的數(shù)量,要遠(yuǎn)超在今日的阿富汗與巴基斯坦的反恐戰(zhàn)爭(zhēng)中被連累的平民數(shù)量)。反過(guò)來(lái)說(shuō),如果我們對(duì)有人飛機(jī)的轟炸所造成的誤傷特別寬容,卻特別計(jì)較于無(wú)人機(jī)打擊所造成的誤傷的話,那么,我們就已經(jīng)犯下了“設(shè)置雙重標(biāo)準(zhǔn)”的錯(cuò)誤。而更一般地來(lái)看,根據(jù)所謂的“動(dòng)武代價(jià)相稱性原則”,要判斷特定類型的軍事行動(dòng)(下面簡(jiǎn)稱為“M”)所導(dǎo)致的誤傷量是否達(dá)到了一個(gè)倫理上可以被接受的最高閾值,我們還需要比較三個(gè)數(shù)據(jù)之間的大?。?/p>
(甲)被行動(dòng)M所誤殺的平民占被其所殺死人員的總數(shù)(即被誤殺者與被殺死的真正敵人之總和)的比例有多高?
(乙)如果M被懸置,而相關(guān)軍事主體采用傳統(tǒng)戰(zhàn)爭(zhēng)手段進(jìn)行軍事干預(yù)的話,那么,其誤殺的平民占被其所殺死人員的總數(shù)的比例有多高?
(丙)如果相關(guān)軍事主體什么事情也不做的話,那么,當(dāng)?shù)仄矫竦乃劳鰯?shù)在當(dāng)?shù)匚溲b沖突所導(dǎo)致的總體死亡數(shù)中所占據(jù)的比例有多高?
很明顯,套用到美國(guó)及其盟友所從事的反恐戰(zhàn)爭(zhēng)的具體語(yǔ)境之中,只要第三個(gè)數(shù)據(jù)明顯高于前兩個(gè)數(shù)據(jù),這就說(shuō)明美軍及其盟軍對(duì)于當(dāng)?shù)鼐謩?shì)的干預(yù),能夠使得更多的平民從恐怖分子的槍口下得救(盡管這也難免使得一部分不走運(yùn)的平民被誤傷)。而如果第二個(gè)數(shù)據(jù)又明顯高于第一個(gè)數(shù)據(jù)的話,這便會(huì)進(jìn)一步證明運(yùn)用無(wú)人軍用平臺(tái)從事這類軍事打擊的合理性。而蒲牢所提供的計(jì)算結(jié)果恰恰支持這種“甲小于乙小于丙”的排序方案(見(jiàn)表2⑩)。
從上面的分析來(lái)看,無(wú)人機(jī)的使用恰恰提升了阿富汗以及巴基斯坦地區(qū)的安全形勢(shì),拯救了更多良民的生命。另外需要注意的是,目前美軍使用的“捕食者”等型號(hào)的無(wú)人機(jī)并不是真正意義上的人工智能產(chǎn)品,因?yàn)槠溥\(yùn)作還需要后方的人類遙控員進(jìn)行遠(yuǎn)程指揮。由于遙控員與無(wú)人機(jī)之間的巨大空間阻隔,操縱信號(hào)的延遲便會(huì)時(shí)常發(fā)生,而很多不幸的誤傷事件也是由此發(fā)生的。不難想見(jiàn),在未來(lái)的人工智能軍用平臺(tái)的運(yùn)作高度自主化的前提下,此類延遲時(shí)差就很可能會(huì)被基本消除,而由延遲時(shí)差問(wèn)題所導(dǎo)致的誤傷現(xiàn)象也會(huì)被進(jìn)一步減少。從這個(gè)角度上說(shuō),人工智能化的兵器的“人道性指數(shù)”不僅會(huì)遠(yuǎn)超傳統(tǒng)人操軍用平臺(tái),而且也會(huì)超過(guò)今日的無(wú)人機(jī)。
反駁意見(jiàn)五:無(wú)人智能武器的出現(xiàn),使得人類士兵的傳統(tǒng)“武德”的存在成為冗余,并由此為人類社會(huì)的整體安全構(gòu)成了某種隱患。
這個(gè)反駁意見(jiàn)的主要提出者乃是澳洲莫納什大學(xué)的倫理學(xué)家斯帕若(Robert Sparrow)。?他具體提到了從屬于傳統(tǒng)軍事組織的人類士兵所需要滿足的四項(xiàng)“武德”要求:“勇氣”(以使得戰(zhàn)士能夠直面死亡的威脅而勇往直前)、“忠誠(chéng)”(以使得戰(zhàn)士能夠使得自己的利益服務(wù)于軍事集體的利益)、“榮譽(yù)”(以使得戰(zhàn)士能夠在為軍事組織作出奉獻(xiàn)之后獲得正面的心理反饋)、“仁慈”(以使得戰(zhàn)士的軍事暴力行為能夠多少具備“文明”的面相,如不虐殺俘虜,不傷害平民,等等)。而在斯帕若看來(lái),無(wú)論是今日的遠(yuǎn)程遙控飛機(jī)以還是未來(lái)的自主性機(jī)器人戰(zhàn)士,其廣泛運(yùn)用都會(huì)使得上述“武德”被漸漸邊緣化。具體而言,無(wú)論是操控?zé)o人機(jī)的行為還是給機(jī)器人戰(zhàn)士下指令的行為,都不需要人類操作員面臨任何生命風(fēng)險(xiǎn),因此,新技術(shù)對(duì)于人類操作員在“勇氣”與“忠誠(chéng)”等方面的德性要求,也就會(huì)隨之大大降低。此外,也正是因?yàn)槲淦鞑倏厝藛T與殺戮現(xiàn)場(chǎng)之間的距離足夠遠(yuǎn),因此,這種無(wú)風(fēng)險(xiǎn)的戰(zhàn)爭(zhēng)也會(huì)大大降低人類操作員的軍人榮譽(yù)感,并使得其難以理解“仁慈”的價(jià)值(比如,只有在能夠設(shè)身處地地思考敵人的處境的前提下,對(duì)于敵人的仁慈才是可能的——可遠(yuǎn)距離的操控卻使得這種“設(shè)身處地”變成奢望)。而斯帕若的擔(dān)憂則是:如果這些已經(jīng)盛行幾千年的軍人武德被廢棄的話,那么武裝部隊(duì)得以被凝結(jié)的精神基礎(chǔ)也會(huì)隨之動(dòng)搖,而這一點(diǎn)又進(jìn)一步會(huì)為人類未來(lái)社會(huì)的安全性造成不可估量的風(fēng)險(xiǎn)。
筆者的再反駁意見(jiàn):在對(duì)于軍用人工智能系統(tǒng)(或作為其當(dāng)下“前身”的遠(yuǎn)程操控武器系統(tǒng))的種種倫理學(xué)批判中,斯帕若的意見(jiàn)可謂卓爾不群。因?yàn)橐话愕呐u(píng)者都已經(jīng)在自己的立論上或隱或顯地預(yù)設(shè)了和平主義的立場(chǎng),而斯帕若則似乎是站在軍人的傳統(tǒng)價(jià)值觀立場(chǎng)之上。但是,出于以下四點(diǎn)考量,筆者依然認(rèn)為其批評(píng)意見(jiàn)并不能自圓其說(shuō):
第一,由于技術(shù)優(yōu)勢(shì)所導(dǎo)致的交戰(zhàn)雙方的技術(shù)不對(duì)稱,其實(shí)是各個(gè)軍事強(qiáng)國(guó)一直在努力獲得的目標(biāo),而這種目標(biāo)的暫時(shí)獲得自然也就使得技術(shù)掌控方能夠在“安全距離”之外任意殺戮自己的目標(biāo)而不必承擔(dān)風(fēng)險(xiǎn)。因此,傳統(tǒng)武德的弱化,其實(shí)遠(yuǎn)在軍用人工智能武器或遠(yuǎn)距離操控系統(tǒng)問(wèn)世之前就已慢慢發(fā)生——譬如,早在1898年的恩圖曼戰(zhàn)役之后,英國(guó)陸軍指揮官基欽納勛爵就對(duì)其部屬以損失47人代價(jià),用機(jī)關(guān)槍消滅一萬(wàn)名蘇丹戰(zhàn)士的“戰(zhàn)績(jī)”感到“勝之不武”。?因此,從論證角度看,斯帕若的“武德衰減論”不僅適用于軍用人工智能系統(tǒng),而且也適用于任何能夠帶來(lái)非對(duì)稱優(yōu)勢(shì)的軍事科技。由此所導(dǎo)致的邏輯后果便是:我們不應(yīng)當(dāng)去發(fā)展任何能夠帶來(lái)非對(duì)稱優(yōu)勢(shì)的軍事科技,而應(yīng)當(dāng)全部回到“武德”最盛的中世紀(jì)時(shí)代中去,用冷兵器進(jìn)行戰(zhàn)爭(zhēng)。但這個(gè)推論顯然是荒謬的。
第二,斯帕若的論證模糊地提到了武德喪失后人類社會(huì)所面臨的風(fēng)險(xiǎn)。但是他卻沒(méi)有詳細(xì)說(shuō)明這樣的風(fēng)險(xiǎn)是什么。很顯然,在冷兵器時(shí)代,由于武裝人員的身體機(jī)能對(duì)于戰(zhàn)斗的勝負(fù)至關(guān)重要,而“武德”又是維持此類身體機(jī)能的重要精神因素,所以,缺乏武德的群體在面對(duì)突然的軍事威脅時(shí)其面臨的生存風(fēng)險(xiǎn)的確是很大的(譬如,建康的梁朝士大夫們?cè)?48年開(kāi)始的“侯景之亂”中,就是因?yàn)檐娛掠職鈪T乏,身體又缺乏基本鍛煉,而幾乎被叛軍屠戮干凈)。而在戰(zhàn)爭(zhēng)技術(shù)日益精進(jìn)的今天,“武德”的衰微所可能導(dǎo)致的社群生存風(fēng)險(xiǎn)也便大大降低了,因?yàn)檩p易就可以被操縱的武器可以使得婦女也具備強(qiáng)大的自衛(wèi)能力——除非這些軍事技術(shù)會(huì)莫名其妙地突然失傳(但由于軍事技術(shù)是內(nèi)生于整個(gè)現(xiàn)代科技體系的,除非整個(gè)現(xiàn)代科技莫名其妙地崩潰,我們很難設(shè)想唯獨(dú)軍事技術(shù)會(huì)突然失傳)。
第三,隨著自主性軍用機(jī)器人的大批服役,人類武裝部隊(duì)成員的職責(zé)自然會(huì)全面轉(zhuǎn)向?qū)τ谶@些自動(dòng)化設(shè)備的軟硬件維護(hù)以及遠(yuǎn)程操控之上,而由此必然會(huì)導(dǎo)致部隊(duì)人員開(kāi)支的大規(guī)??s減,以及各國(guó)國(guó)防經(jīng)費(fèi)的縮減。同時(shí),武裝人員的階層色彩會(huì)從比較容易受到國(guó)家意識(shí)操控的農(nóng)民戰(zhàn)士,轉(zhuǎn)向受過(guò)良好教育的中產(chǎn)白領(lǐng),這樣一來(lái),以民粹主義為底色的軍國(guó)主義宣傳將漸漸失去階級(jí)基礎(chǔ)。這一點(diǎn)顯然有利于促進(jìn)全球和平指數(shù)的提高。
第四,“勇氣”“忠誠(chéng)”之類的人類德性當(dāng)然還具有軍事活動(dòng)之外的更為寬泛的應(yīng)用范圍,因此它們不僅僅只能被視為“武德”的一部分。不難想見(jiàn),在戰(zhàn)爭(zhēng)之外,商業(yè)與科技(乃至各類競(jìng)技體育比賽)等領(lǐng)域內(nèi)的競(jìng)爭(zhēng)也需要社會(huì)成員勇于克險(xiǎn)、甘于奉獻(xiàn),因此,只要相關(guān)領(lǐng)域內(nèi)的激勵(lì)機(jī)制能夠正常起效,武德的衰落未必會(huì)造成社會(huì)德性的全面退化。
由于篇幅限制,筆者只是挑選了現(xiàn)有英文文獻(xiàn)中最具代表性的幾個(gè)針對(duì)無(wú)人軍用人工智能系統(tǒng)的倫理學(xué)面相的批評(píng)意見(jiàn)。從更高的層面上看,這些批評(píng)意見(jiàn)均在下述方面將讀者引入了思維陷阱:第一,對(duì)傳統(tǒng)軍事戰(zhàn)術(shù)平臺(tái)與人工智能化的戰(zhàn)術(shù)平臺(tái)設(shè)置雙重標(biāo)準(zhǔn),即對(duì)前者導(dǎo)致的倫理學(xué)問(wèn)題刻意規(guī)避,而對(duì)后者所可能導(dǎo)致的問(wèn)題盡量放大;第二,沒(méi)有意識(shí)到自身對(duì)于軍用人工智能系統(tǒng)的批評(píng)意見(jiàn)也可以被運(yùn)用到過(guò)往的軍事技術(shù)進(jìn)步之上,由此,既錯(cuò)過(guò)了對(duì)于前者的聚焦,又容易導(dǎo)出“反對(duì)一切軍事技術(shù)進(jìn)步”的極端推論;第三,忽視手段與目的之間的區(qū)別,將殺戮效率的提高與戰(zhàn)爭(zhēng)自身的目的或動(dòng)機(jī)混為一談;第四,刻意混淆作為戰(zhàn)術(shù)兵器的軍用人工智能系統(tǒng)與戰(zhàn)略性兵器之間的界限,夸張前者對(duì)于改變?nèi)虬踩謩?shì)的全局性意義。
然而,筆者對(duì)于上述批評(píng)意見(jiàn)的反駁,并不意味著我們就應(yīng)當(dāng)在研發(fā)軍用人工智能系統(tǒng)時(shí),抱著一種倫理學(xué)上的冷漠態(tài)度。正確的態(tài)度毋寧說(shuō)是:我們既不能因?yàn)橄嚓P(guān)倫理學(xué)風(fēng)險(xiǎn)的存在而因噎廢食,也不能因?yàn)橛腥艘蛞瓘U食了而去對(duì)相關(guān)風(fēng)險(xiǎn)不管不顧。而正如本文“導(dǎo)論”部分所指出的,軍用人工智能系統(tǒng)所導(dǎo)致的最棘手的兩個(gè)問(wèn)題是:第一,從理論角度看,如何為相關(guān)技術(shù)平臺(tái)的“倫理決策的程序化編制”,提供穩(wěn)固的學(xué)理依托?第二,從實(shí)踐角度看,如何為那些已經(jīng)具有高度自主性的軍用人工智能系統(tǒng)所可能犯下的錯(cuò)誤核定其責(zé)任歸屬?這也便是下節(jié)所要討論的問(wèn)題。
倫理推理的程序化及軍用機(jī)器人誤傷責(zé)任的判定
首先我們需要肯定的是,一個(gè)真正具有自主性的(即非遠(yuǎn)程遙控的)軍用機(jī)器人肯定是具有倫理推理能力的,因此,去討論是否要為這樣的自主性軍用平臺(tái)去加裝相關(guān)的倫理推理模塊是沒(méi)有意義的(在這里,我們將“倫理推理能力”寬泛地界定為對(duì)于“當(dāng)下該做什么,又不該做什么”的判斷能力)。而之所以這么說(shuō),則又是基于如下推理:
(1)與日常生活類似,大量的軍事作戰(zhàn)任務(wù)都會(huì)設(shè)置各種不同的作戰(zhàn)目標(biāo)(如摧毀敵軍戰(zhàn)車,但要保衛(wèi)要點(diǎn)附近的油庫(kù),等等)。
(2)由于資源與時(shí)間的限制,以及預(yù)想中的作戰(zhàn)環(huán)境所可能發(fā)生的改變,在特定的語(yǔ)境中,這些作戰(zhàn)目標(biāo)并不能被完全達(dá)成,因此就需要命令執(zhí)行者在作戰(zhàn)目標(biāo)之中作出取舍。
(3)這就牽涉到被取舍對(duì)象的“優(yōu)先度”排序問(wèn)題。
(4)雖然系統(tǒng)很可能已經(jīng)從指揮員那里得到了如何進(jìn)行此類排序的一般原則(如:“在面對(duì)敵軍眾多裝甲戰(zhàn)車時(shí),優(yōu)先攻擊主戰(zhàn)坦克,然后攻擊步兵戰(zhàn)車”,等等),但在具體的語(yǔ)境中,如何靈活地執(zhí)行這些標(biāo)準(zhǔn)卻依然是需要某種變通的(比如,倘若系統(tǒng)發(fā)現(xiàn)敵軍使用的新型步兵戰(zhàn)車的車載反坦克導(dǎo)彈的威脅,其實(shí)并不小于敵軍坦克的坦克炮的威脅,那么,系統(tǒng)應(yīng)當(dāng)首先攻擊誰(shuí)呢?)。
(5)上述變通能力是廣義上的“倫理推理能力”的一個(gè)變種,也就是說(shuō),它在本質(zhì)上就是按照一般的規(guī)范性原則,而在特定的語(yǔ)境中決定“什么該做什么不該做”的能力(在非軍事語(yǔ)境中,這種能力的典型體現(xiàn)便是如何在特定語(yǔ)境中執(zhí)行“緊急避險(xiǎn)”“正當(dāng)防衛(wèi)”等抽象原則)。
(6)所以,自主性運(yùn)作的軍用技術(shù)平臺(tái)是肯定具有特定的倫理推理能力的,否則,其運(yùn)作就不是真正具有自主性的。
從純戰(zhàn)術(shù)角度看,讓一個(gè)戰(zhàn)術(shù)平臺(tái)具有一定程度上的倫理推理能力,其意義是相當(dāng)巨大的。這可使得相關(guān)平臺(tái)能夠在不與人類指揮員作出信息交換的前提下,根據(jù)稍縱即逝的戰(zhàn)機(jī)迅速作出反應(yīng),以此提高作戰(zhàn)效能,盡量避免因?yàn)槿藱C(jī)互動(dòng)而導(dǎo)致的戰(zhàn)術(shù)失誤,并最終為戰(zhàn)術(shù)目的的達(dá)成作出正面貢獻(xiàn)。但問(wèn)題是:根據(jù)大多數(shù)人的道德直覺(jué),我們必須使得軍用機(jī)器人相關(guān)推理活動(dòng)的輸出,能夠達(dá)到與人類戰(zhàn)士相同(乃至更高)的正確率,否則我們就沒(méi)有倫理上說(shuō)得過(guò)去的理由將其投入實(shí)戰(zhàn)。但是,我們又該如何使得看似死板的軍用機(jī)器人具備這種“奇幻”的能力呢?
為了能夠使得我們的討論更為精細(xì)化,下面,就讓我們從由前美國(guó)海軍陸戰(zhàn)隊(duì)狙擊手克里斯多夫·斯科特·凱爾(Christopher Scott Kyle,1974~2013)的自傳體小說(shuō)改編的電影《美國(guó)狙擊手》(American Sniper)中抽取一個(gè)片段,以便更為形象地展現(xiàn)出在軍事環(huán)境下所進(jìn)行的倫理推理的一些基本特征。爾后,我們?cè)倩剡^(guò)頭去討論如何用計(jì)算機(jī)編程的辦法去再現(xiàn)此類推理過(guò)程。
在這部電影的某個(gè)場(chǎng)景中,凱爾奉命用狙擊步槍封鎖巴格達(dá)的某街巷,時(shí)刻護(hù)衛(wèi)在其視野內(nèi)活動(dòng)的戰(zhàn)友。如果凱爾發(fā)現(xiàn)有恐暴分子對(duì)其戰(zhàn)友做出能夠威脅其安全的行動(dòng)的話,那么,他是有權(quán)率先開(kāi)槍將其擊斃的。但這里的問(wèn)題是:如何在蕓蕓眾生之中,實(shí)時(shí)判斷出哪些人是潛在的恐暴分子呢?如何避免誤傷無(wú)辜群眾呢?而在電影中出現(xiàn)的真實(shí)境況便是:一個(gè)當(dāng)?shù)匦∧泻?,拾起了一支遺落在地上的RPG火箭筒——在這樣的情況下,凱爾是否應(yīng)當(dāng)判斷其為恐暴分子呢?這無(wú)疑讓凱爾陷入了兩難。如果說(shuō)這孩子是恐暴分子的話,可是,按照常理,這么小的孩子成為恐暴分子的概率應(yīng)當(dāng)是很低的,而且,出于模仿成人行為的本性,他拿起火箭筒的行為或許只是出于嬉戲的心理;但如果聽(tīng)之任之的話,這孩子只要真的扣動(dòng)扳機(jī)將火箭彈射出去,這一舉動(dòng)勢(shì)必就會(huì)殺死正在附近閑聊的美軍。那么,凱爾又該如何判斷這個(gè)孩子擺弄武器的真實(shí)意圖呢?
在上述場(chǎng)景中,凱爾所執(zhí)行的任務(wù)顯然有兩個(gè)子目標(biāo):保護(hù)戰(zhàn)友,以及避免誤傷群眾。而在孩子拾起火箭筒的那個(gè)瞬間,這兩個(gè)任務(wù)之間的邏輯沖突便慢慢浮現(xiàn)出來(lái)了:盡管依據(jù)所謂的“排中律”,那個(gè)孩子要么是恐怖分子,要么就不是,但是在現(xiàn)實(shí)的語(yǔ)境中,凱爾是很難判斷這樣的一個(gè)手持危險(xiǎn)武器的孩子到底是不是恐怖分子的,因?yàn)橐獜氐锥床炷繕?biāo)意圖的時(shí)間資源與社會(huì)資源恰恰是他所不具備的。在這樣的情況下,他就必須在“保護(hù)戰(zhàn)友”以及“避免誤傷平民”之間作出快速的權(quán)重調(diào)整,并確定何者為其第一目標(biāo)。雖然在電影中那個(gè)男孩由于扔掉了武器而使得兩個(gè)目標(biāo)都自動(dòng)得到了實(shí)現(xiàn),但倘若他沒(méi)有這么做的話,他卻很可能會(huì)被凱爾立即射殺(盡管他本人的主觀意圖或許一直是“開(kāi)個(gè)玩笑”而已)。這樣的話,對(duì)于凱爾來(lái)說(shuō),上級(jí)下達(dá)的“避免誤傷平民”的作戰(zhàn)意圖或許就無(wú)法得到貫徹了。
現(xiàn)在我們轉(zhuǎn)而思考這個(gè)問(wèn)題:倘若凱爾不是一個(gè)真人,而是一個(gè)自主化運(yùn)作的智能化狙擊步槍射擊系統(tǒng)(下面簡(jiǎn)稱為“機(jī)器凱爾”),該系統(tǒng)又該如何面對(duì)這樣的倫理學(xué)困境呢?
按照上面的分析,真人版凱爾所面對(duì)的最大的困擾就是如何知道那個(gè)小孩的真實(shí)意圖,即如何知道他是不是“非戰(zhàn)斗人員”。而機(jī)器凱爾顯然也會(huì)面臨同樣的問(wèn)題。很多熟悉人工智能的讀者會(huì)說(shuō),這無(wú)非就是一個(gè)“模式識(shí)別”(pattern recognition)的問(wèn)題。簡(jiǎn)言之:如果“模式識(shí)別”的結(jié)果裁定目標(biāo)為非軍事人員,那么就不該開(kāi)火;反之則開(kāi)火。
在筆者看來(lái),該答案雖不能算錯(cuò),但實(shí)在是過(guò)于簡(jiǎn)單了。不難想見(jiàn),真人版凱爾的視覺(jué)系統(tǒng)與大腦也可以被視為一個(gè)“模式識(shí)別系統(tǒng)”,而在前述的場(chǎng)景中,為何同樣的模式識(shí)別任務(wù)也會(huì)讓真人版凱爾也感到為難呢?而在這樣的情況下,我們又怎么能夠指望人工設(shè)計(jì)的機(jī)器版凱爾,能夠比通過(guò)自然演化而來(lái)的真人版凱爾的神經(jīng)系統(tǒng)更好地判斷出誰(shuí)是“非軍事人員”呢?由此看來(lái),我們還需要對(duì)“模式識(shí)別”的技術(shù)細(xì)節(jié)作出更細(xì)致的探討,以便確定使得機(jī)器凱爾的識(shí)別水平可以至少接近人類戰(zhàn)士水準(zhǔn)的具體技術(shù)路線。下面便是兩條最可能被想到的技術(shù)路線:
第一,系統(tǒng)將所有同時(shí)滿足下述三個(gè)條件的人員都視為潛在的恐暴分子:1、持有武器;2、未穿我軍軍服卻身穿平民衣服;3、正在用武器指向身穿我軍軍服的人員,或者是別的平民。如果同時(shí)滿足這三個(gè)條件,則系統(tǒng)有權(quán)對(duì)其開(kāi)火。
第二,系統(tǒng)通過(guò)與貯存在“云”中的大數(shù)據(jù)信息進(jìn)行信息交換,以便對(duì)每張看到的人臉進(jìn)行人臉識(shí)別,最終確定誰(shuí)是潛在的恐暴分子,并對(duì)其作出追蹤。一旦發(fā)現(xiàn)其作出危險(xiǎn)動(dòng)作,可立即開(kāi)火。
仔細(xì)思量一下,這兩條技術(shù)路線都有漏洞。
第一條技術(shù)路線所牽扯出來(lái)的問(wèn)題有:到底什么叫“武器”?日本武士刀肯定算武器吧,但是在電影《太陽(yáng)帝國(guó)》(Empire of the Sun)中,一個(gè)已經(jīng)投降的日本軍人只是用武士刀幫助主人公吉姆切開(kāi)蘋(píng)果而已(因?yàn)楫?dāng)時(shí)兩人手頭恰好沒(méi)有別的刀具),卻被遠(yuǎn)處的盟軍游擊隊(duì)誤認(rèn)為是在試圖加害吉姆,而被開(kāi)槍擊斃。而用來(lái)砍香蕉的刀具肯定不算武器吧,但在1994年的盧旺達(dá)大屠殺中,此類砍刀卻被廣泛地用以進(jìn)行殘酷的種族清洗。這也就是說(shuō),什么算是“武器”什么不又不算,乃是根據(jù)特定的語(yǔ)境而被判定的,而這種“根據(jù)語(yǔ)境而進(jìn)行靈活的語(yǔ)義指派”的能力,顯然又是一種非常難以被算法化的識(shí)別能力(盡管也并非不可能被算法化)。此外,在復(fù)雜的城市治安戰(zhàn)環(huán)境中,“是否穿平民衣服”也并不是判斷恐暴分子的可靠指標(biāo)??直┓肿涌赡艽┲祦?lái)的或者仿制的我方軍服渾水摸魚(yú),而己方的特工也可能身穿便衣潛伏在一般群眾之中。而當(dāng)系統(tǒng)自以為看到一個(gè)身穿平民衣服的人正在用武器指向一個(gè)穿我軍軍服的人的時(shí)候,真正發(fā)生的情況卻或許是:一個(gè)偽裝為平民的己方特工正試圖消滅一個(gè)偽裝為己方軍人的恐暴分子。
再來(lái)看第二條技術(shù)路線。雖然目前的人臉識(shí)別技術(shù)與大數(shù)據(jù)處理技術(shù)都日趨成熟,但是基于以下理由,若僅僅憑借如上技術(shù)來(lái)判斷誰(shuí)是恐暴分子,恐怕依然是遠(yuǎn)遠(yuǎn)不夠用的:1、將所有的恐暴分子的信息搜集齊備,基本上是不可能的(譬如,域外地區(qū)的人口信息的不完整性,以及恐暴集團(tuán)成員的高流動(dòng)性,都會(huì)為相關(guān)技術(shù)的運(yùn)用制造困難);2、恐暴分子可能使用蒙臉等方式遮蔽臉部信息;3、而在特定光學(xué)條件下,系統(tǒng)對(duì)于人臉識(shí)別的難度也會(huì)陡增。
從心靈哲學(xué)與認(rèn)知科學(xué)哲學(xué)的角度看,這兩條技術(shù)路線(特別是前一條路線)自身的漏洞各自牽涉到了兩個(gè)非常重要的哲學(xué)問(wèn)題。第一個(gè)問(wèn)題叫“心靈狀態(tài)指派”(mental state attribution),第二個(gè)問(wèn)題叫“各向同性”(isotropy)。前一個(gè)問(wèn)題的實(shí)質(zhì)是:如何從目標(biāo)的外部行為判斷出其內(nèi)部心理狀態(tài)(比如,某孩童擺弄武器的行為僅僅是出于嬉戲,還是出于真實(shí)的敵意)呢?這個(gè)問(wèn)題之所以是具有哲學(xué)維度的,乃是因?yàn)椋阂环矫妫辽僭谡軐W(xué)層面上,我們都已知道行為主義的理論(即那種將人類的精神意圖系統(tǒng)還原為其外部行為的哲學(xué)理論)乃是成問(wèn)題的(或說(shuō)得更為學(xué)術(shù)化一點(diǎn),我們很難給出對(duì)于從行為類型到意圖類型的映射關(guān)系的完整函數(shù)刻畫(huà));而事情的另一方面卻是:除了從外部行為判斷一個(gè)目標(biāo)的內(nèi)部意圖之外,自然的或者人工的識(shí)別系統(tǒng)似乎并沒(méi)有什么別的渠道去了解相關(guān)的信息。這就構(gòu)成了一個(gè)矛盾。而要解決這種“信息輸入不足”的問(wèn)題,唯一的辦法就是訴諸于更多的背景信息——比如,在機(jī)器凱爾的例子中,關(guān)于“恐暴分子中青少年成員比例”的背景知識(shí),恐怕就會(huì)對(duì)判斷“眼前的目標(biāo)是不是恐暴分子”起到莫大的作用。然而,對(duì)于更多信息量的牽涉,卻會(huì)立即引發(fā)“各向同性問(wèn)題”。
“各向同性”這個(gè)看似古怪的術(shù)語(yǔ)借自于物理學(xué)與化學(xué),原指物體的物理、化學(xué)等方面的性質(zhì)不會(huì)因方向的不同而有所變化的特性。而在信息科學(xué)與認(rèn)知科學(xué)哲學(xué)中,該術(shù)語(yǔ)則轉(zhuǎn)指這樣的一個(gè)問(wèn)題:既然某件事情與世界上所有的其他事情均有某種潛在相關(guān)性(這就類比于物理學(xué)家所說(shuō)的“各向同性”),那么,在當(dāng)下的問(wèn)題求解語(yǔ)境中,信息處理系統(tǒng)到底又該如何對(duì)這些潛在的相關(guān)性進(jìn)行遴選,以便能以最經(jīng)濟(jì)的方式來(lái)解決相關(guān)問(wèn)題呢?譬如,中國(guó)茶葉的市場(chǎng)價(jià)格,究竟會(huì)不會(huì)對(duì)一個(gè)中東商人的心臟健康產(chǎn)生影響呢?盡管一般而言兩者是不相關(guān)的,但在某種潛在的意義上,二者還是有可能發(fā)生間接的聯(lián)系的(譬如,如果該商人在這個(gè)市場(chǎng)上已經(jīng)投入了巨額資金,那么中國(guó)茶葉的跌價(jià)就會(huì)影響他的特定生理指標(biāo))。而由此引發(fā)的問(wèn)題卻是:對(duì)于特定的信息處理系統(tǒng)而言,它在判斷某人心臟病發(fā)病的原因時(shí),需要不需要考慮中國(guó)茶葉的市價(jià)呢?而如果中國(guó)茶葉的市價(jià)的確需要被考慮的話,那么它是否還要考察宋代的官窯與明代的宣德?tīng)t在香港拍賣市場(chǎng)上的價(jià)格呢?而如果系統(tǒng)如此不斷地在巨大的信息檢索空間中考察下去的話,它又如何可能在規(guī)定的時(shí)間內(nèi)完成診斷呢?不難想見(jiàn),此類“各向同性”問(wèn)題亦會(huì)在戰(zhàn)爭(zhēng)環(huán)境下得到展現(xiàn):“機(jī)器凱爾”究竟該怎么判斷一把日本武士刀到底是與“文物展示”相關(guān),還是與“暴力襲擊”相關(guān)呢?它該怎么判斷一把砍刀是用來(lái)砍香蕉的呢,還是用來(lái)砍人的呢?而更為麻煩的是,在復(fù)雜的城市治安戰(zhàn)的環(huán)境下,某個(gè)物體(玻璃瓶、水管、磚頭、門(mén)板,等等)都可以與暴力襲擊發(fā)生潛在的關(guān)聯(lián),而要在這些潛在的關(guān)聯(lián)之間找到最有可能實(shí)現(xiàn)的關(guān)聯(lián),則會(huì)牽涉到海量的計(jì)算,并由此使得實(shí)時(shí)的自動(dòng)化作戰(zhàn)系統(tǒng)的信息處理中心難以負(fù)擔(dān)。?
不過(guò),上面的技術(shù)困難并非“原則上無(wú)法解決的”,因此,它們的存在并不足以促使我們?nèi)ビ肋h(yuǎn)禁止自主化軍用平臺(tái)擁有“開(kāi)火權(quán)”。具體而言,關(guān)于如何馴服“各向同性問(wèn)題”,溫莎大學(xué)的哲學(xué)家兼認(rèn)知科學(xué)家瓜里尼(Marcello Guarini)與美國(guó)海軍下屬的一個(gè)認(rèn)知科學(xué)研究項(xiàng)目的主管貝洛(Paul Bello)在其合寫(xiě)的論文《機(jī)器人戰(zhàn)爭(zhēng):從無(wú)平民的戰(zhàn)場(chǎng)轉(zhuǎn)移到充滿平民的戰(zhàn)場(chǎng)后吾輩所面臨的挑戰(zhàn)》?中便提出了相關(guān)的技術(shù)建議。其要點(diǎn)如下:
第一,為系統(tǒng)設(shè)置一個(gè)背景知識(shí)庫(kù)K,在其中,系統(tǒng)會(huì)預(yù)先貯存大量常識(shí)知識(shí),如“火箭筒會(huì)摧毀軟皮軍用車輛,卻無(wú)法摧毀主戰(zhàn)坦克”,等等。
第二,通過(guò)知覺(jué)模塊與語(yǔ)義描述模塊,獲取對(duì)于當(dāng)下場(chǎng)景的描述集S。如在機(jī)器凱爾的例子中,這指的便是對(duì)于其在視野中所看到的一切的描述。
第三,為系統(tǒng)設(shè)置一套邏輯推理規(guī)則,以便系統(tǒng)能夠從S的一個(gè)子集與K的一個(gè)子集的邏輯合取中推出新的結(jié)論(譬如,從“有人拿起了火箭筒且瞄向了附近的悍馬吉普車”與“火箭筒可以摧毀軟皮軍用車輛”之中,推出“有人有能力摧毀附近的悍馬吉普車”)。
第四,以“K+S”為整個(gè)系統(tǒng)在處理當(dāng)下問(wèn)題時(shí)所憑倚的信息檢索空間的最大限制,并由此將“各向同性問(wèn)題”界定為:如何在“K+S”所規(guī)定的邊界范圍之內(nèi),盡量將系統(tǒng)的實(shí)際信息檢索范圍縮小到系統(tǒng)的運(yùn)算負(fù)擔(dān)與戰(zhàn)術(shù)需求所允許的范圍之內(nèi)。
第五,關(guān)于如何縮小上述檢索范圍,有兩個(gè)選項(xiàng)。選項(xiàng)甲(即大多數(shù)人工智能專家所采用的選項(xiàng))即訴諸于所謂的“激發(fā)傳播模型”,亦即假定“K+S”之中的各個(gè)記憶要素之間的傳播網(wǎng)絡(luò)是帶有豐富的權(quán)重規(guī)定的(如:“甲要素”與“乙要素”之間的關(guān)聯(lián)權(quán)重值較高,而與“丙要素”之間的關(guān)聯(lián)權(quán)重值則較低)。這樣一來(lái),檢索活動(dòng)將僅僅沿著那些高權(quán)重的聯(lián)系管道進(jìn)行,而不再理睬那些低權(quán)重的管道。在這樣的情況下,檢索的范圍就自然縮小。
第六,選項(xiàng)乙(也便是瓜里尼與貝洛所更為推薦的選項(xiàng))則是這樣的:設(shè)置一個(gè)“注意力磁”(attentional magnet)P(這是由系統(tǒng)的情緒模塊所產(chǎn)生的一個(gè)命題),讓其調(diào)動(dòng)系統(tǒng)的注意力到P自身或與其有直接語(yǔ)義相關(guān)性的對(duì)象上去。同時(shí),將在每一個(gè)認(rèn)知回路中輸入項(xiàng)(即P與S)與記憶庫(kù)K之間互動(dòng)的產(chǎn)物界定為“E”,也就是一個(gè)表征“緊急性程度”的新參數(shù)(該參數(shù)將只取“0”與“1”兩個(gè)值)。具體而言,該參數(shù)取“1”時(shí)將激活系統(tǒng)的“殺戮動(dòng)機(jī)激發(fā)器”,由此激活開(kāi)火程序,反之則不會(huì)激活之。這也就是說(shuō),特定的信息檢索機(jī)制將進(jìn)一步啟動(dòng)系統(tǒng)的不同的命題態(tài)度(如動(dòng)機(jī)、欲望)的自我指派機(jī)制,以便更有效地幫助系統(tǒng)自身作出“開(kāi)火”與“不開(kāi)火”之類的重要決定。
不難想見(jiàn),如果瓜里尼與貝洛的上述算法描述思路被施用于前述“機(jī)器凱爾”的話,那么,對(duì)于其敵我識(shí)別的過(guò)程的最終輸出而言,產(chǎn)生至關(guān)重要影響的便是兩個(gè)參數(shù):第一,系統(tǒng)的情緒模塊產(chǎn)生了怎樣的“注意力磁”以便將系統(tǒng)的注意力轉(zhuǎn)向戰(zhàn)場(chǎng)的哪些要素上去;第二,系統(tǒng)的內(nèi)置背景知識(shí)是如何描述對(duì)象的一般威脅的,以便為系統(tǒng)的“倫理推理方向”提供必要的先驗(yàn)偏置。現(xiàn)在我們就來(lái)分別討論這兩個(gè)參數(shù)的確定機(jī)制。按照瓜里尼與貝洛的意見(jiàn),就對(duì)于第一個(gè)參數(shù)的確定而言,系統(tǒng)的內(nèi)置情緒模塊的工作方式起到了非常明顯的作用,因?yàn)?ldquo;同情”之類的情緒會(huì)使得系統(tǒng)立即產(chǎn)生諸如“使得平民或者戰(zhàn)友免受傷害”之類的內(nèi)部指令(這也就是前面所說(shuō)的“P”),并由此使得其計(jì)算資源被立即集中到相關(guān)的問(wèn)題求解搜索方向上去。雖然就如何在人工智能系統(tǒng)實(shí)現(xiàn)此類“人工情緒”,瓜里尼與貝洛的討論沒(méi)有給出一個(gè)最終的答案,但從功能主義的抽象視角來(lái)看,任何一個(gè)能夠?qū)⑻囟ㄕJ(rèn)知資源集中到特定方向上去的快速切換開(kāi)關(guān),都能夠被視為一個(gè)“情緒提供閥”,并由此得到相關(guān)算法的模擬。而就對(duì)于第二個(gè)參數(shù)的確定而言,除了人類用戶需要為機(jī)器提供盡量豐富而準(zhǔn)確的關(guān)于治安戰(zhàn)環(huán)境的常識(shí)性描述之外,系統(tǒng)設(shè)計(jì)者也期望系統(tǒng)能夠通過(guò)機(jī)器學(xué)習(xí)等方式自主更新相關(guān)的知識(shí),以便能夠?yàn)闀r(shí)下的任務(wù)提供最為可靠的后臺(tái)情報(bào)支持。
讀者可能會(huì)問(wèn):倘若我們能夠?qū)⑸鲜黾夹g(shù)環(huán)節(jié)全部實(shí)現(xiàn)的話,那么,我們是否能夠期望“機(jī)器凱爾”不會(huì)誤殺任何平民呢?很不幸,答案恐怕是否定的。請(qǐng)回顧一下我們?cè)谇懊鏋?ldquo;機(jī)器凱爾”所設(shè)置的工作目標(biāo):盡管我們希望其失誤率能夠等同于或者低于受過(guò)嚴(yán)格訓(xùn)練的人類精英狙擊手的水準(zhǔn),但是我們并不期望它能夠避免任何誤判——因?yàn)槭澜缟细揪筒豢赡艽嬖谥魏瓮耆怀鲥e(cuò)的信息處理系統(tǒng)(無(wú)論是人造的系統(tǒng)還是通過(guò)自然演化而來(lái)的系統(tǒng))。具體而言,就上文所給出的關(guān)于“機(jī)器凱爾”的可能操作程序而言,其情緒模塊或許就會(huì)因?yàn)楸舜烁?jìng)爭(zhēng)的情緒供應(yīng)(如對(duì)于戰(zhàn)友的愛(ài)與對(duì)于平民的同情)而產(chǎn)生彼此沖突的自我指令,并由此使得系統(tǒng)的問(wèn)題求解方向陷入混亂;而系統(tǒng)自身的背景知識(shí)的缺陷,也會(huì)使得其在進(jìn)行倫理推理時(shí)陷入誤區(qū)。但這里的問(wèn)題卻是:我們是否就要因?yàn)榇祟惾焙端鶎?dǎo)致的錯(cuò)誤——無(wú)論是誤殺平民的錯(cuò)誤,還是坐視戰(zhàn)友被殺而不管的錯(cuò)誤——而否定“機(jī)器凱爾”的應(yīng)用價(jià)值呢?依筆者淺見(jiàn),恐怕這樣的結(jié)論本身就犯下了某種“人類中心主義”的錯(cuò)誤,因?yàn)槿祟悜?zhàn)士所犯下的同類錯(cuò)誤從來(lái)沒(méi)有構(gòu)成我們禁止使用人類戰(zhàn)士的充分理由。為何我們要對(duì)機(jī)器戰(zhàn)士提出更為苛刻的要求呢?
有的讀者或許會(huì)說(shuō):即使“機(jī)器凱爾”的失誤率要低于人類狙擊手,只要其失誤率沒(méi)有被降到零,我們依然要禁止其投入實(shí)用:因?yàn)槿祟悜?zhàn)士是法律上的責(zé)任主體,其一旦犯錯(cuò)了我們可以用軍法對(duì)其進(jìn)行懲罰——而用以懲罰機(jī)器人的法律規(guī)章現(xiàn)在還付諸闕如(而且去制定這樣的新法律也會(huì)顯得十分荒謬)。在這樣的情況下,為了避免“出了錯(cuò)之后無(wú)法找到責(zé)任人”的尷尬,最好我們就不要自找麻煩地去部署“機(jī)器凱爾”之類的能夠自主開(kāi)火的智能兵器了。
筆者認(rèn)為,上述批評(píng)意見(jiàn)的結(jié)論雖然是錯(cuò)的,但其推理內(nèi)容卻并非完全沒(méi)有合理的成分。誠(chéng)如洛克霍斯特(Gert-Jan Lokhorst)與霍芬(Jeroen van den Hoven)在論文《軍用機(jī)器人的責(zé)任》?中所指出的,用軍法去懲罰一個(gè)犯錯(cuò)的士兵的確是有意義的,因?yàn)檫@能夠讓這個(gè)士兵感到羞恥,并在部隊(duì)中產(chǎn)生“以儆效尤”的效果。但用軍法懲罰一臺(tái)機(jī)器卻是于事無(wú)補(bǔ)的,這既不能讓其感到羞恥,也不會(huì)讓別的機(jī)器感到害怕。而在后一種情形中,我們真正需要做的事情乃是:檢討此類事故發(fā)生的原因,并盡量杜絕此類錯(cuò)誤再次發(fā)生的幾率。
不過(guò),這也并不是說(shuō)一旦機(jī)器人戰(zhàn)士發(fā)生誤殺事件后,就不會(huì)有相關(guān)的法律訴訟發(fā)生了——因?yàn)榧词故亲灾餍詸C(jī)器人的運(yùn)作,畢竟是以人類建造者與人類指揮官的活動(dòng)為前提的。依據(jù)筆者的淺見(jiàn),一旦此類錯(cuò)誤發(fā)生后,相關(guān)的調(diào)查委員會(huì)就必須按照如下的排除程序展開(kāi)“責(zé)任指派工作”:
1、排除電氣故障意義上的機(jī)器硬件故障(若無(wú)法排除,尋找硬件的生產(chǎn)與維護(hù)部門(mén));
2、檢查發(fā)生事故前的機(jī)器代碼運(yùn)行情況,排除系統(tǒng)被黑客惡意入侵的情況(若無(wú)法排除,尋找攻擊源,并調(diào)查為何反黑客入侵軟件為何沒(méi)有發(fā)揮作用);
3、檢查系統(tǒng)得到的作戰(zhàn)指令本身是否包含違背作戰(zhàn)條例與反倫理的內(nèi)容(若確定指令本身有問(wèn)題,尋找發(fā)出此類指令的人類指揮員);
4、調(diào)查當(dāng)時(shí)戰(zhàn)爭(zhēng)信息的實(shí)際復(fù)雜程度,是否越過(guò)了此類機(jī)器能夠處理的戰(zhàn)場(chǎng)信息的復(fù)雜程度的上限。如果的確超過(guò)了后者的上限,則調(diào)查人類指揮員是否可能預(yù)估到戰(zhàn)爭(zhēng)信息的復(fù)雜性已經(jīng)超越了機(jī)器的信息處理能力。若指揮員有可能預(yù)估到此類情況,則調(diào)查為何指揮員不去指派人類戰(zhàn)士來(lái)處理此類問(wèn)題。
從上面列出的這個(gè)掛一漏萬(wàn)的責(zé)任確認(rèn)流程上來(lái)看,確認(rèn)一臺(tái)犯錯(cuò)的軍用機(jī)器人的背后的責(zé)任人的排查過(guò)程,在實(shí)質(zhì)上與確認(rèn)一把走火殺人的自動(dòng)步槍背后的責(zé)任人的流程并無(wú)二致(盡管從技術(shù)上看,前者肯定要繁瑣得多)。因此,即使會(huì)犯錯(cuò)的機(jī)器人投入了戰(zhàn)場(chǎng),我們也不會(huì)遇到“找不到負(fù)責(zé)者”這樣的尷尬問(wèn)題。換言之,“機(jī)器人不是責(zé)任主體”這句話即使是對(duì)的,也不構(gòu)成我們禁止此類設(shè)備擁有開(kāi)火權(quán)的充分理由。
有的讀者或許還會(huì)反駁說(shuō):倘若經(jīng)過(guò)縝密的調(diào)查,我們還是找不到誤傷事件的責(zé)任人,又該如何呢?
面對(duì)這樣的情況,筆者認(rèn)為恰當(dāng)?shù)奶幚沓绦蚴牵和ㄟ^(guò)逼真的三維模擬重現(xiàn)技術(shù),讓優(yōu)秀的人類戰(zhàn)士在與被調(diào)查事故極為類似的環(huán)境下進(jìn)行虛擬的問(wèn)題處置,然后比對(duì)人類的表現(xiàn)與機(jī)器的表現(xiàn)。如果發(fā)現(xiàn)機(jī)器所犯下的錯(cuò)誤是絕大多數(shù)人類戰(zhàn)士都是可以避免的,那么這就說(shuō)明相關(guān)系統(tǒng)的設(shè)計(jì)有重大缺憾,軍方可以停止相關(guān)裝備的使用,并責(zé)令生產(chǎn)廠家收回產(chǎn)品;如果我們發(fā)現(xiàn)即使是大多數(shù)人類戰(zhàn)士也無(wú)法避免機(jī)器戰(zhàn)士所犯下的錯(cuò)誤,那么我們便有理由相信此類錯(cuò)誤的發(fā)生乃是出于純粹的“壞運(yùn)氣”。若是如此的話,那么就不該有任何人為此事負(fù)責(zé)。
雖然“壞運(yùn)氣”這一措辭或許未能滿足一部分人的理智好奇心,但是需要指出的是,“武運(yùn)”本身就是一切戰(zhàn)爭(zhēng)活動(dòng)的有機(jī)組成部分之一。軍用機(jī)器人的介入其實(shí)是無(wú)法消除戰(zhàn)爭(zhēng)中的“運(yùn)氣”成分的,就像歷史上的航母、導(dǎo)彈的出現(xiàn)也未曾消滅“運(yùn)氣”一樣。從經(jīng)驗(yàn)角度看,在人類既有的戰(zhàn)爭(zhēng)實(shí)踐中,被不知從哪里(很可能是從友軍那里!)飛來(lái)的流彈射死的倒霉士兵不知道有幾千、幾萬(wàn),但此類“壞運(yùn)氣”案例最終被納入司法調(diào)查程序的又有幾何呢?而誰(shuí)又能夠保證機(jī)器戰(zhàn)士的介入,一定就會(huì)增加——而不是減少——這些不幸的發(fā)生呢?此外,從根本上說(shuō),消除所有這些誤傷事件的最終解決方法,難道不正是“不去發(fā)動(dòng)或者參與戰(zhàn)爭(zhēng)”嗎?——但是,這個(gè)根本解決方案的執(zhí)行者,難道不正是人類(而不是機(jī)器)嗎?因此,面對(duì)那些的確很難被恰當(dāng)歸因的戰(zhàn)場(chǎng)不幸,我們又有何充分的理由去遷怒于那些具有自主開(kāi)火權(quán)的機(jī)器戰(zhàn)士的出現(xiàn)呢?
非官方的“機(jī)器人戰(zhàn)士”所帶來(lái)的倫理風(fēng)險(xiǎn)
行文至此,筆者一直預(yù)設(shè)軍用機(jī)器人的研發(fā)與使用主體都是“正常國(guó)家”。所謂“正常國(guó)家”,泛指各種國(guó)際公約的締約國(guó),而一般而言,這些國(guó)家對(duì)于人類的基本價(jià)值規(guī)范(如在戰(zhàn)爭(zhēng)中要盡量避免誤傷平民)均有基本的尊重。也正因?yàn)樯鲜鲱A(yù)設(shè),所以筆者還預(yù)設(shè)了:研發(fā)方在研發(fā)過(guò)程中會(huì)注重對(duì)于機(jī)器人的“倫理推理能力”的算法化,由此使得其行為輸出能夠盡量符合正常人的價(jià)值觀。
但是,沒(méi)有任何理由使得我們排除正常國(guó)家之外的行為主體去研發(fā)此類機(jī)器人的可能性。具體而言,具有相當(dāng)程度的智力資源支持的恐暴組織,也可能去著力研發(fā)此類兵器,以便為針對(duì)平民的恐怖細(xì)節(jié)制造便利。需要注意的是,由于恐暴組織具有的價(jià)值觀與正常人往往相反,所以,他們?yōu)闄C(jī)器人設(shè)置的“倫理算法”或許也是相反的。譬如,當(dāng)我們希望機(jī)器人擁有的算法能夠降低平民的傷亡的時(shí)候,而他們或許會(huì)希望機(jī)器人擁有的算法能夠協(xié)助其殺死盡量多的平民。此外,由于“濫殺無(wú)辜”本身的技術(shù)難度要遠(yuǎn)遠(yuǎn)小于“精準(zhǔn)打擊”(因?yàn)榍罢叩哪J阶R(shí)別系統(tǒng)遠(yuǎn)要比后者來(lái)得簡(jiǎn)單與便宜),因此,恐暴分子的這種毫無(wú)道德底線的設(shè)計(jì)思路,反而可能使得其“產(chǎn)品”能夠被更容易地制造出來(lái),并由此為世界的和平帶來(lái)一定的威脅。
但是,在筆者看來(lái),即使上述威脅的存在是不容否認(rèn)的,這一威脅也不構(gòu)成我們?nèi)プ柚?ldquo;正常國(guó)家”研發(fā)智能軍用機(jī)器人的理由。這又是因?yàn)椋?/p>
其一,即使我們通過(guò)國(guó)際公約的方式,禁止了智能軍用機(jī)器人的研發(fā),這樣的禁令也是對(duì)恐暴組織無(wú)效的,因?yàn)榭直┙M織一向是無(wú)視任何國(guó)際公約的效力的。
其二,如果具備了正常的倫理推理能力的官方軍用機(jī)器人不能夠得到充分的發(fā)展與充分部署的話,那么這就等于讓我們自行廢棄了與恐怖分子作斗爭(zhēng)的一種有力工具,這反而會(huì)降低動(dòng)蕩地區(qū)的安全指數(shù)。
第三,即使就恐怖分子所掌握的土造智能武器而言,若它們不與諸如炸藥、有毒氣體、槍支等傳統(tǒng)武器聯(lián)接,恐怕也不會(huì)對(duì)群眾造成實(shí)質(zhì)性的傷害。因此,對(duì)于此類武器的嚴(yán)格監(jiān)控依然是阻止恐怖襲擊發(fā)生的重要環(huán)節(jié)。與之相比較,對(duì)于智能編程技術(shù)的控制則顯得較為困難,因?yàn)榇祟惣夹g(shù)同時(shí)也被廣泛運(yùn)用于國(guó)民經(jīng)濟(jì)的各個(gè)領(lǐng)域。
細(xì)心的讀者或許還會(huì)說(shuō),在官方許可的范圍外自行改裝軍用機(jī)器人的,未必一定就是恐暴組織成員。譬如,如果人工智能技術(shù)的發(fā)展能夠使得家用機(jī)器人走進(jìn)千家萬(wàn)戶的話,那么,至少在一些允許民眾合法持槍的國(guó)家里(如美國(guó)),動(dòng)手能力強(qiáng)的人類用戶就可以自行將其改裝為“武裝版”,以便為自己提供一定的安全護(hù)衛(wèi)。而由此所導(dǎo)致的治安局勢(shì)的全面復(fù)雜化,則或許會(huì)使得傳統(tǒng)的司法體系感到難以應(yīng)對(duì)——譬如,如果此類民用版武裝機(jī)器人泛濫的話,那么,很多謀殺案就可以通過(guò)偽裝為“工業(yè)事故”的形式來(lái)進(jìn)行,而警方在追索此類案件的線索時(shí)也會(huì)苦于取證之難(因?yàn)橹T如“提取指紋或DNA”之類的傳統(tǒng)取證手段,對(duì)于機(jī)器人來(lái)說(shuō)是很難奏效)。這或許也會(huì)為大量“無(wú)頭案”的產(chǎn)生打開(kāi)方便之門(mén),并由此使得整個(gè)社會(huì)的安全指數(shù)下降。
對(duì)于上述質(zhì)疑,筆者也有如下幾點(diǎn)回應(yīng):
第一,即使在允許公民合法持有槍支的美國(guó)(遑論不允許大多數(shù)平民持槍的其它國(guó)家),相關(guān)的立法部門(mén)也可以考慮通過(guò)立法禁止私人在沒(méi)有國(guó)家特許的情況下將非武裝機(jī)器人改裝為武器機(jī)器人,以保證官方對(duì)于軍用機(jī)器人技術(shù)的管控。
第二,建立民用機(jī)器人與特定用戶的生物學(xué)信息之間的綁定制度,甚至可以考慮建立所有民用武器與特定用戶的生物學(xué)信息之間的綁定制度(按照該制度,只有用戶本人的生物學(xué)信息才可以開(kāi)啟此類設(shè)備的運(yùn)作)。這就為犯罪分子利用他人的機(jī)器人作案制造了技術(shù)障礙。
第三,進(jìn)一步研發(fā)民用機(jī)器人的倫理推理模塊,使得其能夠具備一定意義上的“是非明辨能力”,譬如,使得其能夠自主判明一些典型的犯罪行為的性質(zhì)。這樣一來(lái),這類機(jī)器人不僅能夠抵制用戶以外的罪犯的犯罪行為,甚至還可能對(duì)用戶本人的犯罪行為進(jìn)行抵制,并進(jìn)而提高相關(guān)犯罪行為的技術(shù)門(mén)檻。
第四,雖然家用機(jī)器人的記憶庫(kù)不可能不隨著新信息的涌現(xiàn)而進(jìn)行實(shí)施實(shí)時(shí)更新,立法部門(mén)依然需要責(zé)成生產(chǎn)廠家設(shè)置技術(shù)門(mén)檻,以防止用戶對(duì)產(chǎn)品的倫理推理模塊的基本算法進(jìn)行修正(譬如,一旦發(fā)現(xiàn)用戶做出了此類修正,機(jī)器人會(huì)立即向公共安全部門(mén)發(fā)出警報(bào))。
而在上述種種舉措之中,最具哲學(xué)、科學(xué)與技術(shù)方面的挑戰(zhàn)性的,莫過(guò)于對(duì)于機(jī)器人自身的倫理推理能力的算法化(這也正是筆者在前節(jié)中花費(fèi)大量篇幅予以討論的問(wèn)題)。而也恰恰經(jīng)由這種算法化,吾輩才可能使得機(jī)器人成為“純粹的工具”與“倫理主體”之間的某種過(guò)渡性質(zhì)的人工制品,并由此使得其具備某種人類“德性”的雛型。
(本文系國(guó)家社科基金重大項(xiàng)目“基于信息技術(shù)哲學(xué)的當(dāng)代認(rèn)識(shí)論研究”成果,項(xiàng)目編號(hào):15ZDB020)
注釋
1Wallach, W. and Allen, C., Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press, 2010.
2Hallgarth, M.W., "Just War Theory and Remote Military Technology: A Primer", in Strawser, B. J. (ed). Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, p. 26.
3此表根據(jù)上書(shū)(pp. 30-31)編制。
4Altman, J., "Preventive Arms Control for Uninhabited Military Vehicles", in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 69-82.
5Lin P. et al., "Robots in War: Issues of Risks and Ethics" , in Capurro, R. and Nagenborg, M. (eds.): Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 49-67.特別是該書(shū)p. 62處的討論,與正文討論最為相關(guān)。
6Sharkey, N., "Killing Made Easy: From Joysticks to Politics", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 111-118.與正文特別相關(guān)的討論見(jiàn)pp. 111-112.
7Lin P. et al., "Robots in War: Issues of Risks and Ethics" , in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 49-67.特別是該書(shū)p. 57處的討論,與正文討論最為相關(guān)。
8Weber, J., "Robotic Warfare, Human Rights & the Rhetorics of Ethical Machines", in Capurro, R. and Nagenborg, M. (eds.), Ethics and Robotics, Heidelberg: Akademische Verlagesgesellschaft AKA GmbH, 2009, pp. 83-104.特別注意p. 88處的討論。
9Plaw, A., "Counting the Dead: The Proportionality of Predation in Pakistan", in Strawser, B. J. (ed), Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, pp. 126-153.
10此表的數(shù)字來(lái)源,參加上書(shū)pp. 138-139; p. 145; p. 148。
11Sparrow, R., "War without Virtue?", in Strawser, B. J. (ed), Killing by Remote Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press, pp. 84-105.
12轉(zhuǎn)引自[美]斯科特·安德森:《阿拉伯的勞倫斯:戰(zhàn)爭(zhēng)、謊言、帝國(guó)愚行與現(xiàn)代中東的形成》,陸大鵬譯,北京:社會(huì)科學(xué)文獻(xiàn)出版社,2014年,第78頁(yè)。
13“各向同性問(wèn)題”的另外一個(gè)叫法是“框架問(wèn)題”(The Frame Problem),對(duì)此,筆者曾在別的地方有過(guò)專門(mén)的技術(shù)化討論。請(qǐng)參看:徐英瑾:《一個(gè)維特根斯坦主義者眼中的框架問(wèn)題》,《邏輯學(xué)研究》2011年第二期,第93~137頁(yè);Xu, Yingjin and Wang,Pei, "The Frame Problem, the Relevance Problem, and a Package Solution to Both", Synthese, Volume 187, Issue 1 Supplement, pp. 43-72;徐英瑾:《心智、語(yǔ)言和機(jī)器——維特根斯坦哲學(xué)和人工智能科學(xué)的對(duì)話》,北京:人民出版社,2013年(特別是該書(shū)的第七章與第八章)。
14Guarini, M. and Bello, P., "Robotic Warfare: Some Challenges in Moving from Noncivilian to Civilian Theaters", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 129-144.
15Lokhorst, G-J. and Hoven, J., "Responsibility for Military Robots", in Lin, P. et al. (eds.), Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, Massachusetts: The MIT Press, 2012, pp. 145-156.
責(zé) 編/馬冰瑩
Technology and Justice: Artificial Intelligence in the Future War
Xu Yingjin
Abstract: Currently, the ethical after-effect due to the military use of artificial intelligence technology has evoked various criticisms from the ethical point of view, for example, "the deployment of these weapons would like to undermine the international arms control system and thereby facilitate the undesired proliferation of the relevant technologies", and "the deployment of them would like to make killing much easier and thereby threaten the lives of more noncombatants". However, these criticisms have often set double standards for evaluating the traditional military tactical platforms and the tactical platforms using artificial intelligence, and deliberately exaggerated the overall significance of the latter in changing the global security pattern. To truly make the ethical after-effect of the military use of artificial intelligence technology accord with the existing value system of the human world, the main measure is not to simply ban the R&D of such kind of equipment but to make such equipment have "ethical reasoning" in the sense of the humans. In the R&D process, how to solve the "isotropic" problem will also become the focus.
Keywords: military robotics (technology), artificial intelligence, ethics, isotropy, mental states attribution
徐英瑾,復(fù)旦大學(xué)哲學(xué)學(xué)院教授、博導(dǎo)。研究方向?yàn)檎J(rèn)知科學(xué)哲學(xué)、人工智能哲學(xué)、維特根斯坦哲學(xué)、英美知識(shí)論、英美哲學(xué)與當(dāng)代日本哲學(xué)比較研究。主要著作有:《維特根斯坦哲學(xué)轉(zhuǎn)型期中的“現(xiàn)象學(xué)”之謎》《心智、語(yǔ)言和機(jī)器——維特根斯坦哲學(xué)與人工智能科學(xué)的對(duì)話》等。