人工智能治理難題
盡管對(duì)人工智能風(fēng)險(xiǎn)認(rèn)識(shí)和評(píng)價(jià)有相當(dāng)大的分歧和爭(zhēng)議,但學(xué)界、業(yè)界以及政界對(duì)人工智能治理的必要性已形成基本共識(shí)。不僅霍金、馬斯克等人發(fā)起倡議的《人工智能23條原則》,強(qiáng)調(diào)人工智能的規(guī)范發(fā)展必須納入正確軌道,而且各國(guó)政府和行業(yè)協(xié)會(huì)在其人工智能發(fā)展戰(zhàn)略規(guī)劃或行業(yè)報(bào)告中,都有比較明確的人工智能監(jiān)管和治理要求,如2016年9月,英國(guó)標(biāo)準(zhǔn)協(xié)會(huì)發(fā)布《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計(jì)和應(yīng)用指南》,是業(yè)界第一個(gè)關(guān)于機(jī)器人倫理設(shè)計(jì)的公開標(biāo)準(zhǔn),旨在指導(dǎo)機(jī)器人設(shè)計(jì)研究者和制造商如何對(duì)一個(gè)機(jī)器人做出道德風(fēng)險(xiǎn)評(píng)估,以保證人類生產(chǎn)出來的智能機(jī)器人能夠融入人類社會(huì)現(xiàn)有的道德規(guī)范。⑦2016年6月,日本AI學(xué)會(huì)的倫理委員會(huì)發(fā)布人工智能研究人員應(yīng)該遵守的倫理指標(biāo)草案,以引導(dǎo)和規(guī)范研究人員正確處理人工智能進(jìn)一步發(fā)展導(dǎo)致的倫理道德、安全問題。⑧美國(guó)的《國(guó)家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃》全面搭建了美國(guó)推動(dòng)人工智能研發(fā)的實(shí)施框架,并強(qiáng)調(diào)保障人工智能系統(tǒng)的友好性,推動(dòng)人工智能系統(tǒng)的公平、透明與符合倫理。同時(shí),確保人工智能系統(tǒng)的安全可靠,提高信任度、可驗(yàn)證和可確認(rèn)性,并實(shí)現(xiàn)自我安全防御與優(yōu)化。⑨
問題的關(guān)鍵不是人工智能需不需要治理的問題,而是人工智能究竟應(yīng)該如何治理、治理什么的問題,人工智能本身的復(fù)雜性特征使得人工智能在治理機(jī)制設(shè)計(jì)和構(gòu)建中遭遇多重難題。
首先是事前的風(fēng)險(xiǎn)識(shí)別和預(yù)防難題。不同于原子能、化工等研究開發(fā)的基礎(chǔ)設(shè)施的大規(guī)模性、風(fēng)險(xiǎn)源的明確性,監(jiān)管者或治理行為體能夠非常容易地確定潛在的公共危險(xiǎn)源的制造者和發(fā)生地。人工智能研發(fā)具有秘密性、分散性、不連續(xù)性及不透明性。秘密性是指人工智能的研究與開發(fā)只需要極少的可見設(shè)施;分散性是指研究人工智能系統(tǒng)不同組成部分的研發(fā)人員可能分布在不同的地方;不連續(xù)性是指人工智能的研發(fā)不需要所有的部件同時(shí)就位,也不需要不同部門的研究人員通力合作;不透明性,是指人工智能系統(tǒng)運(yùn)行可能處在秘密狀態(tài),由于信息的嚴(yán)重不對(duì)稱,外部人員很難發(fā)現(xiàn)人工智能系統(tǒng)中潛在的危險(xiǎn)而無法采取針對(duì)性的監(jiān)管措施。⑩人工智能這些特征,為其事前監(jiān)管帶來許多不便,也為有效的人工智能治理設(shè)計(jì)帶來困惑,畢竟科學(xué)的風(fēng)險(xiǎn)識(shí)別和預(yù)防機(jī)制的構(gòu)建是治理有效性的關(guān)鍵。
其次是風(fēng)險(xiǎn)發(fā)生的不可預(yù)知性難題。人工智能與其他傳統(tǒng)科技最大的不同是可以獨(dú)立完成預(yù)定任務(wù)的自主性,但是人工智能自主行為與人類的決策和行動(dòng)存在根本的不同,盡管人工智能系統(tǒng)設(shè)計(jì)總是模仿人腦的工作方式。人類智能由于其在限定的時(shí)間里的計(jì)算速度有限,很難在窮舉中得出最優(yōu)解,而往往通過經(jīng)驗(yàn)、直覺等方法得出自認(rèn)為滿意的答案,而非一個(gè)最佳的解決方法,經(jīng)濟(jì)學(xué)家Herbert Simon稱之為“滿意法”。?而人工智能通過合并算法和深度學(xué)習(xí)可以在極短的時(shí)間內(nèi)精確計(jì)算所有的可能性,從而使得它們能夠選擇人類完全沒有考慮過而“出人意料”的解決問題方法,做出的結(jié)論可能同人類的認(rèn)知系統(tǒng)做出的決策產(chǎn)生極大的不同。一個(gè)能夠自主學(xué)習(xí)的人工智能系統(tǒng)的行為部分依靠其后天的經(jīng)歷,即使是最細(xì)心的設(shè)計(jì)者、編程者以及制造者都沒有辦法控制或者預(yù)測(cè)人工智能系統(tǒng)在脫離他們之后將會(huì)經(jīng)歷些什么。?所以,人工智能的不可預(yù)知性,使得人工智能系統(tǒng)在做出難以預(yù)測(cè)的損害性行為時(shí),讓設(shè)計(jì)者承擔(dān)責(zé)任可能會(huì)導(dǎo)致不公平和非正義。值得注意的是,對(duì)于產(chǎn)品生產(chǎn)者的嚴(yán)格責(zé)任,規(guī)定有“當(dāng)前科學(xué)水平尚不能發(fā)現(xiàn)缺陷”的免責(zé)事由。但是這項(xiàng)免責(zé)事由在人工智能領(lǐng)域是否適用值得討論。盡管在深度學(xué)習(xí)訓(xùn)練數(shù)據(jù)和學(xué)習(xí)過程存在不可預(yù)見性,但考慮到人工智能的算法完全由開發(fā)者編寫,開發(fā)者對(duì)風(fēng)險(xiǎn)源頭具有絕對(duì)的控制力,司法機(jī)關(guān)可能會(huì)推定開發(fā)者應(yīng)當(dāng)預(yù)見算法執(zhí)行中的可能風(fēng)險(xiǎn)或要求開發(fā)者對(duì)風(fēng)險(xiǎn)程度的增加承擔(dān)責(zé)任。
再次是事后責(zé)任認(rèn)定和分配的難題。以規(guī)則為基礎(chǔ)的治理是現(xiàn)代治理的根本特征,法律法規(guī)作為正式規(guī)則主體形式使得“法治”構(gòu)成有效社會(huì)治理的核心,人工智能的治理難題集中表現(xiàn)為法律困惑和政策困境。一是人工智能的不可控性導(dǎo)致的監(jiān)管兩難。隨著人工智能技術(shù)升級(jí)到強(qiáng)人工智能階段,不可控性可能成為一個(gè)嚴(yán)峻的問題,未雨綢繆人工智能的局部失控乃至可能出現(xiàn)的全面失控是當(dāng)代人的責(zé)任。從現(xiàn)在來講,各國(guó)不會(huì)像用法律禁止克隆人一樣規(guī)避人工智能風(fēng)險(xiǎn),人們所焦慮的是如何在不束縛人工智能良性發(fā)展的前提下最大限度地防控人工智能風(fēng)險(xiǎn)。二是人工智能風(fēng)險(xiǎn)主體的多元性和不可預(yù)知性問題也導(dǎo)致了對(duì)其監(jiān)管的法律困惑,由于參與人工智能系統(tǒng)部件的主體多元和不可預(yù)知,很難確定出責(zé)任主體。例如,人工智能系統(tǒng)的部件的制造者可能沒有想到他們生產(chǎn)的部件被用在了人工智能系統(tǒng)上,如果造成了損害就更非他們的本意了。在這種情況下,將責(zé)任分配給人工智能系統(tǒng)某一部件的設(shè)計(jì)者,就顯得非常的不公平,同樣,人工智能系統(tǒng)運(yùn)轉(zhuǎn)的不透明讓法院也不能輕易判斷將人工智能系統(tǒng)造成第三人損害的責(zé)任歸責(zé)于運(yùn)營(yíng)者還是使用者。三是人工智能法律主體的難題。人工智能的自主性隨著人工智能技術(shù)進(jìn)步進(jìn)化到強(qiáng)人工智能階段后,人工智能載體如機(jī)器人是不是人格意義的道德體、行為體乃至法律主體?由于機(jī)器可以像人類一樣獨(dú)立思考和決策,該階段的人工智能如果和人類一樣,成為獨(dú)立的主體享有權(quán)利,并對(duì)自己的行為承擔(dān)責(zé)任,傳統(tǒng)法律體系將產(chǎn)生巨大的沖擊。?