j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 原創(chuàng)精品 > 成果首發(fā) > 正文

國(guó)家治理法治化語(yǔ)境中的精準(zhǔn)治理

【摘要】人工智能技術(shù)在國(guó)家治理現(xiàn)代化的過(guò)程中有著廣泛的應(yīng)用前景。通過(guò)打造統(tǒng)一的政府信息平臺(tái),并在此基礎(chǔ)上借助機(jī)器分析海量數(shù)據(jù),可以為政府決策提供精準(zhǔn)的信息支持。同時(shí),更多的動(dòng)態(tài)數(shù)據(jù)掌握在平臺(tái)企業(yè)手中,公共信息與市場(chǎng)信息的互通和共享是實(shí)現(xiàn)精準(zhǔn)治理的前提條件之一。在打造好大數(shù)據(jù)基礎(chǔ)設(shè)施的前提下,人工智能技術(shù)可以給治理工作帶來(lái)許多創(chuàng)新手段,比如社會(huì)信用治理和預(yù)測(cè)性執(zhí)法。同時(shí),我們也應(yīng)當(dāng)看到這些新的治理手段帶來(lái)的結(jié)構(gòu)性變化以及對(duì)公民權(quán)利的沖擊。因此,法治保障也應(yīng)當(dāng)緊緊跟上技術(shù)發(fā)展的步伐。

【關(guān)鍵詞】人工智能 大數(shù)據(jù) 精準(zhǔn)治理 法治 權(quán)利

【中圖分類(lèi)號(hào)】D63 【文獻(xiàn)標(biāo)識(shí)碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.10.004

 

【作者簡(jiǎn)介】

鄭戈,上海交通大學(xué)凱原法學(xué)院教授。研究方向?yàn)橹袊?guó)憲法、比較憲法和法理學(xué)。主要著作有《香港司法如何做到無(wú)懼無(wú)私?》(論文)、《公民權(quán)的身份、財(cái)產(chǎn)與契約維度:一種基于公共信托原理的公民權(quán)理論》(論文)等。

 

物聯(lián)網(wǎng)時(shí)代的到來(lái)使得數(shù)據(jù)量呈幾何級(jí)數(shù)增長(zhǎng),存儲(chǔ)技術(shù)的迅猛發(fā)展在提升數(shù)據(jù)存儲(chǔ)能力的同時(shí)極大地降低了數(shù)據(jù)存儲(chǔ)的成本,量子計(jì)算機(jī)和并行計(jì)算的出現(xiàn)使計(jì)算能力得到幾何級(jí)數(shù)的提升,智能算法不僅使數(shù)據(jù)處理和數(shù)據(jù)分析變得更加精準(zhǔn),還進(jìn)一步以大數(shù)據(jù)為學(xué)習(xí)素材而迅速提升著機(jī)器的智能。這一系列技術(shù)領(lǐng)域的發(fā)展首先改變著生產(chǎn)力和生產(chǎn)關(guān)系:傳感器、智能算法和執(zhí)行器的結(jié)合催生了3D乃至4D打印技術(shù),改變著制造業(yè)的生產(chǎn)模式,還使得無(wú)人駕駛汽車(chē)全面取代人類(lèi)駕駛的時(shí)代日益迫近;同樣的技術(shù)也已經(jīng)被應(yīng)用到農(nóng)業(yè)領(lǐng)域,精準(zhǔn)農(nóng)業(yè)定點(diǎn)解決方案已經(jīng)成為新的發(fā)展方向。如果說(shuō)機(jī)器取代人的體力勞動(dòng)是工業(yè)革命以來(lái)一直延續(xù)的趨勢(shì),那么人工智能在醫(yī)療、金融和法律等服務(wù)業(yè)領(lǐng)域日益廣泛的應(yīng)用則是這一輪技術(shù)革命的新特點(diǎn)。精準(zhǔn)醫(yī)療、金融科技(FinTech)、預(yù)測(cè)式執(zhí)法日漸成為社會(huì)生活的現(xiàn)實(shí)。去中心化的區(qū)塊鏈技術(shù)來(lái)勢(shì)洶洶,其鼓吹者號(hào)稱(chēng)要消滅交易環(huán)節(jié)的所有的中介,由此,銀行和律師將首當(dāng)其沖地被取代。在改變?nèi)祟?lèi)社會(huì)的經(jīng)濟(jì)基礎(chǔ)的同時(shí),這一系列信息技術(shù)也改變著上層建筑,算力正在成為與政治權(quán)力競(jìng)爭(zhēng)的新的權(quán)力形態(tài),算法正在侵蝕法律的領(lǐng)地。面對(duì)這些遠(yuǎn)遠(yuǎn)超出技術(shù)范圍的深刻而復(fù)雜的變化,國(guó)家治理的頂層設(shè)計(jì)、底線思維和中層機(jī)制顯然都需要全方位的調(diào)整。一方面,技術(shù)為治理提供了新的工具,使得治理有可能變得更加精準(zhǔn)和智能化;另一方面,技術(shù)也增加了治理的難度,使主權(quán)國(guó)家面對(duì)著商業(yè)力量、境外大數(shù)據(jù)掌控者和黑客在影響和控制人的行為方面的多重競(jìng)爭(zhēng)。本文旨在從法律的角度厘清人工智能技術(shù)給國(guó)家治理現(xiàn)代化帶來(lái)的機(jī)遇和挑戰(zhàn)。文章的第二部分梳理智能化的精準(zhǔn)治理的可能模式,第三部分討論如何把這種新的治理模式限定在法治的框架之內(nèi)。第四部分是結(jié)論。

人工智能與精準(zhǔn)治理

人工智能技術(shù)是計(jì)算機(jī)技術(shù)發(fā)展的新階段。以往的計(jì)算機(jī)編程模式的特點(diǎn)是將復(fù)雜問(wèn)題簡(jiǎn)單化從而寫(xiě)入代碼并且讓軟件執(zhí)行編程者所設(shè)定的任務(wù),神經(jīng)網(wǎng)絡(luò)、遺傳算法等智能算法使機(jī)器具有了自主學(xué)習(xí)的能力,從而能夠直接處理復(fù)雜問(wèn)題,在輸入端越來(lái)越接近人類(lèi)認(rèn)知界面,比如可以理解人類(lèi)自然語(yǔ)言,能夠識(shí)別圖像和語(yǔ)音,在輸出端可以提供準(zhǔn)確的判斷、預(yù)測(cè)乃至決策,而不是簡(jiǎn)單地羅列搜索結(jié)果或計(jì)算結(jié)果。機(jī)器甚至已經(jīng)能夠自我編程:劍橋大學(xué)和微軟的Deepcoder[1]、彭博和英特爾的AI Programmer[2]以及谷歌的AutoML[3]都是已有的自我編程系統(tǒng)。這些自我編程算法都是結(jié)合了神經(jīng)網(wǎng)絡(luò)或遺傳算法架構(gòu)和網(wǎng)絡(luò)搜索,從人類(lèi)程序員的編程經(jīng)驗(yàn)中去學(xué)習(xí),從而在特定場(chǎng)景中達(dá)到超過(guò)人類(lèi)程序員的編程水平。正如業(yè)內(nèi)人士所言:“授計(jì)算機(jī)以數(shù)據(jù),夠它用一毫秒;授計(jì)算機(jī)以搜索,夠它用一輩子。”隨著可供機(jī)器學(xué)習(xí)的各類(lèi)數(shù)據(jù)的迅猛增長(zhǎng),計(jì)算機(jī)在人類(lèi)涉足的各個(gè)專(zhuān)業(yè)領(lǐng)域都將獲得超越人類(lèi)的“智能”。對(duì)于這種正在迫近的未來(lái)圖景,樂(lè)觀主義者認(rèn)為這將極大地強(qiáng)化人類(lèi)能力,使人類(lèi)最終得以借助數(shù)碼技術(shù)超越生物學(xué)規(guī)律,迎來(lái)智能飛躍的“奇點(diǎn)”[4];悲觀主義者則認(rèn)為這意味著機(jī)器將成為人類(lèi)無(wú)法控制的力量,人工智能對(duì)人類(lèi)社會(huì)構(gòu)成了“最大的生存威脅”,對(duì)人工智能的不加約束的應(yīng)用就好像是在“召喚魔鬼”。[5]

無(wú)論是對(duì)人工智能的未來(lái)發(fā)展前景持樂(lè)觀主義還是悲觀主義的立場(chǎng),都不得不面對(duì)這種技術(shù)迅猛發(fā)展和廣泛應(yīng)用的現(xiàn)實(shí)。技術(shù)是導(dǎo)致經(jīng)濟(jì)——社會(huì)變革的重要變量之一,而且是不可逆轉(zhuǎn)的變量。法國(guó)哲學(xué)家德布雷寫(xiě)道:“歸根到底,唯一跳出星球運(yùn)轉(zhuǎn)的循環(huán)意義外的革命不是政治革命而是技術(shù)革命,因?yàn)橹挥兴鼈儾攀遣粡?fù)返的。有了電流后就不再用蠟燭,有了汽輪船就不再用帆船。然而有了十月革命還是回到了東正教。”[6]率先完成第一輪工業(yè)革命的國(guó)家利用船堅(jiān)炮利的優(yōu)勢(shì)將東方文明古國(guó)變成自己的殖民地,這是盡人皆知的歷史。同樣,在新一輪信息技術(shù)革命中取得優(yōu)勢(shì)地位的國(guó)家如何利用這種技術(shù)來(lái)影響他國(guó)政治,也是一個(gè)不斷出現(xiàn)新鮮實(shí)例的當(dāng)代史。比如,2009年古巴移動(dòng)(Cubacel)的一名員工偷偷摸摸地把50萬(wàn)個(gè)古巴手機(jī)用戶(hù)的號(hào)碼發(fā)給了一位在西班牙定居的古巴移民,這位海外古巴人隨后免費(fèi)把這些數(shù)據(jù)交給了美國(guó)國(guó)際開(kāi)發(fā)署(USAID),該機(jī)構(gòu)又把數(shù)據(jù)給了自己的承包商Creative Associates International。這家營(yíng)利性公司隨后“創(chuàng)造性”地建立了一個(gè)自動(dòng)化的手機(jī)短信發(fā)送平臺(tái),先向古巴境內(nèi)的這些手機(jī)用戶(hù)免費(fèi)發(fā)送足球、娛樂(lè)和天氣信息。等到訂戶(hù)數(shù)量穩(wěn)定下來(lái)之后,再向他們發(fā)送政治信息。用美國(guó)國(guó)際開(kāi)發(fā)署官員的話來(lái)說(shuō),這樣做的目的是“重新調(diào)整國(guó)家與社會(huì)之間的權(quán)力平衡”。換句話說(shuō),這是為了在古巴境內(nèi)煽動(dòng)政治動(dòng)亂,促成“古巴之春”。這套被稱(chēng)為ZunZuneo的古巴版twitter系統(tǒng)應(yīng)用智能算法來(lái)分析用戶(hù)對(duì)不同類(lèi)型信息的反應(yīng),將他們歸類(lèi)為“支持革命的”“不關(guān)心政治的”和“反對(duì)革命的”,并且針對(duì)不同類(lèi)別的人發(fā)送不同的信息。[7]它一直運(yùn)轉(zhuǎn)到2012年中,因?yàn)榻?jīng)費(fèi)用完才終止。

層出不窮的實(shí)例讓我們看到,面對(duì)人工智能的大潮,如果不去主動(dòng)掌握它、應(yīng)用它,就會(huì)被它(實(shí)際上是被掌握它的國(guó)家、商業(yè)組織和個(gè)人)所掌控和利用。馴服一匹烈馬的辦法不是擋在它面前,而是奮力騎上它,在駕馭的過(guò)程中馴服它,同樣的道理也適用于人工智能這種新技術(shù)。要使人工智能成為國(guó)家治理現(xiàn)代化的技術(shù)手段之一,需要理解它的性質(zhì)和可能應(yīng)用場(chǎng)景。

智能政務(wù)的頂層設(shè)計(jì)。在提到人工智能的時(shí)候,許多人會(huì)想到機(jī)器人或人形機(jī)器,但有形的智能機(jī)器(無(wú)論是不是人形)都只是人工智能的終端、外設(shè)或執(zhí)行器,而不是人工智能的“智能”所在。人工智能研究的先驅(qū)者之一馬文·明斯基曾經(jīng)指出:人工智能就是“讓機(jī)器能夠做人類(lèi)需要運(yùn)用智能來(lái)做的那些事情的科學(xué)。”[8]這是一個(gè)功能主義的定義,它覆蓋了可以實(shí)現(xiàn)“讓機(jī)器具備智能”這一功能的全部科學(xué)和技術(shù)手段。實(shí)際上,這一功能主要是依靠算法(即軟件或程序)來(lái)實(shí)現(xiàn)的。如果要用機(jī)器人來(lái)打比方,我們可以說(shuō)“如今的算法是擁有自主適應(yīng)和學(xué)習(xí)能力的數(shù)碼‘機(jī)器人’”[9]。從這個(gè)意義上來(lái)理解人工智能,就可以發(fā)現(xiàn)它早已進(jìn)入我們的日常生活。從百度到淘寶,從微信到攜程,各個(gè)平臺(tái)企業(yè)都在利用海量的用戶(hù)數(shù)據(jù)訓(xùn)練自己的“數(shù)碼機(jī)器人”,然后再用這種無(wú)形的“機(jī)器人”來(lái)分析用戶(hù)數(shù)據(jù)、預(yù)測(cè)用戶(hù)行為、向用戶(hù)投放量身定制的廣告和產(chǎn)品推薦。智能算法所提供的個(gè)性化服務(wù)不一定都是符合用戶(hù)利益的,“大數(shù)據(jù)殺熟”“搶票軟件”等都是商家運(yùn)用智能算法利用客戶(hù)弱點(diǎn)從而使其利益最大化的新現(xiàn)象。政府必須服務(wù)于公共利益,在將人工智能這種蘊(yùn)含著不可控風(fēng)險(xiǎn)的技術(shù)應(yīng)用于國(guó)家治理工作之前,需要先進(jìn)行可行性研判。

世界各主要國(guó)家都已經(jīng)針對(duì)人工智能技術(shù)在政府工作中的可能應(yīng)用前景進(jìn)行過(guò)縱觀全局式的初步分析。比如,美國(guó)奧巴馬政府曾經(jīng)委托國(guó)家科技委員會(huì)全面研究了如何做好準(zhǔn)備迎接人工智能技術(shù)所主導(dǎo)的未來(lái),其中對(duì)政府提出了這樣幾項(xiàng)具體建議:(1)加大對(duì)人工智能基礎(chǔ)和應(yīng)用研究的投入;(2)充當(dāng)人工智能技術(shù)及其應(yīng)用的早期客戶(hù);(3)支持前沿技術(shù)項(xiàng)目并提供真實(shí)世界場(chǎng)景中的試驗(yàn)場(chǎng)所;(4)強(qiáng)化公眾獲得數(shù)據(jù)的能力;(5)設(shè)立人工智能領(lǐng)域的創(chuàng)新獎(jiǎng)項(xiàng),激勵(lì)技術(shù)發(fā)展;(6)識(shí)別并迎接“巨大的挑戰(zhàn)”,為人工智能發(fā)展確立雄偉而可實(shí)現(xiàn)的目標(biāo);(7)營(yíng)造一方面繁榮創(chuàng)新另一方面保護(hù)公眾免受傷害的政策、法律和規(guī)制環(huán)境。這份報(bào)告同時(shí)指出,美國(guó)聯(lián)邦政府應(yīng)用人工智能技術(shù)來(lái)改善公共服務(wù)的能力受到各部門(mén)接觸創(chuàng)新的機(jī)會(huì)、自身資源和研發(fā)能力以及與私營(yíng)部門(mén)創(chuàng)新團(tuán)隊(duì)的關(guān)系等因素的影響,呈現(xiàn)出極度不均衡的狀態(tài)。有些部門(mén),比如國(guó)防部下屬的國(guó)防高級(jí)研究計(jì)劃局(DARPA)和國(guó)家醫(yī)療衛(wèi)生研究院都擁有數(shù)百億美元的研發(fā)預(yù)算,而勞動(dòng)部則只有1400萬(wàn)美元的預(yù)算,這會(huì)導(dǎo)致各部門(mén)的“智能化”程度嚴(yán)重失衡。[10]

我國(guó)政府也陸續(xù)發(fā)布了《中國(guó)制造2025》(2015年5月)、《國(guó)務(wù)院關(guān)于積極推動(dòng)“互聯(lián)網(wǎng)+”行動(dòng)的指導(dǎo)意見(jiàn)》(2015年7月)、《機(jī)器人產(chǎn)業(yè)發(fā)展規(guī)劃》(2016年4月)、《“互聯(lián)網(wǎng)+”人工智能三年行動(dòng)實(shí)施方案》(2016年5月)、《新一代人工智能發(fā)展規(guī)劃》(2017年7月)和《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018~2022)》(2017年12月)等一系列基于宏觀戰(zhàn)略研究的政策性文件。其中《新一代人工智能發(fā)展規(guī)劃》在“推進(jìn)社會(huì)治理現(xiàn)代化”部分提出要“圍繞行政管理、司法管理、城市管理、環(huán)境保護(hù)等社會(huì)治理的熱點(diǎn)難點(diǎn)問(wèn)題,促進(jìn)人工智能技術(shù)應(yīng)用,推動(dòng)社會(huì)治理現(xiàn)代化”。此外,在“利用人工智能提升公共安全保障能力”部分也指出了社會(huì)綜合治理、新型犯罪和反恐等需要應(yīng)用人工智能技術(shù)的重點(diǎn)領(lǐng)域。教育、醫(yī)療、養(yǎng)老等迫切民生需求領(lǐng)域也被提及,作為人工智能技術(shù)亟需進(jìn)入的重點(diǎn)領(lǐng)域,以便“為公眾提供個(gè)性化、多元化、高品質(zhì)服務(wù)”[11]。但這一類(lèi)政策性文件側(cè)重于營(yíng)造人工智能技術(shù)和產(chǎn)業(yè)發(fā)展的支持性制度環(huán)境,而對(duì)技術(shù)應(yīng)用的現(xiàn)實(shí)制約因素和應(yīng)用過(guò)程中蘊(yùn)涵的風(fēng)險(xiǎn)和不確定性缺乏分析。隨著人工智能技術(shù)的進(jìn)一步發(fā)展以及應(yīng)用場(chǎng)景的不斷增加,風(fēng)險(xiǎn)防范和法律規(guī)制應(yīng)當(dāng)成為頂層設(shè)計(jì)的重要組成部分。

政務(wù)數(shù)據(jù)基礎(chǔ)平臺(tái)。如上所言,人工智能的核心是機(jī)器學(xué)習(xí),而機(jī)器學(xué)習(xí)的素材是大數(shù)據(jù)。雖然AlfaZero所使用的強(qiáng)化學(xué)習(xí)技術(shù)突破了AlfaGo依賴(lài)人類(lèi)經(jīng)驗(yàn)的深度學(xué)習(xí)方法,在只學(xué)習(xí)規(guī)則而不學(xué)習(xí)棋譜的情況下通過(guò)自我博弈完敗了基于大數(shù)據(jù)的機(jī)器學(xué)習(xí),但這種技術(shù)目前只適用于規(guī)則明確、信息完備的博弈場(chǎng)景,還不能用來(lái)解決人類(lèi)社會(huì)中的復(fù)雜性問(wèn)題。尤其是政府工作中所使用的人工智能,不能離開(kāi)人類(lèi)經(jīng)驗(yàn)和人類(lèi)需求去尋找數(shù)學(xué)上完美的優(yōu)化解決方案,因此,匯集各類(lèi)政府工作信息的大數(shù)據(jù)平臺(tái)是政務(wù)智能技術(shù)開(kāi)發(fā)的前提條件。

早在人工智能成為大眾關(guān)注的熱點(diǎn)概念之前,我國(guó)已經(jīng)全面展開(kāi)了政府工作信息化(即電子政務(wù))的建設(shè)。電子政務(wù),是指國(guó)家機(jī)關(guān)在履行政府職能的過(guò)程中全面應(yīng)用現(xiàn)代信息技術(shù)、網(wǎng)絡(luò)技術(shù)以及辦公自動(dòng)化技術(shù)等進(jìn)行辦公、管理和為社會(huì)提供公共服務(wù)的一種工作方式。[12]人工智能等新一代信息技術(shù)促使電子政務(wù)向“智慧政府”發(fā)展。[13]如果說(shuō)電子政務(wù)發(fā)展的早期主要是利用互聯(lián)網(wǎng)作為政府與公民之間的信息溝通渠道從而解決信息不對(duì)稱(chēng)問(wèn)題、實(shí)現(xiàn)政府信息公開(kāi)、方便群眾網(wǎng)上辦理注冊(cè)登記、報(bào)稅、繳費(fèi)等簡(jiǎn)單業(yè)務(wù)的話,智慧政府所應(yīng)用的信息技術(shù)則不再只是中立和被動(dòng)的平臺(tái),而是能夠?qū)W習(xí)、分析、預(yù)測(cè)甚至決策的智能算法。但是,智能算法的分析、預(yù)測(cè)準(zhǔn)確性取決于數(shù)據(jù)的數(shù)量,大數(shù)據(jù)是智慧政府的基礎(chǔ)設(shè)施。

目前,我國(guó)尚未建成統(tǒng)一的政務(wù)信息平臺(tái),政府信息存在分散化和區(qū)隔化的特點(diǎn)。以司法信息為例,如今,無(wú)論律師、檢察官還是法官,大多是用計(jì)算機(jī)來(lái)完成文書(shū)寫(xiě)作,但各部門(mén)還是要求提交紙面材料。隨著智慧檢務(wù)、智慧法院建設(shè)的開(kāi)展,又要求對(duì)辦案流程中的各種文書(shū)進(jìn)行掃描存入系統(tǒng),這不僅造成了很大的資源浪費(fèi)增加了行政成本,而且公安、檢察院和法院各自建設(shè)自己的數(shù)據(jù)庫(kù),整個(gè)辦案流程中的數(shù)據(jù)無(wú)法實(shí)現(xiàn)整合。除了部門(mén)區(qū)隔外,各地方的政務(wù)和司法數(shù)據(jù)是相互分割、無(wú)法共享的。同時(shí),不同的政府部門(mén)以及地方政府使用的可能是不同服務(wù)商所提供的政務(wù)云服務(wù),這進(jìn)一步給數(shù)據(jù)整合造成了困難。如此零散的數(shù)據(jù)限制了智能算法學(xué)習(xí)治理經(jīng)驗(yàn)的素材,使人工智能技術(shù)在政府工作中的應(yīng)用大為受限。因此,建設(shè)智慧政府的前提條件是打破數(shù)據(jù)壁壘,實(shí)現(xiàn)政府信息的縱向與橫向整合,打造政務(wù)信息平臺(tái)。

人工智能時(shí)代的“編戶(hù)齊民”。對(duì)人口和財(cái)產(chǎn)進(jìn)行統(tǒng)計(jì)、認(rèn)證、分類(lèi)和評(píng)分是國(guó)家治理的基礎(chǔ),其中的認(rèn)證能力被學(xué)者稱(chēng)為“國(guó)家基礎(chǔ)能力的基礎(chǔ)”。[14]“所謂‘認(rèn)證’就是在數(shù)據(jù)與人或物之間建立一一對(duì)應(yīng)的關(guān)系。”[15]現(xiàn)代社會(huì)人、財(cái)、物的快速流動(dòng)給認(rèn)證帶來(lái)了很大的挑戰(zhàn),同一個(gè)人在不同的場(chǎng)景會(huì)以不同的假名、行為方式和表達(dá)方式而出現(xiàn),乃至有人戲稱(chēng)“在互聯(lián)網(wǎng)上沒(méi)人知道你是一條狗。”但人工智能技術(shù)為互聯(lián)網(wǎng)時(shí)代的“編戶(hù)齊民”提供了新的技術(shù)手段,使“社會(huì)計(jì)算化”成為可能。“所謂‘社會(huì)的計(jì)算化’,是指隨著互聯(lián)網(wǎng)的普及,越來(lái)越多的社會(huì)活動(dòng)都通過(guò)互聯(lián)網(wǎng)進(jìn)行,人類(lèi)因此而在互聯(lián)網(wǎng)上留下海量而且相互關(guān)聯(lián)的數(shù)據(jù)足跡,基于這些數(shù)據(jù)足跡,大量原本不可追蹤、檢索、匯編、計(jì)量和運(yùn)算的社會(huì)活動(dòng),變得可以追蹤、檢索、匯編、計(jì)量和運(yùn)算。”[16]與過(guò)去由政府主導(dǎo)的認(rèn)證工作不同,如今的社會(huì)計(jì)算化主要是由商業(yè)力量推動(dòng)和控制的,這給治理工作帶來(lái)了新的問(wèn)題。政府一方面需要與平臺(tái)企業(yè)合作來(lái)獲取數(shù)據(jù)、購(gòu)買(mǎi)產(chǎn)品和服務(wù),另一方面又需要作為企業(yè)與消費(fèi)者之間的中立第三方來(lái)對(duì)企業(yè)進(jìn)行監(jiān)管。

由于人的大部分線上活動(dòng)都不是在政府平臺(tái)上進(jìn)行的,而是通過(guò)搜索引擎、購(gòu)物平臺(tái)、社交網(wǎng)絡(luò)等由私人企業(yè)運(yùn)營(yíng)的商業(yè)平臺(tái)進(jìn)行,這些平臺(tái)借助帳戶(hù)注冊(cè)、用戶(hù)協(xié)議和平臺(tái)管理而掌握了比政府所掌握的更多的個(gè)人數(shù)據(jù),并且借助智能算法追蹤、匯集和分析個(gè)人行為的電子蹤跡,從而能夠?qū)€(gè)人進(jìn)行數(shù)字畫(huà)像,準(zhǔn)確預(yù)測(cè)個(gè)人行為,并根據(jù)歷史數(shù)據(jù)對(duì)賬戶(hù)進(jìn)行信用評(píng)級(jí)。從表面上看,政府掌握著個(gè)人從出生、入學(xué)、就業(yè)、婚姻、生育到死亡的全流程信息,但這些信息是靜態(tài)的、孤立的和表面化的,在實(shí)時(shí)動(dòng)態(tài)性、連續(xù)性和完整性方面都遠(yuǎn)不如商業(yè)平臺(tái)所掌握的反映個(gè)人行為軌跡的信息。政府雖然可以在行政、司法和執(zhí)法的過(guò)程中要求企業(yè)提供特定的個(gè)人數(shù)據(jù),但這種要求只能在具體個(gè)案中針對(duì)特定人物提起,而不能成為可供機(jī)器學(xué)習(xí)的大數(shù)據(jù)。而且,即使是在這種場(chǎng)合,也可能遭到企業(yè)以保護(hù)商業(yè)秘密或合同關(guān)系為由的拒絕。比如,蘋(píng)果公司曾經(jīng)因拒絕政府要求披露用戶(hù)信息而獲得自由主義者們的普遍贊譽(yù)。2015年12月2日,美國(guó)加州圣貝納迪諾發(fā)生了美國(guó)本土自9·11之后最嚴(yán)重的恐怖襲擊,宣誓效忠“伊斯蘭國(guó)”的賽義德·法魯克(Syed Rizwan Farook)和塔什芬·馬利克(Tashfeen Malik)在開(kāi)槍射殺14人、射傷20多人后被警察擊斃。聯(lián)邦調(diào)查局查獲了法魯克的iphone手機(jī),為了獲得犯罪調(diào)查和反恐所需要的信息,它在獲得法院授權(quán)的情況下向蘋(píng)果公司發(fā)出了解鎖該手機(jī)的要求。但蘋(píng)果公司拒絕合作,公司總裁蒂姆·庫(kù)克還在公司網(wǎng)站上發(fā)布了一封公開(kāi)信,譴責(zé)聯(lián)邦調(diào)查局的要求“破壞了我們的政府旨在保護(hù)的那種權(quán)利和自由。”[17]對(duì)蘋(píng)果公司而言,這是一次成功的公眾形象宣傳,而對(duì)于美國(guó)的國(guó)家安全和公眾的生命安全而言,這顯然不是件好事。

企業(yè)一方面以拒絕與政府合作披露用戶(hù)信息的姿態(tài)來(lái)維護(hù)自己的公眾形象,另一方面自己又偷偷摸摸地濫用著個(gè)人信息。大數(shù)據(jù)分析公司“劍橋分析”利用Facebook泄露的5000萬(wàn)用戶(hù)的帳戶(hù)信息幫助特朗普競(jìng)選團(tuán)隊(duì)量身定制地投放政治廣告從而幫助特朗普在2016年美國(guó)總統(tǒng)大選獲勝的新聞,便是這方面一個(gè)現(xiàn)成例子。[18]

基本公共服務(wù)(包括國(guó)防和治安)領(lǐng)域的公、私權(quán)力關(guān)系是未來(lái)治理需要解決的首要問(wèn)題。以政府為主要規(guī)制和防范對(duì)象的現(xiàn)有公法體系需要考慮技術(shù)革新和權(quán)力結(jié)構(gòu)變化所帶來(lái)的新問(wèn)題,一方面將透明、公開(kāi)、程序合法、說(shuō)明理由等對(duì)公權(quán)力行使者的要求延伸到實(shí)際上行使著“準(zhǔn)公權(quán)力”的平臺(tái)企業(yè),使算法等技術(shù)化的監(jiān)控和決策手段不再是無(wú)法被問(wèn)責(zé)的“黑箱”,另一方面調(diào)整傳統(tǒng)的公法概念(包括“公共服務(wù)”)和規(guī)制手段,以應(yīng)對(duì)現(xiàn)時(shí)代公私合作、公私共治的普遍現(xiàn)象。

分類(lèi)、評(píng)分和社會(huì)信用體系。機(jī)器學(xué)習(xí)的“推理”方式是基于統(tǒng)計(jì)學(xué)方法的歸納推理,目前的智能算法善于從海量數(shù)據(jù)中找出規(guī)律和模式。如果再由人工給不同的行為模式貼上標(biāo)簽,比如反社會(huì)傾向、潛在恐怖主義分子或者政治上激進(jìn)等,就可以由機(jī)器來(lái)針對(duì)某種標(biāo)簽所代表的人或行為進(jìn)行監(jiān)控、預(yù)測(cè),甚至自動(dòng)采取“行動(dòng)”(比如斷網(wǎng)、斷電、列入某類(lèi)服務(wù)的“黑名單”,等等)。智能算法還可以根據(jù)平臺(tái)用戶(hù)的搜索記錄、購(gòu)物記錄、點(diǎn)贊記錄等對(duì)用戶(hù)進(jìn)行評(píng)分,授予不同的VIP等級(jí)和相應(yīng)權(quán)限。而政府也可以利用政府信息平臺(tái)上的可得信息來(lái)對(duì)個(gè)人進(jìn)行社會(huì)信用評(píng)級(jí),確定需要重點(diǎn)監(jiān)控的對(duì)象,甚至剝奪某些失信者的特定民事權(quán)利和自由,比如,國(guó)家發(fā)展改革委員會(huì)、中央文明辦、最高人民法院等八部門(mén)于2018年3月聯(lián)合發(fā)文,決定限制特定嚴(yán)重失信人乘坐火車(chē)。嚴(yán)重失信人包括嚴(yán)重影響鐵路運(yùn)行安全和生產(chǎn)安全者(比如在動(dòng)車(chē)組列車(chē)上吸煙或者在其他列車(chē)的禁煙區(qū)域吸煙的人)、違反稅收法規(guī)者、在財(cái)政資金管理使用領(lǐng)域中有弄虛作假等嚴(yán)重失信行為者等。這種讓當(dāng)事人在已承擔(dān)法律規(guī)定的責(zé)任之后額外背負(fù)“失信”標(biāo)簽并承受相應(yīng)后果的做法是否符合立法保留、比例原則和正當(dāng)程序原則,這是法學(xué)界關(guān)心的問(wèn)題。

如果應(yīng)用得當(dāng),人工智能可以使信用評(píng)分更加精準(zhǔn)、動(dòng)態(tài)化和語(yǔ)境化。傳統(tǒng)的個(gè)人信用和風(fēng)險(xiǎn)評(píng)分是商業(yè)銀行和保險(xiǎn)公司針對(duì)個(gè)人信貸或保險(xiǎn)客戶(hù)的違約風(fēng)險(xiǎn)、健康風(fēng)險(xiǎn)、職業(yè)風(fēng)險(xiǎn)和行為風(fēng)險(xiǎn)等所作的評(píng)分,用以支持貸款或保費(fèi)決策。隨著個(gè)人商業(yè)活動(dòng)和社交活動(dòng)的網(wǎng)絡(luò)化,平臺(tái)企業(yè)開(kāi)始借助自己所掌握的賬戶(hù)活動(dòng)信息而進(jìn)行更加精準(zhǔn)的信用評(píng)分。以回歸分析為主要方法的統(tǒng)計(jì)學(xué)模式,最近鄰法、決策樹(shù)法和數(shù)據(jù)包絡(luò)法等非參數(shù)方法,以線性規(guī)劃法為主要方法的運(yùn)籌學(xué)方法都隨著計(jì)算機(jī)技術(shù)的發(fā)展而得到強(qiáng)化,同時(shí),神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)等智能算法的出現(xiàn)進(jìn)一步解決了傳統(tǒng)方法的小樣本、線性化、無(wú)反饋等問(wèn)題。但是,技術(shù)上存在可能并不意味著實(shí)踐上一定能達(dá)成。人工智能評(píng)分系統(tǒng)的準(zhǔn)確性取決于前期的人工投入,政府人員需要與技術(shù)人員合作列出參數(shù)和指標(biāo),確定它們的權(quán)重,確保違背法律和倫理的評(píng)價(jià)指標(biāo)(比如種族、民族和性別歧視因素)不會(huì)進(jìn)入算法。如果沒(méi)有這種前期的把關(guān)和持續(xù)的監(jiān)督,智能算法就可能變成“數(shù)學(xué)殺傷武器”[19]。類(lèi)型化和標(biāo)簽化固然有助于管理,但其中也蘊(yùn)含著固化、歧視和簡(jiǎn)單化的傾向。從腦科學(xué)角度來(lái)看,貼標(biāo)簽是認(rèn)知弱化而不是智能的體現(xiàn)。比如,網(wǎng)絡(luò)空間中給中年男性的“油膩”“猥瑣”標(biāo)簽,便是人云亦云、盲從跟風(fēng)的結(jié)果。[20]機(jī)器學(xué)習(xí)的素材是用語(yǔ)言和符號(hào)表達(dá)的人類(lèi)經(jīng)驗(yàn),其中也包含人類(lèi)偏見(jiàn)。一旦這種偏見(jiàn)用算法的形式固定下來(lái),便會(huì)逃過(guò)人們的審視和反思。

2017年6月23日,由上海市第十四屆人民代表大會(huì)常務(wù)委員會(huì)第三十八次會(huì)議通過(guò)的《上海市社會(huì)信用條例》是規(guī)范大數(shù)據(jù)時(shí)代社會(huì)信用評(píng)分的比較有代表性的地方性立法。該條例將社會(huì)信用信息定義為“可用以識(shí)別、分析、判斷信息主體守法、履約狀況的客觀數(shù)據(jù)和資料”,并且將社會(huì)信用信息區(qū)分為公共信用信息和市場(chǎng)信用信息。該條例不僅提出了公共信用信息的互通、共享要求,還提出要建立公共信用信息與市場(chǎng)信用信息的互通、共享機(jī)制。此外,該條例也規(guī)定了信息主體所享有的權(quán)益以及相應(yīng)的救濟(jì)程序。這是將社會(huì)社會(huì)信息的收集、分析和利用法治化的有益嘗試。隨著社會(huì)信用評(píng)分日益成為一種常規(guī)化的社會(huì)治理手段,全國(guó)性的《社會(huì)信用法》也應(yīng)當(dāng)及時(shí)出臺(tái)。

預(yù)測(cè)性執(zhí)法。基于大數(shù)據(jù)的人工智能技術(shù)可以比較準(zhǔn)確地找出某一類(lèi)人或被重點(diǎn)監(jiān)控的某一個(gè)人的行為模式,并對(duì)未來(lái)的行為作出比較準(zhǔn)確的預(yù)測(cè)。在美國(guó),相關(guān)實(shí)證研究表明,大多數(shù)犯罪行為都是一小部分慣犯所犯下的,因此剝奪這一小撮人的犯罪能力可以指數(shù)級(jí)地減少犯罪率。蘭德公司的一份報(bào)告因此提出了“有針對(duì)性地剝奪犯罪能力”(Selective incapacitation),指出:“有針對(duì)性地剝奪犯罪能力是一種戰(zhàn)略,它旨在使用客觀的精算證據(jù)來(lái)提升既有系統(tǒng)識(shí)別和羈押那些對(duì)社會(huì)構(gòu)成最嚴(yán)重威脅的人物之能力。”[21]預(yù)測(cè)性執(zhí)法在預(yù)防犯罪、禁毒和反恐等領(lǐng)域已經(jīng)得到普及。

從法律的角度看,預(yù)測(cè)性執(zhí)法涉及到違反正當(dāng)程序、系統(tǒng)性歧視和侵犯隱私等問(wèn)題。哥倫比亞大學(xué)法學(xué)院哈克特教授專(zhuān)門(mén)寫(xiě)了一本叫做《反對(duì)預(yù)測(cè)》的書(shū)。他提出了三點(diǎn)理由:首先,根據(jù)對(duì)未來(lái)犯罪行為的預(yù)測(cè)來(lái)執(zhí)法會(huì)削弱執(zhí)法本身的首要目的,即減少犯罪;其次,對(duì)概率論方法的依賴(lài)會(huì)造成數(shù)據(jù)偏差,過(guò)分針對(duì)被監(jiān)禁人口,而忽略了未被監(jiān)禁的人口;第三,精算方法的廣泛應(yīng)用扭曲了人們對(duì)何謂公正懲罰的認(rèn)知。刑法的規(guī)范價(jià)值被忽視了。[22]不過(guò),如果不采取預(yù)先拘禁和搜查等明顯侵犯?jìng)€(gè)人權(quán)利的強(qiáng)制措施,而是采取在據(jù)預(yù)測(cè)可能發(fā)生犯罪或恐怖襲擊的地方加派警力巡邏、在犯罪高發(fā)地區(qū)加裝照明和攝錄設(shè)施、動(dòng)員基層群眾自治組織或發(fā)動(dòng)群眾盯控可能的犯罪分子等非干預(yù)性的手段,則可以在強(qiáng)化法治的前提下維護(hù)秩序。

基于大數(shù)據(jù)的人工智能技術(shù)的發(fā)展正在使孔德在一個(gè)半世紀(jì)前試圖建立的“社會(huì)物理學(xué)”成為可能。按照孔德的設(shè)想,隨著理性的科學(xué)認(rèn)知的不斷推進(jìn),社會(huì)科學(xué)最終將發(fā)展到物理學(xué)的“成熟狀態(tài)”。人們將可以通過(guò)觀察、統(tǒng)計(jì)和分析而發(fā)現(xiàn)近似于自然規(guī)律的社會(huì)規(guī)律,從而“研究現(xiàn)狀以便推斷未來(lái)。”[23]在孔德的時(shí)代,由于技術(shù)手段的欠缺,他的野心還無(wú)法變?yōu)楝F(xiàn)實(shí)?;谟邢迾颖镜慕y(tǒng)計(jì)分析還遠(yuǎn)遠(yuǎn)無(wú)法使社會(huì)預(yù)測(cè)達(dá)到物理預(yù)測(cè)那樣的精準(zhǔn)性。但大數(shù)據(jù)存儲(chǔ)和人工智能分析已經(jīng)使樣本分析有可能為整全數(shù)據(jù)分析所取代,并且日益實(shí)現(xiàn)動(dòng)態(tài)化和分析者與對(duì)象之間的互動(dòng)化。正如當(dāng)代社會(huì)物理學(xué)的鼓吹者彭特蘭所言:“社會(huì)物理學(xué)是一門(mén)定量的社會(huì)科學(xué),旨在描述信息和想法的流動(dòng)與人類(lèi)行為之間可靠的數(shù)學(xué)關(guān)系。社會(huì)物理學(xué)有助于我們理解想法是如何通過(guò)社會(huì)學(xué)習(xí)機(jī)制在人與人之間流動(dòng)的,以及這種想法的流動(dòng)最終如何形成公司、城市和社會(huì)的規(guī)范、生產(chǎn)率和創(chuàng)意產(chǎn)出。”[24]在社會(huì)物理學(xué)當(dāng)?shù)赖氖澜纾潞笞坟?zé)型的人類(lèi)法律將被數(shù)理定律所取代,物理性和生物性的安排將取代制度性的安排。臉書(shū)創(chuàng)辦人馬克·扎克伯格曾經(jīng)指出:“基本的數(shù)學(xué)法則主導(dǎo)著人與人之間的關(guān)系,它控制著我們心之所系的盈虧。”[25]而他也的確利用算法實(shí)現(xiàn)著對(duì)人心和人的行為的操控。人工智能正使我們?cè)絹?lái)越接近于發(fā)現(xiàn)這些數(shù)學(xué)法則,并借此控制人的行為乃至動(dòng)機(jī)。人工智能的進(jìn)一步發(fā)展則可能使人類(lèi)連編寫(xiě)代碼、設(shè)計(jì)算法的工作都省了,由機(jī)器來(lái)自我編程,建構(gòu)“完美可控”的人間秩序。[26]在這種背景下,我們不能只看到人工智能在助力精準(zhǔn)治理方面的作用,同時(shí)應(yīng)當(dāng)考慮如何用法治來(lái)引導(dǎo)它的發(fā)展方向,從而使它服務(wù)于社會(huì)公共利益。

國(guó)家治理現(xiàn)代化與智能法律

黨的十八屆三中全會(huì)提出:“全面深化改革的總目標(biāo)是完善和發(fā)展中國(guó)特色社會(huì)主義制度,推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化。”[27]現(xiàn)代化的國(guó)家治理體系的主要外在形式就是法治,“國(guó)家治理法治化是國(guó)家治理現(xiàn)代化的必由之路。”[28]我國(guó)推進(jìn)國(guó)家治理法治化和現(xiàn)代化的過(guò)程很碰巧地與新一輪信息技術(shù)革命同時(shí)發(fā)生,人工智能是這一輪技術(shù)革命中最為引人注目的領(lǐng)域。在利用人工智能技術(shù)來(lái)建設(shè)智慧政府,實(shí)現(xiàn)精準(zhǔn)治理的同時(shí),需要把人工智能的各種應(yīng)用場(chǎng)景,包括治理工作,納入法治軌道。要實(shí)現(xiàn)精準(zhǔn)治理的法治化,需要落實(shí)以下幾方面的制度安排。

算法可解釋性。在美國(guó),已經(jīng)有案例涉及到算法黑箱問(wèn)題。2013年初,威斯康辛州指控艾瑞克·魯米斯(Eric Loomis)五項(xiàng)刑事罪行,都和一起駕車(chē)槍擊事件有關(guān)。魯米斯否認(rèn)自己參與了槍擊,但承認(rèn)自己在案發(fā)當(dāng)晚駕駛過(guò)那輛車(chē)。在辯訴交易中,他承認(rèn)了兩項(xiàng)較輕的罪名:“企圖逃避交警以及未經(jīng)車(chē)主同意擅自駕車(chē)”。在量刑階段,法院收到州政府罪犯改造部門(mén)提交的一份量刑前調(diào)查報(bào)告(PSI),其中包含再犯風(fēng)險(xiǎn)評(píng)估內(nèi)容(COMPAS)。在初審判決中,法院在量刑部分援引了COMPAS評(píng)估的內(nèi)容,并且部分基于這一評(píng)估判處魯米斯6年監(jiān)禁外加5年監(jiān)外管制。在申請(qǐng)定罪后救濟(jì)動(dòng)議(motion for post-conviction relief)被拒后,威斯康辛州上訴法院批準(zhǔn)了向州最高法院上訴。魯米斯的上訴理由是法院對(duì)COMPAS評(píng)估的依賴(lài)侵犯了他的正當(dāng)程序權(quán)利。正當(dāng)程序權(quán)利包括獲得個(gè)別化量刑考量的權(quán)利(the right to an individualized sentence)以及基于準(zhǔn)確信息而受量刑的權(quán)利(the right to be sentenced on accurate information)。由于COMPAS評(píng)估報(bào)告提供的數(shù)據(jù)是類(lèi)型化的,未能充分體現(xiàn)個(gè)人特殊性,同時(shí)由于作出評(píng)估的方法是COMPAS算法的提供者Northpointe公司的商業(yè)秘密,其可靠性無(wú)從判斷,魯米斯主張自己的上訴兩項(xiàng)權(quán)利受到了侵犯。此外,他還聲稱(chēng)該算法評(píng)估將他的性別作為一個(gè)因素加以考量,侵犯了他的平等權(quán)。[29]

威斯康辛州最高法院支持了初審法院的判決。在安·布拉德利(Ann Walsh Bradley)大法官撰寫(xiě)的多數(shù)派意見(jiàn)中,魯米斯的正當(dāng)程序和平等權(quán)主張被一一否定。首先,法院認(rèn)為性別因素是作為提升評(píng)估準(zhǔn)確性的目的而非歧視目的而進(jìn)入算法參數(shù)的,而且魯米斯無(wú)法證明法院在量刑時(shí)的確考量了性別因素,因此他的平等權(quán)并未受到侵犯。其次,因?yàn)镃OMPAS所分析的數(shù)據(jù)是記錄在案的公共數(shù)據(jù)(犯罪紀(jì)錄)和被告自己提供的數(shù)據(jù)(他對(duì)137個(gè)問(wèn)題的回答),因此,被告在算法評(píng)估結(jié)果出來(lái)之前本來(lái)就有機(jī)會(huì)否認(rèn)或解釋相關(guān)信息,也有機(jī)會(huì)驗(yàn)證相關(guān)信息的準(zhǔn)確性,因此質(zhì)疑信息準(zhǔn)確性的主張站不住腳。最后,關(guān)于量刑個(gè)別化問(wèn)題,法院承認(rèn)COMPAS算法評(píng)估的結(jié)論揭示的是與魯米斯相似的一類(lèi)人的再犯風(fēng)險(xiǎn),但指出該評(píng)估結(jié)論不是法院作出量刑判決的唯一依據(jù),由于法院擁有在其認(rèn)為適當(dāng)?shù)那闆r下不同意評(píng)估結(jié)論的裁量權(quán)和相關(guān)證據(jù),因此該量刑判決是充分個(gè)別化的。[30]

從這個(gè)案例可以看出,當(dāng)算法涉嫌針對(duì)個(gè)人作出了歧視性的或錯(cuò)誤的評(píng)估或決策的時(shí)候,至少在美國(guó),法院傾向于保護(hù)算法產(chǎn)品廠商的商業(yè)秘密,這種權(quán)益被視為沒(méi)有爭(zhēng)議的前提,法院不會(huì)要求廠商公開(kāi)算法代碼,也沒(méi)有要求廠商用自然語(yǔ)言解釋算法的設(shè)計(jì)原理、功能和目的。但算法可解釋性是“算法的法律”可以成立的前提。人不可能控制或約束自己不懂的東西。之所以說(shuō)人工智能算法進(jìn)行深入學(xué)習(xí)的過(guò)程是個(gè)黑盒子,主要的原因除了它的保密性外,更重要的是即使公開(kāi)了法官和律師也看不懂。算法可解釋性乃至可視化是一個(gè)可以用技術(shù)解決的問(wèn)題,一旦法律提出了相關(guān)要求,技術(shù)界便會(huì)想方設(shè)法使算法成為可解釋的。比如,在2018年3月7日,谷歌大腦團(tuán)隊(duì)的克里斯·歐拉(Chris Olah)公布了一項(xiàng)題為“可解釋性的基礎(chǔ)構(gòu)件”的研究成果[31],該成果解決了神經(jīng)網(wǎng)絡(luò)這種最令人難以捉摸的算法的可視化問(wèn)題,谷歌將其比喻為人工神經(jīng)網(wǎng)絡(luò)的核磁共振成像(MRI)。如果說(shuō)神經(jīng)網(wǎng)絡(luò)算法所處理的海量數(shù)據(jù)及其復(fù)雜運(yùn)算過(guò)程會(huì)使人腦“超載”的話,這種可視化解釋技術(shù)簡(jiǎn)化了相關(guān)信息,使算法的工作狀態(tài)回到了“人類(lèi)尺度”,能夠被普通人看懂和理解。谷歌還對(duì)這種“解釋算法的算法”做了開(kāi)源化處理,使其他技術(shù)人員能夠在此基礎(chǔ)上編寫(xiě)適用于不同算法和場(chǎng)景的解釋性算法。

由此可見(jiàn),法律進(jìn)入算法不能靠立法者和規(guī)制者的單方面努力,而需要法律人與技術(shù)人員的合作。正如李彥宏等人在《算法革命》中所指出的那樣:“……也許真要靠算法的頂層設(shè)計(jì)來(lái)防止消極后果。人工智能技術(shù)可能不只是理工科專(zhuān)業(yè)人士的領(lǐng)域,法律人士以及其他治理者也需要學(xué)習(xí)人工智能知識(shí),這對(duì)法律人士和其他治理者提出了技術(shù)要求。法治管理需要嵌入生產(chǎn)環(huán)節(jié),比如對(duì)算法處理的數(shù)據(jù)或生產(chǎn)性資源進(jìn)行管理,防止造成消極后果。”[32]法律人可以向技術(shù)人員解釋法律規(guī)則的要求,而技術(shù)人員可以設(shè)計(jì)出符合法律要求的算法。法律和技術(shù)都是非自然的“人工”造物,兩者都服務(wù)于使人類(lèi)生活更加美好的目的。在人工智能時(shí)代,一種新的職業(yè)——法律知識(shí)工程師——正在誕生,這種職業(yè)是由能夠用技術(shù)解決法律問(wèn)題的人士和能夠用法律服務(wù)技術(shù)發(fā)展并將技術(shù)套上法律韁繩的人士共同組成的。人工智能是能夠在給定問(wèn)題的前提下通過(guò)深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)尋求最優(yōu)解的智能算法,它需要人類(lèi)提出正確的問(wèn)題,對(duì)錯(cuò)誤問(wèn)題的正確解答可能帶來(lái)災(zāi)難性的后果。法律就是用來(lái)劃定問(wèn)題域之邊界的,它不能確保最佳問(wèn)題的出現(xiàn),但可以防止最邪惡?jiǎn)栴}的提出。

矯正正義。法律,尤其是私法,所體現(xiàn)的核心價(jià)值是交換正義和矯正正義。對(duì)于自愿的交易,法律旨在確保承諾的履行,合同法便是為了實(shí)現(xiàn)這一功能而出現(xiàn)的。對(duì)于非自愿發(fā)生的初始狀態(tài)改變,對(duì)損害給予救濟(jì)的侵權(quán)法原則和對(duì)不當(dāng)?shù)美枰苑颠€的民法原則(restitution)是主要的法律介入形式。將矯正正義的形式法則應(yīng)用于各種事實(shí)場(chǎng)景的技藝被認(rèn)為是法律的獨(dú)特技藝所在,體現(xiàn)了柯克所說(shuō)的“人為理性”。[33]影響甚大的多倫多大學(xué)新形式主義法律學(xué)派將矯正正義的概念化、類(lèi)型化和系統(tǒng)化處理視為法學(xué)維持自身獨(dú)立品格、避免受法律和社會(huì)科學(xué)交叉學(xué)科侵蝕的關(guān)鍵所在。[34]

矯正正義模式通過(guò)事后追責(zé)的救濟(jì)手段給技術(shù)創(chuàng)新保留足夠的空間,在人工智能的應(yīng)用領(lǐng)域,這意味著繼續(xù)以傳統(tǒng)的侵權(quán)法—司法救濟(jì)模式來(lái)保護(hù)個(gè)人權(quán)利。大數(shù)據(jù)對(duì)個(gè)人自治的威脅最集中地體現(xiàn)在一個(gè)領(lǐng)域,這就是“完美個(gè)人化”(perfect personalization)。完美個(gè)人化所要做到的就是使個(gè)人變得越來(lái)越“可識(shí)別”,這在歐洲顯然會(huì)遭遇個(gè)人數(shù)據(jù)保護(hù)法的嚴(yán)格限制,乃至于不可能發(fā)生。但中美兩國(guó)卻已經(jīng)在這方面走得很遠(yuǎn)。正如美國(guó)總統(tǒng)科技顧問(wèn)委員會(huì)(PCAST)在2014年提交的一份報(bào)告中指出的那樣,“各種類(lèi)型數(shù)據(jù)的融合以及實(shí)時(shí)處理產(chǎn)生出一種力量,在這種力量幫助下,政府和企業(yè)可以在個(gè)人表達(dá)需求、甚至意識(shí)到需求前向他們準(zhǔn)確提供量身定制的信息、產(chǎn)品和服務(wù)??不幸的是,‘完美個(gè)人化’也會(huì)給定價(jià)、服務(wù)和機(jī)會(huì)方面隱秘或者公開(kāi)的歧視留下空間??隨著像數(shù)據(jù)融合這樣的使大數(shù)據(jù)分析變得越來(lái)越有力的技術(shù)不斷發(fā)展,人們目前的隱私預(yù)期也受到越來(lái)越嚴(yán)峻的挑戰(zhàn)”[35]。這份報(bào)告同時(shí)提出了一套包含五個(gè)環(huán)節(jié)的應(yīng)對(duì)方案。第一,法律和政策回應(yīng)不必針對(duì)大數(shù)據(jù)的搜集和分析,而應(yīng)針對(duì)大數(shù)據(jù)的實(shí)際使用,也就是對(duì)個(gè)人權(quán)利產(chǎn)生實(shí)際不利影響的具體事件和案件。法律和政策不應(yīng)指定特定的技術(shù)化解決方案,而應(yīng)當(dāng)點(diǎn)明具體的政策目標(biāo),把解決方案留給技術(shù)界去尋找。第二,在發(fā)展大數(shù)據(jù)分析技術(shù)的同時(shí),政府和業(yè)界應(yīng)鼓勵(lì)發(fā)展大數(shù)據(jù)背景下的隱私保護(hù)技術(shù),同時(shí)開(kāi)展大數(shù)據(jù)普及教育,培育大數(shù)據(jù)時(shí)代的隱私權(quán)意識(shí)。第三,禁止利用大數(shù)據(jù)分析來(lái)進(jìn)行歧視性的分類(lèi)和評(píng)級(jí)。種族、民族、性別等憲法上可疑的分類(lèi)標(biāo)準(zhǔn)不能被寫(xiě)到“算法”和程序中去。第四,提高大數(shù)據(jù)分析的透明度,強(qiáng)化大數(shù)據(jù)使用的問(wèn)責(zé)機(jī)制。第五,數(shù)據(jù)是一種公共資源,應(yīng)用于公共利益目的,應(yīng)當(dāng)使越來(lái)越多的人有機(jī)會(huì)分享智能化大數(shù)據(jù)分析所帶來(lái)的利益。

在政府利用人工智能技術(shù)對(duì)個(gè)人數(shù)據(jù)進(jìn)行分析處理并實(shí)現(xiàn)精準(zhǔn)治理的場(chǎng)合,矯正正義模式要求有確定的政府機(jī)關(guān)為此負(fù)責(zé),從而使公民可以通過(guò)行政復(fù)議和行政訴訟獲得救濟(jì)?!渡虾J猩鐣?huì)信用條例》第36條提供了明確的救濟(jì)渠道:市公共信用信息服務(wù)中心是責(zé)任單位,信息主體認(rèn)為社會(huì)信用信息的歸集、采集、保存或者提供存在錯(cuò)誤、遺漏等情形或者侵犯其商業(yè)秘密、個(gè)人隱私和其他個(gè)人信息等合法權(quán)益的,可以向該中心提出異議。此外,根據(jù)信用信息作出具體行政行為的機(jī)關(guān)也可以成為行政訴訟的被告。

預(yù)防模式。對(duì)于一種深刻改變著社會(huì)而其中包含的風(fēng)險(xiǎn)尚無(wú)法確知的技術(shù),損害發(fā)生之后的司法救濟(jì)顯然無(wú)法確保社會(huì)的公共利益。因此,許多國(guó)家都試圖設(shè)立專(zhuān)門(mén)的規(guī)制機(jī)構(gòu)來(lái)負(fù)責(zé)人工智能研發(fā)和產(chǎn)品化過(guò)程中的風(fēng)險(xiǎn)評(píng)估、風(fēng)險(xiǎn)溝通和風(fēng)險(xiǎn)管理。比如,在簽署歐洲議會(huì)報(bào)告過(guò)程中便提議設(shè)立一個(gè)“歐洲機(jī)器人和人工智能局”來(lái)統(tǒng)籌該領(lǐng)域的風(fēng)險(xiǎn)規(guī)制工作。2017年12月,美國(guó)眾議院討論了由議員約翰·德萊尼提出的《人工智能的未來(lái)法案》,其中的主要內(nèi)容也是要求在商務(wù)部?jī)?nèi)設(shè)立一個(gè)“聯(lián)邦人工智能發(fā)展與應(yīng)用顧問(wèn)委員會(huì)”,就人工智能涉及的技術(shù)、商業(yè)、國(guó)家安全等問(wèn)題進(jìn)行綜合研判并向政府提供立法和規(guī)制建議。該法案特別強(qiáng)調(diào)了促進(jìn)人工智能發(fā)展與防止其負(fù)面影響之間的平衡問(wèn)題,指出人工智能人工智能技術(shù)的持續(xù)發(fā)展對(duì)于美國(guó)的經(jīng)濟(jì)繁榮、社會(huì)穩(wěn)定和國(guó)家安全具有至關(guān)重要(critical)的意義,不能因?yàn)閾?dān)憂其不可控的風(fēng)險(xiǎn)就采取過(guò)多的抑制措施。

當(dāng)一種新技術(shù)對(duì)社會(huì)的影響在科學(xué)上尚無(wú)定論的時(shí)候,如果這種影響有可能是負(fù)面的、巨大的和不可逆轉(zhuǎn)的,決策者就應(yīng)該假定它會(huì)造成這種影響,并據(jù)此來(lái)制定相關(guān)和政策和法律。這就是“風(fēng)險(xiǎn)預(yù)防原則”(Precautionary Principle)。對(duì)該原則的最廣為人知的表述出現(xiàn)在1992年的《里約宣言》中,該宣言的第十五條原則指出:“在嚴(yán)重的或不可逆轉(zhuǎn)的損害威脅存在的領(lǐng)域,缺乏充分的科學(xué)確定性不應(yīng)成為暫緩采取有成本效益的措施來(lái)防止環(huán)境惡化的理由”。[36]這一原則現(xiàn)在也正在被適用到人工智能領(lǐng)域。

機(jī)器學(xué)習(xí)以大數(shù)據(jù)為素材,采取預(yù)防模式的歐盟選取了數(shù)據(jù)這個(gè)源頭作為切入點(diǎn)來(lái)杜絕可能帶來(lái)權(quán)利侵害的算法。即將于2018年生效的《一般數(shù)據(jù)保護(hù)條例》一體適用于對(duì)個(gè)人數(shù)據(jù)的自動(dòng)化(即算法處理)和非自動(dòng)化處理(第二條),其目的在于保護(hù)數(shù)據(jù)流動(dòng)和數(shù)據(jù)處理過(guò)程中自然人所享有的數(shù)據(jù)權(quán)利(第一條)。而個(gè)人數(shù)據(jù)的定義十分寬泛,包括與已被識(shí)別出(identified)或可被識(shí)別出(identifiable)的自然人相關(guān)的任何信息。其中對(duì)“可別識(shí)別出的”個(gè)人數(shù)據(jù)的保護(hù)對(duì)算法設(shè)計(jì)者提出了很高的要求,包括采取匿名化等一系列使數(shù)據(jù)無(wú)法被關(guān)聯(lián)到具體個(gè)人的技術(shù)手段(第四條)。對(duì)個(gè)人數(shù)據(jù)的處理要符合合法、公平、透明、目的具體且有限、準(zhǔn)確、安全等原則(第五條)。除非是在法律明確規(guī)定的條件(比如數(shù)據(jù)主體明確同意)下,處理數(shù)據(jù)的方式不得顯示出個(gè)人的種族、民族、政治觀點(diǎn)、宗教或哲學(xué)信仰、工會(huì)成員身份,等等。處理的對(duì)象不得包括基因數(shù)據(jù)、使某個(gè)人被識(shí)別出來(lái)的生物計(jì)量學(xué)數(shù)據(jù)、健康數(shù)據(jù)以及性生活或性取向數(shù)據(jù)(第九條)。[37]該條例明確列舉了數(shù)據(jù)主體的若干具體權(quán)利,包括充分知情權(quán)、要求更正權(quán)、要求刪除權(quán)(被遺忘權(quán))和限制處理權(quán)(第15~18條),旨在強(qiáng)化數(shù)據(jù)主體對(duì)涉及自身的所有數(shù)據(jù)的控制能力。在鼓勵(lì)創(chuàng)新和保護(hù)權(quán)利之間,歐盟立法者選擇了后者,預(yù)先給智能算法的發(fā)展劃定了界限。[38]

不僅如此,控制機(jī)器學(xué)習(xí)可用的數(shù)據(jù)來(lái)源的做法基本忽視了智能算法的現(xiàn)有技術(shù)狀態(tài)。對(duì)個(gè)人身份的已識(shí)別或可識(shí)別狀態(tài)往往是數(shù)據(jù)分析的結(jié)果而不是起點(diǎn),現(xiàn)有的智能算法已經(jīng)能夠?qū)A康臒o(wú)結(jié)構(gòu)數(shù)據(jù)(包括百度搜索記錄、淘寶購(gòu)物記錄、手機(jī)GPS信息等各種電子痕跡)進(jìn)行分析和處理,最終實(shí)現(xiàn)“完美個(gè)人化”,即準(zhǔn)確識(shí)別出某一特定個(gè)人的身份、社會(huì)屬性和偏好。從數(shù)據(jù)是否已包含個(gè)人身份信息入手來(lái)規(guī)制算法無(wú)法達(dá)到保護(hù)個(gè)人權(quán)益的目的。我國(guó)目前尚未通過(guò)《個(gè)人數(shù)據(jù)保護(hù)法》,在制定這一類(lèi)法律的時(shí)候應(yīng)當(dāng)更多地聽(tīng)取法律專(zhuān)家、人工智能專(zhuān)家和大數(shù)據(jù)平臺(tái)企業(yè)等多方面的意見(jiàn),平衡技術(shù)創(chuàng)新、國(guó)家—社會(huì)治理和個(gè)人權(quán)利保護(hù)三方面的利益。

結(jié)論

首先,主流的法治理論認(rèn)為法治與法制的主要區(qū)別在于:后者是工具主義的,法律被當(dāng)成統(tǒng)治的工具,但無(wú)法約束統(tǒng)治者本身;后者是權(quán)利本位的,法律不僅約束公民,更約束公權(quán)力。在這種法治框架下,政府成為法律(尤其是公法)的監(jiān)控對(duì)象。但大數(shù)據(jù)分析技術(shù)和人工智能正在改變社會(huì)的治理結(jié)構(gòu)和秩序生成機(jī)制,誰(shuí)掌握了數(shù)據(jù)和分析數(shù)據(jù)的技術(shù),誰(shuí)就能影響和控制人的行為。大到總統(tǒng)選舉,小到日常購(gòu)物,智能化的數(shù)據(jù)分析和行為誘導(dǎo)機(jī)制在其中發(fā)揮著越來(lái)越大的作用,而背后的操縱者往往不再是政府。新技術(shù)的發(fā)明者、投資者和鼓吹者們往往會(huì)夸大技術(shù)帶來(lái)的“解放”效應(yīng),宣稱(chēng)人工智能和區(qū)塊鏈等技術(shù)將使一切中心和中介變得沒(méi)有必要,從而瓦解人類(lèi)社會(huì)的金字塔結(jié)構(gòu),使有序的人際關(guān)系變得越來(lái)越呈網(wǎng)狀分布,每個(gè)人都是中心,每個(gè)人也都不可能控制整個(gè)網(wǎng)絡(luò)。但實(shí)際結(jié)果卻是,金字塔依然存在,基底依然是蕓蕓眾生,但塔尖卻分裂成了政府、資本力量和技術(shù)力量。這三種力量有時(shí)會(huì)合并起來(lái),有時(shí)又相互對(duì)峙,但它們之間的關(guān)系并不受基座的影響。藐視政治權(quán)威的技術(shù)達(dá)人(黑客)并不會(huì)解放全人類(lèi),而只會(huì)破壞既定的法律秩序。與政府討價(jià)還價(jià)的商業(yè)力量也不會(huì)“制衡”公權(quán)力,而只是追逐利潤(rùn)。對(duì)“數(shù)力”(vires in numeris)的迷信與對(duì)暴力的迷信一樣是無(wú)助于實(shí)現(xiàn)社會(huì)正義的。上文中提到的“劍橋分析”公司助力特朗普贏得美國(guó)總統(tǒng)大選的例子表明,大數(shù)據(jù)掌控者已經(jīng)不只是通過(guò)數(shù)據(jù)分析來(lái)進(jìn)行預(yù)測(cè),還有能力將某些預(yù)測(cè)變成自我實(shí)現(xiàn)的預(yù)言。同時(shí),法律所建構(gòu)起來(lái)的公與私、政治權(quán)力與商業(yè)力量之間的區(qū)隔已經(jīng)變得弱不經(jīng)風(fēng)。因此,法治在人工智能時(shí)代面對(duì)的首要問(wèn)題是重新界定權(quán)力和權(quán)利,一方面用公共權(quán)力來(lái)馴服算力,讓它為公共利益服務(wù),另一方面賦予公民新的數(shù)據(jù)權(quán)利,以制衡無(wú)限擴(kuò)張的算力統(tǒng)治。

其次,在技術(shù)日益智能化的時(shí)候,法律的日益技術(shù)化會(huì)使它很容易被技術(shù)所取代,而如果兩者都趨向于只講手段不問(wèn)目的的工具理性,則人類(lèi)將被引向不可知的未來(lái),這個(gè)未來(lái)很可能是萬(wàn)劫不復(fù)的深淵。工具理性取代價(jià)值理性的趨勢(shì)在現(xiàn)代化的早期便已經(jīng)暴露無(wú)疑了,現(xiàn)代政治思想的奠基者霍布斯系統(tǒng)打造了人類(lèi)無(wú)中生有地創(chuàng)造和管理世界的理論,法律和工程技術(shù)都是這種“創(chuàng)世”工作的工具。奧克肖特敏銳地指出了“意志與人造物”在霍布斯思想中的核心地位,他發(fā)現(xiàn)霍布斯“通常不會(huì)提及理性,這一將人與上帝聯(lián)系的人類(lèi)心智的神性光亮;他提及的是推理(reasoning)。”[39]霍布斯十分明確地寫(xiě)道:“舊道德哲學(xué)家所說(shuō)的那種極終的目的和最高的善根本不存在。欲望終止的人,和感覺(jué)與映像停頓的人同樣無(wú)法生活下去。幸福就是欲望從一個(gè)目標(biāo)到另一個(gè)目標(biāo)不斷地發(fā)展,達(dá)到前一個(gè)目標(biāo)不過(guò)是為后一個(gè)目標(biāo)鋪平道路。所以如此的原因在于,人類(lèi)欲望的目的不是在一頃間享受一次就完了,而是要永遠(yuǎn)確保達(dá)到未來(lái)欲望的道路。”[40]從某種意義上講,人類(lèi)的欲望種類(lèi)從未改變,只是滿(mǎn)足欲望的技術(shù)手段越來(lái)越先進(jìn)。沒(méi)有方向和目標(biāo)地追求欲望的滿(mǎn)足在以人工智能作為技術(shù)手段的時(shí)代比任何時(shí)候都更危險(xiǎn)。法律和公共政策不能一味地追求用新的技術(shù)手段來(lái)實(shí)現(xiàn)對(duì)人的控制,而應(yīng)當(dāng)體現(xiàn)公平、正義和民生福祉等基本的價(jià)值目標(biāo)。

最后,人工智能所體現(xiàn)的技術(shù)理性有明顯的化約主義傾向,我們可以借助它來(lái)提高效率,取代一部分無(wú)需創(chuàng)造性和價(jià)值判斷的工作,但不能由它來(lái)作出事關(guān)人類(lèi)福祉的最終決策。法律所調(diào)整的是人與人之間的關(guān)系,因此法律不必去直接規(guī)制技術(shù),而應(yīng)當(dāng)規(guī)制使用技術(shù)的人。從更深的層面上講,法律應(yīng)當(dāng)去規(guī)制被技術(shù)改變后的社會(huì)中的人,從而使技術(shù)對(duì)人類(lèi)社會(huì)的影響能夠朝著善和正義的方向去發(fā)展。人不應(yīng)當(dāng)允許自己的自我認(rèn)識(shí)被技術(shù)所左右;他應(yīng)當(dāng)象反抗任何導(dǎo)致主體性喪失的支配關(guān)系一樣去反抗對(duì)技術(shù)的依賴(lài);如果他想要拯救自己的人性和自主性,他就應(yīng)該把自己從技術(shù)和支配所導(dǎo)致的異化中拯救出來(lái)。因此,盡管人工智能技術(shù)可以被用來(lái)設(shè)計(jì)出自動(dòng)決策系統(tǒng),但這種系統(tǒng)只能被用來(lái)處理事實(shí)和價(jià)值方面沒(méi)有爭(zhēng)議的簡(jiǎn)單事項(xiàng),比如闖紅燈罰款,而在涉及事實(shí)爭(zhēng)議和價(jià)值選擇的復(fù)雜問(wèn)題上,人工智能只能被用來(lái)強(qiáng)化人類(lèi)智能,而由人來(lái)作出最終的選擇和判斷。

注釋

[1]MatejBalog, Alexander L. Gaunt, et al., "Deepcoder: Learning to Writing Programs," ICLR 2017會(huì)議論文,https://www.microsoft.com/en-us/research/wp-content/uploads/2017/03/main.pdf.

[2]http://www.sohu.com/a/193242602_473283.

[3]www.automl.org/.

[4] RayKurzweil, The Singularity Is Near: When Humans Transcend Biology, New York: The Viking Press, 2006.

[5] Samuel Gibbs, Elon Musk: "Artificial Intelligence Is Our Biggest Existential Threat", GUARDIAN (Oct. 27, 2014, 6:26 AM), http://www.theguardian.com/technology/2014/oct/27/elon-musk-artificialintelligence-ai-biggest-existential-threat [https://perma.cc/SZD4-7WCL].

[6][法]雷吉斯·德布雷、趙汀陽(yáng):《兩面之詞:關(guān)于革命問(wèn)題的通信》,張萬(wàn)申譯,北京:中信出版社,2015年,第23頁(yè)。

[7]Desmond Butler, Jack Gillum, and Alberto Arce,US Secretly Created" Cuban Twitter" to Stir Unrest, Associated Press, April 4, 2014.

[8]Minsky, in M. Yazdani and A. Narayanan, Artificial Intelligence: Human Effects, Chichester, UK: Ellis Horwood, 1984.

[9]Cary Coglianese and David Lehr, "Regulating by Robot: Administrative Decision Making in the Machine Learning Era," 105 Georgetown Law Journal, 1147 (2017), p.1148.

[10]Executive Office of the President National Science and Technology Council Committee on Technology, Preparing for the Future of Artificial Intelligence, October, 2016, pp.15-16.

[11]《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》,國(guó)發(fā)[2017]35號(hào)。

[12]汪玉凱:《中國(guó)政府信息化與電子政務(wù)》,《新視野》,2002年第2期,第54~56頁(yè)。

[13]金江軍:《智慧政府:電子政務(wù)發(fā)展的新階段》,《信息化建設(shè)》,2011年第11期,第16~17頁(yè)。

[14]歐樹(shù)軍:《國(guó)家基礎(chǔ)能力的基礎(chǔ)》,北京:中國(guó)社會(huì)科學(xué)出版社,2013年。

[15]王紹光:《序一》,歐樹(shù)軍:《國(guó)家基礎(chǔ)能力的基礎(chǔ)》,北京:中國(guó)社會(huì)科學(xué)出版社,2013年,第1頁(yè)。

[16]馮仕政,陸美賀:《社會(huì)計(jì)算如何可能?》,《貴州師范大學(xué)學(xué)報(bào)·社會(huì)科學(xué)版》,2016年第6期,第27~30頁(yè)。

[17]Tim Cook, "A Message to Our Customers", APPLE (Feb. 16, 2016), https://www.apple.com/customer-letter/.

[18]Carole Cadwalladr and Emma Gaham-Harrison, "Revealed: 50 Million Facebook Profiles Harvested for Cambridge Analytica in Major Data Breach", Guardian, 17 March 2018, https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election.

[19]Cathy O 'Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York: Crown Publishers, 2016.

[20]蔣建國(guó):《油膩中年男的媒介呈現(xiàn)、認(rèn)知標(biāo)簽與社會(huì)化戲謔》,《探索與爭(zhēng)鳴》,2018年第1期,第123~127頁(yè)。

[21] Peter W. Greenwood and Allan Abrahamse, 1982. Selective Incapacitation. Santa Monica, CA: Rand Corporation, 1982.

[22] Bernard E. Harcourt, Against Prediction: Profiling, Policing, and Punishing in an Actuarial Age, University of Chicago Press, 2007.

[23] [法]奧古斯特·孔德:《論實(shí)證精神》,黃建華譯,北京:商務(wù)印書(shū)館,2001年,第12頁(yè)。

[24][美]阿萊克斯·彭特蘭:《智慧社會(huì):大數(shù)據(jù)與社會(huì)物理學(xué)》,王小帆、汪容譯,杭州:浙江人民出版社,2015年,第7頁(yè)。

[25] Michael Rundle, "Zuckerberg: Telepathy is the Future of Facebook," Wired UK, July 1, 2015, http://www.wired.co.uk/article/facebook-zuckerberg-qa-the-future.

[26] Jason Tanz, "The Rise of Artificial Intelligence and the End of Code", Wired, June 2016.

[27] 《中共中央關(guān)于全面深化改革若干重大問(wèn)題的決定》,北京:人民出版社,2013 年,第3 頁(yè)。

[28] 張文顯:《法治與國(guó)家治理現(xiàn)代化》,《中國(guó)法學(xué)》,2014年第4期,第5~27頁(yè)。

[29] State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016).

[30]State v. Loomis, 881 N. W. 2d 749 (Wisconsin, 2016)。還可參見(jiàn):Jason Tashea, "Calculating Crime: Attorneys Are Challenging the Use of Algorithms to Help Determine Bail, Sentencing and Parole Decisions," 103 A.B.A Journal 54 (March 2017), P.P. 54-60,該文提到了若干與Loomis案類(lèi)似的涉及“算法量刑”的案例。

[31] Chris Olah, "The Building Blocks of Interpretability", https://distill.pub/2018/building-blocks/.

[32] 李彥宏等:《智能革命:迎接人工智能時(shí)代的社會(huì)、經(jīng)濟(jì)與文化變革》,北京:中信出版集團(tuán),2017,第312頁(yè)。

[33] Charles Fried, "Artificial Reason of the Law or: What Lawyers Know", 60 Texas Law Review, 35 (1981).

[34]Ernest J. Weinrib, The Idea of Private Law, Oxford University Press, 1995; Ernest J. Weinrib, Corrective Justice, Oxford University Press, 2012; Stephen Waddams, Dimensions of Private Law, Cambridge University Press, 2003.

[35] Executive Office of the President, Big Data: Seizing Opportunities, Preserving Values, The White House, May 2014.

[36] United Nations Environment Programme (UNEP), Rio Declaration on Environment and Development, Principle 15, Rio de Janeiro, Brazil, June 14, 1992.

[37]http://gdpr-info.eu.

[38] 鄭戈:《在鼓勵(lì)創(chuàng)新與保護(hù)人權(quán)之間:法律如何回應(yīng)大數(shù)據(jù)技術(shù)革新的挑戰(zhàn)》,《探索與爭(zhēng)鳴》,2016年第7期,第79~85頁(yè)。

[39] Michael Oakeshott, "Hobbes on Civil Association", Indianapolis, IN.: Liberty Fund, 1975, p.27.

[40] [英]霍布斯:《利維坦》,黎思復(fù)、黎廷弼譯,北京:商務(wù)印書(shū)館,1985年,第72頁(yè)。

Precision Governance in the Context of Law-based Governance of China

Zheng Ge

Abstract: Artificial intelligence (AI) has a wide application prospect in modernizing China's governance system. By creating a unified government information platform and using machine to analyze massive data, it can provide well-targeted information support for government decision-making. At the same time, massive dynamic data is gathered in the hands of platform companies. The sharing of public information and market information is one of the prerequisites for achieving precision governance. Under the premise of building the big data infrastructure well, the AI technology can bring many innovative measures to the governance work, such as social credit management and predictive law enforcement. Meanwhile, we should also see the structural changes caused by these new governance measures and their impact on civil rights. Therefore, the protection by the rule of law should also closely follow the pace of technological progress.

Keywords: Artificial intelligence, big data, precision governance, rule of law, rights

責(zé) 編/楊昀赟

[責(zé)任編輯:楊昀赟]
標(biāo)簽: 語(yǔ)境   國(guó)家