人工智能治理是其技術(shù)和運(yùn)用發(fā)展到一定階段的必然結(jié)果,更是對(duì)其研究、開發(fā)、生產(chǎn)和運(yùn)用過程中出現(xiàn)的公共安全、道德倫理等問題加以規(guī)范和治理的過程。對(duì)此要從三方面加以思考:
一是要注意平衡一對(duì)關(guān)系,一方面,人工智能通過科技產(chǎn)業(yè)的發(fā)展帶來經(jīng)濟(jì)效益,即社會(huì)福利、企業(yè)的營(yíng)利活動(dòng)還有知識(shí)產(chǎn)權(quán)應(yīng)用法案的提出;另一方面,為了防止企業(yè)面對(duì)過重的責(zé)任負(fù)荷,應(yīng)適當(dāng)?shù)乜紤]企業(yè)的責(zé)任有限化等問題,以避免對(duì)人工智能管理過嚴(yán)。過分強(qiáng)調(diào)法治會(huì)對(duì)人工智能產(chǎn)業(yè)的發(fā)展、人工智能技術(shù)的探索造成一定限制,所以我們需要辯證地看待這個(gè)問題。和產(chǎn)業(yè)、經(jīng)濟(jì)利益相對(duì)的是現(xiàn)在比較缺乏的人工智能治理,為解決現(xiàn)實(shí)問題應(yīng)特別強(qiáng)調(diào)個(gè)人權(quán)利、信息安全、隱私等,在我們?cè)u(píng)價(jià)維度中表現(xiàn)為公平正義及對(duì)政府行為的法律制約。人工智能治理中,應(yīng)注意這樣一對(duì)關(guān)系,在發(fā)展產(chǎn)業(yè)的同時(shí)保障權(quán)利、實(shí)現(xiàn)公平,不應(yīng)顧此失彼。
二是從國(guó)際規(guī)則博弈角度來說,需要注意幾個(gè)問題,如數(shù)據(jù)安全、面部識(shí)別技術(shù)的應(yīng)用等。個(gè)人隱私保護(hù)與產(chǎn)業(yè)發(fā)展的對(duì)立統(tǒng)一關(guān)系是我們需要考慮的范疇。如何準(zhǔn)確傳達(dá)加強(qiáng)數(shù)據(jù)治理、防治人工智能風(fēng)險(xiǎn)的意圖,如何切實(shí)完善制度設(shè)計(jì)非常重要。此外,算法黑箱也是一個(gè)重要且難以解決的問題,人工智能的預(yù)測(cè)能力越強(qiáng)、功能越強(qiáng),越容易導(dǎo)致算法黑箱問題。我們希望算法可以解釋、說明及透明化,但實(shí)際上這很難完全做到。如果不能恰當(dāng)?shù)刈龅剑蜁?huì)產(chǎn)生連鎖反應(yīng),使人工智能治理機(jī)制瓦解。要從法律的角度來認(rèn)識(shí)人工智能治理,如果人工智能“黑箱化”,將會(huì)導(dǎo)致問責(zé)艱難,甚至?xí)?dǎo)致失去原有的人工智能治理效力。
三是在考慮人工智能治理中強(qiáng)調(diào)法治,往往會(huì)涉及法律、政策、規(guī)則對(duì)人工智能技術(shù)的開發(fā)和人工智能產(chǎn)業(yè)的發(fā)展的過分嚴(yán)苛限制。解決這個(gè)問題,我們應(yīng)該注意人工智能治理中“軟法”與“硬法”相結(jié)合。在評(píng)選案例時(shí),更應(yīng)注重軟硬結(jié)合。其中,軟法主要是指道德,如從現(xiàn)有案例可以看到,當(dāng)前美國(guó)的企業(yè)已經(jīng)從道德入手,制定企業(yè)內(nèi)部規(guī)則或是技術(shù)操作規(guī)則。
【作者為上海交通大學(xué)文科資深教授、中國(guó)法與社會(huì)研究院院長(zhǎng),教育部“長(zhǎng)江學(xué)者”特聘教授。本文根據(jù)作者在2021年1月14日“2020全球十大人工智能治理事件專家內(nèi)部研討會(huì)”上的發(fā)言整理】