最近,人工智能產(chǎn)品ChatGPT橫空出世。由于具有語言理解和文本生成能力,特別是能夠從事論文寫作、翻譯以及制作司法裁判文書等工作,該產(chǎn)品引發(fā)了人們對人工智能在經(jīng)濟(jì)社會發(fā)展中應(yīng)用的廣泛討論。與此同時,我國工業(yè)和信息化部等部門聯(lián)合印發(fā)了《“機(jī)器人+”應(yīng)用行動實施方案》,明確了人工智能機(jī)器人應(yīng)用的10大重點領(lǐng)域,提出推動各行業(yè)、各地方結(jié)合行業(yè)發(fā)展階段和區(qū)域發(fā)展特色,開展“機(jī)器人+”應(yīng)用創(chuàng)新實踐;搭建國際國內(nèi)交流平臺,形成全面推進(jìn)機(jī)器人應(yīng)用的濃厚氛圍。這都預(yù)示著人工智能加快應(yīng)用的時代正在到來。
人工智能作為一種戰(zhàn)略性新興技術(shù),其蓬勃發(fā)展和廣泛應(yīng)用,將塑造和賦能越來越多的行業(yè)、領(lǐng)域和應(yīng)用場景,形成“人工智能賦能+”效應(yīng),為經(jīng)濟(jì)社會發(fā)展注入強(qiáng)勁動能。不過,人工智能應(yīng)用是一把“雙刃劍”,它在賦能經(jīng)濟(jì)社會發(fā)展的同時也可能引發(fā)風(fēng)險。一是新型法律糾紛風(fēng)險,比如人工智能侵權(quán)糾紛、著作權(quán)糾紛、人工智能技術(shù)濫用帶來的權(quán)益糾紛等。二是道德風(fēng)險。人工智能不能進(jìn)行價值判斷,但它是在研發(fā)人員價值觀念支配下設(shè)計開發(fā)出來的,容易受研發(fā)者秉持的價值觀念影響。三是人工智能技術(shù)不完善造成的社會公害風(fēng)險,比如算法歧視、泄露隱私信息等。對此,必須加強(qiáng)對人工智能潛在風(fēng)險的研判和防范,確保人工智能安全、可靠、可控。
在規(guī)范策略上,應(yīng)堅持規(guī)制與保障并重。一項新技術(shù)從研發(fā)到進(jìn)入市場,再到融入社會生產(chǎn)、生活,產(chǎn)生風(fēng)險是難以避免的,不能因為風(fēng)險而放棄新技術(shù)的研發(fā)和應(yīng)用。理想目標(biāo)應(yīng)是把風(fēng)險最小化,把技術(shù)獲利最大化。這就要求法律和政策做到規(guī)制與保障并重。要通過法律與政策手段解決人工智能引發(fā)的風(fēng)險,實現(xiàn)有序發(fā)展;同時,要確保人工智能創(chuàng)新發(fā)展,更好賦能經(jīng)濟(jì)社會。不過,規(guī)制與保障之間可能存在價值沖突,規(guī)制不當(dāng)可能扼殺人工智能的創(chuàng)新發(fā)展,必須審慎地處理好二者之間的關(guān)系。
在規(guī)范手段上,注重軟性引導(dǎo)與硬性約束同向發(fā)力。應(yīng)根據(jù)人工智能應(yīng)用產(chǎn)生風(fēng)險的原因,有針對性地采用不同規(guī)范手段。對人工智能因技術(shù)不完善引發(fā)的風(fēng)險,主要依靠軟性規(guī)范。軟性規(guī)范具有倡導(dǎo)性、靈活性強(qiáng)的特點??梢酝ㄟ^制定指南或行業(yè)自律等方式引導(dǎo)技術(shù)向善,防范潛在風(fēng)險發(fā)生。這是防范人工智能風(fēng)險不可或缺的手段。
對濫用人工智能技術(shù)引發(fā)的風(fēng)險,則要依靠硬性約束。硬性約束規(guī)定明確,可操作性強(qiáng),能夠為人們?nèi)绾涡袨樘峁┚唧w指引,并且有強(qiáng)制力保障。隨著人工智能廣泛應(yīng)用于各行業(yè),濫用人工智能技術(shù)多發(fā)頻發(fā),這就需要通過硬性約束,規(guī)范治理人工智能濫用問題。目前,我國專門針對人工智能技術(shù)濫用而出臺的法律數(shù)量少、位階低,亟需加大立法步伐。
在規(guī)范方式上,強(qiáng)化政府與企業(yè)治理協(xié)同,相輔相成,相互保障。具體而言,政府應(yīng)扮演人工智能發(fā)展政策的制定者、治理議程的設(shè)置者以及法律法規(guī)實施的監(jiān)督者等角色。企業(yè)是人工智能技術(shù)、產(chǎn)品或服務(wù)研發(fā)和使用的主體,也是發(fā)展人工智能的責(zé)任主體,必須擔(dān)負(fù)起人工智能風(fēng)險防范的社會責(zé)任。應(yīng)加強(qiáng)人工智能技術(shù)企業(yè)間的合作,依靠技術(shù)手段防范人工智能風(fēng)險。