【摘要】人工智能技術在工業(yè)和商業(yè)領域蓬勃興起,為現(xiàn)代社會注入新動能。與此同時,人工智能技術也存在倫理責任主體缺失、社會失業(yè)人數(shù)增加、個人信息和隱私泄露、智能技術失控等問題。對此,應建立人工智能技術倫理規(guī)制,加強算法權力法律規(guī)約,完善專業(yè)人才隊伍建設和相關業(yè)務培訓,對確保人工智能技術符合人類共同利益和普遍價值的發(fā)展方向尤為必要。
【關鍵詞】人工智能時代 風險隱憂 制度防范 【中圖分類號】D035 【文獻標識碼】A
隨著大數(shù)據(jù)、云計算和神經(jīng)網(wǎng)絡等技術快速發(fā)展,人工智能技術已經(jīng)滲透到社會各個角落,對人們生產(chǎn)、生活和思維方式產(chǎn)生了深遠影響。以網(wǎng)絡神經(jīng)元為支撐的深度學習系統(tǒng)正深入各個行業(yè)和場景,為經(jīng)濟社會發(fā)展注入強大動力。同時也要看到,一旦人工智能技術達到超級模仿、無限放大的程度,將會危及人類切身利益,并引發(fā)一系列問題,如失業(yè)問題、道德風險、社會倫理問題等。全面認識人工智能的潛在風險,深入分析人工智能技術與社會風險的內在聯(lián)系,提出規(guī)范人工智能技術的有效舉措,對維護社會根本利益和人民長遠利益具有重要意義。
人工智能時代的到來
長期以來,人類對人工智能發(fā)展和前景都存有極大的好奇和憧憬,并試圖通過各種不同機器程序來模擬人類思維,希望將人類從繁重的體力勞動中解放出來。2016年3月,AlphaGo和韓國棋王李世石在韓國首爾進行一場比賽,AlphaGo在大數(shù)據(jù)和深度學習技術的支持下,憑借出奇制勝的算法和謀略,以總比分4比1擊敗了李世石,讓各方大跌眼鏡。從AlphaGo身上可以看到,新一代人工智能已經(jīng)基本具備人類智能,其憑借強大的學習能力和算法技術支持,在不遠的將來完全有可能超越人類,并對社會生產(chǎn)生活各個方面產(chǎn)生深刻影響,這在人工智能發(fā)展史上具有劃時代意義。更為要害的是,人工智能技術具有以往技術不曾具有的內在特質,顛覆了人類獲取知識的傳統(tǒng)模式,并對思想觀念、價值理念、行為方式產(chǎn)生革命性影響。
第一,以個性化社會生產(chǎn)方式推動人們思想觀念、價值判斷的多重變革。人工智能技術實現(xiàn)了對以往機器技術和智能化功能的升級改造。新一代智能系統(tǒng)變得更加聰明,更加善解人意,成為人們日益親密的合作“伙伴”,擺脫了舊式分工的束縛,把人們從繁重單調的工作中解放出來。人工智能技術不是刻板地模擬人類的大腦結構,也不是簡單地模仿人腦工作原理,而是一種創(chuàng)造性的模擬。它通過海量數(shù)據(jù)分析和科學推斷,為人類提供個性化服務,有力地支撐了人類思維創(chuàng)新和產(chǎn)品創(chuàng)新。人工智能系統(tǒng)被賦予“豐富的知識”“敏捷的思維”“冷靜的態(tài)度”等多面的外在表征,通過分析海量數(shù)據(jù)來幫助人們觀察社會變遷,全面把握社會發(fā)展變化趨勢,為科學認識世界和改造世界提供指導。
第二,以神經(jīng)網(wǎng)絡模型為原理的深度學習推動社會相關行業(yè)和領域的技術變革。在諸多人工智能學習模式中,神經(jīng)網(wǎng)絡學習是借鑒人類大腦結構及功能的學習模型,通過神經(jīng)元節(jié)點連接組成的網(wǎng)絡,模擬大腦信息處理、知識表征和學習過程,從而完成處理海量信息的任務,這是人工智能技術強大的關鍵所在。深度學習的特殊之處在于它在面對復雜對象時,能夠通過多層提煉、分析總結,在沒有預設性條件下實現(xiàn)自我學習和自我創(chuàng)新。近年來,深度學習在圖像識別、語音識別、自動駕駛、機器翻譯等方面的突破性進展,引起了較大的社會反響。
第三,人工智能技術在商業(yè)領域廣泛應用,延伸社會產(chǎn)品服務鏈、產(chǎn)業(yè)鏈和價值鏈。新一代人工智能技術,無論是在社會適用范圍上,還是在自動化、智能化水平上,都達到前所未有的程度。隨著人工智能技術被廣泛運用到自動駕駛、生物識別、醫(yī)療健康、保險投資等多個領域,其內在社會價值和商業(yè)價值逐步彰顯。目前,人工智能技術以全方位、多領域的方式改變著人類社會的生存方式和運行結構,并很快形成了巨大的經(jīng)濟效益和社會效益。
人工智能時代的風險隱憂
在智能技術產(chǎn)生之前,所有技術和發(fā)明創(chuàng)造都可以看作是人類身體器官的投影或放大。第一代和第二代人工智能也不過是利用數(shù)據(jù)和技術工具對人腦思維能力無限放大、延伸或投影的嘗試。人工智能潛在風險可能會蘊含于人類新技術產(chǎn)生之中,也可能會內嵌于社會制度風險中。由于時代變化和不可預測性,加上不同民族、文化、經(jīng)濟等條件的影響和制約,它不僅具有復雜性、綜合性的特點,而且?guī)в腥蛐院蛥^(qū)域性共存、自然地理特征與文化融合的特征。
人工智能技術帶來的倫理風險。在人工智能倫理規(guī)約設計中,技術設計目標與技術行為后果陷入不相協(xié)調的兩難境地:一方面,人們希望通過科技發(fā)展給人們生產(chǎn)生活帶來更多便利;另一方面,他們又不希望技術發(fā)展僭越倫理規(guī)范預設的行為邊界。人工智能風險的獨特性和現(xiàn)行規(guī)制的局限性加劇了技術風險爆發(fā)的可能性。目前,人工智能已經(jīng)造成難以應對的各種風險,如與大數(shù)據(jù)技術結合后的人工智能技術,以及對復雜問題的分析帶有種族主義和性別歧視。自動駕駛、無人駕駛技術的應用使人類時常面臨著意想不到的道德困境。在這種情況下,人工智能倫理責任界定成為了不可回避的現(xiàn)實問題。
人工智能時代面臨的社會結構性失業(yè)。2013年9月,牛津大學研究者卡爾·弗瑞(Carl Benedikt Frey)及邁克爾·奧斯本(Michael A. Osborne)發(fā)表了《就業(yè)的未來》研究報告,調查各項工作在未來20年被計算機取代的可能性。根據(jù)算法估計,美國有47%的工作有很高風險被計算機取代。麻省理工學院教授邁克斯·泰格馬克(Max Tegmark)針對如何分析未來職業(yè)被計算機取代的可能性提出了三條判斷標準,即該工作是否需要與人互動?該工作是否涉及創(chuàng)造性?該工作是否需要在不可預測的環(huán)境下進行?根據(jù)分析,對于教師、護士、科學家、企業(yè)家、程序員、藝術家等具有更多創(chuàng)造性,需要與人打交道的工作,相對比較安全;對收銀員、貨車司機、廚師等職業(yè),這些具有高度重復、結構化以及可以預測的工作看起來不久將要被機器自動化取代。
人工智能技術可能引發(fā)個人信息泄露和隱私權侵犯問題。人工智能系統(tǒng)本質是通過從外部輸入涉及個人、商業(yè)、政府等大量信息的海量數(shù)據(jù)來訓練學習算法,然而所涉及大量數(shù)據(jù)無法通過傳統(tǒng)數(shù)據(jù)分析軟件和程序對數(shù)據(jù)有效地分析、攝取和管理,這些信息一旦泄露會給政府和個人帶來極大風險。2018年3月18日,劍橋數(shù)據(jù)分析公司就被爆出對Facebook上5000萬個人用戶資料進行不當分析,并干擾2016年的美國大選。為此,美國國會和歐盟議會要求Facebook就個人隱私數(shù)據(jù)泄露接受質詢并追究其責任。
人工智能時代隱含著技術失控風險。據(jù)專家估計,根據(jù)目前人工智能系統(tǒng)發(fā)展態(tài)勢,21世紀中葉極有可能出現(xiàn)“具有人類思維水平的機器智能”,甚至出現(xiàn)能夠相互學習、相互作用、自我完善而不斷升級的“超級智能組織”。但是,具有自主意識的超級智能很有可能突破設計者預先設定的臨界點而走向“失控”,進而反過來對人類進行控制和統(tǒng)治。
人工智能社會的制度防范
面對人工智能技術的迅猛發(fā)展,不應采取消極甚至排斥的態(tài)度,將其置于人類社會發(fā)展的對立面,而是應當從倫理層面展開反思,慎思技術開發(fā)和運用的制度性規(guī)范,嚴格約束責任主體的行為,以積極行動解決人工智能技術發(fā)展過程中面臨的難題。
建立人工智能技術的倫理規(guī)制。建立過程中要考慮人類整體利益和最高利益,建立人機共生協(xié)作的密切關系,在人工智能設計和運用中堅持人類的基本價值原則。堅持人類基本價值原則,最為根本的是堅持人本原則、公開原則和責任原則。人本原則就是要堅持以人為本的原則,滿足人工智能造福人類的崇高目的。既不能像反對技術的浪漫主義那樣拒斥、放棄人工智能造福人類社會的機會,也不能放任自流,給人類帶來技術失控的風險。公正原則,是指讓更多人獲得益處,成果讓多數(shù)人共享的同時,防止“資本邏輯”的橫行,并建立健全社會福利保障體系,對弱勢群體、落后地區(qū)進行扶持,切實維護各方的尊嚴和合法權益。責任原則,是指人工智能研發(fā)、應用和管理過程中,必須確定不同道德主體的權利和義務,一旦人工智能系統(tǒng)出現(xiàn)破壞性后果,不同責任主體必須及時作出回應并采取相應措施。
加強算法技術權力的法律規(guī)約。人工智能技術發(fā)展程度受制于算法權力變量,然而算法權力過大會引發(fā)資本和權力操控的風險,帶來人工智能技術異化傾向。應合理界定算法技術的權力,調整不同社會資本利用分配,避免因受到特定集團利益支配而導致的算法權力濫用?,F(xiàn)代社會算法技術的研發(fā)應用主要依托物聯(lián)網(wǎng)企業(yè),算法權力遵循市場邏輯,在利益誘導下呈現(xiàn)出一定的歧視性和偏好性。人工智能算法結果并不單純是技術自動化的結果,而是遵循著人工編譯的運算規(guī)則和程序規(guī)范,蘊含著程序設計者的價值導向和意識形態(tài)觀念。要確保智能技術在良性軌道上運行,需要在人工智能算法程序中賦予一定的權力限制。通過完善法律規(guī)范,將法的價值和理念融入算法程序,將算法技術馴化為服從人類根本利益和普遍價值的工具。從人工智能算法權力運行程度看,應不斷完善算法技術的程序,完善算法程序設計的監(jiān)督環(huán)節(jié),細化算法計算相關法律條文,追究因技術失范帶來的法律責任。
建立可信任的人工智能發(fā)展制度。人工智能技術在現(xiàn)實層面上還面臨不少難題,要加強對人工智能技術的法律規(guī)制,既要考慮到人工智能技術創(chuàng)新需要一定的發(fā)展空間,也需要考慮到用法律制度來保障人工智能技術應用的合理性。如果因人工智能可能帶來風險而對智能技術開發(fā)責任設置嚴格法律限制,或者因人工智能技術水平不夠成熟為此降低門檻,都會影響到人工智能企業(yè)健康發(fā)展。這其中的界限需要監(jiān)管部門和專業(yè)人士開展深入合作,從專利制度、侵權責任和政府管制等方面進行綜合考慮。
完善人工智能技術人才支撐。加強人工智能倫理教育和技術培訓。將符合特定倫理價值的倫理規(guī)范融入教育培訓內容中,增強全社會對人工智能技術的共識,根據(jù)不同教育對象因材施教。在學校系統(tǒng)教育中,側重對學生開展人工智能的倫理道德教育,提高對人工智能道德規(guī)范認識,增強人工智能技術安全意識。加強職業(yè)技術培訓,提高解決人工智能技術應用問題的能力。在政府培訓中,政府公職人員作為政策的制定者、執(zhí)行者,需要準確理解未來人工智能的相關政策。加強人工智能技術實際應用知識學習,提升科學素養(yǎng)、倫理素養(yǎng)以滿足人工智能社會發(fā)展要求。在社會開放教育中,開展人工智能知識普及教育,通過網(wǎng)絡、電視、互聯(lián)網(wǎng)等多種公眾媒體全方位加強人工智能知識的宣傳教育,消除公眾對人工智能的恐懼感和陌生感,增強人工智能的人性化、科學化的知識教育,努力創(chuàng)造有溫度、有力度的社會倫理教育環(huán)境。
(作者為齊魯工業(yè)大學(山東省科學院)馬克思主義學院講師,山東大學政治學與公共管理學院博士后)
【注:本文系山東省社會科學規(guī)劃項目“基于人與自然和諧共生的現(xiàn)代化研究”(項目編號:19CXSXJ14)及2020年山東省人文社會科學項目“高校專業(yè)課和思政課同向而行的內在機理和實現(xiàn)路徑研究”(項目編號:2020-ZXGJ-04)研究成果】
【參考文獻】
①[美]哈里·亨德森著、王華等譯:《人工智能之路》,上海:科學技術文獻出版社,2019年。
②李恒威、王昊晟:《人工智能威脅論溯因》,《浙江學刊》,2019年第2期。
③何清、李寧等:《大數(shù)據(jù)下的機器學習算法綜述》,《模式識別與人工智能》,2014年第4期。
責編/俞海韻(見習) 美編/楊玲玲
聲明:本文為人民論壇雜志社原創(chuàng)內容,任何單位或個人轉載請回復本微信號獲得授權,轉載時務必標明來源及作者,否則追究法律責任。