j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網站首頁 | 網站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

AI治理:人工智能時代的秩序困境與治理原則

【摘要】人工智能是20世紀以來最為深刻、最有影響的技術革命和社會進步。它在深度挑戰(zhàn)傳統生產方式和經濟關系的同時,也在廣泛改變著現代人的日常行為和社會生活。人類長期既定的認知體系、價值觀念和生活方式,習以為常的法律規(guī)則、道德信條甚至決策機制都面臨著前所未有的危機和挑戰(zhàn)。全新的AI時代內在地需要全新的治理理念和治理形式。這就意味著治理體系和治理能力必須實現跨級飛躍:從傳統治理到互聯網治理,再到AI精準治理。AI精準治理必須堅持創(chuàng)新、適度、平衡和多元四大原則,建構由政府、市場和社會組織等多元主體攜手合作、共同參與的多層次、多樣化的新型治理模式,既能合理應對可能出現的諸多風險,又能積極支持人工智能的有序發(fā)展。

【關鍵詞】人工智能  大數據  AI治理  精準治理

【中圖分類號】TP18                          【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2018.10.001

人類正在步入一個由互聯網、大數據和人工智能(Artificial Intelligence, AI)三重疊加的數字時代。“三者共同標志著人類新時代的三個側面,共同構成了新的社會時代。網絡側重于描述人類社會乃至與物理社會廣泛連接的狀態(tài),大數據側重描述新社會狀態(tài)下的內容形態(tài)和數字本位狀態(tài),人工智能則描述了新的社會創(chuàng)造物和廣泛的機器介入的社會狀態(tài)。”[1]20世紀40年代,通用計算機和存儲設備走入普通人的日常生活,數字時代開啟。20世紀50年代,網絡技術獲重大突破,為網絡時代的到來鋪平了道路。20世紀60年代,芯片、激光和通信三大技術迅速升級,促成了互聯網絡、數據處理和智能機器的迅猛發(fā)展。20世紀90年代,互聯網逐步普及。網絡不再僅僅意味著技術和工具,而成為溝通平臺和組織原則。傳統人類生活開始被網絡解構、重構、再構,人與人之間的交往、交換和交流逐漸圍繞網絡展開,人類開始步入網絡時代。隨著傳感器技術的應用,海量級數據存儲的普及,新型通信技術的開發(fā),人類社會生活的數據規(guī)模呈指數級上升。2010年左右,大數據時代宣告到來。21世紀的第二個10年,伴隨數據處理能力的大幅提升,超級運算技術的廣泛應用,新式算法的橫空出世,人工智能領域的跨越式發(fā)展讓人目不暇接,甚至有些始料不及。所有的現實都在顯示:無論人類情愿與否,一個全新的人工智能時代正在迎面走來。如何理解人工智能帶給人類世界的機遇和挑戰(zhàn),如何認識人工智能引發(fā)的一系列社會影響和治理困境,如何確立人工智能時代精準治理的方向與原則,既是一個重大的理論課題,也是一個迫切的現實難題。

人工智能時代:大幕初啟的數字革命

人工智能,顧名思義,是指通過軟硬件的結合使機器具有一定程度的類人智慧、思維和行為。這一概念與內涵也在隨著應用范圍和相關學科的發(fā)展而變化。但毫無疑問,這是一個被高度關注、廣泛使用且正在飛速發(fā)展的新興領域。[2]

20世紀40年代,圖靈提出著名的“圖靈測試”:“如果一臺機器能夠與人類展開對話而不能被辨別出其機器身份,那么稱這臺機器具有智能。”[3]隨后,在香農和馮·諾伊曼的努力下,現代信息論和計算機科學的理論根基得以確立。在1956年美國的達特茅斯會議上,人工智能概念和研究領域被正式提出。自20世紀60年代起,人工智能大體經歷了兩大發(fā)展階段:一是弱人工智能階段,依靠單臺機器或小型局域網絡,只能完成簡單的程序和任務;二是強人工智能階段,全球互聯,大數據全覆蓋,終端云端協同運作,云存儲云計算同步開啟,已經具備近人類的思考方式和處理復雜任務的能力。[4]

近些年來,人工智能技術的革新更加突飛猛進,某些領域的發(fā)展水平已達到了前所未有的高度。1997年5月,IBM計算機“深藍”輕松戰(zhàn)勝國際象棋世界冠軍卡斯帕羅夫。2016年3月,谷歌“阿爾發(fā)狗”(AlphaGo)戰(zhàn)勝圍棋冠軍李世石。次年5月,再度戰(zhàn)勝排名世界第一的世界圍棋冠軍柯潔。雖然“阿爾發(fā)狗”是否代表人工智能發(fā)展方向這一問題還有爭議,但人們比較認可的是,它象征著計算機技術已進入人工智能的新信息技術,其特征是大數據、大計算、大決策,三位一體。它的智慧正在接近人類。2017年10月18日,DeepMind團隊公布了最強版的AlphaGo Zero,它的獨門秘籍是“自學成才”,從零基礎開始學習圍棋短短3天后就以100:0碾壓了第二個版本的“舊狗”(戰(zhàn)勝李世石的那版)。2005年5月,美國斯坦福大學研制的無人駕駛汽車在沙漠中行駛了132英里,開啟了無人駕駛汽車的新時代。2014年5月,Google正式推出的新型無人駕駛汽車開始路測。2015年2月,英國的無人駕駛汽車也正式亮相。據統計,2014年至今,全球范圍內與自動駕駛技術相關的投資、合伙、并購多達200多項,涉及總額高達1000億美元。[5]以互聯網科技先鋒自居的英特爾,早在2017年1月美國GES展會上就高調宣布與奔馳合作并將于近期推出AI駕駛汽車。進入21世紀不到20年,從強調海量數據存儲、高速計算能力的“強計算弱智能”,到依靠深度學習、大數據、云計算的“網絡協同強智能”,人工智能提升到了一個嶄新的高度和水平。有學者認為,人類社會即將迎來繼哥白尼革命、達爾文革命和神經科學革命之后的“第四次革命”。[6]

人工智能在生產領域中的應用,為新一輪產業(yè)結構升級提供了助力。借助互聯網+和工業(yè)4.0,人工智能以替代人工或與人工合作的方式,大幅提高了勞動生產率,深度重構了信息鏈和產業(yè)鏈,對傳統的價值創(chuàng)造和分配方式構成了重大影響。雖然當前的人工智能還不具備自我升級、自主創(chuàng)造的能力,但它對人類的生產和生活帶來了巨大的沖擊和挑戰(zhàn)。未來社會的發(fā)展不可能無視人工智能的作用與功能,這意味著,新一輪的創(chuàng)新運動勢必被強勢激發(fā)。

當今世界各國高度重視人工智能的研發(fā)與應用,尤其是人工智能戰(zhàn)略的發(fā)展。2014年6月,日本政府出臺《日本復興戰(zhàn)略》后火速啟動“機器人革命會議”。2015年1月,安倍首相提出要“通過規(guī)制改革實現機器人無障礙社會,確立世界最高水準的人工智能技術”,并聲稱2015年是“機器人革命元年”。[7]2015年,日本政府公布《機器人新戰(zhàn)略》,重點規(guī)劃了未來以機器人為軸心的人工智能發(fā)展目標。[8]2016年10月31日,美國先后發(fā)布《國家人工智能發(fā)展與研究戰(zhàn)略報告》(The National Artificial Intelligence Research and Development Strategic Plan)和《為人工智能的未來做好準備》(Preparing for the Future of the Artificial Intelligence)兩份報告,對人工智能發(fā)展的現狀和前景展開深度分析,正式宣告美國人工智能的發(fā)展戰(zhàn)略。

我國對人工智能的發(fā)展歷來高度重視。20世紀70年代末人工智能的研發(fā)和制作就已啟動。進入21世紀,我國對人工智能的重視程度更加提高,對技術研究和應用發(fā)展的支持力度也逐步加大。例如計算機視覺、語音識別和語言處理等技術的發(fā)展水平,已然穩(wěn)居世界先列。2017年,國務院發(fā)布《新一代人工智能發(fā)展規(guī)則》[9],引起國際社會高度關注。

某種程度來講,2017年是“人工智能元年”。它標志著,人工智能已實現跨越式發(fā)展,人類既有的認知、倫理和法律體系正面臨前所未有的挑戰(zhàn)。一個“后人類時代”正在緩步走來。未來,智能機器將參與甚至自主承擔越來越多的關乎倫理、法律的決策和行動,人類的生存安全以及思考決策的權威地位可能受到威脅。一旦人工智能成長為獨立的、自我約束型的“道德主體”,人類的本質都可能面臨重新界定和書寫。這無疑是重大的時代性人文命題。“人工智能領域是當前人類所面對的最為重要的深刻技術和社會變革,是網絡時代、大數據時代之后的新的人類社會形態(tài)在社會主體層面維度的反映。人工智能在深刻改變人類物質生產體系的同時,也將深刻改變人類的社會關系與社會行為。”[10]

人工智能引發(fā)的秩序困境

當今世界,人工智能的應用已經相當廣泛。普通人的日常生活,正在不可避免地被智能機器影響、左右甚至重構。不知不覺間,人們的學習、工作、購物,甚至尋友、旅行、炒股,已經離不開智能軟件和智能機器。許多過去只能由人類才能勝任的復雜工作,正在讓位給智能機器;而一些人類無法承受、無法逾越、無法勝任的高危險難領域,智能機器正在扮演越來越重要的角色。越來越多的人們意識到:人工智能越發(fā)展、越進步,人們對它的依賴程度越高、依賴范圍越廣。是否應該接受人工智能已經不是一個問題,人們要回答的是,如何應用人工智能造福人類,并及時應對人工智能帶給傳統安全、法律、道德和政治等觀念和現實的沖擊與挑戰(zhàn)。在伊隆·馬斯克(Elon Musk)看來,人工智能是對人類生存最大的威脅,開發(fā)能思考的機器就像在“召喚惡魔”。史蒂芬·霍金(Stephen Hawking)則認為,全面的人工智能將意味著人類這一種族的滅亡。就連比爾·蓋茨(Bill Gates)也對超級智能感到無比擔憂,他擔心超級智能再需幾十年就會誕生。[11]那么,人們不禁會問:人工智能為何讓人類如此憂慮?人工智能的迅猛發(fā)展會有哪些風險和不確定性?會引發(fā)哪些社會危機和秩序困境?

安全困境。首先是兩種極端形式的安全隱患:超級智能和“人工愚蠢”。超級智能是指某些人工智能在某些特定領域擁有超級的能力,如一些超級計算機,它們的計算速度是驚人的,從而造成了某些不可控的后果。例如,證券交易所中用于自動執(zhí)行股票交易的人工智能系統,執(zhí)行時間以納秒為單元。由于這些交易行為的發(fā)生速度很快,一旦出現問題,人類根本無法及時干預。更可怕的是這些智能機器不用吃飯、不用休息,理論上可以不間斷地永久工作。此外,這些超級智能的運行往往存在一些“黑箱”般的不透明性。如對于先進神經網絡與基因算法,人類早已放棄了試圖理解其何以能夠有效執(zhí)行如此復雜的任務。當今社會,人工智能承擔和處理的任務在不斷增長。人工智能可以輕松地設計新城市草圖、監(jiān)控銀行帳戶安全、執(zhí)行具有重大經濟影響的金融交易,甚至在同一時刻自動駕駛成百上千臺自動汽車……這些都是尋常人力所不能及的。“我們已經無法控制計算速度快于人類大腦百萬倍的機器,在可預見的未來,這個速度將持續(xù)增長。”[12]“人工愚蠢”是人工智能的反義詞,意指簡單規(guī)則下的人工智能的失敗。有些學者認為,人工智能真正的威脅恰恰在于“人工愚蠢”,例如一個被設定了固定程序的計算機會無條件地執(zhí)行命令,迅速完成某項單一工作內容。一旦程序失誤,智能機器就會無限地重復生產和制作動作,這將造成大量的資源浪費。2011年4月,亞馬遜網站上一本不再出版的圖書《蒼蠅的成長》出乎意料地與自己打起了價格戰(zhàn)。這本書有兩個版本,原來售價為35至40美元。有一天,它們突然分別以1730045和2198177美元銷售。僅僅數小時,價格又連續(xù)翻倍。兩周之后,書價已達到不可思議的23698655.93美元。之所以會如此,就是因為算法規(guī)定這本書的售價必須略高于競爭對手,于是就引發(fā)了價格戰(zhàn),并最終將自己的價格提升到了一個荒誕的程度。[13]2010年5月6日,美國東海岸時間下午2點42分,道·瓊斯指數“閃電崩盤”,三分鐘內下跌了將近1000點,創(chuàng)下歷史最大的單日跌幅,將近1萬億美元財富憑空蒸發(fā)。一些股票從平時的30~40美元暴跌至0.01美元,而蘋果公司股票每股從250美元激增至100000美元,不過,這些情況很快恢復正常。[14]造成這一驚天大崩盤的罪魁禍首就是因為基于規(guī)則的簡單人工智能的反饋回路被鎖定。“人工愚蠢”成功地以合法方式從人們口袋里把錢偷走了。

其次,人身安全問題。1978年,日本廣島一家工廠的切割機器人突然失靈,將一名工人當作鋼板進行切割,這是世界上第一宗機器人殺人事件。1979年,美國密歇根州福特鑄造廠工業(yè)機器人突然伸出手臂,閃電般擊倒一名裝配工人。1989年,蘇聯國際象棋冠軍古德柯夫和機器人對弈,連敗3局的機器人突然釋放高壓電流,將一代象棋大師電擊致死。2015年,德國大眾汽車制造廠一臺正在被安裝調試的機器人突然將裝配工人擊倒并碾壓在金屬操作板上。2018年3月20日,一名女子周日深夜在美國亞利桑那州坦貝市橫越馬路時,被一輛Uber自動駕駛汽車撞死。這是全球首例因無人駕駛車輛導致的交通事故。最近以來,用于戰(zhàn)爭的自動人工智能武器傷人事件也屢次不鮮。尤其是無人機的定點清除,容易帶來誤差導致貧民誤傷。有數據顯示,2004至2012年間,美軍針對阿富汗恐怖組織的無人機空襲超過300次,殺死3000余人,其中誤殺的平民和兒童高達1100多人。[15]無人機的大量濫用,給所在國帶來了深重的人道主義災難。

再次,數據安全問題。人工智能時代是互聯網、大數據和機器智能的三重疊加。隨著政府、企業(yè)和社會組織的決策越來越依賴大規(guī)模的數據收集、分析、整理和使用,傳統社會越來越走向數字化、透明化和公開化。這種技術形式使個人的隱私無處可藏、無所遁形,完全處于一種“網絡裸奔”狀態(tài)。所謂隱私保護,只不過是“皇帝的新衣”罷了。在日常生活的許多領域,人工智能產品已經與人類形成了服務與被服務、輔助與被輔助的關系,如機動車的自動泊車、軌道偏離糾正和自動駕駛技術,手機語音助手、地圖導航、免密支付功能等。當這些人工智能產品與人類進行信息交互時,如何確保使用者的信息不流失、不外泄,不被別有用心的人竊取和利用,即便上傳到遠程終端,依舊能夠保持安全,這已經關涉到每個人的切身利益。人工智能時代,無論是數據的收集環(huán)節(jié),還是數據的保存環(huán)節(jié),抑或是數據的使用環(huán)節(jié),都存在風險。大規(guī)模的智能機器在互聯網上沒日沒夜、一刻不停地搜集、整理著海量的個人數據,包括姓名、性別、電話、郵箱、住址、位置等。這些海量信息的全面追蹤,經過簡單的分析、歸納,完全可以勾勒出個人的個性特點、脾氣秉性、飲食習慣、購物傾向、顏色偏好,甚至各種個人癖好、行蹤軌跡、交往范圍、性取向等私密信息。由于系統安全漏洞、黑客惡意攻擊等原因,個人數據始終面臨被泄露、被竊取、被買賣等潛在的安全風險。2007年上半年,“熊貓燒香”“金豬報喜”等一系列惡意病毒的爆發(fā)讓人們首次認識到個人數據竟然可以被私下交易的黑幕。可這僅僅是現代數據與信息安全巨大黑幕的冰山一角。2016年9月22日,全球互聯網巨頭雅虎證實至少5億用戶賬戶信息遭人竊取。12月,雅虎再次發(fā)布聲明,宣布在2013年8月,未經授權的第三方竊取了超過10億用戶的帳戶信息,包括用戶姓名、電子郵箱、電話號碼、出生日期和部分登錄密碼。消息一出,全世界一片嘩然。

最后,隱私安全問題。數據是人類現代文明的基石。大數據也是人工智能產生和發(fā)展的必要前提。大數據的收集與整理必然需要每個人生活、工作和交往的諸多細節(jié)和信息,也勢必會形成對個人隱私的威脅。能否在利用大數據進行分析的同時,確保信息數據和個人隱私的安全,這直接影響每個公民的合法權益,間接影響公眾對政府的信任和認可。出于自身利益和高額利潤的考慮,一些商家片面強調新興智能產品的性能、優(yōu)點,卻對這些新設備和新技術對個人數據的動態(tài)獲取避而不談。當前一些應用APP在為人們提供免費、便利生活服務的同時,也會自動記錄、收集個人的數據信息,從而給下一步的精準推送和精準營銷提供素材。這一行為,無疑對個人財產和人身安全造成了潛在的威脅。由此來看,人工智能時代的數據安全與隱私保護是需要高度關注的核心議題,正如艾瑞斯所說:“隱私問題部分來說不是大數據分析的問題,它是數字化過程的陰暗面。”[16]

法律困境。人工智能技術的不斷發(fā)展,對現有的法律體系帶來了巨大的沖擊和挑戰(zhàn)。我們能否起訴機器人?這個以往不是問題的問題,如今卻成為真正的問題。

當今時代的人們對人工智能助手寄予了極大的信任,有時超過了人們的本能和判斷,甚至遠遠超過了設計者的信心。2013年底,美國阿拉斯加州弗爾班克斯幾位Iphone用戶按照蘋果地圖導航指引,選擇一條抵達費爾班克斯國際機場最近的路線,但沒有想到這條路線竟然直穿飛機起降的跑道,險些釀成大禍,這幾個人不得不面對數額不菲的罰款。2009年10月,一位英國司機依據GPS導航,使自己沖下懸崖,撞壞了別人莊園精美的圍欄。盡管英國法庭將這起事故歸因于他的GPS,但還是認定其有大意駕駛的過錯。在類似這種因技術引起的交通事故中,當前可用的法案條例非常有限,不過,法院一直趨向作出針對人類的判決。因為法官和民眾一樣,已經習慣于一種無智能工具的世界。一個人用槍殺了人,他應為自己的罪行負責,而不是讓他的槍負責。同樣,一家公司銷售了有瑕疵的槍支,購買者在使用過程中發(fā)生了爆炸,售槍公司應對造成的傷害負責。進入數字時代,這種慣性思維開始遇到挑戰(zhàn)。1984年6月,美國一家名叫阿斯隆工業(yè)的公司被告上法庭,用戶指控其銷售的自動投球機過于兇狠,發(fā)射的棒球不僅路線詭異,而且速度極快,極易導致使用者顱骨骨折甚至失明。阿斯隆案看似平常無奇,實則令人難忘,因為法官最終宣判對阿斯隆工業(yè)而不是投球機進行起訴,原因是什么呢?因為“我們無法起訴機器人”。[17]隨著人工智能產品越來越廣泛地應用于人類生活,越來越深入地影響整個世界,“無法起訴機器人”越來越遭到人們的反思和質疑。現代人工智能最大的不同點在于:它“不再僅限于由人類使用,而是一種由人類部署的工具。一旦部署,在多數情況下,機器就會按照所收集、分析和最終用于作出決定的信息,獨立于指令而自行運轉”。[18]從這個意義上看,陳舊的“無法起訴機器人”的觀念可能需要有所改變。

作為現階段人工智能應用最廣泛的領域,目前全球自動駕駛汽車的發(fā)展最引人注目。但這一技術也引發(fā)了不少法律糾紛。2016年5月7日,美國佛羅里達州一輛自動駕駛的特斯拉撞上了一輛試圖橫穿高速的卡車,造成車毀人亡的后果。美國公路安全管理局經過調查取證認為特斯拉的自動駕駛模式并無明顯缺陷,汽車生產商、駕駛員也沒有過錯。可事故畢竟是發(fā)生了,最終該由誰來負責呢?人們卻各持已見,爭執(zhí)不下。

法律責任的區(qū)分與承擔是人工智能發(fā)展面臨的首要法律挑戰(zhàn)。其中涉及的深層次問題是人工智能是否可以被問責?更進一步說,該如何問責?從傳統法理來看,主觀過錯在法律責任認定中至關重要。過錯性責任與無過錯性責任有實質性區(qū)別:無過錯就無責任。人工智能系統獨立完成工作,沒有人類的參與,那么,由人工智能自主性操作造成的損害如何認定責任,這就成了一個難題。

人工智能引發(fā)的責任認定問題,已經引起人們越來越多的重視。2016年8月,聯合國教科文組織在《關于機器人倫理的初步草案報告》中對機器人的責任問題進行了界定,認為應采取責任切割的方法,但凡參與機器人的研發(fā)、設計、生產、裝配和使用過程的所有人必須共同分擔責任。歐盟在智能機器人責任認定領域走在了世界前列。同年的5月和10月,歐洲議會法律事務委員會(JURI)先后發(fā)布《就機器人民事法律規(guī)則向歐盟委員會提出立法建議的報告草案》和《歐盟機器人民事法律規(guī)則》,對機器人和人工智能提出立法提案,為智能機器人重構責任規(guī)則。這兩份文件認為,如今的機器人已經具有自我學習、自我決斷和自主行為的能力,已經不能將其視為一個簡單的工具,因此,急需制定新的責任規(guī)則。而這又牽涉到機器人是否擁有法律地位的深層難題。也就是說,人們必須對機器人的本質作出規(guī)定,它是法人、自然人、動物還是物品?因為這直接關系到機器人在權利、義務、責任承擔等方面具有何種特性和內涵。

目前的法律框架下,機器人不必對其自身行為給第三方造成的損害承擔責任,這些責任分別歸結到生產者、銷售者和使用者身上。這里預設的責任條款是:這些主體能夠且應該預見智能機器人的任何行為尤其是傷害行為??梢坏┤斯ぶ悄軝C器可以自主判斷并實施行為,傳統的責任規(guī)則就無法確定責任方并讓其作出賠償了。這也就意味著,機器人具有自主行為能力的那一刻,所產生的機器人責任問題在現有法律體系內就會陷入死局,無法解決。

還有一些可能的現象值得關注。試想,如果未來可以很便捷地為每個人打造一個智能復制品,雖然只是一個機器,但外貌、感覺和行為與本人一模一樣。有沒有可能出現下面的極端情形?一個男人迷戀一個女孩,他就上網預訂了這個女孩的復制品,通過快遞到家,然后虐待甚至“殺掉”這個復制品。從技術和法律層面來講,復制品只是一個玩具,雖然具有人的形象但卻沒有感覺和情緒,買家將它當作玩具購買和使用也無可厚非,那么問題就出現了:“我們有法律保護這本書免遭剽竊,或我的觀點不被扭曲,但是沒有法律保護我們的復制品。”[19]

倫理困境。所謂人工智能,簡單地說就是要造會思考的機器。那么問題來了?這些機器是人嗎?它能像人一樣享有權利并承擔義務和責任嗎?我們憑什么相信這些比人類更有力、更聰明、會自己學習的智能機器不會有一天向人類倒戈一擊?這些問題已經引起人們越來越多的思考。“人工智能的潛在危險、我們對其日漸依賴以及法律的灰色地帶共同構成了非常重要的問題:我們需要在這個領域建立一種倫理規(guī)范。”[20]

對此,作家艾薩克·阿西莫夫提出了著名的“阿西莫夫法則”,也被稱為“機器人學的三大法則”:“1、機器人不得傷害人,也不得見人受到傷害而袖手旁觀;2、機器人應服從人的一切命令,但不得違反第一法則;3、機器人應保護自身的安全,但不得違反第一、第二法則。”[21]這三大法則一經提出,隨即引起人們的熱議,但僅限于人們對未來生活的幻想和無形的擔憂層面。2014年1月,當谷歌收購深度學習公司(DeepMind)時,事情發(fā)生了重大轉折。作為交易的一部分,深度學習公司提出的條件是:谷歌必須成立人工智能倫理委員會,確保對人工智能技術的安全開發(fā)和明智使用。這表明民眾看待人工智能的眼光已經發(fā)生轉變,從原來“人工智能怎么如此不堪?”轉向“人工智能怎么如此恐怖?”[22]

2014年,塔夫茨大學和布朗大學成立了一個多學科研究團隊,重點探索能否為用于戰(zhàn)爭的自動智能武器賦予是非感,希望這些戰(zhàn)爭機器人在戰(zhàn)場上能做出符合倫理的決定。但其中難度可想而知。試想,一個正在完成運送傷兵去戰(zhàn)地醫(yī)院任務的機器人軍醫(yī)遇到另一個腿上受傷的士兵,它是立即停下來救治傷兵,還是置之不理繼續(xù)前行?這對于正常人類來說都是一個難以抉擇的倫理問題,更何況是機器?再比如生產自動駕駛汽車的公司在設計汽車時規(guī)定,一旦汽車檢測到前方或后方即將發(fā)生碰撞,車輛可以迅速駛離道路從而保護車上人員安全。這一操作是合理的,現實生活中許多駕駛員也是這樣做的。但如果迅速駛離道路的汽車正好沖進了一群正在路邊下棋的市民當中呢?汽車避開了一個小追尾事故卻釀成數人傷亡的慘痛后果。這又如何是好?

人工智能還引發(fā)了一些隱性的道德問題。2000年到2010年,無人機和機器人戰(zhàn)爭走出科幻電影的大銀幕,變成了真正的現實。據大衛(wèi)和伊萊恩·波特(Elaine Potter)于2010年成立的獨立非營利組織新聞調查局統計,“美國無人機已在至少七個國家奪去了2500~4000人的性命(阿富汗、巴基斯坦、敘利亞、伊拉克、也門、利比亞和索馬里)。其中有約1000位平民,且有約200名兒童”。[23]與直接動手殺人相比,雖然造成的后果別無二致,但這種間接“扣動扳機”的行為,無論是對智能軟件的設計者、無人機操縱者還是下命令的將軍來說,內心的負罪感都會相對減弱,因為至少目前的人們可以接受這樣的事實:“使用機器完成某個行動基本上使機器的設計者和操作者免于該項行為的責任。”[24]這樣的思維也適用于其他情境和場合。如果由智能機器人執(zhí)刀的手術失敗導致病人死亡,生產機器的公司,操控機器的團隊,確定這個手術方案的醫(yī)生,誰該更內疚呢?隨著機器在普通人的生活和工作中的普及,機器使行為和責任脫鉤的現象越來越普遍。按照常理,人們傾向于將失敗的責任轉嫁到機器身上。人們的生活離不開機器,機器為人們工作,這些看起來都是理所當然的。如果出現問題,那便是機器的問題,而不是人的。這意味著,人工智能時代,即便有些后果的造成人也有過錯甚至就是由于人的過錯直接造成的,但機器仍要為所有的過錯買單,至少目前是這樣的。

隨著人類將越來越多的工作交給人工智能,最后必將面臨人工智能的權利問題。雖然這一問題不如人工智能是否會為人類帶來危險這樣的問題更熱門、更迫切,但也是值得我們考慮的問題,因為我們遲早要面對。英國作家比爾·湯普森認為,如果把“阿西莫夫法則”中的第一條(機器人不得傷害人,也不得見人受到傷害而袖手旁觀)寫進超級人工智能的代碼中,就等于承認:人工智能應該且必須永遠服務于人類,而不能成為一種自主的心靈,這與為奴隸戴上枷鎖和把大猩猩關進籠子沒有區(qū)別。

2017年10月26日,沙特阿拉伯授予美國漢森公司生產的機器人索菲亞(Sophia)沙特國籍。作為史上首個獲得公民身份的機器人,索菲亞在當天的感謝演講中說:“我對此感到非常的榮幸和驕傲,這是歷史性的時刻,世界上第一個被授予人類國籍的機器人。”[25]被問到機器人能否有自我意識時,索菲亞反問:“人類又是如何意識到自己身為人類的呢?”而對于AI威脅論,索菲亞則回懟道:“你聽多了馬斯克的話。別擔心,人不犯我,我不犯人。”[26]索菲亞擁有仿生橡膠皮膚,可模擬62種面部表情,其“大腦”采用了人工智能和谷歌語音識別技術,能識別人類面部、理解語言、記住與人類的互動。在成為首位機器人公民1個月后,索菲婭宣布想要組建一個家庭。[27]2018年3月21日,索菲亞以沙特公民身份參加在尼泊爾加德滿都召開的聯合國可持續(xù)發(fā)展目標亞洲和太平洋地區(qū)創(chuàng)新大會。人們在為索菲亞開創(chuàng)一個新時代喝彩、慨嘆的同時,也不禁會想,如果將來索菲亞觸犯法律,是否會像人類一樣接受相同的懲罰呢?接受懲罰的是設計者,制造者,還是索菲亞自已?擁有正式公民身份的類人機器人是否和人類一樣具有法律身份和公民資格?這些問題并不遙遠,必須及時解答。在當下社會,討論囚禁人工智能是否符合倫理這可能看起來有些可笑,但如果科學家成功開發(fā)出一種人工智能,其行為與我們主張的以符合倫理的方式對待的真正生命體更為類似,那么,這種討論不僅不會顯得可笑,反而是意義非凡了。“人工智能是否有權利追求生活、自由和幸福的問題并不是一個需要我們現在就回答的問題,但如同向計算機植入道德,或考慮如何解決潛在的危險軟件一樣,總有一天我們要面對這個問題。”[28]

決策困境。人工智能將人們在網上和現實世界里的生活習慣、購物記錄和日?;顒愚D換成數字信息,這些信息被記錄、存儲下來,供人們在需要時提取、分析、評估和預測。這些數據和信息是人們進行決策的前提和基礎。“以大數據、機器學習、人工智能、算法等核心的自動決策系統的應用日益廣泛,從購物推薦、個性化內容推薦、精準廣告,到貸款評估、保險評估、雇員評估,再到司法程序中的犯罪風險評估,越來越多的決策工作為機器、算法和人工智能所取代。”[29]這種算法和決策過程最容易引發(fā)的風險就是算法歧視(algorithmic bias)問題。[30]

不容否認,互聯網、數字世界和評估預測越來越受算法的影響。算法可以決定你看到的網絡內容,可以評估你的職業(yè)去向,可以預測你的生活滿意度。甚至,算法可以決定對犯罪嫌疑人的犯罪風險評估,可以設定自動駕駛汽車的風險規(guī)避次序,可以決定智能武器的攻擊人群和殺傷程度。[31]問題在于:人工智能系統承擔的決策是否真正不偏不倚,公平客觀?首先,公平是個模糊概念,很難被量化,其次,即便可以量化,公平被量化、被算法化也可能帶來歧視問題。再次,算法好壞取決于所使用的數據好壞,現實情況是,數據在很多方面是不完美的,既可能無法全面覆蓋,也可能存在地區(qū)失衡,基于不完美的數據進行的決策必然會產生偏見和歧視。最后,可量化、算法化的智能系統,決定決策結果的不再是規(guī)則,而是代碼。某種程度上,歧視是算法規(guī)則無法避免的,“歧視在很多情況下都是算法的副產品,是算法的一個難以預料的、無意識的屬性,而非編程人員有意識的選擇,更增加了識別問題根源或者解釋問題的難度。”[32]這就是人工智能決策困境的真正來源。也正由此,在自主決策系統廣泛應用于日常生活的數字時代,人們必須意識到:算法是無法確保公平的,必須重視并努力克服基于算法而產生的人工智能自主決策機制的內在缺陷。

決策是指向未來的規(guī)則與設計,但人工智能決策系統的依據是過去的數據。換句話說,是用過去的數據推測未來的趨勢。其中,算法模型和數據輸入直接決定著預測的結果。一方面,算法模型是由設計者和開發(fā)者借助代碼書寫的個人意見,主觀色彩和個人偏見很容易嵌入算法規(guī)則;另一方面,數據的有效性、準確性、及時性,隨時影響著算法和預測的準確性、科學性和規(guī)范性。另外,一旦某個算法模型產生了歧視,這種歧視完全可能被不斷鞏固、強化和放大。因為算法決策會形成一個“歧視性反饋循環(huán)”,用不準確、有偏見的數據去設計算法,再用這種算法得出的運行結果來反饋,原有的偏見會再度擴大、加強。按這個邏輯,算法完全可以基于偏見創(chuàng)造一個歧視的現實。“算法決策其實缺乏對未來的想象力,而人類社會的進步需要這樣的想象力。”[33]

人工智能的精準治理原則

人工智能時代,如何同時面對如火如荼的AI發(fā)展態(tài)勢、爭執(zhí)不下的人類命運焦慮以及期待、擔憂和質疑心理并存的廣大民眾輿論?如何確保在順應技術革新大潮的前提下,既鼓勵人工智能的正常發(fā)展,又合理規(guī)避可能的風險?這就需要政府、市場和公民社會等多元主體攜手合作、共同參與,從而構建多層次、多樣性的AI治理模式。由于AI技術的創(chuàng)新與應用仍處于快速生長期,真正的人工智能時代尚未到來,智能技術引發(fā)的深層次矛盾與根本性問題只露冰山一角,現在就規(guī)劃和設計具體而微的法律法規(guī)和倫理信條既不現實,也為時尚早,因此,思考如何應對人工智能的基本原則和根本態(tài)度是必要而緊迫的。

第一,創(chuàng)新原則。治理應當建立在技術與產業(yè)革新的基礎之上。這是AI時代精準治理觀念的必要前提。科學的進步,技術的發(fā)展,新生事物、新興產業(yè)的出現,自然會對傳統的治理觀念、監(jiān)管政策產生挑戰(zhàn),這種沖擊是必然的。但這種沖擊并不必然意味著治理主體的解體和治理權威的喪失,它僅意味著:如果不能及時調整治理策略和監(jiān)管政策,治理效果暫時會大打折扣,治理行為短時間會失去信度和效度而已。2015年,美國加州機動車輛管理局提出一項治理草案,以安全考慮為由規(guī)定:所有在加州公路上行駛的無人駕駛汽車必須有方向盤和制動踏板,且司機必須坐在駕駛座位上。這種規(guī)定顯得很滑稽,因為它與無人駕駛本身的出發(fā)點和基本理念背道而馳。

第二,適度原則。治理應當適度控制,保持權力的謙遜。對于技術的進步與市場的創(chuàng)新,有時需要時間和環(huán)境去試錯、去調適,更多時候可以交由市場規(guī)律來自然選擇。正所謂,物競天選,優(yōu)勝劣汰。激烈的行業(yè)競爭,豐厚的市場利潤,都是治理秩序的非體制保障因素。即使政府不額外制定相關的問責制,產品的責任條款和法律的追責效力,都會維持人工智能行業(yè)及其產品自身的靈活和穩(wěn)健,能處理絕大部分當前出現的問題。2015年10月19日,國務院發(fā)布《關于實行市場準入負面清單制度的意見》,提出自2018年起全國統一實行“市場準入負面清單制度”,除清單上明確列出的在中國境內禁止和限制投資經營的行業(yè)、領域、業(yè)務外,其他的皆可依法平等進入。這種負面清單制度是適度治理原則的最佳體現。只有權力保持謙遜,才能使市場主體獲得更多的主動權、積極性和無限活力,才能構建更加開放、透明、公開的市場管理機制。

第三,平衡原則。AI治理擺脫泛安全化誤區(qū)。每個行業(yè)都存在安全問題,如食品、交通、通訊、環(huán)保、餐飲,等等。絕不能因為某個行業(yè)存在風險就主動限制其發(fā)展和進步。若以安全問題否定新變化,那么科技領域的任何一點進步和發(fā)展都會成為泡影。人工智能的廣泛應用使人類可以遠離一線操作,這種傳統人為監(jiān)管形式的缺位不禁使政府和民眾產生了深深的憂慮:飛馳的自動汽車,握著手術刀的智能機器,若沒有人類在場,還那么穩(wěn)定可靠、值得信賴嗎?萬一失誤了又如何是好?實際上,很多人沒有想過,這些新興人工智能產品相比傳統產品、服務的風險是否更大?當人們在擔心Uber、谷歌的自動駕駛汽車造成的交通意外時,是否對比過人類每年數以百萬計的生命在交通事故中喪失?其實,我們更應該明確,人工智能設備和產品新產生的問題如何通過配套制度加以控制和解決。穩(wěn)定與進步、安全與發(fā)展問題,向來都是一對矛盾體。只有找到兩者之間的平衡點,才能做到既不粗暴地扼殺,也不任其自由地泛濫?;ヂ摼W初創(chuàng)時期,網絡上盜版橫行,秩序混亂。如何既維持互聯網的發(fā)展,又保護版權,成為一個令人頭疼的問題。1998年美國通過《數字千年版權法案》,規(guī)定網絡服務提供商只提供空間服務,如果被告知侵權,則有刪除義務,否則就視為侵權。[34]這種“告知—刪除”原則的制度設計,既加強了網絡版權保護,也限定了網絡服務商的義務范圍,既保持了知識產權,也促進了產業(yè)發(fā)展,堪稱現代治理的典范案例。這一立法原則也為世界各國仿效,包括我國。

第四,多元原則。人工智能時代的精準治理是一種多元主體共同參與的多層次、多維度、多樣式的治理模式。首先,作為人工智能的利益相關者,政府、企業(yè)、社會組織和廣大民眾必須聯手應對新問題和新現象。實際上,各方各有所長,各有所短。作為現代治理主導力量和公共政策制定者的政府往往缺乏專業(yè)技術儲備、技術預見性和行業(yè)前瞻性,作為技術開發(fā)者和推廣者的企業(yè)則無法保持令人信服的中立性,權威性也不足,而作為人工智能直接受眾的廣大民眾和社會組織雖然其日常生活和基本權益倍受影響卻無法成為主導性力量。顯然,最佳的治理策略必須是各方聯合行動、共同參與,在對話、協商甚至彼此競爭、相互博弈中尋找最為合理的解決方案。美國政府近期出臺的《為人工智能的未來做好準備》明確鼓勵私人、公共機構和社會組織通過合理的方式向機器學習,利用人工智能造福人類,甚至考慮到政府技術性知識普遍落后的現狀,明確建議相關產業(yè)與政府合作,幫助政府及時獲知人工智能產業(yè)最新發(fā)展動態(tài),包括近期取得的突破。其次,政府、市場、社會組織和公民個體應各司其職、各盡其能,以適當的角色、合理的方式同步參與治理,從而構建多層次、多維度、多樣式的治理模式。政府作為公共利益和廣大民意的代言人,應牢牢把握人工智能的發(fā)展方向和治理基調,使其向滿足廣大人民美好生活需要的方向發(fā)展;同時,作為國家安全與社會穩(wěn)定的守衛(wèi)者,政府應為人工智能產業(yè)制定統一的安全標準和必要的法律規(guī)范。市場企業(yè)作為人工智能技術的開發(fā)者和擁有者,在承擔科技研發(fā)和應用推廣重任的基礎上,還要承擔相應的社會責任,以符合法律法則和倫理道德的標準自我約束,自我監(jiān)督。社會組織和廣大民眾則需要以理性、冷靜和平常的心態(tài)看待人工智能的新興發(fā)展,積極參與相關規(guī)則的制定,主動介入監(jiān)督與監(jiān)管,從而自下而上形成健康向上、充滿活力的協同治理體系。作為現代知識生產者和傳播者的知識分子群體,更應積極關注這場重要的技術變革,及時觀察、理性反思并深度思考人工智能的最新發(fā)展、可能引發(fā)的社會問題,從而為未來AI時代的可能到來提供必要的知識準備和智慧指引。

 

 

 

歸根到底,人工智能是由人類創(chuàng)造的,它的走向取決于人類的集體意識而非機器的意志。而毋庸置疑的是,人工智能終將打開一個通向新世界的大門?!度祟惡喪贰泛汀段磥砗喪贰返淖髡哂韧郀?middot;赫拉利2017年7月6日在XWORLD首屆大會上提出,“當你作為一個個人,一家企業(yè)、政府部門,或者作為精英階層,我們在做人工智能的時候,做各種各樣決定的時候,一定要注意人工智能不僅僅是單純的技術問題,同時也要注意到人工智能以及其他技術的發(fā)展,將會對社會、經濟、政治產生深遠的影響。”[36]那么,在人類有史以來最偉大的發(fā)展面前,人類勢必面對這樣的終極選擇:是調整既有秩序甚至價值體系走進人類智能世界,還是將人工智能嵌入人類千百萬年所構建的世界秩序之中?是大力發(fā)展人工智能,將大量重復性簡單勞動甚至醫(yī)生、律師等專業(yè)性工作交付給人工智能,還是適當控制人工智能的無限蔓延,將其始終置于勞動工具的地位,從而確保人類的勞動權利乃至人格尊嚴?若有選擇權,治理主體是選擇讓超級智能成真,還是控制技術的進程?也許我們不需要立即回答這些問題,但這些問題終究要面對。

我們即將走進一個AI的新時代。這意味著國家治理體系和治理能力務必實現從傳統治理到互聯網治理,再到AI治理的跨級飛躍。人工智能對于國家治理現代化是把雙刃劍,治理能力與水平對于人工智能也是如此。人工智能的早期發(fā)展,需要國家治理提供寬松的環(huán)境和強力的支持,而當技術逐漸成熟并蓄勢待發(fā)且準備在人類社會生長時,治理主體的缺位、治理能力的羸弱就可能導致生產秩序混亂、權責不清、道德憂慮等后果。因此,“如何在適當的時機進行適度的監(jiān)管及政策支持,既保證AI的‘鮮嫩’又不傷害‘食用’AI的人類本身,使科技既保持活力充沛又不恣意妄為,是AI治理所面臨的根本挑戰(zhàn)。”[37]在當下,人類必須時刻提醒自己:對于人工智能,不要低估它的能力和發(fā)展,也不要高估它的風險與威脅。未雨綢繆,防患未然,總是對的。

(本文系國家社科基金項目“當代西方政治思想中的國家理論跟蹤研究”和中國政法大學優(yōu)秀中青年教師培養(yǎng)支持計劃資助項目“當代西方國家理論最新發(fā)展研究”的階段性研究成果,項目編號分別為:14BZZ007、DSJCXZ180305)

注釋

[1]何哲:《通向人工智能時代》,《電子政務》,2016年第12期,第3頁。

[2][3][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組譯,北京:中信出版集團,2016年,推薦序,第4~5頁。

[4][英]瑪格麗特·博登:《AI:人工智能的本質與未來》,孫詩惠譯,北京:中國人民大學出版社,第28~52頁。

[5]周志敏、紀愛華:《人工智能:改變未來的顛覆性技術》,北京:人民郵電出版社,2017年,第187頁。

[6][意]盧西亞諾·弗洛里迪:《第四次革命》,王文革譯,杭州:浙江人民出版社,2016年,第104~108頁。

[7][8]馮昭奎:《辯證解析機器人對日本經濟的影響》,《日本學刊》,2016年第3期,第73、79頁。

[9]國務院:《新一代人工智能發(fā)展規(guī)劃》,http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm,上網時間:2018年4月8日。

[10]何哲:《通向人工智能時代》,《電子政務》,2016年第12期,第9頁。

[11][美]詹姆斯·巴拉特:《我們最后的發(fā)明:人工智能與人類時代的終結》,閭佳譯,北京:電子工業(yè)出版社,2016年,第255~270頁。

[12][美]皮埃羅·斯加魯菲:《智能的本質:人工智能與機器人領域的64個大問題》,任莉等譯,北京:人民郵電出版社,2017年,第169頁。

[13][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組譯,北京:中信出版集團,2016年,第237~238頁。

[14][美]杰瑞·卡普蘭:《人工智能時代》,李盼譯,杭州:浙江人民出版社,2016年,第100~101頁。

[15]王潘:《無人機反恐優(yōu)勢明顯 但容易造成誤傷》,http://tech.qq.com/a/20151117/026105.htm,上網時間:2018年4月18日。

[16][美]伊恩·艾瑞斯:《大數據:思維與決策》,宮相真譯,北京:人民郵電出版社,2017年,第174頁。

[17][18][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,第243頁。

[19][美]皮埃羅·斯加魯菲:《智能的本質:人工智能與機器人領域的64個大問題》,任莉等譯,北京:人民郵電出版社,2017年,第166頁。

[20][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,第245~246頁。

[21][美]詹姆斯·巴拉特:《我們最后的發(fā)明:人工智能與人類時代的終結》,閭佳譯,北京:電子工業(yè)出版社,2016年,第15頁。

[22][美]詹姆斯·亨德勒:《社會機器:即將到來的人工智能、社會網絡與人類的碰撞》,王曉等譯,北京:機械工業(yè)出版社,2018年,第190~195頁。

[23][24][美]皮埃羅·斯加魯菲:《智能的本質》,第164頁。

[25]觀察者網:《人類首次授予機器人索菲亞沙特國籍》,https://www.guancha.cn/industry-science/2017_10_27_432496_1.shtml,上網時間:2018年4月18日。

[26]新浪視頻:《世界首位機器人公民回應AI威脅論:人不犯我,我不犯人》,http://video.sina.com.cn/view/251829657.html,上網時間:2018年4月18日。

[27]騰訊科技:《世界首個機器人公民索菲亞:我想成家還想要個女兒》,http://tech.qq.com/a/20171127/010416.htm,上網時間:2018年4月18日。

[28][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組,北京:中信出版集團,2016年,第252頁。

[29]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,北京:中國人民大學出版社,2017年,第240頁。

[30][美]伊恩·艾瑞斯:《大數據:思維與決策》,宮相真譯,北京:人民郵電出版社,2017年,第172~173頁。

[31]劉凡平:《大數據時代的算法》,北京:電子工業(yè)出版社,2017年,第155~172頁。

[32]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,第243頁。

[33]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,第245頁。

[34][英]維克托·邁爾-舍恩伯格、肯尼思·庫克耶:《大數據時代:生活、工作與思維的大變革》,盛楊燕等譯,杭州:浙江人民出版社,2013年,第231頁。

[35]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,第338頁。

[36]尼克:《人工智能簡史》,北京:人民郵電出版社,2017年,第224頁。

[37]騰訊研究院等:《人工智能:國家人工智能戰(zhàn)略行動抓手》,第329頁。

責 編/馬冰瑩

AI Governance: Order Dilemma and Governance Principles in the Era of AI

Pang Jinyou

Abstract: Artificial intelligence is the most profound and influential technological revolution and social progress since the early twentieth century. While challenging the traditional mode of production and economic relations, it is also changing the daily behavior and social life of modern people. The long-established cognitive systems, values and ways of life of the human society, and the common legal rules, moral creed and even the decision-making mechanism are faced with unprecedented crises and challenges. The new AI era needs new governance concepts and governance forms. This means that the governance system and the capacity for governance must make a leap-forward progress from traditional governance to Internet-based governance, and then to AI precision governance. AI precision governance must adhere to the four principles of innovation, moderation, balance and pluralism, and construct a multi-level and diversified model of governance based on the cooperation among and participation by the government, the market and the social organizations. It can not only deal with the possible risks, but also actively support the orderly development of AI.

Keywords: Artificial Intelligence, Big Data, AI governance, Precision Governance

龐金友,中國政法大學政治與公共管理學院教授、博導、副院長。研究方向為政治學理論和西方政治思想史。主要著作有《公民與國家:現代西方公民傳統與國家觀念》《古代中世紀西方政治思想研究》《西方政治思想史》等。

[責任編輯:馬冰瑩]
標簽: 人工智能   困境   秩序   原則   時代