j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

人工智能帶來的倫理與社會挑戰(zhàn)

【摘要】人工智能所引發(fā)的一般性倫理與社會問題包括:失業(yè)問題、隱私問題、算法偏見、安全問題、機器權利和道德代碼等。為了應對人工智能帶來的倫理與社會挑戰(zhàn),世界各國和相關國際組織都開始致力于推動人工智能倫理與社會問題的研究,積極建立規(guī)范與指南,推動社會各界就人工智能的倫理與社會監(jiān)管達成共識。

【關鍵詞】人工智能  機器倫理  社會挑戰(zhàn)    【中圖分類號】TP18    【文獻標識碼】A 

人工智能(Artificial Intelligence,簡稱AI)起源于人類的幻想,1651年英國學者霍布斯(Hobbes)在《利維坦》一書中指出可以制造一種“人工動物”,正因如此,歷史學家戴森(Dyson)稱霍布斯為人工智能的先驅。早期的人工智能只能基于預先設定的程序完成一些需要進行大量計算的具體任務,如下象棋、拼接圖案、進行圖片分類、回答簡單問題等。當前借助深度學習等最新技術,一些人工智能設備實現(xiàn)了全自動化,能夠自主推理解決現(xiàn)實生活中的問題,如語言翻譯、自動交易、人臉識別、無人駕駛等。人工智能技術的開發(fā)和應用將深刻改變?nèi)祟惖纳睿豢杀苊鈺_擊現(xiàn)有的倫理與社會秩序,帶來一些倫理與社會問題。

人工智能的發(fā)展會帶來一定的失業(yè)擔憂

在許多領域,人工智能有望在一些特定類型的工作中取代人類,如流水線生產(chǎn)、汽車駕駛等。早在20世紀80年代,人工智能發(fā)展和應用尚未成熟之時,就已有學者對人工智能可能引發(fā)的就業(yè)問題進行了討論。諾貝爾經(jīng)濟學獎得主列昂季耶夫(Leontief) 曾預測未來三四十年將有大量工人被人工智能取代,從而形成巨大的就業(yè)與轉業(yè)問題,就像上世紀大量馬匹被機械取代一樣,只不過這些后果將發(fā)生在人的身上罷了,除非政府能夠對新技術帶來的紅利進行再分配。然而,多數(shù)人對人工智能發(fā)展的經(jīng)濟影響持樂觀態(tài)度,認為人工智能在取代現(xiàn)有工作崗位的同時,還會創(chuàng)造出很多新的就業(yè)機會,就像機器大工業(yè)出現(xiàn)后,大量農(nóng)民轉變?yōu)楣と四菢印?/p>

從長遠來看,人工智能將是推動社會生產(chǎn)力前進的強大動力,能夠創(chuàng)造出大量的新的社會財富,使人類擁有更多的可自由支配的時間。但是,人們對人工智能引發(fā)失業(yè)問題的擔憂并非只是杞人憂天,至少這種擔憂隱含著一個深層次的問題,即如何讓每個人都能夠從人工智能所創(chuàng)造的財富中獲得收益,而不是一部分人獲得財富與自由,另一部分人卻失去工作,陷入生活相對貧困之中。

人工智能的發(fā)展可能會侵犯人的隱私

人工智能的發(fā)展離不開大量數(shù)據(jù)的積累,通過大量數(shù)據(jù)訓練算法,可使人工智能具備更加顯著的問題解決能力,但這也使個人的隱私受到了威脅。大數(shù)據(jù)并非只是針對數(shù)據(jù)規(guī)模而言的,它通常具有3V性質,即海量(volume)、多樣(variety)和實時(velocity)。在大數(shù)據(jù)技術和設備的支持下,個人的很多重要信息,如健康信息、位置信息和網(wǎng)絡痕跡等,都可以被實時地采集和保存。應用數(shù)據(jù)挖掘技術,數(shù)據(jù)掌控者可以基于不完全的、模糊的碎片數(shù)據(jù)很方便地提取出一些有用的個人信息。這樣,個人便失去了對自身隱私的控制,一些隱私甚至處于隨時被窺探的狀態(tài)。例如,谷歌旗下的一家位于倫敦的公司近期已獲取了三家醫(yī)院近160萬病人的醫(yī)療數(shù)據(jù),其中就涉及到非常敏感的個人健康信息。

現(xiàn)有的商業(yè)模式高度依賴對消費者數(shù)據(jù)的分析,因此消費者通過讓渡隱私權獲取相應收益的行為會受到多方鼓勵。隨著人工智能技術的發(fā)展,這些主動提供的個人信息,與不經(jīng)意間暴露的個人信息以及被非法竊取的個人信息一道,都有可能被應用于牟利。因此,如何在人工智能的發(fā)展過程中加強對個人數(shù)據(jù)的管控和對個人隱私的保護,已成為必須予以關注的問題。

人工智能可能隱含著各種算法偏見

人工智能的算法雖說只是一種數(shù)學表達,看似與價值無涉,但實際上卻不可避免地存在著主觀偏見。這種偏見的來源是多方面的,既有可能來自于訓練系統(tǒng)的數(shù)據(jù)輸入,又有可能來自于編程人員的價值觀嵌入。當算法使用過去的數(shù)據(jù)來預測未來時,那么計算結果便會受到所輸入的數(shù)據(jù)和所設定的模型的影響。如果偏見已存在于算法之中,經(jīng)深度學習后,這種偏見還有可能在算法中得到進一步加強,形成一個“自我實現(xiàn)的歧視性反饋循環(huán)”。例如,一位哈佛大學的非裔美籍博士生發(fā)現(xiàn),她使用谷歌進行搜索時計算機屏幕上會出現(xiàn)“你是否有被捕記錄”的廣告,而白人同學進行同樣的搜索時并不會出現(xiàn)這一廣告。其原因在于谷歌在設定算法時將黑人常用名與“你是否有被捕記錄”的廣告聯(lián)系在一起了。這說明機器處理各類數(shù)據(jù)的算法中,很可能隱含著某種偏見。

與人類決策相比,基于人工智能的決策有望極大地減少重要決策中的偏見。但我們也應注意到,人的偏見是個體化的、局部性的,而人工智能算法的偏見則是系統(tǒng)的,一旦形成將會產(chǎn)生廣泛的影響。因此,有必要盡最大努力將那些違反社會共識與法律規(guī)范的偏見,從人工智能的算法中清除出去。

人工智能的應用可能會對人身、財產(chǎn)安全構成威脅

人工智能機器對任務的解讀可能會出現(xiàn)偏差,這將導致人工智能機器根據(jù)錯誤的理解,以錯誤地方式來完成任務,如我們將人工智能機器的任務設定為讓我們微笑,其可能以麻痹人類面部肌肉的方式來實現(xiàn)。當人工智能機器把在特定環(huán)境中學習到的行動策略應用到新的環(huán)境,可能會帶來負面后果,如清潔機器人將在工廠環(huán)境中學習到的粗放工作方式應用到家庭環(huán)境,可能會破壞物品。

人工智能技術可能被用于開發(fā)武器,借助人臉識別、自動控制等技術開發(fā)的人工智能武器,可以實現(xiàn)全自動攻擊目標。如果賦予人工智能武器自行選擇并殺害人類的能力,將給我們的人身安全與自由構成極大威脅。除此之外,人工智能還有許多其他值得探討的安全問題。這些問題都應在技術產(chǎn)品商業(yè)化之前,予以妥善解決。

人工智能的發(fā)展可能會引發(fā)機器權利爭論

未來的人工智能機器可能具備人類的思維和情感能力,并深入?yún)⑴c社會生活。這時,我們必須考慮是否以及如何保護人工智能機器的道德地位和法律權利。

在家庭領域,若人類與人工智能機器人建立了情感聯(lián)系,我們可能需要以人道方式對待它們。陪伴型機器人不僅具備人的外貌特征,也可以對人類的情感進行識別與回應。在外貌方面,機器人與人類的相似程度一旦超過一定界限,人與機器之間可能產(chǎn)生移情作用。在情感方面,軟銀公司開發(fā)的機器人已可以通過面部表情和語調(diào)來判斷人類情感,實現(xiàn)了機器與人的情感互動。

在商業(yè)領域,人工智能創(chuàng)作引發(fā)了知識產(chǎn)權問題的廣泛討論。20世紀50年代,美國就曾出現(xiàn)“機器創(chuàng)作”的法律屬性爭論,然而最終美國版權局明確規(guī)定其保護范圍僅限于人的創(chuàng)作。人工智能發(fā)展將使機器人具備了更強的創(chuàng)作能力,如何界定這些知識產(chǎn)品的法律歸屬是一個亟待解決的問題。例如,谷歌機器人可以作畫,機器人“薇薇”可以創(chuàng)作詩歌。在這方面,日本政府計劃給機器人的創(chuàng)作權予以保護,并擬修訂《著作權法》。

人工智能有可能會獲得完全的道德自主性

未來,隨著人工智能道德自主性的提升,人工智能將從完全由人做出道德判斷到獲得完全的道德自主性。如何賦予人工智能道德判斷能力,是開發(fā)人工智能技術面臨的一個現(xiàn)實問題。道德是人類社會中特有的現(xiàn)象,因此,將人類的道德規(guī)范寫入人工智能程序是解決這一問題的最直接方式。這時,人工智能程序作為人類的道德代理來完成任務,其道德行為在人類的可控范圍之內(nèi)。

如果技術進一步發(fā)展,人工智能可能具備完全的道德自主性。美國達特茅斯學院的摩爾(Moor)教授認為達到這一狀態(tài)的標準是人工智能程序具備成年人的平均道德水平。在這一階段,人工智能將自主制定行動策略、自主做出道德選擇,其行為將不受人類控制。這將給現(xiàn)有的社會秩序與倫理規(guī)范帶來強烈沖擊。為了避免出現(xiàn)這一局面,需將人工智能的道德自主性限定在合理范圍,使其行為可被人類預期。

人工智能社會問題的規(guī)范

人工智能應用可能帶來的各種倫理與社會問題已經(jīng)受到廣泛關注。近年來,世界各國和相關國際組織已開始致力于推動人工智能倫理與社會問題的研究,積極建立規(guī)范與指南。

第一,評估道德風險。2016年9 月,英國標準協(xié)會(BSI)發(fā)布《機器人和機器系統(tǒng)的倫理設計和應用指南》,旨在幫助機器人制造商在設計階段評估產(chǎn)品的道德風險,包括機器人欺詐、機器人與人的情感聯(lián)系、種族及性別歧視等。

第二,明確人類優(yōu)先。2016年12月,電氣和電子工程師協(xié)會( IEEE)發(fā)布《以倫理為基準的設計指南》,鼓勵科研人員將倫理問題置于人工智能設計和研發(fā)的優(yōu)先位置,強調(diào)人工智能應當符合人類價值觀,服務于人類社會。

第三,建立共識網(wǎng)絡。2017年1月,來自全球的人工智能領域專家在Beneficial AI會議上聯(lián)合簽署了“阿西洛馬人工智能原則”,明確了安全性、利益共享等23條原則,并呼吁人工智能領域的工作者遵守這些原則,共同保障人類未來的利益和安全。

在社會各界的努力下,我們有理由對人工智能的發(fā)展保持樂觀的態(tài)度??v觀技術發(fā)展歷史,人類一邊創(chuàng)造新的技術,一邊又適應這種技術。核能、克隆等技術的發(fā)展過程都伴隨著各種擔憂,隨著人們就倫理問題達成共識,技術發(fā)展得到有效的監(jiān)管。解決人工智能的倫理與社會問題,要求相關部門采取必要的監(jiān)管措施,對新出現(xiàn)的諸如就業(yè)、隱私等問題有更好的把握,削弱人工智能的不利影響,努力實現(xiàn)人工智能與人類之間的和諧共生。

(作者分別為北京大學哲學系教授、博導,醫(yī)學人文研究院院長;北京大學醫(yī)學人文研究院博士后、講師)

【參考文獻】

①Nilsson N J, The Quest for Artificial Intelligence: A History of Ideas and Achievements, Cambridge University Press, 2009 : 13.

②曹建峰:《怎樣應對人工智能帶來的倫理問題》,《學習時報》,2017年6月14日。

③[英]波斯特洛姆著,張體偉、張玉青譯:《超級智能:路徑、危險性與我們的戰(zhàn)略》,北京:中信出版社,2015年。

④杜嚴勇:《情侶機器人對婚姻與性倫理的挑戰(zhàn)初探》,《自然辯證法研究》,2014年第9期。

⑤竇新穎:《人工智能創(chuàng)作不斷沖擊現(xiàn)有法律》,《中國知識產(chǎn)權報》,2017年6月2日。

⑥段偉文:《機器人倫理的進路及其內(nèi)涵》,《科學與社會》,2015年第2期。

責編/溫祖俊    美編/楊玲玲

上一頁 1 2下一頁
[責任編輯:張蕾]
標簽: 人工智能   倫理   社會