j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

人工智能帶來的倫理與社會(huì)挑戰(zhàn)

【摘要】人工智能所引發(fā)的一般性倫理與社會(huì)問題包括:失業(yè)問題、隱私問題、算法偏見、安全問題、機(jī)器權(quán)利和道德代碼等。為了應(yīng)對人工智能帶來的倫理與社會(huì)挑戰(zhàn),世界各國和相關(guān)國際組織都開始致力于推動(dòng)人工智能倫理與社會(huì)問題的研究,積極建立規(guī)范與指南,推動(dòng)社會(huì)各界就人工智能的倫理與社會(huì)監(jiān)管達(dá)成共識。

【關(guān)鍵詞】人工智能  機(jī)器倫理  社會(huì)挑戰(zhàn)    【中圖分類號】TP18    【文獻(xiàn)標(biāo)識碼】A 

人工智能(Artificial Intelligence,簡稱AI)起源于人類的幻想,1651年英國學(xué)者霍布斯(Hobbes)在《利維坦》一書中指出可以制造一種“人工動(dòng)物”,正因如此,歷史學(xué)家戴森(Dyson)稱霍布斯為人工智能的先驅(qū)。早期的人工智能只能基于預(yù)先設(shè)定的程序完成一些需要進(jìn)行大量計(jì)算的具體任務(wù),如下象棋、拼接圖案、進(jìn)行圖片分類、回答簡單問題等。當(dāng)前借助深度學(xué)習(xí)等最新技術(shù),一些人工智能設(shè)備實(shí)現(xiàn)了全自動(dòng)化,能夠自主推理解決現(xiàn)實(shí)生活中的問題,如語言翻譯、自動(dòng)交易、人臉識別、無人駕駛等。人工智能技術(shù)的開發(fā)和應(yīng)用將深刻改變?nèi)祟惖纳?,不可避免?huì)沖擊現(xiàn)有的倫理與社會(huì)秩序,帶來一些倫理與社會(huì)問題。

人工智能的發(fā)展會(huì)帶來一定的失業(yè)擔(dān)憂

在許多領(lǐng)域,人工智能有望在一些特定類型的工作中取代人類,如流水線生產(chǎn)、汽車駕駛等。早在20世紀(jì)80年代,人工智能發(fā)展和應(yīng)用尚未成熟之時(shí),就已有學(xué)者對人工智能可能引發(fā)的就業(yè)問題進(jìn)行了討論。諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主列昂季耶夫(Leontief) 曾預(yù)測未來三四十年將有大量工人被人工智能取代,從而形成巨大的就業(yè)與轉(zhuǎn)業(yè)問題,就像上世紀(jì)大量馬匹被機(jī)械取代一樣,只不過這些后果將發(fā)生在人的身上罷了,除非政府能夠?qū)π录夹g(shù)帶來的紅利進(jìn)行再分配。然而,多數(shù)人對人工智能發(fā)展的經(jīng)濟(jì)影響持樂觀態(tài)度,認(rèn)為人工智能在取代現(xiàn)有工作崗位的同時(shí),還會(huì)創(chuàng)造出很多新的就業(yè)機(jī)會(huì),就像機(jī)器大工業(yè)出現(xiàn)后,大量農(nóng)民轉(zhuǎn)變?yōu)楣と四菢印?/p>

從長遠(yuǎn)來看,人工智能將是推動(dòng)社會(huì)生產(chǎn)力前進(jìn)的強(qiáng)大動(dòng)力,能夠創(chuàng)造出大量的新的社會(huì)財(cái)富,使人類擁有更多的可自由支配的時(shí)間。但是,人們對人工智能引發(fā)失業(yè)問題的擔(dān)憂并非只是杞人憂天,至少這種擔(dān)憂隱含著一個(gè)深層次的問題,即如何讓每個(gè)人都能夠從人工智能所創(chuàng)造的財(cái)富中獲得收益,而不是一部分人獲得財(cái)富與自由,另一部分人卻失去工作,陷入生活相對貧困之中。

人工智能的發(fā)展可能會(huì)侵犯人的隱私

人工智能的發(fā)展離不開大量數(shù)據(jù)的積累,通過大量數(shù)據(jù)訓(xùn)練算法,可使人工智能具備更加顯著的問題解決能力,但這也使個(gè)人的隱私受到了威脅。大數(shù)據(jù)并非只是針對數(shù)據(jù)規(guī)模而言的,它通常具有3V性質(zhì),即海量(volume)、多樣(variety)和實(shí)時(shí)(velocity)。在大數(shù)據(jù)技術(shù)和設(shè)備的支持下,個(gè)人的很多重要信息,如健康信息、位置信息和網(wǎng)絡(luò)痕跡等,都可以被實(shí)時(shí)地采集和保存。應(yīng)用數(shù)據(jù)挖掘技術(shù),數(shù)據(jù)掌控者可以基于不完全的、模糊的碎片數(shù)據(jù)很方便地提取出一些有用的個(gè)人信息。這樣,個(gè)人便失去了對自身隱私的控制,一些隱私甚至處于隨時(shí)被窺探的狀態(tài)。例如,谷歌旗下的一家位于倫敦的公司近期已獲取了三家醫(yī)院近160萬病人的醫(yī)療數(shù)據(jù),其中就涉及到非常敏感的個(gè)人健康信息。

現(xiàn)有的商業(yè)模式高度依賴對消費(fèi)者數(shù)據(jù)的分析,因此消費(fèi)者通過讓渡隱私權(quán)獲取相應(yīng)收益的行為會(huì)受到多方鼓勵(lì)。隨著人工智能技術(shù)的發(fā)展,這些主動(dòng)提供的個(gè)人信息,與不經(jīng)意間暴露的個(gè)人信息以及被非法竊取的個(gè)人信息一道,都有可能被應(yīng)用于牟利。因此,如何在人工智能的發(fā)展過程中加強(qiáng)對個(gè)人數(shù)據(jù)的管控和對個(gè)人隱私的保護(hù),已成為必須予以關(guān)注的問題。

人工智能可能隱含著各種算法偏見

人工智能的算法雖說只是一種數(shù)學(xué)表達(dá),看似與價(jià)值無涉,但實(shí)際上卻不可避免地存在著主觀偏見。這種偏見的來源是多方面的,既有可能來自于訓(xùn)練系統(tǒng)的數(shù)據(jù)輸入,又有可能來自于編程人員的價(jià)值觀嵌入。當(dāng)算法使用過去的數(shù)據(jù)來預(yù)測未來時(shí),那么計(jì)算結(jié)果便會(huì)受到所輸入的數(shù)據(jù)和所設(shè)定的模型的影響。如果偏見已存在于算法之中,經(jīng)深度學(xué)習(xí)后,這種偏見還有可能在算法中得到進(jìn)一步加強(qiáng),形成一個(gè)“自我實(shí)現(xiàn)的歧視性反饋循環(huán)”。例如,一位哈佛大學(xué)的非裔美籍博士生發(fā)現(xiàn),她使用谷歌進(jìn)行搜索時(shí)計(jì)算機(jī)屏幕上會(huì)出現(xiàn)“你是否有被捕記錄”的廣告,而白人同學(xué)進(jìn)行同樣的搜索時(shí)并不會(huì)出現(xiàn)這一廣告。其原因在于谷歌在設(shè)定算法時(shí)將黑人常用名與“你是否有被捕記錄”的廣告聯(lián)系在一起了。這說明機(jī)器處理各類數(shù)據(jù)的算法中,很可能隱含著某種偏見。

與人類決策相比,基于人工智能的決策有望極大地減少重要決策中的偏見。但我們也應(yīng)注意到,人的偏見是個(gè)體化的、局部性的,而人工智能算法的偏見則是系統(tǒng)的,一旦形成將會(huì)產(chǎn)生廣泛的影響。因此,有必要盡最大努力將那些違反社會(huì)共識與法律規(guī)范的偏見,從人工智能的算法中清除出去。

人工智能的應(yīng)用可能會(huì)對人身、財(cái)產(chǎn)安全構(gòu)成威脅

人工智能機(jī)器對任務(wù)的解讀可能會(huì)出現(xiàn)偏差,這將導(dǎo)致人工智能機(jī)器根據(jù)錯(cuò)誤的理解,以錯(cuò)誤地方式來完成任務(wù),如我們將人工智能機(jī)器的任務(wù)設(shè)定為讓我們微笑,其可能以麻痹人類面部肌肉的方式來實(shí)現(xiàn)。當(dāng)人工智能機(jī)器把在特定環(huán)境中學(xué)習(xí)到的行動(dòng)策略應(yīng)用到新的環(huán)境,可能會(huì)帶來負(fù)面后果,如清潔機(jī)器人將在工廠環(huán)境中學(xué)習(xí)到的粗放工作方式應(yīng)用到家庭環(huán)境,可能會(huì)破壞物品。

人工智能技術(shù)可能被用于開發(fā)武器,借助人臉識別、自動(dòng)控制等技術(shù)開發(fā)的人工智能武器,可以實(shí)現(xiàn)全自動(dòng)攻擊目標(biāo)。如果賦予人工智能武器自行選擇并殺害人類的能力,將給我們的人身安全與自由構(gòu)成極大威脅。除此之外,人工智能還有許多其他值得探討的安全問題。這些問題都應(yīng)在技術(shù)產(chǎn)品商業(yè)化之前,予以妥善解決。

人工智能的發(fā)展可能會(huì)引發(fā)機(jī)器權(quán)利爭論

未來的人工智能機(jī)器可能具備人類的思維和情感能力,并深入?yún)⑴c社會(huì)生活。這時(shí),我們必須考慮是否以及如何保護(hù)人工智能機(jī)器的道德地位和法律權(quán)利。

在家庭領(lǐng)域,若人類與人工智能機(jī)器人建立了情感聯(lián)系,我們可能需要以人道方式對待它們。陪伴型機(jī)器人不僅具備人的外貌特征,也可以對人類的情感進(jìn)行識別與回應(yīng)。在外貌方面,機(jī)器人與人類的相似程度一旦超過一定界限,人與機(jī)器之間可能產(chǎn)生移情作用。在情感方面,軟銀公司開發(fā)的機(jī)器人已可以通過面部表情和語調(diào)來判斷人類情感,實(shí)現(xiàn)了機(jī)器與人的情感互動(dòng)。

在商業(yè)領(lǐng)域,人工智能創(chuàng)作引發(fā)了知識產(chǎn)權(quán)問題的廣泛討論。20世紀(jì)50年代,美國就曾出現(xiàn)“機(jī)器創(chuàng)作”的法律屬性爭論,然而最終美國版權(quán)局明確規(guī)定其保護(hù)范圍僅限于人的創(chuàng)作。人工智能發(fā)展將使機(jī)器人具備了更強(qiáng)的創(chuàng)作能力,如何界定這些知識產(chǎn)品的法律歸屬是一個(gè)亟待解決的問題。例如,谷歌機(jī)器人可以作畫,機(jī)器人“薇薇”可以創(chuàng)作詩歌。在這方面,日本政府計(jì)劃給機(jī)器人的創(chuàng)作權(quán)予以保護(hù),并擬修訂《著作權(quán)法》。

人工智能有可能會(huì)獲得完全的道德自主性

未來,隨著人工智能道德自主性的提升,人工智能將從完全由人做出道德判斷到獲得完全的道德自主性。如何賦予人工智能道德判斷能力,是開發(fā)人工智能技術(shù)面臨的一個(gè)現(xiàn)實(shí)問題。道德是人類社會(huì)中特有的現(xiàn)象,因此,將人類的道德規(guī)范寫入人工智能程序是解決這一問題的最直接方式。這時(shí),人工智能程序作為人類的道德代理來完成任務(wù),其道德行為在人類的可控范圍之內(nèi)。

如果技術(shù)進(jìn)一步發(fā)展,人工智能可能具備完全的道德自主性。美國達(dá)特茅斯學(xué)院的摩爾(Moor)教授認(rèn)為達(dá)到這一狀態(tài)的標(biāo)準(zhǔn)是人工智能程序具備成年人的平均道德水平。在這一階段,人工智能將自主制定行動(dòng)策略、自主做出道德選擇,其行為將不受人類控制。這將給現(xiàn)有的社會(huì)秩序與倫理規(guī)范帶來強(qiáng)烈沖擊。為了避免出現(xiàn)這一局面,需將人工智能的道德自主性限定在合理范圍,使其行為可被人類預(yù)期。

人工智能社會(huì)問題的規(guī)范

人工智能應(yīng)用可能帶來的各種倫理與社會(huì)問題已經(jīng)受到廣泛關(guān)注。近年來,世界各國和相關(guān)國際組織已開始致力于推動(dòng)人工智能倫理與社會(huì)問題的研究,積極建立規(guī)范與指南。

第一,評估道德風(fēng)險(xiǎn)。2016年9 月,英國標(biāo)準(zhǔn)協(xié)會(huì)(BSI)發(fā)布《機(jī)器人和機(jī)器系統(tǒng)的倫理設(shè)計(jì)和應(yīng)用指南》,旨在幫助機(jī)器人制造商在設(shè)計(jì)階段評估產(chǎn)品的道德風(fēng)險(xiǎn),包括機(jī)器人欺詐、機(jī)器人與人的情感聯(lián)系、種族及性別歧視等。

第二,明確人類優(yōu)先。2016年12月,電氣和電子工程師協(xié)會(huì)( IEEE)發(fā)布《以倫理為基準(zhǔn)的設(shè)計(jì)指南》,鼓勵(lì)科研人員將倫理問題置于人工智能設(shè)計(jì)和研發(fā)的優(yōu)先位置,強(qiáng)調(diào)人工智能應(yīng)當(dāng)符合人類價(jià)值觀,服務(wù)于人類社會(huì)。

第三,建立共識網(wǎng)絡(luò)。2017年1月,來自全球的人工智能領(lǐng)域?qū)<以贐eneficial AI會(huì)議上聯(lián)合簽署了“阿西洛馬人工智能原則”,明確了安全性、利益共享等23條原則,并呼吁人工智能領(lǐng)域的工作者遵守這些原則,共同保障人類未來的利益和安全。

在社會(huì)各界的努力下,我們有理由對人工智能的發(fā)展保持樂觀的態(tài)度??v觀技術(shù)發(fā)展歷史,人類一邊創(chuàng)造新的技術(shù),一邊又適應(yīng)這種技術(shù)。核能、克隆等技術(shù)的發(fā)展過程都伴隨著各種擔(dān)憂,隨著人們就倫理問題達(dá)成共識,技術(shù)發(fā)展得到有效的監(jiān)管。解決人工智能的倫理與社會(huì)問題,要求相關(guān)部門采取必要的監(jiān)管措施,對新出現(xiàn)的諸如就業(yè)、隱私等問題有更好的把握,削弱人工智能的不利影響,努力實(shí)現(xiàn)人工智能與人類之間的和諧共生。

(作者分別為北京大學(xué)哲學(xué)系教授、博導(dǎo),醫(yī)學(xué)人文研究院院長;北京大學(xué)醫(yī)學(xué)人文研究院博士后、講師)

【參考文獻(xiàn)】

①Nilsson N J, The Quest for Artificial Intelligence: A History of Ideas and Achievements, Cambridge University Press, 2009 : 13.

②曹建峰:《怎樣應(yīng)對人工智能帶來的倫理問題》,《學(xué)習(xí)時(shí)報(bào)》,2017年6月14日。

③[英]波斯特洛姆著,張?bào)w偉、張玉青譯:《超級智能:路徑、危險(xiǎn)性與我們的戰(zhàn)略》,北京:中信出版社,2015年。

④杜嚴(yán)勇:《情侶機(jī)器人對婚姻與性倫理的挑戰(zhàn)初探》,《自然辯證法研究》,2014年第9期。

⑤竇新穎:《人工智能創(chuàng)作不斷沖擊現(xiàn)有法律》,《中國知識產(chǎn)權(quán)報(bào)》,2017年6月2日。

⑥段偉文:《機(jī)器人倫理的進(jìn)路及其內(nèi)涵》,《科學(xué)與社會(huì)》,2015年第2期。

責(zé)編/溫祖俊    美編/楊玲玲

上一頁 1 2下一頁
[責(zé)任編輯:張蕾]
標(biāo)簽: 人工智能   倫理   社會(huì)