j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

人工智能是否應(yīng)具有法律主體地位

【摘要】人工智能技術(shù)發(fā)展如火如荼,也引發(fā)了相關(guān)法律問題的激烈討論。面對人工智能帶來的新型權(quán)利分配和責(zé)任承擔(dān)問題,有人提出應(yīng)賦予強(qiáng)人工智能,甚至是特定的弱人工智能以某種形式的法律主體地位來應(yīng)對。然而這一路徑看似便捷,卻忽視了人工智能無法充分承擔(dān)責(zé)任的情形,也未充分考慮人工智能發(fā)展與人類中心主義的社會規(guī)則產(chǎn)生的沖突。

【關(guān)鍵詞】人工智能 法律主體 人類中心主義 【中圖分類號】D90 【文獻(xiàn)標(biāo)識碼】A

人工智能已成為近幾年的熱門詞匯,發(fā)展勢頭迅猛,這也同時引發(fā)了人們對人工智能可能造成的法律風(fēng)險的熱烈討論,其中一個非常重要的理論問題就是人工智能是否應(yīng)被視為法律主體。法律主體是能夠締結(jié)法律關(guān)系的“人”,因各個國家法律制度的差異,大致包括自然人、法人、非法人團(tuán)體,甚至是一些非生命物體,如河流、公園、生態(tài)環(huán)境等。法律主體的確定對解決任何爭議都至關(guān)重要,因為只有先確定法律主體,才能接下來討論法律責(zé)任的分配問題。對人工智能應(yīng)否被承認(rèn)為法律主體的討論也因此而起。

人工智能可以劃分為弱人工智能和強(qiáng)人工智能,法律主體地位問題主要針對強(qiáng)人工智能

然而,并非所有人工智能都具備成為法律主體的特征。按照目前普遍接受的分類方式,人工智能分為弱人工智能和強(qiáng)人工智能。弱人工智能系統(tǒng)只能執(zhí)行為其設(shè)計好的任務(wù),如語言翻譯、導(dǎo)航等,除了其既定程序之外做不了別的事情,因此其能力范圍很窄。目前應(yīng)用的所有人工智能,包括最復(fù)雜的通過機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)來自主提升的人工智能,都屬于弱人工智能的范疇。強(qiáng)人工智能可以完全像人類一樣學(xué)習(xí)、認(rèn)知、理解并行動,能夠完成多個目標(biāo),甚至可以在不確定或者模糊的情況下獨(dú)立設(shè)定新目標(biāo)。事實(shí)上,強(qiáng)人工智能就是我們在電影、文學(xué)作品中所熟悉的機(jī)器人和人工智能的形象。但是,目前強(qiáng)人工智能還不存在,也有人對強(qiáng)人工智能究竟是否可能出現(xiàn)持懷疑態(tài)度。

因為目前應(yīng)用的各類人工智能都屬于弱人工智能,也就是專注于且只能解決特定領(lǐng)域問題的人工智能,例如我們所熟知的AlphaGo。這些人工智能因能力所限,還屬于工具的范疇,是法律上的客體,人們對此定位并無爭議,也不在我們這里的討論范圍之內(nèi)。人們爭議的焦點(diǎn)是強(qiáng)人工智能,即能勝任人類所有工作的人工智能。雖然目前技術(shù)上還無法實(shí)現(xiàn)強(qiáng)人工智能,但是很多科學(xué)家都很樂觀,認(rèn)為這一天很快會到來,因此針對此類人工智能的法律主體地位問題開展前瞻性的討論非常有必要。我們后面所提到的人工智能都是指強(qiáng)人工智能。

不少人提出人工智能應(yīng)成為法律主體,認(rèn)為人工智能可以自主決策、享受權(quán)利、承擔(dān)法律責(zé)任

目前,國內(nèi)外不少人認(rèn)為應(yīng)考慮賦予人工智能或者與法人主體類似或者具有一定限制的法律主體地位,主要基于以下幾點(diǎn)理由:一是人工智能可以自主決策,具備和人類一樣的“理性”和“自由意志”。持此觀點(diǎn)的人認(rèn)為,法律上主客體的根本區(qū)別在于是否具有“自由意志”,人工智能可以自主決策,表現(xiàn)出與人類似的行為,能力與人類已經(jīng)無異,符合法律主體的“自由意志”的要件,應(yīng)賦予其主體地位。況且,人工智能表現(xiàn)得與人如此類似,人類很容易與之共情,再將其視為工具或者為人類服務(wù)的電子奴隸,倫理上和感情上都難以接受,賦予其法律主體地位才更為恰當(dāng)。

二是人工智能可以享受權(quán)利。人工智能成為法律主體可以解決目前人工智能創(chuàng)造物的知識產(chǎn)權(quán)權(quán)利分配的難題。事實(shí)上,人工智能創(chuàng)作出來的歌曲、詩歌等已經(jīng)達(dá)到了讓普通人類受眾難以將之與其他人類作品區(qū)分開來的水平,不少人認(rèn)為應(yīng)將這樣的作品視為知識產(chǎn)權(quán)意義上的“作品”。但是這種做法卻難以在由誰來擁有這個作品的問題上達(dá)成共識。目前認(rèn)為由算法設(shè)計者或者人工智能所有者擁有作品,或者甚至使此類作品進(jìn)入公共流通領(lǐng)域的解決方案都難以自圓其說,若承認(rèn)人工智能為法律主體,則此類問題立即迎刃而解。

三是人工智能可以承擔(dān)法律責(zé)任,從而解決人工智能致害的責(zé)任分配問題。在人工智能可以享受權(quán)利的情況下,其既可以擁有知識產(chǎn)權(quán)權(quán)利,也可以擁有其他財產(chǎn)權(quán)利以及獲得報酬等。因此,在對其他法律主體造成損害的情況下,人工智能可以用其所擁有的財產(chǎn)提供金錢上的救濟(jì)。從這個意義上來講,人工智能與法人非常類似:獨(dú)立決策、擁有財產(chǎn)并承擔(dān)法律責(zé)任。而且因為人工智能自主決策,其導(dǎo)致的損害如果讓設(shè)計者、生產(chǎn)者或者擁有者其中任何一方或者共同來承擔(dān)責(zé)任都有失公平,讓人工智能獨(dú)立承擔(dān)責(zé)任更為恰當(dāng)。

人工智能成為法律主體存在不少潛在風(fēng)險,不應(yīng)賦予人工智能法律主體地位

盡管人工智能成為法律主體可以解決上述諸多問題,但是此種做法帶來的不利后果卻應(yīng)更加重視。首先,人工智能的自主決策能力是算法運(yùn)行的結(jié)果,是對人類行為的模擬,而非其自發(fā)產(chǎn)生的能力。實(shí)際上,人工智能是人造出來的產(chǎn)物,其生命產(chǎn)生機(jī)理以硅基為基礎(chǔ),與人類這樣的碳基生物完全不同。因此,盡管人工智能可以學(xué)習(xí)、思考、決策,卻不會與人類一樣感受痛苦,也不必面臨死亡。如果人工智能成為法律主體,因為其能力已經(jīng)與人類無異,將來甚至有可能迅速過渡到超人工智能時代。屆時整個社會將不再以“人類為中心”。人工智能也許可以與人類和平共處,但其更有可能成為人類的強(qiáng)大競爭對手,而且因其不會死亡,無法感知痛苦,允許人工智能成為和人類一樣的法律主體,人類很可能失去主體地位,淪為客體,甚至滅亡。

其次,權(quán)利對人工智能可能具有與人類不同的意義。人工智能作為法律主體,可以享有大部分其他法律主體享有的權(quán)利,如包括知識產(chǎn)權(quán)在內(nèi)的財產(chǎn)權(quán)利,締約權(quán)利,甚至言論自由權(quán)利等。但是人工智能作為人造物,其價值追求與人類并不一定相同,這些權(quán)利對其而言可能并不具備與對人類相同的價值。比如人工智能無需積累財富,提升生活水平,追求幸福等。人工智能也可能不像人類那樣有各種各樣的消費(fèi)需求。因此,人工智能在對其財產(chǎn)作出處分決定的時候可能并不會遵循人類社會的經(jīng)濟(jì)規(guī)律。如果為了規(guī)避這一問題而給人工智能配備監(jiān)護(hù)人,則人工智能的“自主決策”能力就失去了意義,也為人類主體侵犯人工智能的財產(chǎn)權(quán)利留下了空間。

最后,人工智能承擔(dān)的法律責(zé)任有限。人工智能致人損害時,僅能通過金錢賠償?shù)姆绞教峁┚葷?jì),在此種救濟(jì)方式不充分的情況下,通常適用于人類的懲罰方式如緩刑、監(jiān)禁、死刑等都不適用于人工智能,因為人工智能既不會感知痛苦,也不會死亡,有些甚至沒有固定的實(shí)體,這些刑罰方式對人工智能沒有震懾作用。雖然人工智能可以比較充分地承擔(dān)民事責(zé)任,但是其作為與人類一樣擁有“自由意志”的法律主體,自主決策,并非像其他非人類主體一樣由人類代表其意志,卻可以不受懲罰地侵害其他法律主體的利益,或者更確切地說,懲罰方式對人工智能失去了效用,就會形成一塊法律責(zé)任的“真空地帶”。這就造成了一個局面,即能力上人工智能與人類相同,行為后果上,人工智能比人類承擔(dān)的責(zé)任要少。在這種情況下,承認(rèn)人工智能的法律主體地位,人類相當(dāng)于主動把自己置于一個劣勢的不平等位置,可能導(dǎo)致人類受到人工智能的欺壓,甚至直接面臨生存危機(jī)。

從上面的討論中,我們可以看出:人工智能不應(yīng)被承認(rèn)為法律主體,因為人類將為此承擔(dān)不必要的風(fēng)險,甚至有可能威脅全體人類的生存。但是人工智能技術(shù)的發(fā)展不容忽視,未來必將更多地融入并影響人類的生活。應(yīng)對人工智能引發(fā)的法律問題,一方面需要深入研究如何規(guī)范人工智能算法的倫理,使設(shè)計者、生產(chǎn)者和使用者都成為利益相關(guān)者,盡量增強(qiáng)算法的透明度和可解釋性,確保人工智能技術(shù)的發(fā)展與人類的價值和愿望相符合。另一方面,可能需要我們打破傳統(tǒng)的主客體二元范式,不再局限于傳統(tǒng)的人類以及非人類法人實(shí)體的討論,創(chuàng)造出新的可以適用于人工智能的規(guī)則。

(作者為對外經(jīng)濟(jì)貿(mào)易大學(xué)英語學(xué)院講師)

【注:本文系北京市社科基金青年項目“首都人工智能發(fā)展中的民事責(zé)任研究”(項目編號:18FXC019)的研究成果】

【參考文獻(xiàn)】

①吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學(xué)》(西北政法大學(xué)學(xué)報),2017年第5期。

②潘文軒:《人工智能技術(shù)發(fā)展對就業(yè)的多重影響及應(yīng)對措施》,《湖湘論壇》,2018年第4期。

責(zé)編/于洪清 美編/王夢雅

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復(fù)本微信號獲得授權(quán),轉(zhuǎn)載時務(wù)必標(biāo)明來源及作者,否則追究法律責(zé)任。

[責(zé)任編輯:李一丹]
標(biāo)簽: 人工智能