j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 理論前沿 > 深度原創(chuàng) > 正文

人工智能應用的科技倫理與法治化建設

【摘要】人工智能在眾多行業(yè)領域掀起顛覆性革新的同時,也在科技倫理方面引發(fā)了一些爭議與憂慮??萍紓惱碇卫砑纫盐湛萍及l(fā)展規(guī)律,又要防止科技發(fā)展過程中可能出現(xiàn)的違反道德倫理的行為。應聚焦人工智能發(fā)展應用面臨的數(shù)據(jù)隱私、算法偏見和責任規(guī)則等科技倫理挑戰(zhàn),在推動人工智能創(chuàng)新發(fā)展的同時,完善數(shù)據(jù)保護與隱私立法,優(yōu)化算法設計與公平性審查,提高人工智能決策的透明度與可解釋性,明確責任主體,提高監(jiān)管水平,防范和規(guī)制人工智能技術(shù)的濫用。

【關(guān)鍵詞】人工智能 科技倫理 科技法治 【中圖分類號】D923 【文獻標識碼】A

“現(xiàn)代計算機、博弈論之父”約翰·馮·諾依曼(John von Neumann)曾說:“技術(shù)日新月異,人類生活方式正在快速轉(zhuǎn)變,這一切給人類歷史帶來了一系列不可思議的奇點。我們曾經(jīng)熟悉的一切,都開始變得陌生。”當前,人工智能(AI)的快速發(fā)展正在眾多行業(yè)領域掀起一場顛覆性的行業(yè)革新。2024年政府工作報告提出,深化大數(shù)據(jù)、人工智能等研發(fā)應用,開展“人工智能+”行動,這是我國政府工作報告首次提出“人工智能+”。“人工智能+”的概念,旨在鼓勵各行各業(yè)重視人工智能技術(shù)的應用和落地。

自1956年約翰·麥卡錫(John McCarthy)首次提出“人工智能”概念以來,人工智能已經(jīng)取得了重大發(fā)展。對于AI帶來的發(fā)展機遇以及與之相伴的科技倫理治理挑戰(zhàn)應給予辨證的理解。一方面,AI技術(shù)應用展現(xiàn)出巨大的商業(yè)價值,在降低成本、提升效率、加快創(chuàng)新等方面發(fā)揮了重要作用,許多企業(yè)將其視為尋求突破、改變競爭格局的新途徑。另一方面,隨著AI的發(fā)展和應用,人們面臨的科技倫理挑戰(zhàn)也日益增多,譬如,AI“復活”已故明星視頻在互聯(lián)網(wǎng)各大視頻平臺爆火, AI“復活”親人業(yè)務的網(wǎng)絡熱度急速飆升。從動態(tài)圖片到“可以對話的視頻”,再到能提供情感交互的虛擬體驗,這些圍繞AI技術(shù)新應用的社會現(xiàn)象也引發(fā)了一些倫理憂慮。數(shù)字人作為AI技術(shù)率先落地的重要使用場景,仍存在法律與倫理上的爭議,亟需重新思考科學技術(shù)的倫理底線與合法性邊界。

當前,我國科技倫理治理存在體制機制尚不健全、領域發(fā)展不均衡等問題,難以適應AI科技創(chuàng)新發(fā)展的現(xiàn)實需要。在從實驗室技術(shù)研發(fā)走向商業(yè)化和社會化的過程中,AI發(fā)展應用“數(shù)字公地”(digital commons)屬性逐步增強,設定科技倫理法律規(guī)則的必要性愈發(fā)凸顯。AI科技倫理法治體系的構(gòu)建需厘清科技開發(fā)應用、科技倫理設定、法律規(guī)則介入三者之間的關(guān)系,尋求科技發(fā)展、倫理引導及法律實現(xiàn)之間的平衡點,提升科技倫理法治能力,有效防范科技倫理風險,不斷推動科技向善、造福人類。

AI技術(shù)發(fā)展與科技倫理的關(guān)系

人工智能是引領新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性技術(shù)。我國人工智能的應用場景豐富、用戶群體規(guī)模和數(shù)據(jù)量龐大、產(chǎn)業(yè)需求與消費需求旺盛,政府高度重視AI產(chǎn)業(yè)創(chuàng)新發(fā)展,大力促進人工智能與實體經(jīng)濟深度融合。推動AI技術(shù)創(chuàng)新發(fā)展,對于培育新質(zhì)生產(chǎn)力具有重要作用。科技倫理是科技活動必須遵循的價值理念和行為規(guī)范,不僅要把握科技發(fā)展規(guī)律,同時應約束科技發(fā)展可能出現(xiàn)的違反道德倫理的行為。當下,AI科技倫理是一項復雜的實踐活動,貫穿于AI全生命周期的技術(shù)設計、產(chǎn)品行為、應用場景等一系列環(huán)節(jié),涉及諸多實施行為主體、技術(shù)路線開發(fā)者、基礎設施所有者以及社會公眾等多方參與者的利益訴求和多種利益沖突?;诖?,AI的技術(shù)設計與應用全周期應遵守科技倫理規(guī)范??萍及l(fā)展與科技倫理之間并不是“二元對立”的關(guān)系,科技倫理通過防止科技發(fā)展的復雜性給社會帶來的倫理沖擊,更好地實現(xiàn)數(shù)字科技與人類、數(shù)字科技與自然、科技創(chuàng)新與科技倫理之間的和諧共生。

2022年3月,中共中央辦公廳、國務院辦公廳印發(fā)《關(guān)于加強科技倫理治理的意見》,明確強調(diào)人工智能等是科技倫理治理的重點領域,充分表明國家對AI科技倫理治理的高度重視。不僅提出了“倫理先行、依法依規(guī)、敏捷治理、立足國情、開放合作”的治理要求,還提出了“增進人類福祉、尊重生命權(quán)利、堅持公平公正、合理控制風險、保持公開透明”的治理原則。2023年7月,國家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務管理暫行辦法》,為科技倫理治理指明了發(fā)展方向。2023年9月,科技部等十部門聯(lián)合研究起草、經(jīng)中央科技委員會同意并印發(fā)了《科技倫理審查辦法(試行)》,將人工智能列入應設立科技倫理(審查)委員會的科技活動單位范圍內(nèi),在7大類需要實行清單管理的重大風險新興科技活動中,有4大類涉及人工智能倫理審查。這些規(guī)范性文件凸顯了AI科技倫理治理的必要性、緊迫性和重要性。與快速迭代的技術(shù)相比,AI科技倫理治理落地實施的制度尚不完善,合規(guī)底線不夠明確,倫理審查與監(jiān)管存在空白,配套的懲戒措施缺乏力度。對此,一方面,要秉持科技向善的人文理念和倫理先行的價值觀念,將倫理道德融入AI全生命周期,增強全社會的AI科技倫理意識與行為自覺。另一方面,要加強科技倫理治理,尤其需要加強法律監(jiān)管,明確責任主體,強化倫理審查,推進依法治理,實現(xiàn)科技發(fā)展與倫理治理相互促進、動態(tài)調(diào)適。

AI發(fā)展應用面臨的主要科技倫理挑戰(zhàn)

一是數(shù)據(jù)隱私。AI的本質(zhì)之一是數(shù)據(jù)驅(qū)動,數(shù)據(jù)往往包含用戶個人信息,是隱私與AI之間的重要連接要素。隨著AI技術(shù)的應用,數(shù)據(jù)隱私和個人信息安全成為重要課題,需要正視數(shù)據(jù)隱私風險,平衡技術(shù)發(fā)展與隱私保護之間的關(guān)系。

第一,數(shù)據(jù)不正當收集與數(shù)據(jù)過度收集風險。在通過自動識別算法、網(wǎng)絡爬蟲等技術(shù)方式獲取數(shù)據(jù)時,AI模型對于個人數(shù)據(jù)的收集邊界是模糊的。在網(wǎng)上公開數(shù)據(jù)源和商務采購時,由于目前數(shù)據(jù)共享、交易和流通的市場化機制不健全,存在非法數(shù)據(jù)、違規(guī)買賣數(shù)據(jù)、暗網(wǎng)數(shù)據(jù)等不正當收集行為和一些未經(jīng)授權(quán)的收集行為。這些數(shù)據(jù)的獲取缺乏用戶知情同意,實際并沒有獲得采集權(quán)限,存在侵害用戶數(shù)據(jù)隱私的風險。

第二,數(shù)據(jù)存儲的隱私泄露風險。一方面,在對數(shù)據(jù)進行存儲時,如果沒有對數(shù)據(jù)采取充分的技術(shù)安全防護,且沒有明確的隱私界定與標注,則可能會出現(xiàn)涉及隱私的數(shù)據(jù)被用于公開的AI訓練的情況,或通過網(wǎng)絡攻擊等黑客行為竊取數(shù)據(jù)而導致個人隱私泄露。另一方面,在AI數(shù)據(jù)處理使用的過程中,涉及眾多數(shù)據(jù)處理、存儲等環(huán)節(jié)。對于種類多、數(shù)據(jù)量大的數(shù)據(jù)集,數(shù)據(jù)的頻繁讀取、傳輸、存儲等環(huán)節(jié)難以真正實現(xiàn)全環(huán)節(jié)監(jiān)控和管理,存在被非法使用者利用、拷貝等安全隱患。

第三,數(shù)據(jù)流通的隱私泄露風險。由于大量AI企業(yè)會委托第三方公司或采用眾包的方式實現(xiàn)海量數(shù)據(jù)的采集、標注、分析和算法優(yōu)化,數(shù)據(jù)將會在供應鏈的各個主體之間形成復雜、實時的交互流通,可能會因為各主體數(shù)據(jù)安全能力的參差不齊,產(chǎn)生數(shù)據(jù)泄露或濫用的風險。此外,在全球數(shù)字經(jīng)濟發(fā)展不均衡的背景下,大型科技巨頭將AI的數(shù)據(jù)資源供給、數(shù)據(jù)分析能力、算法研發(fā)優(yōu)化、產(chǎn)品設計應用等環(huán)節(jié)分散在不同的國家,數(shù)據(jù)跨境流動的場景增多也會對國家安全和個人信息保護造成不可控的風險。

二是算法偏見。算法模型是AI運算階段的核心技術(shù)特征,但算法并不具有絕對中立性,它的客觀性僅僅體現(xiàn)在算法運行中。算法不僅具有內(nèi)在錯誤或無意識偏見,而且算法偏見產(chǎn)生的負面影響抑制著AI的創(chuàng)新發(fā)展與應用,存在損害多方主體權(quán)益、固化社會偏見的風險。

算法偏見的本質(zhì)是AI時代社會偏見的一種體現(xiàn),這種偏見可能源自數(shù)據(jù)、模型或者算法設計人員。AI系統(tǒng)訓練數(shù)據(jù)本身可能記錄了社會中存在的偏見。基于模型的復雜性,它可以捕捉到微小的數(shù)據(jù)模式,甚至是噪音,在不斷的優(yōu)化迭代中強化學習效果,可能在學習中產(chǎn)生偏見。算法設計人員的主觀意識總是有意或無意地融入整個運行過程,他們的知識背景和立場是否受過專業(yè)訓練,是否有足夠的背景知識及理念的構(gòu)成,都會對算法的公正性、客觀性造成挑戰(zhàn)。

算法偏見可能造成實質(zhì)不平等。譬如,商家為吸引更多用戶,通過給予新人優(yōu)惠、回歸補貼等差異化定價手段,造成“大數(shù)據(jù)殺熟”,侵害用戶利益。算法偏見還可能造成就業(yè)招聘時排除特定地域、特定性別的人群,在金融信貸行業(yè)錯誤識別信用不良人士或給予特定人群優(yōu)待,在公共服務領域給特定人士錯誤地打上危險標簽。這些算法偏見容易導致人們對AI應用產(chǎn)生信任危機。

“可信”是AI產(chǎn)業(yè)健康持續(xù)發(fā)展的內(nèi)在要求,AI是否可信不僅會影響社會治理體系的運行,也關(guān)乎AI的創(chuàng)新發(fā)展。在醫(yī)療、金融、司法等應用領域,算法的不公平性甚至可能對生命、財產(chǎn)和自由產(chǎn)生威脅,使得人智協(xié)同發(fā)展難以實現(xiàn)。因此,應審慎對待算法偏見風險,充分尊重人的主體性,將人類社會價值體系、倫理道德、法律法規(guī)、生態(tài)環(huán)境等內(nèi)在需求納入AI生態(tài)全盤考量,確保AI生態(tài)系統(tǒng)的健康有序、和諧共生與可持續(xù)發(fā)展,避免出現(xiàn)與人類社會價值相悖的負面應用。

三是責任劃分。隨著AI應用的規(guī)模化使用,實踐中造成損害的事例屢見不鮮,包括但不限于創(chuàng)造性成果歸屬、刑事犯罪規(guī)制、人格權(quán)及知識產(chǎn)權(quán)侵權(quán)損害救濟等,AI侵權(quán)爭議的增多與責任主體的模糊之間形成了巨大的“責任鴻溝”,AI的法律責任承擔問題尚不明確。在此背景下,亟待厘清AI責任主體及其責任分配,解決無人擔責的困境。

從理論層面出發(fā),學界對于“AI法律主體地位”“AI是不是法律意義上的人”“AI能不能成為權(quán)利義務的最終歸屬”等問題的看法尚未統(tǒng)一。根據(jù)現(xiàn)有的法律體系設置及實踐,AI尚沒有法律意義上的權(quán)利與義務內(nèi)容,難以成為民事法律主體。然而一些學者認為,部分AI已經(jīng)具備類人化意識與行為能力的基本形態(tài),在擬制主體對人類經(jīng)濟社會發(fā)展發(fā)揮巨大作用的前提下,可以考慮由AI自身承擔部分責任,但由于其責任能力的限制以及以人為本的倫理基礎,對該責任能力應當進行明確限定。

從實踐層面出發(fā),AI侵權(quán)案件與傳統(tǒng)侵權(quán)案件引發(fā)的損害和風險的形式不同,AI的不透明性、不可預測性對傳統(tǒng)責任歸因機制產(chǎn)生了沖擊。以往構(gòu)成責任的前提條件通常包括“控制條件”和“認知條件”兩方面,然而,一方面,AI的不透明性和不可解釋性導致結(jié)果的不確定性,在某種情況下會超出人類的控制范圍;另一方面,囿于AI使用情境和使用者的不同產(chǎn)生的多重穩(wěn)定性,使得對AI的認知以及相應責任的追究更為困難。譬如,根據(jù)《中華人民共和國侵權(quán)責任法》的規(guī)定,制造商和銷售商是主要責任主體,但在AI情景下,還應當明確開發(fā)者的安全注意義務,建立新的AI侵權(quán)責任機制,促使發(fā)展“負責任的AI”成為符合人類共同利益的選擇。

構(gòu)建與完善AI發(fā)展應用的科技倫理法治化進路

AI發(fā)展日新月異,面臨諸多變量,應對AI科技倫理挑戰(zhàn)則應把握這些變化中的“不變”,把握好堅守技術(shù)創(chuàng)新前沿動態(tài)的科學觀、充滿人本主義情懷的倫理觀、兼顧技術(shù)發(fā)展與制度進步的法治觀以及預判評估技術(shù)并進行決策的治理觀。

一是明確AI規(guī)制目標與重點。AI技術(shù)的發(fā)展邏輯顛覆了傳統(tǒng)的社會治理模式,全新的治理模式期待全新的規(guī)制和監(jiān)管路徑。當前的規(guī)制目標在于實現(xiàn)以規(guī)制促發(fā)展,堅持安全可信的法治之維、科技向善的倫理之維、創(chuàng)新發(fā)展的技術(shù)之維,圍繞“社會—人類—機器”等要素,從“法律—倫理—技術(shù)”等維度展開規(guī)制,在法治軌道上鼓勵技術(shù)創(chuàng)新。

首先,從法治維度出發(fā),應建立負責任的AI治理機制,建立AI安全可信的標準和評價體系,筑牢安全底線,促進AI健康發(fā)展。AI大模型訓練及AI場景應用中的數(shù)據(jù)濫用、隱私泄露、算法偏見以及侵權(quán)責任等問題不時出現(xiàn),筑牢安全底線刻不容緩。當前,針對AI應用立法仍存在不足和空白,應對AI應用的安全性、可信性、倫理合規(guī)性等方面進行量化評估,為AI技術(shù)的發(fā)展提供明確的方向和參考。在此背景下,為進一步推進AI治理法治化,應樹立完善的技術(shù)發(fā)展與應用理念,保證AI應用在面對攻擊和威脅時能夠保持正常運行和數(shù)據(jù)安全,加快推動完善針對AI的法律地位、AI成果權(quán)利歸屬、AI損害后果的責任劃分、AI風險的法律控制等重點問題的法律規(guī)范,著力平衡AI產(chǎn)業(yè)發(fā)展和社會安全,保證AI輸出結(jié)果是可預測的、可解釋的,并且符合人類的價值觀和倫理準則,防止技術(shù)在利益的裹挾下無序應用,以法治保障AI健康發(fā)展。

其次,從科技倫理維度出發(fā),應建立一整套相對完整的制度規(guī)范體系,這一體系應基于增進人類福祉、促進公平公正、保護隱私安全、確??煽乜尚拧娀熑螕斠约疤嵘齻惱硭仞B(yǎng)這六項基本倫理要求,推動AI朝著通用、可信、負責任的方向發(fā)展。一方面,應為AI產(chǎn)品研發(fā)設計人員制定道德規(guī)范和行為守則;另一方面,應構(gòu)建多層次的倫理道德判斷結(jié)構(gòu)以及人機協(xié)作的倫理框架。在AI等數(shù)字科技倫理治理過程中,應堅持以人民為中心的發(fā)展思想,踐行科技向善的人文理念,并結(jié)合不同的數(shù)字化應用場景,確保AI應用的合理合規(guī)、公開透明。

最后,從技術(shù)維度出發(fā),應在確保AI安全可信、科技向善、符合倫理的前提下,積極鼓勵AI技術(shù)的融合與創(chuàng)新,不斷拓展其應用場景,并努力嘗試跨學科交叉融合,以推動AI應用的可持續(xù)發(fā)展。具體而言,AI技術(shù)應進一步與物聯(lián)網(wǎng)、云計算、大數(shù)據(jù)等深度融合,構(gòu)建更加智能、高效、便捷的服務體系。同時,還應不斷拓展AI在智能家居、自動駕駛、醫(yī)療診斷、金融分析等多個領域的應用,加強跨學科交叉融合。例如,在醫(yī)療診斷領域,AI技術(shù)可以輔助醫(yī)生進行疾病診斷、制定治療方案;在金融分析領域,AI技術(shù)可以實現(xiàn)風險評估、優(yōu)化投資策略等功能。

二是完善AI相關(guān)制度設計與實踐進路。科技法治是鼓勵與規(guī)范科技創(chuàng)新的基石,而科技倫理則致力于優(yōu)化和改善科技創(chuàng)新。無論是科技倫理還是科技法治,都旨在推動科技創(chuàng)新的同時,遏制科技不端行為和科技濫用違法現(xiàn)象。為此,應完善相關(guān)法律制度的設計與實踐路徑,加強行業(yè)監(jiān)管,明確行為底線,多方協(xié)作,對AI應用中的不法行為進行有效監(jiān)管,確保AI技術(shù)的健康與可持續(xù)發(fā)展。

首先,加強數(shù)據(jù)保護與隱私立法。應完善數(shù)據(jù)相關(guān)法律法規(guī),明確數(shù)據(jù)收集、存儲、處理和共享的規(guī)范,為AI技術(shù)開發(fā)與應用中的數(shù)據(jù)相關(guān)行為提供法律指引?!渡墒饺斯ぶ悄芊展芾頃盒修k法》對數(shù)據(jù)安全和隱私保護作出了具體規(guī)定,包括服務提供者需確保數(shù)據(jù)來源的合法性,以及關(guān)于訓練數(shù)據(jù)的特性、個人信息與知識產(chǎn)權(quán)的保護規(guī)定。該辦法還將相關(guān)監(jiān)督檢查和法律責任納入我國網(wǎng)絡安全和數(shù)據(jù)隱私保護的基礎性法律框架內(nèi)。在不斷完善法律規(guī)范的同時,還應加大監(jiān)管執(zhí)法力度,嚴厲打擊侵犯個人隱私的行為,確保法律的有效實施。此外,面對經(jīng)濟全球化背景下數(shù)據(jù)跨境流動帶來的發(fā)展機遇與數(shù)據(jù)安全挑戰(zhàn),應加強在數(shù)據(jù)保護和隱私立法方面的國際合作,消除數(shù)據(jù)跨境傳輸過程中存在的數(shù)據(jù)泄露和隱私侵犯的隱患,共同維護全球數(shù)據(jù)安全和隱私權(quán)益。

其次,優(yōu)化算法設計與公平性審查。算法是AI發(fā)展的核心技術(shù)工具,只有合規(guī)、良善的算法才能更好地促進AI的安全、可信、負責任發(fā)展。第一,優(yōu)化法律體系配置,重點關(guān)注算法偏見問題,并加強法律法規(guī)間的協(xié)同,構(gòu)建全方位、多層次、立體化的算法偏見規(guī)制體系,涵蓋法律、行政規(guī)章及地方性法規(guī),為個人提供充分的數(shù)據(jù)權(quán)利保障,為抵御算法偏見侵害提供堅實法律支撐。第二,實施算法分類分級管理,細化《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》中的分類標準,并制定相應的風險等級和監(jiān)管舉措,完善基于算法分類分級的算法備案、算法評估、算法安全風險監(jiān)測和算法審計制度,提升制度的明確性和可操作性。第三,探索建立算法偏見公益訴訟制度,結(jié)合民事與行政公益訴訟,完善救濟途徑,保障公共利益,引導算法在法治框架內(nèi)有序發(fā)展,推動數(shù)字化進程更加成熟完善。

再次,提高AI決策的透明度與可解釋性。透明度是AI確保其內(nèi)部算法可見性的關(guān)鍵屬性,包括公開數(shù)據(jù)、特征、模型、算法、訓練方法和質(zhì)量保證程序,以便外部監(jiān)督和審查??山忉屝缘哪繕耸窃鰪娎斫猓鼓繕耸鼙姼玫乩斫釧I的行動與決策。因此,應建立公開透明、可解釋的AI監(jiān)管體系。第一,提升AI模型技術(shù)和數(shù)據(jù)源的透明度,公開AI在系統(tǒng)開發(fā)、數(shù)據(jù)收集、管理、結(jié)果可操作化等過程的信息,使用戶了解AI模型決策的過程、依據(jù)和規(guī)則,打破黑箱壁壘,增強用戶對模型的信任。第二,強化公眾審查和監(jiān)督,落實算法備案、算法審計等制度,協(xié)助用戶追溯數(shù)據(jù)輸入、輸出、運行過程與自動化決策結(jié)果間的因果關(guān)系,全面審視數(shù)據(jù)收集方法、自我審核流程、價值承諾及利益相關(guān)者參與等過程。當利益相關(guān)者的權(quán)益可能因自動化決策受損時,可解釋性能及時解答疑問,提供救濟。第三,完善AI備案制度,優(yōu)化互聯(lián)網(wǎng)信息服務算法備案系統(tǒng),拓展備案信息范圍,要求備案主體公開更多技術(shù)要素,如運作原理、系統(tǒng)架構(gòu)、數(shù)據(jù)集、訓練模型及參數(shù)等,并闡述其價值觀和要解決的技術(shù)問題。同時,也要將相關(guān)外國主體納入備案范疇,確保其遵守我國相關(guān)規(guī)定。

最后,明確責任主體與加大監(jiān)管力度。雖然AI應用帶來了傳統(tǒng)“主體—行為—責任”理論下的“責任鴻溝”問題,但AI算法技術(shù)的應用,如算法的設計與部署,都蘊含了價值觀和主觀意圖,這是法律追責的核心,也是判定法律責任的關(guān)鍵。因此,應尊重技術(shù)邏輯,構(gòu)建機器/人—機聯(lián)合體,并根據(jù)侵權(quán)場景的類型化,確立多方責任主體的識別路徑,聚焦行為正當性的判斷。以AI算法設計部署中的主觀過錯作為追責的基礎,結(jié)合聯(lián)合體內(nèi)的責任與經(jīng)濟利益的關(guān)聯(lián),實現(xiàn)責任分配的公正性。此外,還需增強《中華人民共和國民法典》《中華人民共和國刑法》等法律在AI應用場景中對主體責任和產(chǎn)品質(zhì)量缺陷等問題的適用性,強化對AI設計和應用監(jiān)督的雙重監(jiān)管。在責任判定中,應綜合考慮行為人和AI服務提供商在侵權(quán)行為及損害后果中的實際作用。如果發(fā)生損害,可參考《中華人民共和國民法典》中的產(chǎn)品生產(chǎn)者責任條款,即產(chǎn)品缺陷造成他人損害的,生產(chǎn)者應承擔侵權(quán)責任,被侵權(quán)人有權(quán)向產(chǎn)品提供者索賠。這要求AI提供者,通常是平臺主體,履行高度注意義務。賦予AI提供者相應責任義務,有助于規(guī)范生成內(nèi)容的合法性。當然,若平臺已履行其義務,鑒于其對創(chuàng)新發(fā)展的貢獻,在責任承擔上不宜過于嚴苛,以免阻礙AI技術(shù)發(fā)展和未來商業(yè)應用。

隨著AI技術(shù)發(fā)展和應用場景的縱深拓展,AI治理面臨著道德倫理約束和法律規(guī)制的雙重現(xiàn)實困境。我國AI的科技倫理規(guī)范和相關(guān)立法應秉持包容審慎的態(tài)度,既不能只建立回應型立法,也不能推行過于嚴苛的制度限制AI的發(fā)展應用。因此,應繼續(xù)探索合理的AI科技倫理及合法性邊界,堅持科技倫理與法律規(guī)范雙管齊下,在有序的制度框架內(nèi)完善數(shù)據(jù)算法的糾偏功能,推動AI技術(shù)與產(chǎn)業(yè)向安全、可信、負責任的方向發(fā)展。

(作者為南開大學法學院副院長、教授、博導,南開大學競爭法研究中心主任)

【注:本文系2023年度最高人民法院司法研究重大課題“數(shù)據(jù)權(quán)益知識產(chǎn)權(quán)司法保護問題研究”(項目編號:ZGFYZDKT202317-03)及教育部人文社會科學重點研究基地重大項目“全球數(shù)據(jù)競爭中人權(quán)基準的考量與促進研究”(項目編號:19JJD820009)階段性成果】

【參考文獻】

①岳平、苗越:《社會治理:人工智能時代算法偏見的問題與規(guī)制》,《上海大學學報(社會科學版)》,2021年第6期。

②陳兵:《生成式人工智能可信發(fā)展的法治基礎》,《上海政法學院學報(法治論叢)》,2023年第4期。

③陸小華、陸賽賽:《論生成式人工智能侵權(quán)的責任主體——以集體主義為視角》,《南昌大學學報(人文社會科學版)》,2024年第1期。

責編/銀冰瑤 美編/楊玲玲

聲明:本文為人民論壇雜志社原創(chuàng)內(nèi)容,任何單位或個人轉(zhuǎn)載請回復本微信號獲得授權(quán),轉(zhuǎn)載時務必標明來源及作者,否則追究法律責任。

[責任編輯:孫垚]