j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁(yè) | 網(wǎng)站地圖

大國(guó)新村
首頁(yè) > 原創(chuàng)精品 > 成果首發(fā) > 正文

前沿科技的深層次倫理風(fēng)險(xiǎn)及其應(yīng)對(duì)

【摘要】當(dāng)前,生命科技和人工智能等前沿科技的倫理風(fēng)險(xiǎn)日益引起國(guó)際社會(huì)的高度關(guān)切,我國(guó)的科技倫理治理正在走上制度化發(fā)展之路。為了更好地推進(jìn)我國(guó)科技倫理治理工作,我們必須切實(shí)把握作為科技倫理治理重點(diǎn)的前沿科技的特征,揭示其所呈現(xiàn)出的一系列深層次倫理風(fēng)險(xiǎn),從而進(jìn)一步加強(qiáng)對(duì)科技社會(huì)系統(tǒng)的結(jié)構(gòu)性特征的理解,探索和重構(gòu)風(fēng)險(xiǎn)認(rèn)知的底層邏輯。其一,充分認(rèn)識(shí)新興科技驅(qū)動(dòng)的科技社會(huì)系統(tǒng)的革命性變化,以此理解前沿科技深層次倫理風(fēng)險(xiǎn)的結(jié)構(gòu)性實(shí)質(zhì)。其二,立足前沿科技倫理治理的開(kāi)放性實(shí)踐,將科技倫理的風(fēng)險(xiǎn)認(rèn)知和規(guī)范視為相關(guān)群體不斷更新的集體認(rèn)知和工作假設(shè)。其三,強(qiáng)調(diào)前沿科技風(fēng)險(xiǎn)認(rèn)知的系統(tǒng)性與可塑性,賦予科技和創(chuàng)新更大的可能性空間。由此,我們可以得出樹(shù)立科學(xué)認(rèn)知的倫理邊界、設(shè)置合理的倫理法律門(mén)檻、形成具有開(kāi)放性和整體性的治理機(jī)制、增進(jìn)公眾科技倫理素養(yǎng)以及遵循相稱性原則等面向深層次科技倫理風(fēng)險(xiǎn)的預(yù)控和應(yīng)對(duì)之道。【關(guān)鍵詞】科技倫理  科技倫理治理  深度科技化  深層次倫理風(fēng)險(xiǎn)  系統(tǒng)思維

【中圖分類號(hào)】B82-057/TP18                【文獻(xiàn)標(biāo)識(shí)碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2024.01.009

段偉文,中國(guó)社會(huì)科學(xué)院哲學(xué)所科技哲學(xué)研究室主任、研究員,科學(xué)技術(shù)和社會(huì)研究中心主任,中國(guó)社會(huì)科學(xué)院大學(xué)哲學(xué)院教授、博導(dǎo),上海人工智能實(shí)驗(yàn)室顧問(wèn)。研究方向?yàn)榭茖W(xué)哲學(xué)、技術(shù)哲學(xué)、信息哲學(xué)、科技倫理、科學(xué)技術(shù)與社會(huì)。主要著作有《信息文明的倫理基礎(chǔ)》《可接受的科學(xué):當(dāng)代科學(xué)基礎(chǔ)的反思》《網(wǎng)絡(luò)空間的倫理反思》等。

問(wèn)題的提出

2023年11月初,首屆全球人工智能安全峰會(huì)在英國(guó)召開(kāi),來(lái)自美、英、歐盟、中、印等多方代表就人工智能迅猛發(fā)展引發(fā)的風(fēng)險(xiǎn)與機(jī)遇進(jìn)行了深入探討。其間,我國(guó)提出的《全球人工智能治理倡議》系統(tǒng)闡述了人工智能治理的中國(guó)方案,會(huì)議發(fā)布的《布萊奇利宣言》凸顯了對(duì)前沿人工智能的超強(qiáng)技術(shù)能力和未來(lái)風(fēng)險(xiǎn)的關(guān)切。

實(shí)際上,對(duì)于正在進(jìn)行中的前沿科技可能導(dǎo)致的人類生命安全與社會(huì)倫理風(fēng)險(xiǎn)的關(guān)注至少可以追溯至1975年生物學(xué)家暫?;蛑亟M研究的決定。尤其是21世紀(jì)以來(lái),納米、人工智能、基因科技、合成生物學(xué)等顛覆性科技方興未艾,科技已成為無(wú)處不在和人類須臾不可離的強(qiáng)大力量,但同時(shí)也帶來(lái)了越來(lái)越多亟待應(yīng)對(duì)的科技倫理風(fēng)險(xiǎn)。為此,世界各國(guó)對(duì)科技倫理問(wèn)題及其治理日益重視,我國(guó)從國(guó)家層面相繼頒布了《關(guān)于加強(qiáng)科技倫理治理的指導(dǎo)意見(jiàn)》和《科技倫理審查辦法(試行)》等規(guī)范性文件,明確了邁向高水平科技自立自強(qiáng)之路應(yīng)該遵循的倫理原則、治理框架和審查機(jī)制。

縱觀由近年來(lái)出現(xiàn)的基因編輯、人類動(dòng)物嵌合體、人臉識(shí)別、算法推薦、腦機(jī)接口、深度合成以及ChatGPT等生成式人工智能所引發(fā)的倫理爭(zhēng)議,不難看到,前沿科技的風(fēng)險(xiǎn)不單是技術(shù)能力的增強(qiáng)所誘發(fā)的違背既有倫理和法律的技術(shù)濫用等問(wèn)題,更在于新技術(shù)能力的涌現(xiàn)對(duì)既有技術(shù)社會(huì)系統(tǒng)的沖擊所導(dǎo)致的結(jié)構(gòu)性價(jià)值沖突和深層次倫理風(fēng)險(xiǎn)。換言之,所謂深層次倫理風(fēng)險(xiǎn)是指,由于前沿科技研發(fā)越來(lái)越多地涉及對(duì)人、自然和社會(huì)的根本性、全局性的改變,前沿科技的發(fā)現(xiàn)和創(chuàng)新必然引起各種復(fù)雜的價(jià)值倫理矛盾,由此造成的倫理風(fēng)險(xiǎn)是結(jié)構(gòu)性的,往往既難以通過(guò)一般的風(fēng)險(xiǎn)收益比較加以權(quán)衡,也不能訴諸簡(jiǎn)單的倫理原則加以有效規(guī)范。因而科技倫理治理要真正做到“倫理先行”,必須對(duì)前沿科技研發(fā)活動(dòng)中的深層次倫理風(fēng)險(xiǎn)有較為系統(tǒng)的認(rèn)知,進(jìn)而從科技創(chuàng)新的整體層面分析其原因,尋求具有全局性和預(yù)見(jiàn)性的應(yīng)對(duì)之道。

前沿科技研發(fā)中的若干深層次倫理風(fēng)險(xiǎn)

大致而言,當(dāng)前具有突破性發(fā)展并伴隨著巨大倫理風(fēng)險(xiǎn)的科技前沿主要集中在生命科學(xué)、醫(yī)學(xué)、信息科技與人工智能等領(lǐng)域,它們也是我國(guó)在國(guó)家層面推動(dòng)科技倫理治理的主要關(guān)切。2019年以來(lái),我國(guó)先后通過(guò)一系列的舉措啟動(dòng)科技倫理治理體系建設(shè):一是,成立國(guó)家科技倫理委員會(huì)及生命科學(xué)、醫(yī)學(xué)和人工智能分委會(huì),由此推動(dòng)了區(qū)域、部門(mén)和機(jī)構(gòu)的科技倫理委員會(huì)的建立;二是,中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》,提出倫理先行、依法依規(guī)、敏捷治理、立足國(guó)情、開(kāi)放合作等治理要求,明確了增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開(kāi)透明等倫理原則;三是,生命科學(xué)、醫(yī)學(xué)和人工智能分委會(huì)提出各自領(lǐng)域倫理高風(fēng)險(xiǎn)科技活動(dòng)清單,如對(duì)人類生命健康、價(jià)值理念、生態(tài)環(huán)境等具有重大影響的新物種合成研究,侵入式腦機(jī)接口用于神經(jīng)、精神類疾病治療的臨床研究,對(duì)人類主觀行為、心理情緒和生命健康等具有較強(qiáng)影響的人機(jī)融合系統(tǒng)的研發(fā)等;四是,加強(qiáng)科技倫理審查工作,2023年2月,國(guó)家衛(wèi)生健康委、教育部、科技部、國(guó)家中醫(yī)藥局四部委聯(lián)合印發(fā)了《涉及人的生命科學(xué)和醫(yī)學(xué)研究倫理審查辦法》,10月,科技部等十部門(mén)聯(lián)合發(fā)布《科技倫理審查辦法(試行)》,兩個(gè)辦法將推動(dòng)開(kāi)展科技活動(dòng)的高校、科研與醫(yī)療衛(wèi)生機(jī)構(gòu)、企業(yè)等層面的科技倫理(審查)委員會(huì)的建立,在常規(guī)審查的同時(shí)建立需要開(kāi)展專家復(fù)核的科技活動(dòng)清單制度,對(duì)可能產(chǎn)生較大倫理風(fēng)險(xiǎn)挑戰(zhàn)的新興科技活動(dòng)實(shí)施清單管理;五是,中國(guó)科協(xié)會(huì)同相關(guān)部門(mén)、機(jī)構(gòu)、群體正在發(fā)起籌建中國(guó)科技倫理學(xué)會(huì),以加強(qiáng)我國(guó)的科技倫理研究和政策咨詢工作;六是,在數(shù)字治理領(lǐng)域積極有為,繼算法備案、深度合成管理等辦法之后,國(guó)家互聯(lián)網(wǎng)信息辦公室聯(lián)合國(guó)家發(fā)展改革委等六部門(mén)正式公布了《生成式人工智能服務(wù)管理暫行辦法》。當(dāng)然,數(shù)字技術(shù)和人工智能法律規(guī)制和監(jiān)管如何應(yīng)對(duì)人工智能的開(kāi)放性倫理挑戰(zhàn)需要在實(shí)踐中不斷展開(kāi)系統(tǒng)研判,更有待通過(guò)試驗(yàn)性的治理實(shí)踐不斷探索前行。

當(dāng)前,我國(guó)科技倫理治理的主要策略是,堅(jiān)持促進(jìn)創(chuàng)新與防范風(fēng)險(xiǎn)相統(tǒng)一,客觀評(píng)估和審慎對(duì)待科技倫理風(fēng)險(xiǎn),強(qiáng)化對(duì)科技活動(dòng)的全生命周期的風(fēng)險(xiǎn)評(píng)估和監(jiān)督管理,預(yù)見(jiàn)和防范可能出現(xiàn)的具有嚴(yán)重影響的不確定性風(fēng)險(xiǎn)。為了更有效地貫徹實(shí)施這一策略,還應(yīng)對(duì)以下7個(gè)方面的深層次科技倫理風(fēng)險(xiǎn)有所認(rèn)識(shí)。

由科學(xué)認(rèn)知活動(dòng)缺乏倫理邊界意識(shí)所造成的突發(fā)風(fēng)險(xiǎn)。依照一般看法,“科學(xué)無(wú)禁區(qū)、技術(shù)有邊界”,但這一觀念已經(jīng)跟不上認(rèn)知、智能等前沿科技領(lǐng)域倫理風(fēng)險(xiǎn)日益加劇的趨勢(shì)。在合成生物學(xué)、基因編輯、腦機(jī)接口等領(lǐng)域,科學(xué)研究和實(shí)驗(yàn)本身就涉及對(duì)生命和智能過(guò)程的干預(yù),基礎(chǔ)研究和轉(zhuǎn)化應(yīng)用研究如同“旋轉(zhuǎn)門(mén)”而難以絕對(duì)區(qū)分,特別是認(rèn)知和神經(jīng)等前沿科學(xué)研究可能會(huì)極大地影響人的自主、認(rèn)知、隱私乃至精神等生命權(quán)利。例如,涉及對(duì)青少年群體的心理和行為的干預(yù)和誘導(dǎo)的研究,其倫理風(fēng)險(xiǎn)不僅僅是這類研究是否會(huì)對(duì)青少年的身心造成顯見(jiàn)的傷害、由此獲得的知識(shí)會(huì)不會(huì)被濫用和惡意使用,更在于研究者能不能意識(shí)到這類研究本身是否合乎倫理(換言之,是否會(huì)遭受不合倫理的質(zhì)疑)、是不是要有一個(gè)邊界和限度。特別是在運(yùn)用全新的技術(shù)干預(yù)人的生命和精神時(shí),縱使對(duì)其中所涉及的倫理問(wèn)題缺乏系統(tǒng)深入的認(rèn)知,研究者至少應(yīng)有一種倫理規(guī)則意識(shí)和邊界意識(shí)。由此,相關(guān)主體才可能從一般科技倫理和生命倫理原則出發(fā),通過(guò)討論和對(duì)話制定具體科技活動(dòng)中的防護(hù)措施和限制措施。更重要的是,在遇到科技倫理敏感問(wèn)題時(shí),這種規(guī)則意識(shí)和邊界意識(shí)會(huì)促使研究者將相關(guān)討論推進(jìn)到科學(xué)共同體、社會(huì)公眾乃至國(guó)際社會(huì)層面,從而使這類技術(shù)研發(fā)應(yīng)用可能帶來(lái)的深遠(yuǎn)倫理影響得到深入探討,相關(guān)的責(zé)任與權(quán)利問(wèn)題也可由此得以提出。例如,隨著腦機(jī)接口等神經(jīng)與認(rèn)知技術(shù)的發(fā)展,在這類技術(shù)應(yīng)用于神經(jīng)認(rèn)知系統(tǒng)尚處于發(fā)育和不穩(wěn)定階段的青少年時(shí)就應(yīng)有更嚴(yán)格的邊界。還要注意的有,可記錄大腦活動(dòng)的神經(jīng)技術(shù)會(huì)不會(huì)影響人的精神與思想隱私等問(wèn)題,作為應(yīng)對(duì)是不是應(yīng)該相應(yīng)地賦予人們思想隱私權(quán)等神經(jīng)權(quán)利,[1]或者劃定神經(jīng)技術(shù)對(duì)人的精神干預(yù)的必要底線。而實(shí)際上,這種邊界意識(shí)和底線意識(shí)的缺失在科研人員中并不罕見(jiàn)。

當(dāng)前,倫理高風(fēng)險(xiǎn)科技活動(dòng)清單的制定和復(fù)核機(jī)制固然為涉及倫理敏感性的科技活動(dòng)設(shè)定了具體邊界,但如果科研人員和管理者不能在認(rèn)識(shí)上形成倫理邊界意識(shí),那么高風(fēng)險(xiǎn)清單所設(shè)定的具體邊界很可能僅被當(dāng)作合規(guī)的標(biāo)準(zhǔn);如果相關(guān)人員不會(huì)在研究中主動(dòng)認(rèn)識(shí)和探索應(yīng)有的倫理界限,科技界就有可能再次發(fā)生基因編輯事件之類嚴(yán)重踐踏倫理底線和紅線的惡性事件,出現(xiàn)突發(fā)性科技倫理風(fēng)險(xiǎn)。值得指出的是,所謂邊界意識(shí)并不是簡(jiǎn)單的禁區(qū)意識(shí),而是在認(rèn)識(shí)上強(qiáng)調(diào):一方面,應(yīng)將存在高倫理風(fēng)險(xiǎn)的科學(xué)研究限定在現(xiàn)有科學(xué)認(rèn)知和技術(shù)手段可控的范圍內(nèi),為科技風(fēng)險(xiǎn)設(shè)定安全邊界;另一方面,要充分認(rèn)識(shí)到前沿科技領(lǐng)域涉及的倫理敏感問(wèn)題,在認(rèn)真厘清可能的倫理爭(zhēng)議的基礎(chǔ)上,劃定目前不應(yīng)該逾越的倫理邊界。顯然,對(duì)前沿科技倫理邊界更為積極、主動(dòng),全面和動(dòng)態(tài)的探究,是堅(jiān)持促進(jìn)創(chuàng)新與防范風(fēng)險(xiǎn)相統(tǒng)一的關(guān)鍵,也是實(shí)現(xiàn)敏捷治理的基礎(chǔ)。

前沿科技對(duì)生命權(quán)利的深遠(yuǎn)影響所引發(fā)的不可逆風(fēng)險(xiǎn)。在大數(shù)據(jù)、人工智能、元宇宙、深度合成等前沿科技研發(fā)應(yīng)用中,經(jīng)常出現(xiàn)數(shù)據(jù)泄露、隱私侵犯等倫理風(fēng)險(xiǎn),危及人的生命、隱私、尊嚴(yán)以及其他合法權(quán)益;很多數(shù)據(jù)的采集具有侵略性,海量數(shù)據(jù)一旦出現(xiàn)信息安全和倫理問(wèn)題,很難通過(guò)刪除數(shù)據(jù)等方法對(duì)相關(guān)違背倫理和法律的研發(fā)應(yīng)用造成的后果進(jìn)行矯正。例如,ChatGPT等生成式人工智能通過(guò)采集海量的網(wǎng)絡(luò)數(shù)據(jù)訓(xùn)練大模型,產(chǎn)生大量文字、圖片和視頻內(nèi)容,其中存在諸多有爭(zhēng)議的侵權(quán)行為,但由于其機(jī)制的復(fù)雜性和過(guò)程的不透明性,很難逐一確認(rèn)和維權(quán)。對(duì)這種具有全局影響的顛覆性創(chuàng)新所帶來(lái)的不可逆風(fēng)險(xiǎn),現(xiàn)有倫理法律規(guī)范和監(jiān)管措施難以應(yīng)對(duì)。而這一倫理困境表明,前沿科技的倫理和法律研究應(yīng)建立在更為系統(tǒng)深入的科技哲學(xué)、歷史、文化、社會(huì)學(xué)和人類學(xué)等跨學(xué)科研究之上。

類似地,在生命醫(yī)學(xué)領(lǐng)域,基因編輯和人類動(dòng)物嵌合體研究雖然具有極大的有益前景,但也存在高度不確定性的風(fēng)險(xiǎn)。特別是在涉及人類種系的生殖技術(shù)和賦予動(dòng)物具有接近人類智能的人類動(dòng)物嵌合體研究中,必須認(rèn)識(shí)到冒失地改變?nèi)祟惢蚩赡茉斐傻牟豢赡骘L(fēng)險(xiǎn)。認(rèn)識(shí)到這些不可逆的風(fēng)險(xiǎn),一方面,有助于相關(guān)研發(fā)和應(yīng)用更加負(fù)責(zé)、透明和可問(wèn)責(zé),走向更具倫理可接受性和社會(huì)穩(wěn)健性的研究與創(chuàng)新;另一方面,有助于對(duì)具體的不可逆風(fēng)險(xiǎn)展開(kāi)系統(tǒng)深入的研究,推進(jìn)理論、方法和工具創(chuàng)新,探尋更加安全和更符合人類長(zhǎng)遠(yuǎn)與共同利益的研究路徑。

前沿科技研發(fā)目標(biāo)與人的權(quán)益的結(jié)構(gòu)性沖突導(dǎo)致的倫理兩難。近年來(lái),在內(nèi)容推薦、金融風(fēng)控、生物特征識(shí)別等領(lǐng)域出現(xiàn)了過(guò)度采集數(shù)據(jù)、行為操縱、信息繭房、大數(shù)據(jù)殺熟、算法歧視等在倫理和法律層面存在爭(zhēng)議的問(wèn)題,相關(guān)部門(mén)在數(shù)字平臺(tái)治理和金融科技治理層面推出了一系列規(guī)范和監(jiān)管措施,起到了較好的治理效果。但值得指出的是,其背后存在著數(shù)據(jù)驅(qū)動(dòng)的智能技術(shù)原理和現(xiàn)有社會(huì)倫理法律之間的結(jié)構(gòu)性沖突。一方面,內(nèi)容推薦等必須建立在對(duì)大數(shù)據(jù)的采集與分析之上;另一方面,這些數(shù)據(jù)所反映的是人們的行為記錄和生物特征。也就是說(shuō),兩者之間的沖突是結(jié)構(gòu)性的,必然會(huì)導(dǎo)致倫理兩難。例如,元宇宙和自動(dòng)駕駛技術(shù)必然以采集人和場(chǎng)景中的相關(guān)數(shù)據(jù)為前提,這將在一定程度上與隱私保護(hù)和信息安全相沖突。這種結(jié)構(gòu)性的沖突使得由此造成的倫理風(fēng)險(xiǎn)難以從根本上得到治理。如果不深入探討如何解決這些結(jié)構(gòu)性的矛盾、如何通過(guò)形成新的倫理和法律規(guī)范突破這種倫理兩難,則不難想象,隨著情感識(shí)別等新應(yīng)用的普及,類似的結(jié)構(gòu)性沖突和由此造成的倫理兩難將持續(xù)存在,而且更具爭(zhēng)議性。

值得指出的是,當(dāng)前生成式人工智能的發(fā)展正在推動(dòng)一場(chǎng)知識(shí)生產(chǎn)方式的革命,文字、圖片、視頻不再僅僅作為網(wǎng)絡(luò)和媒介內(nèi)容,而成為大規(guī)模自動(dòng)化知識(shí)生產(chǎn)的原料。由此就帶來(lái)了知識(shí)產(chǎn)權(quán)保護(hù)和發(fā)展新的知識(shí)生產(chǎn)引擎之間的結(jié)構(gòu)性沖突,對(duì)內(nèi)容的不同理解——作為知識(shí)生產(chǎn)原料的人工智能生成內(nèi)容與作為信息安全監(jiān)管對(duì)象的網(wǎng)絡(luò)媒介內(nèi)容——正在導(dǎo)致一種新的倫理兩難。類似地,不難預(yù)見(jiàn),運(yùn)用自動(dòng)化智能系統(tǒng)提高效率和“機(jī)器換人”之間的沖突,可能會(huì)成為未來(lái)幾年不得不應(yīng)對(duì)的科技社會(huì)難題。

物理世界與數(shù)字世界界限模糊所引發(fā)的“真相”消失的倫理困境。近年來(lái)出現(xiàn)的虛擬現(xiàn)實(shí)、元宇宙、深度合成和生成式人工智能,使得物理世界(真實(shí))與數(shù)字世界(虛構(gòu))的界限日漸模糊,特別是虛擬影像的逼真度越來(lái)越高,引發(fā)了“真相”消失的社會(huì)倫理困境。從現(xiàn)實(shí)世界的角度來(lái)看,隨著這些技術(shù)的發(fā)展,它們很容易被用來(lái)混淆偽造的內(nèi)容和真實(shí)的事實(shí),甚至可用于虛構(gòu)對(duì)特定事件和歷史的虛假集體記憶,從而干預(yù)人們的社會(huì)認(rèn)知,操控人的意識(shí)和精神,即有可能導(dǎo)致大規(guī)模的偽造真相和意識(shí)操控等社會(huì)認(rèn)知倫理和精神倫理層面的顛覆性影響。

然而,數(shù)字技術(shù)的發(fā)展又是未來(lái)科技社會(huì)的趨勢(shì),從認(rèn)知對(duì)象到認(rèn)知過(guò)程的虛擬化趨勢(shì)越來(lái)越顯著,虛擬的生活和實(shí)踐越來(lái)越多地可以與物理世界的生活相互替代,虛擬世界中的“不良”行為對(duì)人在現(xiàn)實(shí)世界中的倫理和道德的影響日益成為莫衷一是但又必須直面的真問(wèn)題。同時(shí),越來(lái)越多的內(nèi)容將由計(jì)算機(jī)和人工智能生成,因此,很難再通過(guò)“真實(shí)”和“虛假”的嚴(yán)格區(qū)分應(yīng)對(duì)“真相”消失的倫理困境。更為復(fù)雜的是,在科學(xué)研究和金融科技等實(shí)際應(yīng)用中,合成數(shù)據(jù)既可以用于造假,也可以用于矯正樣本不足等帶來(lái)的數(shù)據(jù)偏差,已經(jīng)很難用真和假來(lái)區(qū)分真實(shí)數(shù)據(jù)與合成數(shù)據(jù)的合倫理性。

智能社會(huì)系統(tǒng)中的人機(jī)信任問(wèn)題及其倫理風(fēng)險(xiǎn)。當(dāng)前,在智能客服、自動(dòng)駕駛和醫(yī)療人工智能應(yīng)用中出現(xiàn)的人機(jī)信任問(wèn)題值得關(guān)注。在智能化早期,自動(dòng)化和智能化系統(tǒng)的技術(shù)問(wèn)題和服務(wù)質(zhì)量問(wèn)題可能會(huì)導(dǎo)致安全事故和人身傷害的發(fā)生,引起人們對(duì)技術(shù)的不信任感,而這顯然會(huì)影響對(duì)前沿科技發(fā)展的社會(huì)認(rèn)可和接受。人們對(duì)機(jī)器缺失信任顯然不利于科技更好地賦能社會(huì)發(fā)展,但如何增進(jìn)人們對(duì)機(jī)器的信任,則一方面需要數(shù)字和智能技術(shù)不斷提升其透明度和可解釋性,另一方面要從社會(huì)學(xué)、心理學(xué)、人類學(xué)和哲學(xué)等多學(xué)科入手,加強(qiáng)對(duì)人機(jī)行為和心理的研究,由此探尋增進(jìn)人機(jī)信任和人機(jī)共生的綜合性的技術(shù)和社會(huì)舉措。

但同時(shí),對(duì)機(jī)器的過(guò)度信任也存在著深層次的倫理風(fēng)險(xiǎn),特別是人們?cè)诿鎸?duì)機(jī)器人等存在擬人化傾向的智能設(shè)備時(shí),會(huì)誤以為它們是有意識(shí)的主體。隨著數(shù)字人、對(duì)話機(jī)器人技術(shù)的進(jìn)步,這種擬人化的情感投射變得更加強(qiáng)烈,有可能導(dǎo)致人們出現(xiàn)認(rèn)知上和心理上對(duì)自動(dòng)化智能系統(tǒng)的過(guò)度依賴。例如,生成式和對(duì)話式人工智能很容易被不恰當(dāng)?shù)禺?dāng)作知識(shí)權(quán)威、道德權(quán)威和精神權(quán)威。因此,特別是在將人工智能用于青少年的陪伴、學(xué)習(xí)和心理引導(dǎo)時(shí),必須考慮到由此可能引發(fā)的倫理風(fēng)險(xiǎn)。

由科技社會(huì)系統(tǒng)的難以問(wèn)責(zé)所帶來(lái)的倫理風(fēng)險(xiǎn)。隨著生命醫(yī)學(xué)與人工智能等前沿科技的發(fā)展,整個(gè)社會(huì)日漸發(fā)展為一種整體性的復(fù)雜的科技社會(huì)系統(tǒng),從個(gè)人的醫(yī)療、就業(yè)到國(guó)家的戰(zhàn)略決策,各項(xiàng)事務(wù)越來(lái)越多地取決于一個(gè)包括人和機(jī)器在內(nèi)的復(fù)雜的決策系統(tǒng)。一旦出現(xiàn)某些問(wèn)題,因?yàn)榇嬖谌祟惡蜋C(jī)器多種智能體的參與,往往難以追責(zé)。例如,某個(gè)自動(dòng)化智能系統(tǒng)因?yàn)檎`判而決定對(duì)某一區(qū)域采取不必要的限電措施,或某個(gè)智能評(píng)分系統(tǒng)對(duì)某些考生試卷的自動(dòng)化評(píng)分出現(xiàn)了差錯(cuò),最后很難找到負(fù)責(zé)任的主體。隨著自動(dòng)化智能決策系統(tǒng)的普及,很可能會(huì)出現(xiàn)數(shù)字官僚主義和智能化官僚主義等新的官僚主義的表現(xiàn)形式。

國(guó)際科技霸權(quán)主義所帶來(lái)的國(guó)際政治倫理風(fēng)險(xiǎn)。近年來(lái),美國(guó)在科技領(lǐng)域?qū)χ袊?guó)采取的“脫鉤”“禁售”等所謂“去風(fēng)險(xiǎn)”等打壓策略正在形成一股國(guó)際科技霸權(quán)主義的逆流。值得關(guān)注的是,在生成式人工智能的發(fā)展過(guò)程中,中國(guó)地區(qū)的用戶在很多應(yīng)用軟件(包括自動(dòng)翻譯軟件)上無(wú)法注冊(cè),這無(wú)疑是科技霸權(quán)主義的表現(xiàn)。近期,在芯片、量子計(jì)算和核聚變領(lǐng)域,美國(guó)明顯存在搶占制高點(diǎn)、鞏固計(jì)算霸權(quán)和形成新的能源霸權(quán)的盤(pán)算。在21世紀(jì)前20年全球化作為世界主流時(shí)期,我國(guó)科技在一段時(shí)間采取了跟隨與合作戰(zhàn)略,西方一方面存在將中國(guó)視為沒(méi)有規(guī)則的“野蠻的東方”的偏見(jiàn),但另一方面也出現(xiàn)了將不合倫理規(guī)范的研究拿到當(dāng)時(shí)科技倫理監(jiān)管制度尚不健全的中國(guó)和其他地區(qū)的“倫理傾銷(xiāo)”。在美國(guó)推行《芯片與科學(xué)法案》、不斷采取“小院高墻”等政策的影響下,美國(guó)對(duì)我國(guó)在價(jià)值觀和倫理上的偏見(jiàn)和質(zhì)疑將進(jìn)一步擴(kuò)大,并且會(huì)與意識(shí)形態(tài)糾纏在一起。對(duì)此,我們應(yīng)有清晰的認(rèn)知,應(yīng)立足人類命運(yùn)共同體和更具美好的科技未來(lái)的大視角,從事實(shí)和學(xué)理層面予以必要的應(yīng)對(duì)。

新興科技驅(qū)動(dòng)的科技社會(huì)系統(tǒng)的革命性變化

在現(xiàn)代社會(huì)中,科學(xué)、技術(shù)和工程從來(lái)都不是孤立存在的子系統(tǒng),而是無(wú)遠(yuǎn)弗屆地存在和融入于整個(gè)社會(huì)之中。前沿科技并不是一種外在于社會(huì)的力量或動(dòng)能,其創(chuàng)新發(fā)展實(shí)質(zhì)上是在科技與社會(huì)乃至文化相互交織的科技社會(huì)系統(tǒng)中進(jìn)行的。毋庸置疑,為了進(jìn)一步認(rèn)識(shí)前沿科技可能引發(fā)的一系列深層次倫理風(fēng)險(xiǎn),需要進(jìn)一步從系統(tǒng)論、整體論的維度把握前沿科技所驅(qū)動(dòng)的新興科技社會(huì)系統(tǒng)中正在發(fā)生的革命性變化。尤其值得關(guān)注的有以下幾點(diǎn)。

技術(shù)空間與技術(shù)圈的出現(xiàn)。隨著前沿科技的發(fā)展,一種全新的技術(shù)空間和技術(shù)圈正在形成。技術(shù)空間不僅包括由技術(shù)拓展或介入的物理空間與生命結(jié)構(gòu),如可觀測(cè)宇宙、納米尺度、基因組等,更重要的是在物理空間之外形成了虛擬的信息空間和數(shù)字空間,如網(wǎng)絡(luò)空間、賽博空間以及近期生成式人工智能所形成的生成空間等。由此,技術(shù)在地球自然生態(tài)圈之上正在構(gòu)建自然過(guò)程中不存在的信息圈、知識(shí)圈乃至智慧圈,這些圈層都是由技術(shù)作支撐的,可以統(tǒng)稱為技術(shù)圈。自然生態(tài)圈與技術(shù)圈的交纏互構(gòu)決定了世界和人的存在與境況,決定了經(jīng)濟(jì)社會(huì)發(fā)展和國(guó)家競(jìng)爭(zhēng)的總體空間。

虛擬認(rèn)知與實(shí)踐方興未艾。如前所述,通過(guò)數(shù)據(jù)采集和信息計(jì)算,人們用數(shù)據(jù)來(lái)刻畫(huà)世界和人,對(duì)其進(jìn)行模擬、分析和干預(yù),使認(rèn)知、制造乃至生活與交往實(shí)踐超越物理空間和現(xiàn)實(shí)可能性的限制。因此,應(yīng)該從這一趨勢(shì)出發(fā)重新認(rèn)識(shí)數(shù)據(jù)的內(nèi)涵,重新界定“真”與“假”、“虛”與“實(shí)”,在擁抱世界數(shù)據(jù)化和虛擬認(rèn)知的同時(shí),充分考慮其倫理風(fēng)險(xiǎn)。

技術(shù)成為無(wú)形的自動(dòng)化過(guò)程。技術(shù)系統(tǒng)的實(shí)時(shí)化、泛在化和微型化,使得技術(shù)無(wú)處不在、無(wú)所不及地嵌入到物理、生命乃至社會(huì)空間與過(guò)程之中,越來(lái)越隱而不現(xiàn),使人難以覺(jué)察。當(dāng)我們?nèi)找嫔钤谶@種技術(shù)世界之中時(shí),無(wú)疑需要提升整個(gè)科技社會(huì)系統(tǒng)的穩(wěn)健性,防范系統(tǒng)性的科技倫理風(fēng)險(xiǎn)。

人與機(jī)器間的差異日漸縮小。隨著人與機(jī)器的交互不斷深化,出現(xiàn)了人的機(jī)器化和機(jī)器的擬人化這種人機(jī)同化但又存在內(nèi)在沖突的趨勢(shì)。生成式人工智能所帶來(lái)的最根本性的挑戰(zhàn),即人類可能最終無(wú)法區(qū)分機(jī)器人和人類。應(yīng)該看到,人們?cè)谖磥?lái)所獲取的信息和知識(shí)將越來(lái)越多地通過(guò)機(jī)器自動(dòng)生成,尤其是隨著人工智能越來(lái)越強(qiáng)大,人們可能最終無(wú)法分辨出人類和人工智能分別產(chǎn)出的信息與知識(shí)之間的差異,甚至人工智能的表達(dá)和說(shuō)服能力將勝過(guò)人類。

在這些革命性的變化的推動(dòng)下,構(gòu)建在技術(shù)社會(huì)系統(tǒng)之上的人類社會(huì)正在經(jīng)歷一場(chǎng)激進(jìn)的變化。這些變化可能主要發(fā)生在生命醫(yī)學(xué)、數(shù)字與智能技術(shù)等領(lǐng)域,其主要表現(xiàn)是天然自然與人工自然的融合、人類智能與機(jī)器智能的整合。以合成生物學(xué)為例,正在研究中的回收工業(yè)廢物的“化學(xué)機(jī)器人”將插入現(xiàn)有細(xì)菌底盤(pán)來(lái)產(chǎn)生所需的代謝反應(yīng)。這種從新陳代謝到DNA的變化方向意味著,通過(guò)合成生物技術(shù),分子生物學(xué)的中心法則變成了化學(xué)分子世界的部分真理。隨著時(shí)間的推移,化學(xué)機(jī)器人將利用代謝生物化學(xué)的調(diào)節(jié)可以驅(qū)動(dòng)DNA變化的事實(shí),將所需反應(yīng)的指令強(qiáng)制寫(xiě)入細(xì)菌藍(lán)圖中。這種對(duì)生物學(xué)中信息流的科學(xué)思考方式的顛覆將使我們?cè)谔疾东@、固氮和塑料降解等緊迫課題方面取得巨大飛躍,這進(jìn)一步意味著整個(gè)行星正在邁向全新的人工化時(shí)期。[2]而生成式人工智能也正在從根本上改變著人類的社會(huì)生活和生產(chǎn)勞動(dòng),從導(dǎo)航、健康監(jiān)測(cè)、日常寫(xiě)作到科學(xué)研究,人工智能助手可能成為人類須臾不可離的“技術(shù)伴侶”。雖然大多數(shù)技術(shù)專家認(rèn)為目前還談不上奇點(diǎn)臨近,但的確是時(shí)候嚴(yán)肅思考我們究竟需要一個(gè)怎樣的人機(jī)共生的未來(lái)。

充分認(rèn)識(shí)顛覆性前沿科技對(duì)技術(shù)社會(huì)系統(tǒng)的革命性影響,有助于發(fā)現(xiàn)結(jié)構(gòu)性的涌現(xiàn)特征,也是評(píng)估新興科技倫理未知風(fēng)險(xiǎn)的關(guān)鍵。一般而言,大多數(shù)科技倫理分析往往關(guān)注創(chuàng)新對(duì)個(gè)人或群體的影響,而忽視其對(duì)社會(huì)基本結(jié)構(gòu)的影響。例如,在20世紀(jì)50、60年代,美國(guó)對(duì)州際公路系統(tǒng)的預(yù)期倫理分析可能會(huì)權(quán)衡快速個(gè)人交通的價(jià)值與致命車(chē)輛碰撞的危險(xiǎn),但卻沒(méi)有看到對(duì)汽油的旺盛需求將為美國(guó)在中東擴(kuò)大軍事能力提供理由,從而導(dǎo)致了強(qiáng)大的軍工復(fù)合體的進(jìn)一步構(gòu)建。而智能手機(jī)、短視頻和無(wú)人駕駛等技術(shù)在整體上所導(dǎo)致的社會(huì)生活層面的改變也與此類似。由此可見(jiàn),新技術(shù)對(duì)社會(huì)基本結(jié)構(gòu)的影響通常是看似不相關(guān)的技術(shù)復(fù)合體之間協(xié)同相互作用的產(chǎn)物。因此我們不僅要研究單個(gè)技術(shù)的倫理和社會(huì)影響,還應(yīng)進(jìn)一步關(guān)切各種技術(shù)綜合體在整個(gè)技術(shù)社會(huì)系統(tǒng)中產(chǎn)生的協(xié)同效應(yīng)。[3]最近,在有關(guān)前沿人工智能的風(fēng)險(xiǎn)的討論中,人工智能帶來(lái)的生物、化學(xué)軍民兩用技術(shù)門(mén)檻降低所帶來(lái)的跨領(lǐng)域復(fù)合風(fēng)險(xiǎn)備受關(guān)注。

前沿科技倫理風(fēng)險(xiǎn)認(rèn)知的底層邏輯

從國(guó)家戰(zhàn)略的層面來(lái)講,對(duì)前沿科技倫理風(fēng)險(xiǎn)及深層次倫理風(fēng)險(xiǎn)的認(rèn)知事關(guān)重大,是相關(guān)科技、產(chǎn)業(yè)、社會(huì)、教育、環(huán)境、衛(wèi)生健康等各方面政策選擇和實(shí)施導(dǎo)向的基礎(chǔ)。展望未來(lái),人類將進(jìn)入深度科技化時(shí)代,科技影響的復(fù)雜性日益呈指數(shù)級(jí)上升,我們的智慧和意識(shí)能否跟上這一加速度,正在成為本世紀(jì)文明演進(jìn)的首要難題。而應(yīng)對(duì)這一難題的關(guān)鍵,不應(yīng)僅依賴事后的反省,也不應(yīng)是簡(jiǎn)單的禁止,而在于不斷總結(jié)和反思前沿科技倫理風(fēng)險(xiǎn)預(yù)見(jiàn)、評(píng)估和審查中的方法和經(jīng)驗(yàn),不斷地發(fā)現(xiàn)、探索和重構(gòu)前沿科技倫理風(fēng)險(xiǎn)認(rèn)知的底層邏輯。

作為政策工具的科技倫理研究和風(fēng)險(xiǎn)認(rèn)知。前沿科技所導(dǎo)致的價(jià)值沖突和倫理抉擇往往是前所未有的,是傳統(tǒng)的道德哲學(xué)和倫理理論所沒(méi)有遭遇或處理過(guò)的問(wèn)題。前沿科技倫理研究和風(fēng)險(xiǎn)認(rèn)知并不是單純的倫理學(xué)或應(yīng)用倫理學(xué)研究(盡管后者為前者提供了重要的學(xué)理基礎(chǔ)),也不僅僅局限于科技共同體的共識(shí),而更多地是作為政策工具和問(wèn)題導(dǎo)向的跨學(xué)科探究,是參與科技倫理治理的相關(guān)群體的集體認(rèn)知——而這也是當(dāng)前各國(guó)推動(dòng)科技倫理與治理真正的挑戰(zhàn)性所在。

針對(duì)前沿科技倫理問(wèn)題與風(fēng)險(xiǎn),基本的認(rèn)知策略是,根據(jù)目前所掌握的科技倫理風(fēng)險(xiǎn)相關(guān)事實(shí)及其未來(lái)的可能性,運(yùn)用倫理、法律、社會(huì)、政治、經(jīng)濟(jì)、公共管理等領(lǐng)域已有的理論資源,對(duì)其中所涉及的倫理和法律等方面的價(jià)值問(wèn)題(如權(quán)利、責(zé)任、公平等)展開(kāi)分析,對(duì)利益相關(guān)者的具體風(fēng)險(xiǎn)和收益加以權(quán)衡。

為了加強(qiáng)對(duì)科技活動(dòng)的倫理規(guī)范,政府部門(mén)、行業(yè)、產(chǎn)業(yè)和科技共同體制定了科技倫理原則、規(guī)范、標(biāo)準(zhǔn)和指南,其中包括一般性的和通用的,而更多的是針對(duì)生命醫(yī)學(xué)、人工智能等專業(yè)和重點(diǎn)領(lǐng)域的。盡管這些文件是規(guī)范性的,但它們的形成只是科技倫理問(wèn)題的跨學(xué)科共識(shí)和集體認(rèn)知的第一步,因此它們可用作科技活動(dòng)的倫理評(píng)估和倫理審查的參考框架和工作假設(shè)。換言之,科技倫理與創(chuàng)新一樣也應(yīng)該有一個(gè)從0到1的過(guò)程,相關(guān)規(guī)范的實(shí)際內(nèi)涵和認(rèn)知價(jià)值需要通過(guò)科技倫理評(píng)估、審查等實(shí)踐才能得到落實(shí)、豐富、調(diào)整和發(fā)展。

前沿科技倫理風(fēng)險(xiǎn)認(rèn)知的系統(tǒng)性和可塑性。對(duì)前沿科技倫理風(fēng)險(xiǎn)的全面與深入的認(rèn)知建立在系統(tǒng)思維之上,不是單純的科學(xué)、技術(shù)、倫理認(rèn)知及其組合,而是一種綜合性與系統(tǒng)性的認(rèn)知。

其一,包括純科學(xué)在內(nèi)的現(xiàn)代科技活動(dòng)都是在科技軍工復(fù)合體和科技金融復(fù)合體等復(fù)雜的科技社會(huì)系統(tǒng)中進(jìn)行的,這些復(fù)合體或科技社會(huì)系統(tǒng)決定了科技活動(dòng)的目標(biāo),特別是如果科技軍工復(fù)合體占主導(dǎo)地位,兩用研究勢(shì)必強(qiáng)化,科技倫理風(fēng)險(xiǎn)會(huì)變得更加復(fù)雜。

其二,前沿科技所改變或顛覆的并不僅是單純的科學(xué)事實(shí)或技術(shù)現(xiàn)實(shí),對(duì)前沿科技所帶來(lái)的全新事實(shí)或現(xiàn)實(shí)的認(rèn)知和理解,應(yīng)該建立在科技社會(huì)系統(tǒng)與自然生態(tài)系統(tǒng)(生物圈)、信息傳播系統(tǒng)(信息圈)、社會(huì)政治經(jīng)濟(jì)文化系統(tǒng)(文明圈)和正在形成之中的萬(wàn)物智能化系統(tǒng)(心智圈)的相互聯(lián)系和影響之上。

其三,科技倫理風(fēng)險(xiǎn)與法律、安全、安保等風(fēng)險(xiǎn)緊密相連,要從系統(tǒng)性的維度對(duì)其加以把握。可以說(shuō),前沿科技風(fēng)險(xiǎn)認(rèn)知的最大障礙是科技專家、倫理法律公共政策專家和科技政策制定者的認(rèn)知大多局限于領(lǐng)域知識(shí),而這些領(lǐng)域知識(shí)難以與前沿科技帶來(lái)的系統(tǒng)性的全新現(xiàn)實(shí)相匹配。由此難免導(dǎo)致系統(tǒng)性無(wú)知,而無(wú)法識(shí)別科技、自然和人類系統(tǒng)之間復(fù)雜的互動(dòng)糾纏。

其四,前沿科技的倫理價(jià)值取向離不開(kāi)相關(guān)的科技文化背景,對(duì)它們的深入研究和了解是前沿科技倫理風(fēng)險(xiǎn)認(rèn)知必不可少的基礎(chǔ)。值得指出的是,當(dāng)前生命科技和人工智能等領(lǐng)域的最新發(fā)展,與后人類主義和超人類主義等思想觀念有密切的關(guān)聯(lián)。例如,超人類主義相信人類可以通過(guò)科學(xué)和技術(shù)達(dá)到一種新的存在狀態(tài)——更聰明、更強(qiáng)大、更長(zhǎng)壽,而有關(guān)人工智能長(zhǎng)期風(fēng)險(xiǎn)和生存風(fēng)險(xiǎn)與有效加速主義之爭(zhēng)的背后是科技末世論與科技樂(lè)觀主義的對(duì)峙。

因此,前沿科技倫理風(fēng)險(xiǎn)認(rèn)知的宗旨是立足系統(tǒng)思維,超越簡(jiǎn)單的技術(shù)樂(lè)觀主義和技術(shù)悲觀主義,賦予科技創(chuàng)新更大的可塑性。首先,通過(guò)對(duì)前沿科技所帶來(lái)的系統(tǒng)性新現(xiàn)實(shí)的科技倫理分析,最大限度地克服由系統(tǒng)性無(wú)知所引發(fā)的過(guò)于樂(lè)觀的幻想和過(guò)于悲觀的恐懼,從而使前沿科技的潛在風(fēng)險(xiǎn)得以相對(duì)理性地澄清,也使得其中的不確定性和未知前景得以呈現(xiàn)。

其次,通過(guò)對(duì)前沿科技倫理風(fēng)險(xiǎn)的系統(tǒng)性分析和認(rèn)知,研究者與政策制定者應(yīng)據(jù)此更全面地了解、更明確地界定前沿科技倫理爭(zhēng)議中的關(guān)鍵問(wèn)題,進(jìn)而聚焦于這些問(wèn)題,在恰當(dāng)?shù)臅r(shí)機(jī)作出最大限度地減少潛在科技倫理風(fēng)險(xiǎn)的政策選擇。一方面,研究者與政策制定者應(yīng)運(yùn)用系統(tǒng)認(rèn)知,在前沿科技倫理風(fēng)險(xiǎn)的問(wèn)題定義和解決方案的提出中掌握主動(dòng)權(quán),使科技倫理治理免受媒體炒作、新技術(shù)反對(duì)群體的激進(jìn)立場(chǎng)以及大科技公司游說(shuō)的負(fù)面影響;另一方面,研究者和政策制定者應(yīng)該充分認(rèn)識(shí)到前沿科技倫理風(fēng)險(xiǎn)往往涉及的是倫理兩難或道德困境,應(yīng)訴諸權(quán)衡、審度、調(diào)適等實(shí)踐智慧,而不是非善即惡的簡(jiǎn)單抉擇。

最后,更為重要的是,前沿科技倫理研究和風(fēng)險(xiǎn)認(rèn)知賦予科技創(chuàng)新更大可塑性的關(guān)鍵在于研究者和政策制定者的系統(tǒng)認(rèn)知能力與整體調(diào)控能力。轉(zhuǎn)基因技術(shù)的倫理爭(zhēng)議、劍橋分析干預(yù)美國(guó)大選等事件表明,對(duì)新技術(shù)的過(guò)早擔(dān)憂(如臉書(shū)等被指責(zé)為“全景監(jiān)獄”可能會(huì)干擾對(duì)科技倫理風(fēng)險(xiǎn)的系統(tǒng)認(rèn)知和理性對(duì)話)使社會(huì)公眾和政策制定者難以了解問(wèn)題的全貌和未來(lái)更加豐富的可能性。[4]在另外一些情況下,媒體對(duì)丑聞的過(guò)度關(guān)注和人們對(duì)科技可能性的過(guò)度想象(如人工智能終結(jié)者)可能會(huì)轉(zhuǎn)移問(wèn)題的焦點(diǎn),不當(dāng)放大人們的風(fēng)險(xiǎn)感知。因此,研究者和政策制定者要保持必要的風(fēng)險(xiǎn)認(rèn)知定力,要將對(duì)倫理風(fēng)險(xiǎn)的夸大及由此造成的恐慌心理和正在探討的倫理問(wèn)題與風(fēng)險(xiǎn)區(qū)分開(kāi)來(lái),致力于澄清具體科技活動(dòng)中利益相關(guān)者的利害關(guān)系,在不同的價(jià)值觀之間(如隱私與安全)進(jìn)行權(quán)衡與調(diào)節(jié)。

強(qiáng)調(diào)前沿科技風(fēng)險(xiǎn)認(rèn)知的系統(tǒng)性與可塑性,意味著理想的科技倫理風(fēng)險(xiǎn)防范和科技倫理治理并不僅僅是人們常說(shuō)的方向盤(pán)和剎車(chē)片,而更是建立在系統(tǒng)權(quán)衡之上的戰(zhàn)略性的塑造者。簡(jiǎn)單地講,就是要認(rèn)識(shí)到前沿科技倫理風(fēng)險(xiǎn)以及我們對(duì)其認(rèn)識(shí)的系統(tǒng)性、復(fù)雜性和未定性。而科技倫理治理的關(guān)鍵策略是從相稱性原則出發(fā),在預(yù)防科技倫理高風(fēng)險(xiǎn)和促進(jìn)有益的科技創(chuàng)新之間保持必要的張力,為前沿科技構(gòu)造應(yīng)有的創(chuàng)新空間。因此,為了走向更具可塑性的科技倫理治理,負(fù)責(zé)任的創(chuàng)新既要最大限度地減少前沿科技可能的倫理風(fēng)險(xiǎn),又要避免過(guò)度科技倫理風(fēng)險(xiǎn)防范抑制有益的前沿科技創(chuàng)新。而這無(wú)疑需要相關(guān)主體在實(shí)踐探索中反復(fù)磨合共識(shí),不斷凝練智慧。

深層次科技倫理風(fēng)險(xiǎn)的預(yù)控和應(yīng)對(duì)之道

當(dāng)前,前沿和新興科技的發(fā)展日益走向一種我們尚未能把握其全貌的深度科技化時(shí)代,不論是其中所呈現(xiàn)的深層次的倫理風(fēng)險(xiǎn),還是新興科技驅(qū)動(dòng)的科技社會(huì)的革命性變化,都表明我們要用一種更加開(kāi)放和審慎的態(tài)度深化認(rèn)識(shí)、預(yù)控和應(yīng)對(duì)可能出現(xiàn)的科技倫理風(fēng)險(xiǎn)。

第一,要從樹(shù)立科學(xué)認(rèn)知的倫理邊界意識(shí)入手加強(qiáng)科技倫理意識(shí)建設(shè),通過(guò)科技、倫理、法律等交叉學(xué)科研究,探索前沿科技的倫理邊界和標(biāo)準(zhǔn),形成自主的話語(yǔ)權(quán)。為了避免國(guó)際科技霸權(quán)主義置喙,建議通過(guò)扎實(shí)的學(xué)術(shù)研究和參與國(guó)際主流學(xué)術(shù)交流推進(jìn)相關(guān)工作。為此,要進(jìn)一步加強(qiáng)對(duì)科技倫理風(fēng)險(xiǎn)的研究和評(píng)估,并將這方面的研究能力作為前沿科技創(chuàng)新的核心認(rèn)知能力。相關(guān)關(guān)鍵能力包括三個(gè)方面:一是通過(guò)跨學(xué)科協(xié)同,對(duì)生命科技和人工智能前沿的具體研究的社會(huì)影響和風(fēng)險(xiǎn)展開(kāi)系統(tǒng)研究;二是通過(guò)跨領(lǐng)域探索,聚焦可能出現(xiàn)的跨領(lǐng)域復(fù)合性不確定風(fēng)險(xiǎn),如前沿人工智能與生命科學(xué)結(jié)合可能帶來(lái)的機(jī)遇與風(fēng)險(xiǎn)等,對(duì)其程度和范圍作出相對(duì)準(zhǔn)確的預(yù)見(jiàn)和評(píng)估;三是整合各學(xué)科和各領(lǐng)域,從領(lǐng)域、機(jī)構(gòu)和研究者等維度繪制前沿科技倫理風(fēng)險(xiǎn)地圖,以此從總體上提升對(duì)前沿科技倫理風(fēng)險(xiǎn)的系統(tǒng)認(rèn)知。

第二,要將倫理規(guī)范、法律規(guī)制和技術(shù)解決方案三個(gè)維度結(jié)合起來(lái),設(shè)置合理的倫理法律門(mén)檻,分級(jí)分類管理,構(gòu)建前沿科技倫理軟著陸機(jī)制,對(duì)深層次的科技倫理風(fēng)險(xiǎn)展開(kāi)系統(tǒng)性和整體性的治理。值得指出的是,對(duì)人工智能等可能出現(xiàn)生產(chǎn)力革命的前沿科技領(lǐng)域的監(jiān)管,應(yīng)該尊重科技規(guī)律和科技管理規(guī)律;對(duì)信息安全和內(nèi)容監(jiān)管設(shè)置的倫理法律門(mén)檻應(yīng)該分級(jí)分類,除了少數(shù)具有大規(guī)模社會(huì)動(dòng)員和重大輿論影響的內(nèi)容外,應(yīng)該從容錯(cuò)性的角度使得監(jiān)管適應(yīng)人工智能的超速發(fā)展;同時(shí)需要加強(qiáng)與科技和產(chǎn)業(yè)部門(mén)的協(xié)同治理,共同構(gòu)建前沿科技倫理軟著陸機(jī)制。應(yīng)該看到,在ChatGPT的開(kāi)發(fā)過(guò)程中,OpenAI運(yùn)用“人機(jī)價(jià)值對(duì)齊工程”在原理上解決了價(jià)值倫理沖突的調(diào)和與矯正,為前沿科技的深層次倫理問(wèn)題的治理指出了一個(gè)可行的方向——人機(jī)和人類與技術(shù)的價(jià)值對(duì)齊工程化。

第三,為了不讓各種科技倫理原則規(guī)范束之高閣,應(yīng)該通過(guò)技術(shù)、管理和制度方面的解決方案,形成一套治理機(jī)制。其一,通過(guò)廣泛的調(diào)研和預(yù)見(jiàn)性研究與評(píng)估,建立和不斷更新前沿科技領(lǐng)域的科技倫理高風(fēng)險(xiǎn)清單。應(yīng)通過(guò)這些清單的發(fā)布和審查復(fù)核,讓科技共同體、管理者和整個(gè)社會(huì)認(rèn)識(shí)到具體的科技倫理風(fēng)險(xiǎn)和倫理邊界所在。其二,可以從開(kāi)源創(chuàng)新和開(kāi)放科學(xué)的維度,要求具有較高科技倫理風(fēng)險(xiǎn)的研究和創(chuàng)新活動(dòng)在啟動(dòng)階段公開(kāi)注冊(cè),通過(guò)數(shù)據(jù)開(kāi)放存儲(chǔ)與共享,在研究實(shí)驗(yàn)的全生命周期保持研究數(shù)據(jù)的透明性和可核查性,以便及時(shí)接受必要的倫理風(fēng)險(xiǎn)評(píng)估和審查。其三,要從制度上設(shè)計(jì)不同部門(mén)不同規(guī)定之間的接口機(jī)制,如不同倫理審查辦法以及倫理委員會(huì)之間建立互操作、互認(rèn)可等相互銜接和協(xié)同的機(jī)制。

第四,推進(jìn)科技倫理研究、推動(dòng)科技倫理傳播和教育的關(guān)鍵不僅在于科技倫理學(xué)、應(yīng)用倫理學(xué)和倫理學(xué)方面的研究、教育和傳播,更關(guān)鍵的是增進(jìn)科技工作者和全民的系統(tǒng)思維與系統(tǒng)風(fēng)險(xiǎn)認(rèn)知能力,尤其是加強(qiáng)科學(xué)、技術(shù)、工程哲學(xué)、歷史、文化、政治、經(jīng)濟(jì)、社會(huì)等方面的交叉學(xué)科和跨學(xué)科研究,進(jìn)而全面提升科技人員和社會(huì)公眾基于系統(tǒng)性認(rèn)知的科技倫理素養(yǎng)。

第五,科技倫理治理要注重遵循相稱性原則,既要避免松懈,也要防止過(guò)于嚴(yán)格。國(guó)際科技倫理治理中非常重視的相稱性原則,其基本內(nèi)涵是既不忽視問(wèn)題,也不夸大問(wèn)題,而是要根據(jù)科技理論風(fēng)險(xiǎn)的程度展開(kāi)針對(duì)性的治理。包括聯(lián)合國(guó)教科文組織新近發(fā)布的《人工智能倫理問(wèn)題建議書(shū)》等在內(nèi)的國(guó)際科技倫理指引中都強(qiáng)調(diào)了這一原則。從相稱性原則出發(fā),一方面,科技發(fā)展不要“沖”得過(guò)快,科技活動(dòng)的主體應(yīng)該認(rèn)識(shí)到為了使科技倫理風(fēng)險(xiǎn)可控,需要及時(shí)作出倫理回調(diào);另一方面,在對(duì)科技企業(yè)的倫理治理、法律規(guī)制與行政監(jiān)管中,應(yīng)該致力于通過(guò)恰當(dāng)?shù)谋O(jiān)管促使其及時(shí)作出必要的倫理回調(diào),同時(shí)應(yīng)該避免過(guò)于嚴(yán)苛的處置。

(本文系國(guó)家社會(huì)科學(xué)基金重大項(xiàng)目“智能革命與人類深度科技化前景的哲學(xué)研究”的階段性成果,項(xiàng)目編號(hào):17ZDA028)

注釋

[1]珍妮·戴爾:《拉斐爾·尤斯特:“我們必須盡早采取行動(dòng)”》,2022年,https://www.unesco.org/zh/articles/lafeieryousitewomenbixujinzaocaiquxingdong?hub=83294。

[2]C. Preston, “Socrates Untenured: Ethics, Experts, and the Public in the Synthetic Age,“ Issues in Science and Technology, 2020(3).

[3]“Ethics in Technology Assessment,“ Issues in Science and Technology, 2020(2).

[4]薩姆·吉爾伯特:《好的數(shù)據(jù):樂(lè)觀主義者的數(shù)字未來(lái)指南》,孟雁北譯,上海人民出版社,2023年,第145~156頁(yè)。

Deep Ethical Risks of Frontier Science and Technology and Responses to Them

Duan Weiwen

Abstracts: At present, the ethical risks of frontier science and technology, such as life science and technology and AI, have increasingly aroused great concern in the international community, and China's S&T ethical governance is embarking on the road of institutionalized development. To better promote China's ethical governance of science and technology, it is necessary to effectively grasp the characteristics of frontier science and technology as the focus of ethical governance of science and technology and reveal a series of deep ethical risks it presents. Thus, it is necessary to further strengthen the understanding of the structural characteristics of the sociotechnical system, and to explore and reconstruct the underlying logic of risk perception. Firstly, we should fully understand the revolutionary changes in the sociotechnical system driven by emerging science and technology, to understand the structural essence of the deep ethical risks of emerging technology. Secondly, based on the open practice of ethical governance of frontier science and technology, the risk cognition and ethical principles of science and technology are regarded as the collective cognition and working assumptions that are constantly updated by relevant groups. Thirdly, it emphasizes the systemic and plasticity nature of risk cognition in frontier science and technology, giving innovation a greater space of possibilities. As a result, we can find ways to prevent, control and cope with deep ethical risks of S&T, such as establishing ethical boundaries for scientific cognition, setting reasonable ethical and legal thresholds, forming an open and holistic governance mechanism, improving public S&T ethical literacy, and adhering to the principle of proportionality.

Keywords: ethics of science and technology, ethics and governance of science and technology, deep technologization, deep ethical risks, systems thinking

[責(zé)任編輯:李思琪]