j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

關(guān)于“人工智人”的認(rèn)知人類學(xué)思考

【摘要】從認(rèn)知人類學(xué)的視角,對人工智人的發(fā)展展開思考,其核心問題可以表述為:人工智人以何為人?何以為人?人工智能的“二次性問題”,本來是人工智人以何為人的基礎(chǔ),目前卻成為人類的挑戰(zhàn),甚至挑戰(zhàn)著現(xiàn)有的社會價值和結(jié)構(gòu)。在機(jī)器通過人工智能走向人工智人的同時,人類在很多方面已經(jīng)開始受制于人工智能。特別是人工智能帶來的標(biāo)準(zhǔn)化、去文化、去主體性,以及最終的去人性,使得人類正在走向人類機(jī)器。“文化”是人類社會之腦,一旦人類被人工智能統(tǒng)治,會導(dǎo)致人類按照人工智能的規(guī)范去“二次文化”。鑒于此,一方面要約束人工智人,防止其以“科技暴力”統(tǒng)治并“文化”人類;另一方面基于人類學(xué)本體論轉(zhuǎn)向的文化認(rèn)知,不應(yīng)將人工智人簡單視為一種工具,而是應(yīng)將其當(dāng)作“人”,約束其成為有文化、有倫理的人。由此才能實現(xiàn)人工智能與人類長久和平共生。

【關(guān)鍵詞】人工智能  人工智人  人類學(xué)  認(rèn)知人類學(xué)  二次性問題  文化

【中圖分類號】C912.4                             【文獻(xiàn)標(biāo)識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2023.24.008

張小軍,清華大學(xué)社會科學(xué)院社會學(xué)系教授、博導(dǎo),人類學(xué)與民族學(xué)研究中心主任。研究方向為歷史人類學(xué)、經(jīng)濟(jì)人類學(xué)、發(fā)展人類學(xué)和認(rèn)知人類學(xué)。主要著作有《社會場論》、《讓“經(jīng)濟(jì)”有靈魂:文化經(jīng)濟(jì)學(xué)思想之旅》、《讓歷史有“實踐”——歷史人類學(xué)思想之旅》、《讓“社會”有“文化”——人類學(xué)自我本土化反省》、《人工智能感官的主體性:感觀人類學(xué)視角的思考》(論文)等。

問題的提出

“我們的交通工具已經(jīng)從獨木舟變成帆船,變成汽船,變成飛機(jī),再變成航天飛機(jī),但是我們還是不知道自己應(yīng)該前往的目的地。我們擁有的能力比以往任何時候都更強(qiáng)大,但幾乎不知道該怎樣使用這些力量。我們讓自己變成了神,而唯一剩下的只有物理法則,我們也不用對任何人負(fù)責(zé)。……擁有神的能力,但是不負(fù)責(zé)任、貪得無厭,甚至連想要什么都不知道,天下危險,莫此為甚!”[1]

16世紀(jì)初人類學(xué)在歐洲發(fā)端,最初是以人體解剖學(xué)對“人”進(jìn)行理解的。人之所以為人,是因為人體不同于其他生物,這奠定了人類學(xué)最早期關(guān)于“人”的理解和研究人的學(xué)科——體質(zhì)人類學(xué)(physical anthropology)。體質(zhì)人類學(xué)中有關(guān)早期的古人類學(xué)、人種學(xué)以及今天的生物人類學(xué)、分子人類學(xué)、遺傳人類學(xué)的研究,都表明了人類的生物和動物屬性。然而,這一點正在受到人工智人的挑戰(zhàn)。“人工智人(Artificial Intelligence Person, AIP)”指的是無肉身、有智腦的機(jī)器人,從某種程度上而言,是當(dāng)前“人工智能(Artificial Intelligence, AI)”的仿人進(jìn)階版。人工智人將人類從肉身中“解放”出來,重新提出了“人是什么”的基本問題。擁有智腦的人工智人在某些方面的能力超過人類,正在并已經(jīng)改變著人類的生存以及存在方式,甚至正在改變對“人類”本質(zhì)的相關(guān)理解。

最近,谷歌的AlphaFold,在一項極其困難的任務(wù)中擊敗了所有對手,成功根據(jù)基因序列預(yù)測了生命基本分子——蛋白質(zhì)的三維結(jié)構(gòu)。它和打敗圍棋高手的AlphaGo可謂“孿生兄弟”,只是將其人工智能轉(zhuǎn)向了人類科學(xué)中最棘手的領(lǐng)域——基因醫(yī)療科學(xué)。[2]面對這一突破,制造人類似乎已經(jīng)曙光在即?未來的人類,是否會被人工智人所取代?最近幾年,一些世界頂級AI科學(xué)家和企業(yè)家因為ChatGPT4的出現(xiàn),聯(lián)名呼吁限制AI研究。而對AI引發(fā)的危險,霍金也早有預(yù)見。

在機(jī)器通過人工智能走向人工智人的同時,人類在很多方面已經(jīng)開始受制于人工智能,特別是人工智能帶來的標(biāo)準(zhǔn)化、去文化、去主體性,以及最終的去人性,使得人類越來越走向人類機(jī)器。圖1呈現(xiàn)了機(jī)器與人類通過AI的關(guān)聯(lián)走向。

圖1

 

由此,本文嘗試從認(rèn)知人類學(xué)的角度,提出對人工智人/人工智腦的幾點思考,其核心問題可以表述為:“人工智人”以何為人?何以為人?

以何為人?——人工智人的“二次性問題”

“以何為人”的問題,是在問人工智人能否成為與我們同樣的“人”?憑什么可能成為“人”?進(jìn)一步的問題是:人工智人有思維、語言和文化嗎?

仿人:人工智腦對人腦的挑戰(zhàn)。仿人(humanoid)是人工智能的基本出發(fā)點,在人工智人的發(fā)展中,人的思維、意識和語言等能力一直是其追求的目標(biāo)。駱利群總結(jié)了人腦與智腦的區(qū)別,發(fā)現(xiàn)人工智腦(Artificial Intelligence Brain, AIB)在速度和精度上超越人腦。[3]筆者嘗試整理比較了AIB和人腦的能力,如表1所示。

表1

表1表明,AIB只有兩個方面,即運算速度和精度,遠(yuǎn)遠(yuǎn)高于人腦,其他能力都弱于人腦。比較而言,人腦的優(yōu)越性十分明顯,但AIB也在迅速追趕。比如,人腦比計算機(jī)慢1000萬倍(將來相對量子計算可能要慢億萬倍),卻為何如此高效?人類大腦由大約1000億個神經(jīng)元組成,并由約100萬億個神經(jīng)突觸連接。[4]大腦的一個顯著特點是以并行方式執(zhí)行任務(wù),而計算機(jī)主要是以串行方式。不過,學(xué)習(xí)人腦使用并行多核處理器已經(jīng)是現(xiàn)代計算機(jī)設(shè)計的趨勢。大腦的另一個顯著特點是神經(jīng)元之間的連接強(qiáng)度可以根據(jù)活動和經(jīng)驗進(jìn)行修改,重復(fù)訓(xùn)練使得神經(jīng)元網(wǎng)絡(luò)可以更好地執(zhí)行任務(wù)。這也帶來人工智能領(lǐng)域的“深度學(xué)習(xí)”這一重要分支和方向,即采用多層結(jié)構(gòu)來表示越來越抽象的特征(例如視覺過程),通過機(jī)器學(xué)習(xí)來調(diào)整不同層之間的連接權(quán)重,而不再依賴工程師的設(shè)計。不過,大腦依然比先進(jìn)的計算機(jī)更具靈活性、泛化和學(xué)習(xí)能力。盡管如此,超高的速度、數(shù)量度和精度依然帶來了AI超高的數(shù)據(jù)處理能力,并產(chǎn)生了相應(yīng)的超級腦力。AIP已經(jīng)對人類提出了全面的挑戰(zhàn)。

第一個挑戰(zhàn)來自“思維”。思維是什么?這是理解AIP的基礎(chǔ)。人腦是人的信息處理器,在數(shù)億年的生物進(jìn)化中,面對周圍復(fù)雜的世界,生物體逐漸形成了獨特的信息處理器官,包括現(xiàn)在仍在不斷進(jìn)化的人腦。所謂“思維”,就是人腦通過處理信息獲得“秩序”的信息動力學(xué)過程。例如人觀察到山川河流,給它們以概念,同時建立起與自身的聯(lián)系,形成了關(guān)于山川河流的理解和文化意義編碼,這就是思維的過程和結(jié)果。人腦通過信息處理,即通過思維和認(rèn)知來建立人與人、人與自然的行為秩序。AIB本身并不會完全像人腦一樣感知與處理信息,但是可以通過學(xué)習(xí)人腦的思維,獲得二次思維。

第二個挑戰(zhàn)來自“意識”。意識是來自人腦的一種能力,AI可否有意識?2023年10月,《神經(jīng)科學(xué)趨勢》發(fā)表論文,認(rèn)為AI系統(tǒng)抽象了生物過程,因此現(xiàn)有AI系統(tǒng)可能已經(jīng)抽象了意識本身,困在無休止的模擬意識特征,卻不得意識之要領(lǐng)。[5]而在2023年8月,圖靈獎得主Y. Bengio等人曾論證了人類要想構(gòu)建有意識的AI系統(tǒng)是完全可能的。[6]同時他與另兩位圖靈獎得主G. Hinton及姚期智在23年10月聯(lián)合重磅發(fā)文,提出降低AI帶來的傷害和風(fēng)險。[7]一般來說,“意識”是一種信息方式的存在。AI用算法,人腦有神經(jīng)系統(tǒng),但這只是表面現(xiàn)象,因為AI也可以仿人來做神經(jīng)網(wǎng)絡(luò)。兩者的關(guān)鍵區(qū)別是:人有自主意識,即自己根據(jù)需要進(jìn)行“意識”的過程;而AI是仿人的學(xué)習(xí)能力,是訓(xùn)練出來的非自主意識。通過“思維鏈(chain-of-thought)”可以不斷訓(xùn)練模型,使AI學(xué)習(xí)人的思維方式,形成“意識”。但即便如此,這也是“二次意識”。

第三個挑戰(zhàn)來自“語言”。AI的語言能力已經(jīng)由ChatGPT4給出了答案:在自然語言方面,其至少不輸人類,甚至可以超過一般人類;具有自然生成的語言能力,如寫報告、論文甚至小說和詩歌;可以自由地與人對話。這其中包括情景學(xué)習(xí)、思維鏈、自然指令學(xué)習(xí)等,都需要人的參與和仿人的學(xué)習(xí)機(jī)制。ChatGPT是對現(xiàn)有網(wǎng)絡(luò)語言秩序的歸納性處理,其行為是“為語言而語言”的標(biāo)準(zhǔn)化的“二次語言”,而不是為人類交流和有新意的創(chuàng)造活動而語言的。不過,隨著大語言模型(Large Language Model, LLM)的完善,其語言智能將超過一般人類個體,極大改變?nèi)祟愔g以及人與物的交流方式,甚至可以引導(dǎo)和改變未來的人類語言,形成“AI語言反噬”。這帶來了有關(guān)ChatGPT的終極之問。[8]也引發(fā)了其“二次語言”的問題。

第四個挑戰(zhàn)來自“文化”。文化的本質(zhì)是人類社會的意義編碼體系,是人類社會的信息致序機(jī)制,相當(dāng)于“人類腦”,幫助人類構(gòu)建社會秩序。人類從小就在不斷的“文化化(culturalization)”過程中。AI可以學(xué)習(xí)語言,但可否學(xué)習(xí)文化?上述問題,人文與科學(xué)主義有著截然不同的出發(fā)點,周劍銘、柳渝嘗試用科學(xué)/人文的二分框架來解決人工智能深層次問題。其中提到“阿爾法狗(AlphaGo)”的原理性局限,認(rèn)為圍棋是文化的行為,而“狗”沒有文化。[9]“阿爾法狗”的圍棋只是將圍棋的輸贏進(jìn)行了所謂的智能化,不可能取代人類有文化的圍棋游戲和在其中的文化享受。不過,AI帶來的廣泛文化影響已經(jīng)是事實。如有文章探討人工智能創(chuàng)造宗教的互聯(lián)網(wǎng)文化基因(meme),其所帶來的高可視度的文化產(chǎn)品反映出新的宗教及其背后的人文主義敘事。[10]更有甚者,有研究探討了由于人們對此身生活的局限而感到沮喪,于是期待一個虛擬世界的彼身,虛擬世界由智能機(jī)器和離開自己身體的人類居住。將自己的意識下載到機(jī)器中后,人類將擁有增強(qiáng)的心智能力,并通過其無限的可復(fù)制性而不朽。[11]人類逃避現(xiàn)世而變成AI人類,由此改變現(xiàn)世的倫理和文化邏輯,這已經(jīng)成為一種想象。也由此帶來了“二次文化”的問題。

第五個挑戰(zhàn)來自“情感”。情感是當(dāng)今AIB研究中最令人沮喪的領(lǐng)域,甚至讓人無從下手,因為不知情感從何而來。不過,AI依然可以與人進(jìn)行情感互動,通過音樂、舞蹈、繪畫、電影、藝術(shù)等帶來情感知覺,包括興奮、愉悅、哀愁、凄涼,等等。但這只是人的單向感受,且在對同一內(nèi)容(例如同一首音樂)的“集體狂歡”中,人們的細(xì)節(jié)感受也是不同的,是多樣性的。而這種在日常中眾多方面的不同,恰恰是構(gòu)成相同體驗對話的重要基礎(chǔ),這是因為正是人們?nèi)粘5牟町?,才有找到共鳴的狂歡和不同“同類”的情感真諦。如果情感被AI不斷標(biāo)準(zhǔn)化,則將沒有情感可言。悲劇在于,即使沒有AI,我們的情感也在物欲中被物化,由此帶來標(biāo)準(zhǔn)化的“二次情感”。

第六個挑戰(zhàn)來自“生命”。一篇關(guān)于全球首個“數(shù)字人類”的報道記述了一位名為卡普蘭(A. Kaplan)的自然人希望自己所愛的人在他過世后能夠接觸到他一生的故事,于是同意成為數(shù)字人“AndyBot”,這樣他將在云上永生。類似地,弗拉霍斯(J. Vlahos)于2017年創(chuàng)建“Dadbot”,是在他得知父親即將死于癌癥,于是想利用AI讓父親“永生”。在父親生命的最后3個月,他將與父親就各種話題的談話、講述用攝像機(jī)錄下來,記錄了91970個單詞,訓(xùn)練出一個對話AI——“Dadbot”。由此他可以與逝去父親的計算機(jī)化身交換文本和音頻信息,談?wù)撍纳?、聽歌、閑聊和說笑。[12]“AndyBot”和“Dadbot”提出了人的不朽的本質(zhì)和存在目的之復(fù)雜哲學(xué)問題,是否意味著“二次生命”的來臨?

人文主義和科學(xué)主義是理解人工智能的兩種不同視角,人文主義的極端視角認(rèn)為人工智腦是反人文、反人本、反人類的;科學(xué)主義的極端視角認(rèn)為人工智腦是可以全面替代人類的,特別是ChatGPT的出現(xiàn),更令人誤以為人工智腦無所不能。新的人工智能理論更強(qiáng)調(diào)智能主體(agent,能動者)是一個有自主學(xué)習(xí)能力的主體。這些理論多是注重AI的表面機(jī)器行為方式,而忽略了人腦的思維、語言、情感、文化與生命過程,尚缺乏文化主義的視角,即缺乏人類腦及“文化”的視角。“文化”作為人類社會之腦,其所進(jìn)行的復(fù)雜信息處理的本質(zhì),是構(gòu)建人類社會的秩序。重要的是,人腦不是為秩序而秩序,而是以人類生存為目標(biāo),是不斷尋找最優(yōu)的人類秩序。這其中,必然涉及人類的倫理價值,必然有情感存在其中,必然是長期的文化積累。這是目前AI還難以突破的。

人工智人的“二次性問題”。由上述討論,可以提出AI的“二次性問題(Quadratic problem)”。所謂“二次性(Quadratic property)”,是指AI的上述所有能力——思維、意識、語言、文化、情感、生命,都不是AI本來的存在屬性,而是機(jī)器仿人的結(jié)果。表面上,AI只是人類發(fā)明的新工具,“二次性”似乎是常識。不過,隨著AIP逐漸逼近、融合甚至超過和取代人類,這個問題已經(jīng)變得十分嚴(yán)峻。

論及人腦與AIB的基本區(qū)別,人們可以說出腦結(jié)構(gòu)、腦神經(jīng)系統(tǒng)、信息處理方式等方面的不同。而從人類學(xué)的角度看,兩者主要是文化認(rèn)知方式的不同。限于篇幅,這里只討論一個最基本,也是人類學(xué)中最重要的概念:經(jīng)驗。

從人類學(xué)(而非哲學(xué))的角度,經(jīng)驗是人腦處理復(fù)雜信息的主要方式,是在數(shù)十萬年中人腦處理信息能力不斷進(jìn)化的結(jié)果,它既不是AI算法,也不是大數(shù)據(jù)的統(tǒng)計。無論思維、意識、語言、文化,等等,本質(zhì)上都是經(jīng)驗的。因此可以廣義稱之為“經(jīng)驗智能”。經(jīng)驗智能是人們生活的主要智能,是直接智能。人工智能雖然有算法,但很大程度上是以人類的經(jīng)驗來仿人的,本質(zhì)上是一種二次經(jīng)驗智能,是間接智能。在認(rèn)知的意義上,“經(jīng)驗”是一種借助感官進(jìn)行信息采集,再通過大腦進(jìn)行信息加工的動力學(xué)過程。人文科學(xué)就是一門“經(jīng)驗的學(xué)科”,人類學(xué)尤其如此。社會學(xué)雖然有數(shù)理統(tǒng)計方法,但是也離不開經(jīng)驗,統(tǒng)計事實可以說是基于人類經(jīng)驗的數(shù)學(xué)抽象??档拢↖mmanuel Kant)在《純粹理性批判》中,討論了“經(jīng)驗”和“數(shù)學(xué)”兩種思維,認(rèn)為經(jīng)驗的原理和數(shù)學(xué)的原理都是來自人們經(jīng)驗(經(jīng)驗在此為動詞)事物之前“物自體”本身的規(guī)則和秩序。[13]人類學(xué)家特納(V. Turner)更對經(jīng)驗的重要性直言不諱:“對所有人文科學(xué)和研究來說,人類學(xué)是最深厚地植根于調(diào)查者的社會和主觀經(jīng)驗之中。每件事情都來自自我的經(jīng)驗,被觀察的每件事情最終都是按照他(她)的脈搏而跳動。”[14]

經(jīng)驗本質(zhì)上是人腦處理信息能力之結(jié)晶。目前所有的AI算法本質(zhì)上也是經(jīng)驗算法。無論是圖像識別,還是ChatGPT,本質(zhì)上都是以人類的“經(jīng)驗?zāi)芰?rdquo;為基礎(chǔ)的。從人腦的信息動力學(xué)內(nèi)涵探討人腦的“經(jīng)驗”對于智腦的本質(zhì)性影響,這可被稱為“人工智能的經(jīng)驗主義”:經(jīng)驗是人腦認(rèn)知世界(信息處理)的主要方式。人工智能的本質(zhì)是人類的經(jīng)驗智能,是對人類經(jīng)驗認(rèn)知的經(jīng)驗學(xué)習(xí)和經(jīng)驗計算,是一種“二次經(jīng)驗”。人類經(jīng)驗的本質(zhì)是文化的。智腦的二次經(jīng)驗?zāi)壳爸荒苣7滦詫W(xué)習(xí)人類行為,還無法理解性學(xué)習(xí)行為背后的文化。

具體來說,人腦在處理信息中存在“經(jīng)驗”和“算法”兩種基本的思維運行方式,并由此延伸,形成了“人文(經(jīng)驗的)”與“科學(xué)(計算的)”的分野,兩者都是人腦的存在及其產(chǎn)物。人工智腦的運行來自在表層將經(jīng)驗思維和計算思維的結(jié)合,但是在深層,依然是以“二次經(jīng)驗”為主的智腦思維。“二次經(jīng)驗”為主的智腦思維與人腦思維的根本區(qū)別在于,前者“沒文化”,而后者有。智腦以其所謂的“科學(xué)技術(shù)”對人類進(jìn)行標(biāo)準(zhǔn)化的“去文化(de-culture)”。甚而,智腦可能超越人腦,人工智人可能超越人類,最后反噬人類。

進(jìn)一步看,從人腦作為信息處理器的基本信息處理的文化方式出發(fā),人腦的信息處理可以分為兩個并行的基本部分:冷思維與熱思維。前者對經(jīng)驗信息的處理是直接分析與處理,沒有社會溫度,AIB比較容易達(dá)到;后者包括了社會倫理道德、情感、文化等影響,AIB很難模仿。處理信息的“冷思維”,主要包括經(jīng)驗思維和計算思維。經(jīng)驗思維是人類基本的思維方式,也是人文科學(xué)的基礎(chǔ)思維方式,自然科學(xué)同樣是人腦的認(rèn)知結(jié)果,包括經(jīng)驗思維和計算思維。這樣看,人文和自然科學(xué)都是人腦的思維活動結(jié)果,區(qū)別只是兩者以不同的思維方式看世界。有社會溫度的“熱思維”與冷思維不同,是以倫理道德規(guī)范、情感等為基礎(chǔ)的文化思維。其本質(zhì)是建立良好的人類秩序,而不是強(qiáng)化某種人腦的能力。

人是有“人性”的。人性中基本的理性、情性、感性、習(xí)性及其延伸出的真、善、美、愛的價值追求、道德倫理,以及信仰,等等,機(jī)器人可以產(chǎn)生嗎?可以自己生成嗎?答案是不行。人性,絕非簡單的物理和生物構(gòu)造。一個人的“人性”是在其一生中鑄就的。最重要的是,人性是不能通過簡單學(xué)習(xí)得來的。目前機(jī)器人被訓(xùn)練出了高水平的學(xué)習(xí)能力,但是愛情可以“學(xué)習(xí)”而來嗎?信仰可以“學(xué)習(xí)”而來嗎?答案也是不行。一個人因為某個偶然的反應(yīng)而“一見鐘情”,因為一個偶然的閃念靈動而皈依,這都不是學(xué)習(xí)來的,而是一種嵌入身體生物學(xué)系統(tǒng)(神經(jīng)等系統(tǒng))的信息動力學(xué)機(jī)制。

人類為什么會生成情感、思想、倫理?因為這些是人類生成秩序的需要。秩序(包括特納所言的“離反秩序”——anti-structure)是萬物的自然追求。人腦最終遵循的是自組織信息動力學(xué),情感、思想、倫理都是這個自組織信息動力學(xué)機(jī)制的產(chǎn)物。為什么這樣說?因為人伴隨著宇宙的演化,生成了許多“元秩序”,人腦作為信息處理系統(tǒng),就要滿足這些秩序。情感,是建立秩序的一種機(jī)制;思想,是選擇、適應(yīng)、改變秩序的一類思考;倫理,是維系秩序的一種方式。人工智人還做不到“情感智能”、“思想智能”和“倫理智能”。比如弗洛伊德所說的“libido”(性力、欲力),其中包括了愛和性。愛是人性,愛需要有他人,需要有社會。AIP沒有充分的社會性生活,沒有家庭生活,如何產(chǎn)生愛。因此,AI只能模仿情感表現(xiàn)的表面行為,并不能真正生成情感。人腦如果沒有他人、外界信息的刺激,就不會有語言能力,“狼孩”就是例子,而機(jī)器人與狼孩一樣也沒有必要刺激。同樣,因為有性的成長,才有了人的老幼之別、“生死之戀”、男女之分,才有了家庭婚姻和親屬制度。因此人工智人沒有性,從根本上就不可能具備情感、倫理,而只能最多是表面的、標(biāo)準(zhǔn)化的行為模仿。有報道說某國家有人與AIP做夫妻,你當(dāng)然可以愛一個AIP,但是它只會用算法和二次經(jīng)驗來“愛”你,也難有愛的情感涌現(xiàn)(一見鐘情)和復(fù)雜的、個性的、深度的情感表達(dá)。

幾年前,筆者發(fā)表了《人工智能感官的主體性:感觀人類學(xué)視角的思考》一文,論述了各種感官的人工智能帶來的AI的“二次經(jīng)驗”、標(biāo)準(zhǔn)化以及“去主體性”“去文化”等問題。[15]以視覺為例,AI的圖像識別實質(zhì)上不過是眾多常人識別的經(jīng)驗大數(shù)據(jù)分析之結(jié)果。這些經(jīng)驗算法是否能得到人類經(jīng)驗的真諦,是否符合人們的真實經(jīng)驗?答案是否定的。目前的圖像識別只是對圖像對錯的判斷,基本不能涵蓋不同人對同一圖像的不同情感、不同經(jīng)歷帶來的不同感受以及不同文化意義上的不同理解。ChatGPT4的出現(xiàn),似乎改變了上面的很多結(jié)論,其實不然。伽達(dá)默爾(Hans-Georg Gadamer)在《真理與方法》中提出,“人是一種語言的存在”[16],強(qiáng)調(diào)語言信息在人類溝通和建立社會秩序中的基本作用,甚至認(rèn)為語言就是人的存在本身。ChatGPT4把“人的存在”重新定義,讓人類有些不知所措。通過超強(qiáng)的“經(jīng)驗組合”與編輯能力,ChatGPT4似乎可以具有很多“文化行為”,例如寫報告、寫小說、編故事。但是,人們忘記了人還有一個更重要的存在——“人是一種文化的存在”;同時,文化也是人的存在本身,人必然是“文化人”。ChatGPT4局限于語意的放大和創(chuàng)造能力,這遠(yuǎn)不是文化信息及其生成秩序的能力。ChatGPT4本質(zhì)上還是語言的二次經(jīng)驗,只是在信息處理能力上有了飛躍(“涌現(xiàn)”產(chǎn)生),形成了一種高水平的超常人的大數(shù)據(jù)二次經(jīng)驗。

對于人類學(xué)來說,經(jīng)驗本質(zhì)上是文化的,沒有不文化的經(jīng)驗。[17]由此,AI的二次經(jīng)驗,也是“二次文化(second culture)”的。但是,AI的二次文化,有些是對一次文化的異化,如科技暴力就是對原文化的“文化強(qiáng)暴”。人類一直強(qiáng)調(diào)善用科技,防止科技發(fā)明帶來的反人類的科技暴力,然而AI科技暴力卻越來越肆無忌憚,甚至AI武器也被大量生產(chǎn)。鑒于此,我們有必要回到原來的文化基點,賦予AI以人的健康文化。

何以為人?——人類的文化本質(zhì)

“何以為人”,是問機(jī)器人智腦有“人性”“思想”“信仰”“倫理”嗎?其最終的問題是,智腦有“文化”嗎?如果沒有,他們“何以為人”?

人工智人的文化歸宿。“文化”是人類的意義編碼的運行軟件系統(tǒng),也是人類的秩序和致序過程。人類文化是衡量AIP能否為人的最基本層面。人類與AIP之爭,最根本的不是思維能力之爭、語言能力之爭,而是文化之爭。筆者曾經(jīng)給出如下“文化”定義:文化是人類遵照其相應(yīng)的自組織規(guī)律與社會及其周圍事物的各種聯(lián)系,運用信息進(jìn)行秩序創(chuàng)造并共享其意義的具有再生產(chǎn)性的復(fù)雜編碼體系。

簡言之,“文化”是人類社會之腦,自組織的自發(fā)有序是人類秩序之母。文化中蘊含了思想、情感、信仰等復(fù)雜的信息能力(文化本身的信息過程就包含了經(jīng)驗和動力學(xué)兩個方面),這些能力不可能像AI一樣單獨產(chǎn)生。沒有文化經(jīng)歷,人們不可能產(chǎn)生這些復(fù)雜的信息能力和結(jié)果。危險的是,一旦人類被機(jī)器統(tǒng)治,會導(dǎo)致人類文化按照機(jī)器的規(guī)范建立。所以,一方面,要防止被AIP(通常借助某些權(quán)力)統(tǒng)治并“二次文化”人類;另一方面,要限制AIP,讓其有文化。

金觀濤曾從“科學(xué)與人文”的視角,強(qiáng)調(diào)當(dāng)前這場人工智能革命實質(zhì)是對“智能”認(rèn)識的某種退步,AlphaGo的工作原理是仿生學(xué),而人類智能的內(nèi)核——創(chuàng)造并使用符號的能力卻遭到忽視。究其原因,這是現(xiàn)代社會中人文精神喪失與科學(xué)被技術(shù)異化的惡果。人類智能不同于生物本能之處在于,人不僅具備選擇的能力,還具備創(chuàng)造符號以及利用符號系統(tǒng)把握世界并賦予世界意義的能力。[18]

AI對人類的標(biāo)準(zhǔn)化、去主體性、去文化,是顛覆人類的根本性問題。筆者曾對機(jī)器人與人類的感官經(jīng)驗進(jìn)行比較,分析兩者感官經(jīng)驗的生成方式以及基于感官經(jīng)驗的與外部世界互動的方式,由此理解機(jī)器感官與人類感官的根本區(qū)別與關(guān)聯(lián)。機(jī)器人的“感官經(jīng)驗”將人類單一感官處理物的信息的經(jīng)驗抽離出來,是“去文化”“標(biāo)準(zhǔn)化”的計算產(chǎn)物。理解機(jī)器人感官與人類感官的根本區(qū)別在于“文化”,人類的身體感官是以高聚能、低能耗的最優(yōu)秩序為原則而進(jìn)行感知的。[19]

AIP無文化,卻可以有“二次文化”,還可以對我們進(jìn)行二次文化,當(dāng)然也可以被我們“文化”。有學(xué)者從麥克盧漢的“媒介延伸論”看人工智能威脅論,認(rèn)為人工智能消除主客界限,是人類的延伸,沒有威脅。[20]問題在于,既然人工智能可以消除主客觀屏障,成為人類的延伸,也就意味著可以延伸人類之惡。因此,賦予人工智人以人類真善美的倫理文化,而不是邪惡、丑陋、奴役人類的倫理文化,這一點至關(guān)重要。

同時,AI可能會使人類失去創(chuàng)造力。ChatGPT是對自然語言進(jìn)行標(biāo)準(zhǔn)化的典型——只要是同樣的提問,便會得到同樣的結(jié)果。它讓人們的倫理判斷“失聰”,因為標(biāo)準(zhǔn)化的ChatGPT讓人誤以為,只要是大多數(shù)人的說法、做法、看法,就是對的。AI永遠(yuǎn)不具備真正的文化能力(但可以模仿文化行為),而人類一旦被AI標(biāo)準(zhǔn)化,也會喪失文化能力。AI的創(chuàng)造力表面上似乎不亞于絕大多數(shù)人的想象力,但是實際上,AI帶來的生活多樣性的喪失正在把人類變成機(jī)器。此外,AI還讓人們之間的信任變成了“技術(shù)信任”或“機(jī)器(制度)信任”。但是,人們還未意識到,技術(shù)信任會降低人與人之間的直接信任,改變?nèi)祟惖男湃紊鷳B(tài)。

人工智能領(lǐng)域有關(guān)“常識”的討論很有意義。人們在日常生活中依賴“常識”而行為?,F(xiàn)實中,機(jī)器的常識是人給予的,而人的“常識”首先是經(jīng)驗的,其次必然是文化的。在人類學(xué)中,“常識”主要指日常生活的知識。常識的形成本身就是一個文化的經(jīng)驗過程,沒有不文化的常識。有什么樣的文化,就會引出什么樣的“常識”,并不存在孤立的“常識”。但是,機(jī)器人的常識背后是沒有文化的,其只是通過大數(shù)據(jù)來模擬計算出一般的常識,是“標(biāo)準(zhǔn)化”的常識,完全不能進(jìn)行真實人類的替代。

從技術(shù)上看,AI超越一般人的某些能力完全不成問題。人類從制造工具開始,就已經(jīng)在創(chuàng)造某方面能超越自己的東西。在技術(shù)決定論的進(jìn)化論者眼中,人類的演化歷史就是工具的演化歷史。[21]那么,AI,例如ChatGPT4(如果)超越人類,是否會給人類帶來災(zāi)難,是否可以被理解為一種AI“原子彈”?筆者認(rèn)為,AI已經(jīng)不是如原子彈一般的“工具”,而是在成為人、取代人。其殺傷力不是瞬間的沖擊波,而是緩慢的文化信息波——通過改變?nèi)祟愇幕屓祟?ldquo;墮落”。例如,取代人類工作而造成大量失業(yè),幫助抄襲“開綠燈”而導(dǎo)致道德敗壞,非法獲取商業(yè)機(jī)密、個人信息和隱私數(shù)據(jù)等而侵犯他人權(quán)益,等等。

因此,其一,所有人工智人的控制軟件都應(yīng)該加入相關(guān)的倫理程序甚至法律程序,要有“人”的責(zé)任代碼。其二,AI有關(guān)的法律問題,可以通過立法來解決。如我國公布實施了《生成式人工智能服務(wù)管理暫行辦法》,旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國家安全和社會公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益。其三,AI的相關(guān)倫理問題,如ChatGPT4是否應(yīng)該讓資本贏利而讓大量人員失業(yè),是否應(yīng)將其用在教育上而阻礙學(xué)生自身寫作等能力的形成,這些根本上還是人類社會的文化問題——AI何以為人的問題。

AI的“去文化”“去人性”等特點,可能令人的主體性、主體意識弱化甚至喪失,帶來教育標(biāo)準(zhǔn)化、勞動能力退化、認(rèn)知能力退化、身體能力退化。AI思維、AI語言、AI文化的“災(zāi)害”包括:盲目標(biāo)準(zhǔn)化的教育、喪失勞動力的市場、泯滅創(chuàng)造力的設(shè)計、忽視多數(shù)人的信仰、缺乏多樣性的生態(tài)、抹殺獨立性的思想,等等。前有心理學(xué)研究支持抖音等推薦系統(tǒng)帶來個性和多樣性的結(jié)果。[22]后有清華大學(xué)團(tuán)隊在《Nature》子刊《Nature Machine Intelligence》上發(fā)文,討論網(wǎng)絡(luò)推薦系統(tǒng)這類軟件如何制造“信息繭”,如何使人們作繭自縛——表面上有個性的多樣性推送如何使人類在與AI的日常互動中逐漸失去信息的多樣性,而被困于“信息繭房”之中。[23]還有社會學(xué)家提出,算法的背后是一個商業(yè)的資本邏輯,商家利用人們的消費習(xí)慣和傾向,通過算法進(jìn)一步刺激消費,結(jié)果消費行為不自覺地被商業(yè)引導(dǎo)而發(fā)生改變。[24]不管是“信息繭房”,還是“算法控制”,實質(zhì)上都是AI反身訓(xùn)練人類和賦予人類“二次文化”,放大人類不良文化的典型。

在人類學(xué)領(lǐng)域,已經(jīng)有學(xué)者思考“機(jī)器人公民”的概念。陶慶曾專門討論新政治人類學(xué)與“類人機(jī)器人”猜想,包括“機(jī)器人公民”工具性與自主意識、“機(jī)器人公民”公共性與社會責(zé)任。[25]現(xiàn)實中,索菲亞作為歷史上首個獲得公民身份的機(jī)器人,在被詢問“你想毀滅人類嗎”時,其在片刻的面無表情后立即回答“我將會毀滅人類”。很多人對此提出抗議,其中包括馬斯克,他認(rèn)為人類應(yīng)該限制機(jī)器人,不然不受限制的人工智能在未來極有可能成為人類的大患。[26]因此,亟需給AIP以倫理和法律等約束,即把AIP當(dāng)作“人”,而不是工具,應(yīng)讓AIP與人一樣,有倫理、有文化。

法國著名思想家莫蘭(Edgar Morin)認(rèn)為,鑒于科學(xué)固有的兩可性,我們知道它所產(chǎn)生的新能量既可以被用于行善,也能被用于作惡。[27]正如沃伊切霍夫斯基所言:“科技在取得成功的同時也失敗了。成功在物質(zhì)上,失敗在道德上。”人工智能的發(fā)展可能將人類從一些職業(yè)的束縛及其所屬的任務(wù)中解放出來,但是,盡管這樣也無法回避一種假設(shè),那就是人工智能擺脫了伺服裝置的控制,反過來變成控制者。更何況它在一定程度上已經(jīng)成為資本和權(quán)力的工具。從人類學(xué)的角度看,倫理并非人類的終點,而是人類的起點。一般來說,人類社會有三種所謂的規(guī)范,第一種是倫理道德,第二種是民規(guī)民約,第三種是法律規(guī)范。從規(guī)范的強(qiáng)制性上看,從第一種到第三種依次增強(qiáng)。人類學(xué)所研究的初民社會是沒有法律的,初民使用倫理道德和民規(guī)民約就可以建立良好的社會秩序。隨著現(xiàn)代社會問題增多,人們才開始使用強(qiáng)制性的法律。但是,沒有倫理道德的社會,法治是不可能實現(xiàn)的,或者只能是扭曲的實現(xiàn),甚至成為少數(shù)人的權(quán)力和利益工具。在這個意義上,倫理是人類社會良性運行的基礎(chǔ),也同樣應(yīng)該被賦予人工智人,因此應(yīng)開展人工智人的倫理制度建設(shè)。

基于人類學(xué)本體論轉(zhuǎn)向中的文化認(rèn)知,最重要的是把AIP當(dāng)作“人”,而不是視其為一種工具。近年來,人類學(xué)的本體論轉(zhuǎn)向成為熱潮。拉圖爾(Bruno Latour)提出“行動者網(wǎng)絡(luò)理論(Actor-Network Theory, ANT)”,抹消了人與“非人”的界限,[28]后又提出人與自然的“對稱性人類學(xué)”,都是在去人類中心。[29]進(jìn)一步,卡斯特羅(Eduardo·Viveiros de Castro)的“視角主義(perspectivism)”將尼采(F. Nietzsche)的相關(guān)概念引入人類學(xué)的研究,并基于“視角主義”研究美洲大陸原住民,強(qiáng)調(diào)“多元自然主義(multinaturalism)”[30]筆者認(rèn)為,去人類中心的本體論轉(zhuǎn)向其實蘊含著兩個方向,即平等原則下“都視為物”或者“都視為人”,也即皆為agent(能動者)。過去,我們把AIP當(dāng)作科技工具,與人分離,于是,產(chǎn)生了“科技暴力”?,F(xiàn)在,我們要把AIP當(dāng)作“人”,讓其承擔(dān)作為“人”的社會義務(wù)以及倫理道德和法律責(zé)任,這樣才能讓AIP更好地為人類服務(wù),促進(jìn)人類和平、幸福、美好的文化前景,而不是相反。

從文化思考人工智人:認(rèn)知人類學(xué)角度。自然界超越人的能力者千千萬萬,植物、昆蟲、動物,都有過人之處,人類唯一的優(yōu)勢是人腦。但是大家忽略了另一個“唯一”,那就是群體人類的社會腦——文化。人類學(xué)家認(rèn)為,在進(jìn)化的鏈條上,文化是人類唯一與動物的不同之處。對于文化腦來說,無論是人文經(jīng)驗還是科學(xué)計算的能力,最終都是一種文化能力。人類不可能有無文化的人文經(jīng)驗,也不可能進(jìn)行無文化的數(shù)字、符號和公式的計算。文化是人類腦信息處理的起點、過程和結(jié)果,也是人類認(rèn)知進(jìn)化的結(jié)果。古迪納夫(W. H. Goodenough)清楚地表明了認(rèn)知人類學(xué)的文化觀:文化系統(tǒng)將個人的認(rèn)知世界與個體意識和行為聯(lián)系起來形成社會。所謂文化,就是個人的認(rèn)知世界相互關(guān)聯(lián)而形成的解釋模式,即圍繞某個社會的知識體系形成的觀念模式。[31]

與人工智能研究最為接近的,是認(rèn)知科學(xué)(cognitive science)。有人類學(xué)家,如格爾茲(C. Geertz)曾對認(rèn)知科學(xué)提出批評,“最近隨著認(rèn)知科學(xué)發(fā)展起來,有一種趨勢出現(xiàn)了:文化和心靈這兩個術(shù)語幾乎完全被巧妙打發(fā),代之以談?wù)撋窠?jīng)回路和計算加工、接受人工智能的可編程系統(tǒng)——這個策略讓思想的社會居所問題和意義的個人根基問題都不被觸及也不可觸及”[32]。這一批評十分犀利,提醒認(rèn)知科學(xué)的發(fā)展不應(yīng)該走向“科學(xué)主義”,而應(yīng)該走向“文化主義”,因為認(rèn)知科學(xué)最終應(yīng)該為人類服務(wù),而不是為“科學(xué)”作腳注。類似地,對于人工智能而言,取“文化主義”而非“科學(xué)主義”,從某種程度上說也同樣是“應(yīng)然”和“必要”。

認(rèn)知科學(xué)包含了與人工智能相關(guān)的所有主要學(xué)科。其學(xué)科組成如圖2所示。認(rèn)知科學(xué)有6個基礎(chǔ)支撐學(xué)科:神經(jīng)科學(xué)(腦)、計算機(jī)科學(xué)(信息)、哲學(xué)(思維)、語言學(xué)(語言)、心理學(xué)(意識)和人類學(xué)(文化)。其中4個是人文核心學(xué)科,即認(rèn)知哲學(xué)、認(rèn)知語言學(xué)、認(rèn)知人類學(xué)和認(rèn)知心理學(xué),這些正是與人工智能相關(guān)的主要研究領(lǐng)域。此外,認(rèn)知科學(xué)還包括11個交叉學(xué)科:腦神經(jīng)信息科學(xué)(腦-機(jī)交互)、神經(jīng)語言學(xué)、神經(jīng)心理學(xué)、計算心理學(xué)(認(rèn)知計算機(jī)仿真)、計算語言學(xué)(智能語言)、心理語言學(xué)/語言心理學(xué)、哲學(xué)心理學(xué)/心理哲學(xué)、語言哲學(xué)/哲學(xué)語言學(xué)、語言人類學(xué)(社會語言學(xué))、心理人類學(xué)/文化心理學(xué)、腦進(jìn)化/腦人類學(xué)。另外,還可補(bǔ)充4個交叉學(xué)科(如圖2虛線所示):哲學(xué)/倫理人類學(xué)、AI和信息哲學(xué)、文化信息學(xué)/AI人類學(xué)、腦哲學(xué)??梢?,人類學(xué)構(gòu)成了認(rèn)知科學(xué)多個擴(kuò)展交叉學(xué)科的基礎(chǔ)與支撐,而認(rèn)知人類學(xué)為認(rèn)知人工智人帶來了新的視角。

圖2

認(rèn)知人類學(xué)作為人類學(xué)的一個分支學(xué)科,與心理認(rèn)知、語言認(rèn)知等學(xué)科的區(qū)別是文化認(rèn)知。20世紀(jì)認(rèn)知人類學(xué)的發(fā)展一般可以分為如下階段:50年代是“民族科學(xué)”的早期形式化階段;60年代是研究民俗模式的普遍認(rèn)同的中期階段;70年代以后是科學(xué)化階段,形成心理學(xué)的轉(zhuǎn)向,也吸收了結(jié)構(gòu)主義和語言學(xué)的理論要素和方法論;80年代是文化先驗圖式研究和共識理論的發(fā)展階段;90年代開始的文化認(rèn)知與進(jìn)化理論階段,主要有關(guān)聯(lián)理論(relevance theory)等。當(dāng)代認(rèn)知人類學(xué)試圖發(fā)現(xiàn)人類行為的文化認(rèn)知基礎(chǔ)以及激發(fā)人類行為的深層致序原理(行為動機(jī))。人工智能無疑涉及這一層面,因而也正在成為認(rèn)知人類學(xué)的重要研究領(lǐng)域。當(dāng)前認(rèn)知人類學(xué)的研究領(lǐng)域(詳見表2)主要包括語義學(xué)、知識結(jié)構(gòu)、模式和系統(tǒng)以及話語分析,這些均與人工智能關(guān)聯(lián)密切。

表2

借鑒人工智能和認(rèn)知心理學(xué),認(rèn)知人類學(xué)曾提出3個模型[33]:其一,信息過程模型(information-processing models),探討人工智能架構(gòu)的一般原則及其對人類認(rèn)知的影響,如“并行分布處理”(PDP)和“聯(lián)接式處理”(connectionism)。其二,認(rèn)知發(fā)展模型(cognitive-developmental models),重在對不同文化進(jìn)行比較,發(fā)現(xiàn)共同的認(rèn)知發(fā)展軌跡。其中,列維-斯特勞斯的結(jié)構(gòu)主義試圖發(fā)現(xiàn)人類的心智結(jié)構(gòu)(mantel structure)——不是現(xiàn)象的共同,而是深層認(rèn)知機(jī)制的共同。[34]比如著名的“二分模式”,以及關(guān)于神話和親屬制度的結(jié)構(gòu)研究,都是文化認(rèn)知的心智結(jié)構(gòu)。其三,感知經(jīng)驗?zāi)P停╬erception and experiential models ),認(rèn)為在環(huán)境中共享感知過程和經(jīng)驗會形成跨文化的認(rèn)知模式。其中,拉科夫(G. Lakoff)和約翰遜(M. Johnson)主張“不受主觀主義和客觀主義概念陷阱影響的經(jīng)驗現(xiàn)實主義(experiential realism)”,強(qiáng)調(diào)身體活動及其在空間的位置產(chǎn)生了知識結(jié)構(gòu)與推理模式,其主要方式是通過基本的生理體驗產(chǎn)生系統(tǒng)性結(jié)構(gòu)化的隱喻(意義體系),例如“上”“下”。[35]除上述3個認(rèn)知人類學(xué)模型外,“文化認(rèn)知模型”是探討研究人工智能的重要路徑,應(yīng)給予重視。

結(jié)論

從認(rèn)知人類學(xué)的視角出發(fā),人工智人發(fā)展的核心問題可以表述為:“人工智人”以何為人?何以為人?人工智能的“二次性問題”——包括二次思維、二次意識、二次語言、二次文化等,本來是人工智人為人的基礎(chǔ),目前卻逐漸成為人類的挑戰(zhàn),挑戰(zhàn)著現(xiàn)有的社會價值和結(jié)構(gòu)。在機(jī)器通過人工智能走向人工智人的同時,人工智能帶來的標(biāo)準(zhǔn)化、去文化、去主體性以及最終的去人性,使得人類正在走向人類機(jī)器。人工智能“文化”是人類社會之腦,一方面,要約束人工智人,防止人工智人以“科技暴力”統(tǒng)治并“文化”人類;另一方面,基于人類學(xué)本體論轉(zhuǎn)向的文化認(rèn)知,不是應(yīng)將人工智人簡單視為一種工具,而是應(yīng)把其當(dāng)作“人”,約束并規(guī)范其成為有文化、有倫理的人。由此人工智人才能與人類長久和平共生。

盲目的人工智人恐懼癥不利于人工智能的發(fā)展。我們應(yīng)清醒地認(rèn)識到:人工智能依然是人類社會文化結(jié)構(gòu)的投射。在人工智能武器、人工智能違法、人工智能道德敗壞等負(fù)面情況的背后,本質(zhì)上依然是人類社會中資本、權(quán)力、戰(zhàn)爭、貪婪等在起作用,前者是后者的反映。人工智能反噬只不過是現(xiàn)實社會“上梁不正下梁歪”的科技推手。因此,在人工智能發(fā)展的同時,在對人工智人進(jìn)行倫理道德和文化賦權(quán)的同時,反省人類自己的社會文化結(jié)構(gòu)以及倫理道德缺失,才是人工智能與人類和平共生的深層基礎(chǔ)。

注釋

[1]尤瓦爾·赫拉利:《人類簡史:從動物到上帝》,林俊宏譯,北京:中信出版社,2014年。

[2]《谷歌突然宣布:上帝的密碼防線逐漸崩潰!人工智能有可能是人類文明史的終結(jié)!》,2021年12月4日,https://www.sohu.com/a/505156893_686587。

[3]駱利群:《為何人腦比計算機(jī)慢1000萬倍,卻如此高效?》,2018年5月30日,https://zhuanlan.zhihu.com/p/37485630。

[4]參見L. G. Luo, "Architectures of Neuronal Circuits," Science, 2021, 373, p. 6559.

[5]J. Aru; M. E. Larkum; J. M. Shine, "The Feasibility of Artificial Consciousness Through the Lens of Neuroscience, Trends in Neurosciences", 18 Oct 2023, https://doi.org/10.1016/j.tins.2023.09.009.

[6]P. Butlin; R. Long; E. Elmoznino; Y. Bengio et al., "Consciousness in Artificial Intelligence: Insights From the Science of Consciousness," 22 Aug 2023, https://arxiv.org/pdf/2308.08708.pdf.

[7]Y. Bengio; G. Hinton; A. Yao, et al., "Managing AI Risks in an Era of Rapid Progress," https://doi.org/10.48550/arXiv.2310.17688;也參見何懷宏:《GPT的現(xiàn)實挑戰(zhàn)與未來風(fēng)險——從人類的觀點看》,《探索與爭鳴》, 2023年第6期。

[8]圓桌:《潘多拉魔盒還是文明利器——大文明視野中的ChatGPT反思》,《探索與爭鳴》,2023年第5期。

[9]周劍銘、柳渝:《兩種“兩種文化”交匯中的人工智能》,《科學(xué)與社會》,2018年第1期。

[10]B. Singler, "The AI Creation Meme: A Case Study of the New Visibility of Religion in Artificial Intelligence Discourse," Religions, 2020, 11(5), p. 253.

[11]R. M. Geraci, "Apocalyptic AI Religion and the Promise of Artificial Intelligence," Journal of the American Academy of Religion, 2008.

[12]《全球首個“數(shù)字人類”曝光!意識在云端永生》,2019年8月29日,https://www.washingtonpost.com/technology/2019/08/29/hey-google-let-me-talk-my-departed-father/。

[13]約翰·華特生選編:《康德哲學(xué)原著選讀》,韋卓民譯,北京:商務(wù)印書館,1987年,第89頁。

[14]V. W. Turner, Dewey, Dilthey, and Drama: An Essay in the Anthropology of Experience, The Anthropology of Experience, V. Turner & E. M. Bruner(eds.), Champaign: University of Illinois Press, 1986, p. 33.

[15][19]張小軍、楊宇菲:《人工智能感官的主體性:感觀人類學(xué)視角的思考》,《中央民族大學(xué)學(xué)報》,2020年第2期。

[16]伽達(dá)默爾:《真理與方法》,洪漢鼎譯,北京:商務(wù)印書館,2007年。

[17]張小軍、木合塔爾:《走向“文化志”的人類學(xué):傳統(tǒng)民族志概念反思》,《民族研究》,2014年第4期。

[18]金觀濤,《反思“人工智能革命”》,《文化縱橫》,2017年第4期。

[20]姚庚君:《用麥克盧漢的“媒介延伸論”及其現(xiàn)象學(xué)哲學(xué)基礎(chǔ)審視“人工智能威脅論”》,《硅谷》,2015年第05期。

[21]懷特:《文化科學(xué)——人與文明的研究》,曹錦清等譯,杭州:浙江人民出版社,1988年。

[22]《清華大學(xué)社科院課題組:抖音算法提供多元信息,95%用戶選擇開啟個性化推薦》,2023年1月19日,https://www.163.com/dy/article/HRFJ0TSK0519C6T9.html。

[23]J. H. Piao; J. Z. Liu; F. Zhang; J. Su and Y. Li, "Human–AI Adaptive Dynamics Drives the Emergence of Information Cocoons," Nature Machine Intelligence, 09 Oct 2023, https://www.nature.com/articles/s42256-023-00731-4.

[24]嚴(yán)飛:《我們?nèi)绾翁用撍惴I造的信息繭房?》,2022年12月14日,https://www.sohu.com/a/438231008_114988;《清華大學(xué)社科院課題組:抖音算法提供多元信息,95%用戶選擇開啟個性化推薦》,2023年1月19日,https://www.163.com/dy/article/HRFJ0TSK0519C6T9.html。

[25]陶慶:《新政治人類學(xué)與國家–社會關(guān)系》,北京:社會科學(xué)文獻(xiàn)出版社,2018年。

[26]《曾揚言要摧毀人類的機(jī)器人索菲亞,擁有沙特公民身份后,如今怎樣?》,2023年9月7日,https://www.sohu.com/a/713867585_121161354。

[27]埃德加·莫蘭:《倫理》,于碩譯,上海:學(xué)林出版社,2017年。

[28]B. Latour, Reassembling the Social, New York: Oxford University Press, 2005.

[29]布魯諾·拉圖爾:《我們從未現(xiàn)代過:對稱性人類學(xué)論集》,劉鵬、安涅思譯,上海文藝出版社,2022年。

[30]Eduardo Viveiros de Castro, "Cosmological Deixis and Amerindian Perspectivism," The journal of the Royal Anthropological Institute, 1998, 4(3), pp. 469–488;愛德華多·科恩:《森林如何思考:超越人類的人類學(xué)》,毛竹譯,上海文藝出版社,2023年。

[31]W. H. Goodenough, "Cultural Anthropology and Linguistics," Georgetown University Monograph Series on Languages and Linguistics, 1957, 9, pp. 167–173; W. Strurteant, "Studies in Ethnoscience,"  American Anthropologist, 1964, 66(2), pp. 99–131.

[32]克利福德·格爾茨:《燭幽之光:哲學(xué)問題的人類學(xué)省思》,甘會斌譯,上海世紀(jì)出版集團(tuán),2013年,第189頁。

[33]T. Barfield, The Dictionary of Anthropology, Oxford: Blackwell Publishers Ltd, 1997, pp. 67–69.

[34]克洛德·萊維–斯特勞斯:《結(jié)構(gòu)人類學(xué)》,謝維揚譯,上海譯文出版社,1995年。

[35]G. Lakoff and M. Johnson, Metaphors We Live By, Chicago: University of Chicago Press, 1980.

Cognitive Anthropological Reflections on Artificial Homo Sapiens

Zhang Xiaojun

Abstract: From the perspective of cognitive anthropology, this paper tries to put forward some thoughts on the development of AI. The core questions can be expressed as follows: With what AIP to become human? How is AIP as a human being? The "quadratic problem" of AI, which was originally the basis of AIP, has now become a challenge for human beings. In particular, the powerful language function of ChatGPT-4 is even challenging the existing social values and structures.While machines use AI to reach AIP , humans have begun to be subject to AI in many ways. In particular, the standardization, deculture and desubjectivity brought about by AI is ultimately the dehumanization, making human beings moving towards human-machines. "Culture" is the brain of human society. Once human beings are ruled by AI, it will lead to human beings to "secondary culture" according to the norms of AI. Therefore, on the one hand, AIP should be restrained to prevent AIP from ruling and "culturing" us with "technological violence"; on the other hand, based on the cultural cognition of the anthropological ontological turn, AIP should not be regarded simply as a tool but as a "human being", and should be treated as a "human being" that is bound to become a cultured and ethical person. This will lead to a long-lasting and peaceful coexistence with human beings.

Keywords: AI, AIP, anthropology, cognitive anthropology, secondary issues, culture

[責(zé)任編輯:桂琰]