j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

人機融合智能的若干問題探討

【摘要】“非存在的有”和智能之間沒有直接關(guān)系,但智能可以被用來探索“非存在的有”。“非存在的有”和人機功能分配之間也沒有直接關(guān)系,但人機功能分配可能會受到“非存在的有”的影響。情感與人機功能分配關(guān)系緊密,人機功能分配需要考慮情感因素。在探索“非存在的有”方面,人類和人工智能都可以發(fā)揮作用。情感在人機交互中扮演著重要角色。為了適應更加復雜的任務和環(huán)境,需要通過創(chuàng)新和發(fā)展來擴展機器人的能力。

【關(guān)鍵詞】非存在的有 智能 人工智能 情感 人機交互 人機功能分配

【中圖分類號】H0-05/TP18 【文獻標識碼】A

【DOI】10.16619/j.cnki.rmltxsqy.2023.14.006

【作者簡介】劉偉,北京郵電大學人機交互與認知工程實驗室主任、博導,媒體融合生產(chǎn)技術(shù)與系統(tǒng)國家重點實驗室特聘研究員。研究方向為人機混合智能、人機交互、認知工程、用戶體驗、人機環(huán)境系統(tǒng)工程、分析哲學、未來態(tài)勢感知模式與行為分析/預測技術(shù)。主要著作有《人機融合——超越人工智能》《追問人工智能:從劍橋到北京》等。

引言

“非存在的有”是一種哲學概念,通常被用于對應“存在”的概念。它指的是那些不存在于我們所熟知的現(xiàn)實中,但卻具有某些潛在的存在性的事物或概念。這些“非存在的有”可能是抽象的、理論的、想象的、虛構(gòu)的,等等。例如,數(shù)學中的虛數(shù)是一種“非存在的有”,因為它們不存在于實際的物質(zhì)世界中,但在數(shù)學上卻是有用的,可以用來解決某些問題。同樣地,幻想中的形象,如孫悟空、圣誕老人、獨角獸、龍等,也是“非存在的有”,它們并不存在于我們的現(xiàn)實世界中,但卻在文學、藝術(shù)和文化中有一定的存在。簡而言之,“非存在的有”不存在于我們所知道的現(xiàn)實中,但是可能存在于其他維度,例如,我們的想象之中。

智能是指一種能力或者能夠表現(xiàn)出某種智能的實體或系統(tǒng)。“非存在的有”和智能之間沒有直接的關(guān)系,然而智能可以被用來探索“非存在的有”。人類的智能可以用來推理、創(chuàng)造、想象和研究一些不存在于我們現(xiàn)實世界中,但卻具有潛在存在性的事物或概念。例如,科學家們利用智能推理和創(chuàng)造力來研究黑洞、暗物質(zhì)、多元宇宙等一些“非存在的有”。

人工智能也可以被用來研究“非存在的有”。例如,通過虛擬現(xiàn)實技術(shù),人工智能可以創(chuàng)造出一些虛擬的世界和生命形式,來探索和研究那些不存在于我們現(xiàn)實世界中,但卻具有潛在存在性的事物或概念。

人機功能分配是指將任務和功能分配給人類與機器人的過程。“非存在的有”和人機功能分配之間沒有直接的關(guān)系,然而人機功能分配可能會受到“非存在的有”的影響。例如,在某些任務中,機器人可能需要具備一些超出我們現(xiàn)實世界已經(jīng)存在的能力,這些能力屬于“非存在的有”。在這種情況下,我們需要通過創(chuàng)新和發(fā)展來擴展機器人的能力,從而使其能夠適應更加復雜的任務和環(huán)境。

情感與人機

情感的本質(zhì)是人類感知和體驗世界的一種基本方式,是一種主觀、內(nèi)在的體驗和反應。情感涉及人類的情感體驗、情緒反應、情感表達和情感調(diào)節(jié)等方面。情感的本質(zhì)是由生理機制、個體生命經(jīng)歷、文化和社會背景等多種因素決定的。情感可以是積極的,如喜悅、興奮、愛、幸福等,也可以是消極的,如憤怒、恐懼、憂慮、悲傷等。情感可以對人的行為產(chǎn)生影響,影響人的選擇、決策等。情感也是人類交往和社會關(guān)系的重要因素,情感的表達和理解是人類溝通和交流的基礎(chǔ)??偟膩碚f,情感是人類生命和文化的重要組成部分,對人類的生存和發(fā)展具有重要意義,對人機功能有效分配也具有不可忽視的作用。

情感與人機功能分配關(guān)系緊密。情感是人類與環(huán)境交互的重要組成部分,包括情緒、態(tài)度、信念等方面。在人機交互中,情感的存在對于用戶體驗和使用效果有著重要影響。因此,人機功能分配需要考慮情感因素,以便更好地滿足用戶需求和期望。例如,情感識別和情感生成技術(shù)可以幫助計算機更好地理解和回應人類的情感需求,從而提高用戶體驗。同時,在人機交互中,人類和計算機的功能分配也需要考慮情感因素,以便更好地滿足人類的情感需求。因此,情感與人機功能分配是相互影響、相互促進的。

情感可以影響人類理性的判斷和決策,主要表現(xiàn)在以下幾個方面。其一,信息選擇偏差。情感會使人們更傾向于選擇與自己情感偏好相符的信息,而忽略其他信息。例如,一個人對某個品牌有好感,就容易忽略該品牌的缺點,且對同類競品的優(yōu)勢視而不見。其二,認知偏見。情感會影響人們對信息的認知和理解,使其產(chǎn)生認知偏見。例如,一個人對某個人有情感偏見,就容易將該人的行為解釋為支持自己觀點的證據(jù),而忽略其他解釋。其三,決策偏差。情感會影響人們的決策偏好和風險承受能力。例如,一個人對某項投資有情感偏好,就容易將該投資看作低風險、高回報的選擇,忽略其潛在的風險和不確定性。其四,行為反應。情感會影響人們的行為反應,使其作出不合理的行為。例如,一個人因情感上癮,就可能不顧后果地追求某種行為或物質(zhì),而忽略自己的健康和生活質(zhì)量。因此,情感與人類理性之間的關(guān)系需要相互協(xié)調(diào)和平衡,才能使人作出更明智的判斷和決策,從而使情感對人機功能分配起正向調(diào)節(jié)作用。

道德物化與人機

道德物化的本質(zhì)是將道德概念或價值視為實體化、有形化的實際物體或物品,為其賦予實物的屬性和價值。這種物化過程可能導致人們將道德價值看作是一種可以交易、買賣、占有或控制的商品或資源,從而削弱或扭曲了道德本身的意義和價值。道德物化可能會導致人們在道德決策和行為中更多地考慮利益和權(quán)力的因素,而忽視道德的本質(zhì)和目的,從而導致不良后果。道德物化的本質(zhì)是一種對道德概念和價值的誤解和扭曲,需要通過教育和宣傳等途徑加以糾正和避免。

若將人道德物化,看作物品或工具,則忽視了人作為個體的尊嚴和價值。人機功能分配是將人和機器分別賦予不同的任務和功能,以實現(xiàn)更高效的生產(chǎn)和服務。道德物化與人機功能分配的關(guān)系在于,當人機功能分配不當或不合理時,就可能導致道德物化的問題。例如,將人僅僅看作機器的一部分來完成某項任務,忽視了其作為有感情、有思維、有尊嚴的人的本質(zhì)。因此,正確的人機功能分配應該考慮人的尊嚴和價值,避免道德物化的問題。

人機的主客觀混合輸入過程

實現(xiàn)客觀事實與主觀價值的混合輸入,需要采用一些特定的技術(shù)和方法。其一,自然語言處理技術(shù)。自然語言處理技術(shù)可以幫助機器理解人類語言的含義和語境,識別其中的實體、情感和觀點等,并將其轉(zhuǎn)換成結(jié)構(gòu)化的數(shù)據(jù)形式。其二,機器學習和深度學習技術(shù)。機器學習和深度學習技術(shù)可以通過訓練模型來識別和理解人類語言中的含義和情感。其三,人機交互界面設(shè)計。在人機交互界面設(shè)計中,可以采用一些交互式的方式,如問答、評分、評論等,讓用戶輸入他們的主觀評價和觀點。其四,數(shù)據(jù)可視化技術(shù)。通過數(shù)據(jù)可視化技術(shù),可以將客觀事實和主觀價值以可視化的方式呈現(xiàn)出來,讓用戶更容易理解和分析數(shù)據(jù)。例如,使用圖表、熱力圖等方式來展示數(shù)據(jù)等。

客觀事實與主觀價值的混合輸入,需要結(jié)合自然語言處理技術(shù)、機器學習和深度學習技術(shù)、人機交互界面設(shè)計和數(shù)據(jù)可視化技術(shù)等多種技術(shù)和方法。在人機功能分配過程中若處理不好主客觀混合輸入,則極易產(chǎn)生數(shù)據(jù)來源不可靠、數(shù)據(jù)處理不當、數(shù)據(jù)缺乏背景信息、數(shù)據(jù)過于龐大或數(shù)據(jù)分析不到位等現(xiàn)象,進而可能造成“數(shù)據(jù)豐富,信息貧乏”的不足與缺陷。

人機的主客觀混合處理過程

實現(xiàn)基于公理的處理與基于非公理的處理融合,同樣需要采用一些特定的技術(shù)和方法。其一,邏輯推理技術(shù)。邏輯推理技術(shù)可以用于實現(xiàn)基于公理的處理,通過推理得到新的結(jié)論,并在此基礎(chǔ)上進行決策。邏輯推理技術(shù)可以利用公理化語言描述問題,并通過邏輯規(guī)則進行推理,從而實現(xiàn)基于公理的處理。其二,機器學習和深度學習技術(shù)。機器學習和深度學習技術(shù)可以用于實現(xiàn)基于非公理的處理,通過學習數(shù)據(jù)和模式識別來進行決策。機器學習和深度學習技術(shù)可以利用數(shù)據(jù)驅(qū)動的方式進行推理,從而實現(xiàn)基于非公理的處理。其三,規(guī)則庫管理。規(guī)則庫管理可以用于管理基于公理的處理的規(guī)則庫。規(guī)則庫包含一組規(guī)則,用于對問題進行描述和解決。規(guī)則庫管理可以對規(guī)則庫進行維護、更新和擴展,以適應不同的問題和應用場景。其四,集成算法。集成算法可以將基于公理的處理和基于非公理的處理融合起來,利用不同的算法進行集成,從而得到更準確的結(jié)果。集成算法可以利用不同的處理方法來解決問題,從而提高處理的準確性和效率。

恰如其分地實現(xiàn)基于公理與基于非公理的處理融合,需要結(jié)合非邏輯/邏輯推理技術(shù)、機器學習和深度學習技術(shù)、規(guī)則庫管理、集成算法、人類有效的“算計”(謀算)等多種技術(shù)和方法。這樣可以充分利用不同的處理方法來解決問題,從而得到更準確的結(jié)果。

人機的主客觀混合輸出過程

實現(xiàn)人機融合的輸出,需要考慮人類與機器之間的交互和決策融合?;谶壿嫷臎Q策通常是基于規(guī)則的,例如,機器學習模型的預測結(jié)果。相對應,基于直覺的決策則更多是基于個人經(jīng)驗和感覺的,例如,醫(yī)生根據(jù)病人的癥狀和體征作出的診斷。針對這兩種不同的決策方式,可以采用以下方法實現(xiàn)人機融合的輸出。

其一,將邏輯決策和直覺決策進行分離,分別由機器和人類進行處理和決策,然后將結(jié)果進行融合。這種方法需要一個可靠的決策融合算法,以確保最終的輸出結(jié)果是準確和可信的。其二,將邏輯決策和直覺決策進行融合,讓人類和機器一起進行決策。這種方法需要一個可以協(xié)同工作的系統(tǒng),以便人類和機器可以共同分析和決策。例如,可以使用機器學習算法來分析數(shù)據(jù),然后將結(jié)果呈現(xiàn)給人類,讓后者作出最終的決策。其三,將邏輯決策和直覺決策進行交替使用,讓人類和機器輪流進行決策。這種方法可以提高決策的多樣性和靈活性,以適應不同的情況和環(huán)境。例如,可以讓機器先進行分析和決策,然后將結(jié)果呈現(xiàn)給人類,讓后者進行進一步的分析和決策。

總的來說,基于邏輯的決策和基于直覺的決策都有優(yōu)點,也存在局限性。將它們?nèi)诤掀饋?,可以充分利用人類和機器的優(yōu)勢,提高決策的準確性和效率。

人機的主客觀混合反思/反饋過程

在人機混合智能中,人和機器的反思與反饋可以通過多種方式融合,從而實現(xiàn)更加智能化和高效化的決策與行為。人的反思和機器的反饋可以通過以下方式融合。

數(shù)據(jù)分析。機器可以通過分析大量數(shù)據(jù),提供反饋和建議;人可以通過分析這些反饋和建議來反思自己的決策與行為,從而不斷優(yōu)化自己的決策和行為。

交互式學習。人和機器可以通過交互式學習來相互補充和提高,機器可以通過學習人的反思和決策,提供更準確和有效的反饋與建議,人可以通過學習機器的反饋和建議,不斷提升自己的決策和行為能力。

反饋循環(huán)。人和機器可以建立反饋循環(huán),通過不斷的反饋和調(diào)整,實現(xiàn)最優(yōu)化的決策和行為。人可以通過反思機器的反饋和建議,作出相應的調(diào)整和改進;機器也可以通過分析人的反饋和行為,提供更加精準和有效的反饋與建議。

人機與深度態(tài)勢感知

人類的態(tài)勢感知能力是通過大腦感知、處理和解釋來自外界的各種信息形成的。這些信息包括視覺、聽覺、觸覺、嗅覺、味覺等感官信息以及周圍環(huán)境的溫度、濕度、氣壓等物理信息。大腦的神經(jīng)元通過對這些信息的處理與組合,形成了對周圍環(huán)境和自身狀態(tài)的認知與理解,從而使人類具備了對不同情境的適應能力和決策能力。這種能力與人類的生存和社會交往密切相關(guān),因此在人類的進化過程中逐漸發(fā)展和完善。

機器的態(tài)勢感知能力是通過傳感器、計算機視覺、語音識別、自然語言處理等技術(shù)來實現(xiàn)的。傳感器可以收集外部環(huán)境的物理量,如溫度、濕度、氣壓、光線等,同時也可以收集機器自身狀態(tài)的信息,如速度、位置、姿態(tài)等。計算機視覺可以通過圖像處理技術(shù)對圖像和視頻進行分析,從而識別物體、人物、場景等信息。語音識別和自然語言處理可以將語音與文本轉(zhuǎn)化為可處理的數(shù)據(jù),從而實現(xiàn)對語音和文本的理解和分析。通過這些技術(shù)的組合,機器可以對周圍環(huán)境和自身狀態(tài)進行感知、判斷和分析,從而實現(xiàn)對各種情境的適應。這種能力在自動駕駛、智能家居、智慧城市等領(lǐng)域中有廣泛的應用。

人機融合中的態(tài)、勢、感、知四個過程是相互關(guān)聯(lián)的,它們之間是不斷轉(zhuǎn)換的。其轉(zhuǎn)換過程如下。

態(tài) → 勢:態(tài)是指人的狀態(tài)、狀況,勢是指實現(xiàn)這個態(tài)的動作趨勢或操作取向。在人機交互中,用戶的態(tài)被轉(zhuǎn)換成了對軟件或設(shè)備的操作勢,比如,用戶想要打開一個應用程序,這個態(tài)就被轉(zhuǎn)換成了對鼠標或鍵盤的操作勢。

勢 → 感:勢可以產(chǎn)生反饋,這個反饋就是感。用戶的操作勢會產(chǎn)生與之對應的感,比如,在點擊鼠標時,會感覺到鼠標下面的按鈕被按下了。

感 → 知:感是指感覺和感知,知是指理解和認知。用戶的感覺和感知會被轉(zhuǎn)換成對軟件或設(shè)備的理解與認知,比如,用戶通過觸摸屏幕感知到了應用程序的界面,然后對這個界面進行理解和認知。

知 → 態(tài):知是指對事物的認知和理解,態(tài)是指人的意圖或目的。用戶對軟件或設(shè)備的認知和理解會影響他們的意圖和目的,從而形成新的態(tài)。比如,用戶在對應用程序進行認知和理解后,可能形成了新的意圖和目的在應用程序中添加一些新的功能。

概而言之,人機融合中的態(tài)、勢、感、知四個過程是相互關(guān)聯(lián)的,通過不斷的轉(zhuǎn)換和交互,用戶可以與軟件或設(shè)備進行有效的交互和溝通。

綜上所述,“非存在的有”指的是想象中的不存在于物理世界的事物。對于人機融合智能來說,這個概念的出現(xiàn)和想象可能會促進人類對科技和自身的思考與探究;可能會激發(fā)人類對機器智能和人類智能的探討和對比,從而促進科技創(chuàng)新和發(fā)展。此外,人們對于人機融合智能的想象也可能會影響人們對于未來的展望和期待,進而可能會產(chǎn)生各種不同的社會和文化影響。雖然“非存在的有”本身并沒有直接的影響,但是它可能會激發(fā)人們的想象和創(chuàng)造力,推動科技的發(fā)展和人類的進步。

人機與倫理困境

人機混合智能中,AI的潛在危害包括以下方面:首先,由于AI系統(tǒng)的復雜性,一旦出現(xiàn)故障或錯誤,可能導致系統(tǒng)失控,甚至產(chǎn)生災難性后果;其次,AI技術(shù)的發(fā)展可能導致許多工作被機器人或軟件程序替代,從而導致失業(yè)率上升和社會不穩(wěn)定因素;再次,AI技術(shù)可能會收集和分析大量個人數(shù)據(jù),存在侵犯個人隱私的風險,并可能導致數(shù)據(jù)泄露和網(wǎng)絡(luò)攻擊;又次,人工智能武器可能會導致無法預測的后果,從而對人類和環(huán)境造成損害和破壞;最后,AI系統(tǒng)可能會受到人為因素的影響,例如,偏見和歧視,從而導致不公平和不平等。具體到當前以ChatGPT為代表的人機混合智能,有三個方面的倫理問題需要特別予以關(guān)注。

一是,人工智能可從大量數(shù)據(jù)中學到意想不到的行為。這主要是通過機器學習算法來實現(xiàn)的。機器學習算法可以從大量數(shù)據(jù)中提取出規(guī)律和模式,然后根據(jù)這些規(guī)律和模式來預測、分類、聚類等。在這個過程中,如果數(shù)據(jù)集足夠大并且具有代表性,那么AI就可以從中學習到新的、以前沒有預料到的行為或模式。這種能力被稱為“數(shù)據(jù)驅(qū)動的創(chuàng)新”,可以讓AI在處理數(shù)據(jù)時自主發(fā)現(xiàn)新的知識和洞見,并且可以將其應用到更廣泛的領(lǐng)域中。

二是,人工智能生成技術(shù)的不斷突破,可能導致普通人難以辨別信息真?zhèn)巍H斯ぶ悄苌杉夹g(shù)可能使得虛假的照片、視頻和文字充斥世界,從而帶來嚴重的后果和影響,如虛假信息會讓人們對社會和政府的信任降低,從而導致社會信任危機;虛假信息可能會被用來操縱選民的思想和行為,從而影響政治選舉的結(jié)果;虛假信息可能會讓消費者作出錯誤的決策,從而影響企業(yè)和市場的運作;虛假信息可能會被用來實施詐騙,從而導致個人隱私泄露和財產(chǎn)損失。因此,我們需要采取措施來防止虛假信息的傳播,比如,開發(fā)更加高效的辨別虛假信息的技術(shù),建立更加嚴格的信息監(jiān)管機制,等等。

三是,許多技術(shù)大廠將因為競爭被迫加入一場無法停止的技術(shù)爭斗。技術(shù)競爭既有積極的推動作用,也可能產(chǎn)生一些負面的影響,可能會導致以下局面:其一,不斷擴大投資:為了保持競爭優(yōu)勢,技術(shù)公司需要持續(xù)地投資于研發(fā)和創(chuàng)新,不斷推出新產(chǎn)品和服務。這將導致公司不斷增加投資,財務風險亦隨之增加。其二,技術(shù)附庸風雅:某些技術(shù)公司可能會過度關(guān)注競爭對手的動向,而忽視了自身的技術(shù)優(yōu)勢和發(fā)展方向。其三,技術(shù)標準化:競爭激烈的技術(shù)市場可能會導致技術(shù)標準的分裂,從而引發(fā)產(chǎn)品之間的兼容性問題。其四,用戶體驗下降:某些技術(shù)公司為了贏得競爭,不斷推出不成熟的產(chǎn)品和服務,從而導致用戶體驗下降。

ChatGPT:一個人機智能的初級產(chǎn)品

從人機環(huán)境系統(tǒng)智能的角度看,ChatGPT就是一個還沒有開始“上道”的系統(tǒng)。“一陰一陽之謂道”。ChatGPT的“陰”(默會隱性的部分)尚無體現(xiàn),而“陽”(顯性描述的部分)也還停留在人類與大數(shù)據(jù)交互的淺層部分。簡而言之,ChatGPT基本無“道”可言。暗知識、類比、隱喻等這些看似不嚴謹、無邏輯的東西絕非僅憑理性思維推理就可以得到,而這些非邏輯、超邏輯(至少當前邏輯很難定義)的東西恰恰是構(gòu)成人類智能的重要組成部分。或許,這也不僅是ChatGPT的缺點,整個人工智能領(lǐng)域又何嘗不是如此呢?

粗略地說,人工智能技術(shù)就是人類使用數(shù)學計算模擬自身及其他智能的技術(shù),最初是使用基于符號規(guī)則的數(shù)學模型建立起的機器智能(如專家系統(tǒng)),其后是借助基于統(tǒng)計概率的數(shù)據(jù)連接處理實現(xiàn)機器學習及分類,下一步則是試圖借助有/無監(jiān)督學習、樣本預訓練、微調(diào)對齊、人機校準等遷移方法實現(xiàn)上下文感知行為智能系統(tǒng)。這三類人工智能技術(shù)的發(fā)展趨勢延續(xù)了從人到機再到人機、人機環(huán)境系統(tǒng)的研究路徑(符號-聯(lián)結(jié)-行為融合主義路徑),其中最困難的部分(也是ChatGPT的瓶頸)是智能最底層的一個“神秘之物”——指稱的破解問題,這不僅是自然語言與數(shù)學語言的問題,更是涉及思維(如直覺、認知)與群體等“語言”之外的問題。

智能領(lǐng)域研究中最困難的不是如山一般堆積的各種數(shù)學公式,而是最基礎(chǔ)最原始的概念剖析和理解,這與黎曼、戴德金、高斯強調(diào)“以思想代替計算”的數(shù)學原則,即數(shù)學理論不應該以公式和計算為基礎(chǔ),而應該總是以表述清楚的一般概念為基礎(chǔ),并把解析表達式和計算的工具推給理論的進一步發(fā)展,有著異曲同工之妙。鑒于此,分析ChatGPT也不例外,下面將從數(shù)據(jù)、推理(算法)、指稱的交互等方面分別闡述。

從數(shù)據(jù)的角度看,ChatGPT不具備智能的本質(zhì)特征。小樣本小數(shù)據(jù)解決大問題,才是智能的本質(zhì)。在許多場景中,交互雙方的意圖往往是在具有不確定性的非完備的動態(tài)小數(shù)據(jù)中以小概率出現(xiàn)并逐步演化而成的,充分利用這些小數(shù)據(jù),從不同維度、不同角度和不同顆粒度猜測對手的意圖,從而實現(xiàn)“知己(看到兆頭苗頭)、趣時(抓住時機)、變通(隨機應變)”的真實智能,這完全不同于機器智能所擅長的對于大數(shù)據(jù)可重復、可驗證規(guī)律的提取。人類智能還擅長使用統(tǒng)計概率之外的奇異性數(shù)據(jù),并能夠從有價值的小數(shù)據(jù)中全面提取可能的需要意向,尤其是能夠打破常規(guī)、實現(xiàn)跨域聯(lián)結(jié)的事實或反事實、價值或反價值的猜測。ChatGPT中的GPT代表生成式(G)-預訓練(P)-變換模型(T),就是一種大數(shù)據(jù)+機器學習+微調(diào)變換+人機對齊的程序模式,該智能體行為的依據(jù)是數(shù)據(jù)的事實性泛化,但其實完全忽視了泛化形成的行動價值,而這種泛化形成的行為結(jié)果常常是錯誤的、乃至危險的,例如,在對話中出現(xiàn)各種無厘頭“胡說”現(xiàn)象,而想要準確翻譯相聲、莎士比亞的笑話,甚至指桑罵槐、意在言外就更不可能做到了。

從推理邏輯的角度看,ChatGPT不具備智能的本質(zhì)特征。把智能看成計算,把智能看成邏輯,這兩個錯誤是制約智能發(fā)展的瓶頸和誤區(qū)。事實上,真實的智能不但包括理性邏輯部分,也包括非/超邏輯的感性部分,而構(gòu)成人工智能基礎(chǔ)的數(shù)學工具只是基于公理的邏輯體系部分。ChatGPT的核心就是計算智能、數(shù)據(jù)智能,其所謂的感知、認知“能力”(準確地說應該是“功能”)是預訓練文本(以后或許還有音頻、視頻、圖像等形式)的按需匹配組合,既不涉及知識來源的產(chǎn)權(quán),也不需要考慮結(jié)果的風險責任,雖然ChatGPT算法中被設(shè)置了倫理道德的門檻約束,但其可能帶來的專業(yè)誤導危害依然不容小覷,尤其是在對未知知識的多源因果解釋、非因果相關(guān)性說明方面。

ChatGPT系統(tǒng)的“自主”與人類的“自主”不同。一般而言,ChatGPT的自主智能是在文本符號時空里進行大數(shù)據(jù)或規(guī)則或統(tǒng)計推理過程,這種推理是基于數(shù)學計算算法“我”(個體性)的順序過程;而人類的自主智能則是在物理/認知/信息(符號)/社會混合時空里基于小數(shù)據(jù)或無數(shù)據(jù)進行因果互激蕩推導或推論過程,這種因果互激蕩是基于“我們”(群體性)的過程。西方的還原思想基礎(chǔ)是因果關(guān)系,東方的整體思想基礎(chǔ)是共在關(guān)系(共時空、共情)。進一步而言,ChatGPT的計算是因果還原論,其知識是等同的顯性事實知識;算計是共在系統(tǒng)論,其知識是等價的隱性價值知識。這里的推導/推論包含推理,等價包含等同,價值包含事實、但大于事實。

智能的關(guān)鍵不在于計算能力,而在于帶有反思的算計能力。算計比計算強大,在于其反事實、反價值能力,如人類自主中常常就包含有反思(事實反饋+價值反饋)能力。事實性的計算僅僅是使用時空(邏輯),而價值性的算計是產(chǎn)生(新的)時空(邏輯);計算是用符號域、物理域時空中的名和道實施精準過程,而算計則是用認知域、信息域、物理域、社會域等混合時空中的非常名與非常道進行定向。

從指稱的角度看,ChatGPT不具備智能的本質(zhì)特征。ChatGPT這類生成式AI不同于以往大多數(shù)的人工智能,此前大多數(shù)AI只能分析現(xiàn)有數(shù)據(jù),但是生成式AI可以創(chuàng)作出全新的內(nèi)容,例如,文本、圖片,甚至是視頻或者音樂。但與人類相比,ChatGPT的局限性包括:有限的常識和因果推理(偏向知識而非智力)、有限的自然語言和邏輯推理、缺乏在現(xiàn)實世界中的基礎(chǔ)(沒有視覺輸入或物理交互)、性能不可靠且無法預測,等等,其中最主要的一個缺點就是不能實現(xiàn)人類的“指稱”。

維特根斯坦在其第一部著作《邏輯哲學論》中對世界和語言進行了分層描述和映射,即世界的結(jié)構(gòu)是:對象-事態(tài)-事實-世界,而人類語言的結(jié)構(gòu)是:名稱-基本命題-命題-語言,其中對象與名稱、事態(tài)與基本命題、事實與命題、世界與語言是相互對應的。比如,一個茶杯,在世界中是一個對象,在語言中就是一個名稱;“一個茶杯放在桌子上”,在世界中是一個事態(tài),反映茶杯與桌子兩個對象的關(guān)系,在語言中就是一個基本命題,該基本命題是現(xiàn)實茶杯與桌子的圖象;“一個茶杯放在桌子上,桌子在房間里面”,在世界中是一個事實,反映茶杯與桌子、桌子與房間兩組對象的關(guān)系,在語言中就是一個命題,該命題是現(xiàn)實茶杯與桌子、桌子與房間的圖像。世界就是由眾多的事實構(gòu)成的,語言是由命題構(gòu)成的,這樣世界的結(jié)構(gòu)就與語言的結(jié)構(gòu)完美地對應起來了。但是后來,維特根斯坦發(fā)現(xiàn)這個思想有問題,即僅僅有世界與語言的對應結(jié)構(gòu)是很難反映出真實性的。于是在他去世后發(fā)表的另一本著作《哲學研究》中又提出了三個概念,即語言游戲、生活現(xiàn)象、非家族相似性,這三個概念提出了在邏輯之外的“指稱”問題,也就是他所謂的“不可言說的”、“應保持沉默”之物。實際上,他發(fā)現(xiàn)了人類思維中存在著“世界”、“語言”之外物:言外之意、弦外之音。這與愛因斯坦描述邏輯與想象差異的名言——“Logic will get you from A to B. Imagination will take you everywhere”(邏輯會把你從A帶到B。想象力會把你帶到任何地方)一語極其相似。同時,從人機環(huán)境系統(tǒng)的角度來看,這也印證了極具東方智慧的一句名言:“人算不如天算”,也即:人只有智能的一部分,而不是全部。

對于人類智能的不足,維特根斯坦雖然意識到了,但沒有提出恰當?shù)慕鉀Q辦法——他的學生和朋友圖靈卻想到了一個辦法,若把人類的理性邏輯與感性指稱進行剝離,那么就可以通過數(shù)學的形式化系統(tǒng)對人類的智能進行模擬。當然這種模擬會丟失很多東西,比如,感性、直覺,等等,但為了實現(xiàn)初步的人工智能體系,也只好忍痛割愛了。這樣一來,在有規(guī)則、復合邏輯的領(lǐng)域(如圍棋對弈、文本淺層處理等),人工智能與機器就可以代替人類。

從意識的角度看,ChatGPT不具備智能的本質(zhì)特征。ChatGPT在詞語的打標基礎(chǔ)上實現(xiàn)了篇章上下文的打標、不少邏輯的打標、人機共同的打標,其核心在于依賴自注意力機制來計算其輸入和輸出的表示的Transformer轉(zhuǎn)換模型,實現(xiàn)了更快、更強的計算,但它依然沒有觸及人類大腦最深奧的問題:如何產(chǎn)生意識?或許,某種意義上說,意識就是“交互”,無論內(nèi)在的交互,還是外在的交互,都是人機環(huán)境系統(tǒng)的態(tài)勢感知事實與價值的算計,而不僅僅是簡單的事實打標計算。事實常常是一階的,而價值往往是二階或高階的;一階對的,在二階或高階里面卻不一定對,比如,“地震了就跑”這個事實是對的,但如果具體到老師,那么“地震了要先組織學生跑”才是正確的,只顧自己跑就是不對的。世界上所有的知識都是有范圍和背景的,離開這些范圍和背景,知識的內(nèi)涵外延會發(fā)生很大的變化,甚至可以相反。我們不但需要在已知中發(fā)現(xiàn)未知,有時候還需要在未知中發(fā)現(xiàn)已知,在這些方面ChatGPT基本上還無能為力,更進一步講,數(shù)字人(如電影《流浪地球2》中的Moss)能夠通過攝像頭對客觀事實環(huán)境進行感知、識別、反應是可能的,但能否產(chǎn)生主觀價值是以目前科技和數(shù)學工具水平還遠遠解決不了的難題。能否實現(xiàn)以有限反映無限、以應然反映必然、以客觀反映主觀應是檢驗一個系統(tǒng)智能高低的標志之一,ChatGPT也不例外。

智能中的“意識”不是一個物理概念,不是一個數(shù)理概念,也不是一個單純社會學概念,而是一個依靠客觀事實與主觀價值共同建構(gòu)起來的思想層面的文化交互概念產(chǎn)物。我們在物理上生活在同一個空間里,在社會學意義上生活在相互交往的網(wǎng)絡(luò)中,但并不意味著我們生活在同一個文化意義體系中。從西方二元對立的形而上學哲學轉(zhuǎn)向二元互動的形而中學思想,從而將世界真理的基點從絕對上帝或存在(being,客觀的“是”)轉(zhuǎn)向生成變化、生生不息的道體(should,主觀的“義”),這無疑將成為中國學術(shù)界為“地球村”探索智能基礎(chǔ)的新開端??傊?,智能不是人工智能,也不僅僅是西方科技計算能夠?qū)崿F(xiàn)的,需要加入東方智慧中的算計,才能形成具有深度態(tài)勢感知的人機環(huán)境系統(tǒng)智能體系——屬于人類的文明財富。

只有把情感注入某個事情中,才能看到靈魂,對于人如此,對于智能體而言,也很類似。畢竟文明不但需要科學技術(shù)的進步,還需要人文藝術(shù)的滋養(yǎng)。目前來看,ChatGPT中顯露出的情感成分還僅是與之交互者在特定對話環(huán)境下自發(fā)內(nèi)生出來的情感因素。

再識人機智能,倡導“智能向善”

2023年以來,ChatGPT再次掀起了人工智能的研究熱潮。但在現(xiàn)有數(shù)學體系和軟硬件的設(shè)計模式基礎(chǔ)之上,人工智能在智能水平和能力范圍上與人類智能相比仍存在極大差距。究其原因,人類智能和機器智能之間還存在無法跨越的界限:人工智能是邏輯的,人類智能卻未必是邏輯的。依賴于“符號指向?qū)ο?rdquo;的機器只能在封閉環(huán)境進行形式化計算,人類卻可以實現(xiàn)開放環(huán)境中的意向性算計。在這種背景下,實現(xiàn)人機優(yōu)勢互補、倡導“智能向善”顯得尤為重要。

哲學家休謨認為:“一切科學都與人性有關(guān),對人性的研究應是一切科學的基礎(chǔ)。”任何科學都或多或少與人性有些關(guān)系,無論學科看似與人性相隔多遠,它們最終都會以某種途徑再次回歸到人性中。從這個角度來看,人工智能“合乎倫理的設(shè)計”很可能是黃粱一夢。倫理對人而言都還是一個很難遵守的復雜體系,對機器而言就更加難以理解。在人工智能領(lǐng)域,“合乎倫理設(shè)計”或許是科幻成分多于科學成分、想象成分多于真實成分。

當前的人工智能及未來的智能科學研究存在兩個致命的缺點,即把“數(shù)學等同于邏輯”和“把符號與對象混淆”。人機混合的難點和瓶頸也因此在于(符號)表征的非符號性(可變性)、(邏輯)推理的非邏輯性(非真實性)和(客觀)決策的非客觀性(主觀性)。

智能領(lǐng)域真正的瓶頸和難點之一是人機環(huán)境系統(tǒng)失調(diào)問題,具體體現(xiàn)在跨域協(xié)同中的“跨”與“協(xié)”如何有效實現(xiàn)的問題,這不僅關(guān)系到解決各種輔助決策系統(tǒng)中“有態(tài)無勢”(甚至是“無態(tài)無勢”)的不足,還涉及許多輔助決策體系“低效失能”的溯源。也許需要嘗試把認知域、物理域、信息域構(gòu)成的基礎(chǔ)理論域與陸??仗祀娋W(wǎng)構(gòu)成的技術(shù)域有機地結(jié)合起來,才能為真實有效地實現(xiàn)跨域協(xié)同打下基礎(chǔ)。

智能不是人腦(或類腦)的產(chǎn)物,也不是人自身的產(chǎn)物,而是人、物、環(huán)境系統(tǒng)相互作用的產(chǎn)物。正如馬克思所言:“人的本質(zhì)不是單個人所固有的抽象物,在其現(xiàn)實性上,它是一切社會關(guān)系的總和。”事實上,真實的智能同樣也包含著人、物、環(huán)境這三種成分,而隨著科技的快速發(fā)展,其中的“物”逐漸被人造物——“機”所取代,簡稱為人機環(huán)境系統(tǒng)。平心而論,人工智能要超越人類智能,在現(xiàn)有數(shù)學體系和軟硬件的設(shè)計模式基礎(chǔ)之上,基本上不太可能,但在人機一體化或人機環(huán)境系統(tǒng)中卻是有可能的。人工智能是邏輯的,智能則不一定是邏輯的。智能是一個非常遼闊的空間,可以隨時打開異質(zhì)的集合,把客觀的邏輯與主觀的超邏輯結(jié)合起來。

未來數(shù)字世界中,人與機器如何分工?人與機器的邊界又將如何劃分呢?實際上,當前人機關(guān)系主要是功能分配,人把握主要方向,機處理精細過程,而未來的人機關(guān)系可能是某種能力的分工,機也可以把握某些不關(guān)鍵的方向,人也可以處理某些縝密的過程。

人機混合智能是人工智能發(fā)展的必經(jīng)之路,其中既需要新的理論方法,也需要對人、機、環(huán)境之間的關(guān)系進行新的探索。隨著人工智能的熱度不斷加大,越來越多的產(chǎn)品走進人們的生活之中,但是,強人工智能依然沒有實現(xiàn)。如何將人的算計智能遷移到機器中去,這是一個必然要解決的問題。我們已經(jīng)從認知角度構(gòu)建認知模型或者從意識的角度構(gòu)建計算-算計模型,這都是對人的認知思維的嘗試性理解和模擬,期望實現(xiàn)人的算計能力。計算-算計模型的研究不僅需要考慮機器技術(shù)的飛速發(fā)展,還要考慮交互主體即人的思維和認知方式,讓機器與人各司其職、混合促進,這才是人機混合智能的前景和趨勢。

科技向善對西方而言是個有問題的提法,科技是物質(zhì)世界的客觀存在,向善則是倫理道德的必然要求,從客觀存在能否推出必然要求,這是目前西方仍在爭議的話題。

科技本身沒有對錯善惡之分,能利人利己,也能害人害己;而設(shè)計、開發(fā)、使用、管理、維護、運行的人會有對錯善惡之分。科技向善本質(zhì)是指“人”的向善。故在監(jiān)管上需要堅持倫理先行的理念,建立并完善人工智能倫理問責機制,明確人工智能主體的責任和權(quán)利邊界;在研發(fā)上需要確保先進科技手段始終處于負責可靠的人類控制之下,預防數(shù)據(jù)算法偏見產(chǎn)生,使研發(fā)流程可控、可監(jiān)督、可信賴;在使用上需要確保個人隱私和數(shù)據(jù)安全,預先設(shè)立應急機制和兜底措施,對使用人員進行必要培訓,等等。

黨的二十大報告指出,中國積極參與全球治理體系改革和建設(shè),踐行共商共建共享的全球治理觀,堅持真正的多邊主義,推進國際關(guān)系民主化,推動全球治理朝著更加公正合理的方向發(fā)展。作為人工智能領(lǐng)域的先驅(qū)者之一,中國正在用實際行動為人工智能全球治理體系注入東方智慧,展現(xiàn)了大國形象和擔當。2021年9月,中國國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能倫理規(guī)范》,強調(diào)應將倫理融入人工智能全生命周期,并針對人工智能管理、研發(fā)、供應、使用等活動提出了六項基本倫理要求和四方面特定倫理規(guī)范。2022年3月,中共中央辦公廳、國務院辦公廳印發(fā)《關(guān)于加強科技倫理治理的意見》,提出應加快完善科技倫理體系,提升科技倫理治理能力,有效防控科技倫理風險,不斷推動科技向善、造福人類,實現(xiàn)高水平科技自立自強。2022年11月,中國裁軍大使李松向聯(lián)合國提交《中國關(guān)于加強人工智能倫理治理的立場文件》,從構(gòu)建人類命運共同體的高度,系統(tǒng)梳理了近年來中國在人工智能倫理治理方面的政策實踐,積極倡導以人為本、智能向善理念,為各國破解人工智能發(fā)展難題提供了具體解決思路,值得國際社會高度重視與深入研究。

參考文獻

金觀濤,2019,《系統(tǒng)的哲學》,廈門:鷺江出版社。

劉偉,2023,《ChatGPT:一個人機環(huán)境系統(tǒng)交互的初級產(chǎn)品》,《中國社會科學報》,3月7日。

劉偉,2021,《人機融合——超越人工智能》,北京:清華大學出版社。

劉偉,2019,《追問人工智能:從劍橋到北京》,北京:科學出版社。

B. Manuel; B. Lenore, 2020, "A Theoretical Computer Science Perspective on Consciousness," Journal of Artificial Intelligence and Consciousness, 18.

D. Lee, 2020, Birth of Intelligence: From RNA to Artificial Intelligence, UK: Oxford University Press.

L. Segal, 2001, The Dream of Reality: Heinz VonFoerster's Constructivism, Berlin: Springer Science & Business Media.

M. A. Boden, 2016, AI: Its Nature and Future, UK: Oxford University Press.

R. Collobert; J. Weston; L. Bottou; M. Karlen; K. Kavukcuoglu; P. Kuksa, 2011, "Natural Language Processing (almost) from Scratch," Journal of Machine Learning Research, 12.

S. Wintermute, 2010, Abstraction, Imagery, and Control in Cognitive Architecture, Michigan: University of Michigan.

Discussion on Some Issues of Intelligent Man-Machine Interface

Liu Wei

Abstract: There is no relationship between "non-existent existents" and intelligence, while the later can be used to explore the former. Also, there is no direct relations between "non-existent existents" and man-machine function allocation, though the later may be influenced by the former. There is a close relation between emotion and human-machine function allocation, since the former involves in the later. In exploring "non-existent existents", both human and artificial intelligence can play their parts. Emotion plays a significant part in both man-machine interaction and human-machine function allocation. Robots' capabilities need to be expanded through innovation and development to the more complex tasks and environments.

Keywords: non-existent existents, intelligence, artificial intelligence, emotion, man-machine interaction, man-machine function allocation

[責任編輯:桂 琰]