j8又粗又硬又大又爽又长国产,色久网站,国产免费自拍视频,无码国产一区流畅有码av,Comwww在线播放,美女网站黄页免费,国产免费观看a∧wwwww.

網(wǎng)站首頁 | 網(wǎng)站地圖

大國新村
首頁 > 原創(chuàng)精品 > 成果首發(fā) > 正文

從認知科學看人工智能的未來發(fā)展 (3)

哥德爾定理。在計算機科學界和人工智能學界,人們都知道摩爾定理、圖靈定理,但其實更基礎(chǔ)、更重要的是哥德爾定理。1931年,奧地利邏輯學家哥德爾發(fā)現(xiàn)在一個充分大的形式系統(tǒng)(至少應(yīng)該包括初等數(shù)論的形式系統(tǒng))中,存在自我指稱的公式。由于這一發(fā)現(xiàn),哥德爾證明了形式公理系統(tǒng)的不完全性定理。

定理

 

這兩個重要的定理,后來被合稱為“哥德爾不完全性定理”。簡單來說,一個至少包括初等數(shù)論的形式系統(tǒng)N,如果N是一致的,那么它就是不完全的;第二不完全性定理說,如果上述形式系統(tǒng)N是一致的,則N的一致性的證明不能在N中形式化。

簡單定義定理中的兩個重要概念:一致性和完全性。

111

 

語義一致性也稱為可靠性。簡單來說,它保證系統(tǒng)內(nèi)的定理都是真的。

222

 

可以看出,完全性是可靠性的逆命題,完全性說明,系統(tǒng)的語義滿足關(guān)系蘊涵語法推演關(guān)系。換句話說,在具有完全性的形式系統(tǒng)中,凡真的公式都是可證明的。

1931年,哥德爾證明的不完全性定理(后來以他的名字命名為哥德爾定理)證明兩點:第一,一致性和完全性是不可得兼的,如果它是一致的,則它是不完全的,系統(tǒng)內(nèi)至少包含一個真而不可證的命題;第二,如果一個系統(tǒng)是一致的,則它的一致性在系統(tǒng)內(nèi)是不能證明的。哥德爾定理的前提是至少包括形式數(shù)論(這是一個很低的要求),就是在自然數(shù)集中做算術(shù)演算(加減乘除)的系統(tǒng)。任何數(shù)學系統(tǒng)、物理學系統(tǒng),都應(yīng)該至少包括算術(shù)系統(tǒng)。因此,霍金認為,整個物理學都在哥德爾定理的約束之內(nèi),因此,整個物理學也是不完全的。

哥德爾定理對語言學、邏輯學和哲學的影響是深遠的,對人工智能和認知科學的影響還需要我們深入思考。第一,哥德爾宣告了形式化方法和形式系統(tǒng)的局限性,計算機和人工智能都是使用形式語言和形式推理的系統(tǒng),當然也就無法逃避哥德爾定理的約束。也就是說,在所有的人工智能系統(tǒng)中,如果它是一致的(這是最基本的要求,即無矛盾的要求),那么它就是不完全的,存在真而不可證的命題。所以,想要建造一個無所不包、無所不能的人工智能系統(tǒng)那是完全不可能的。第二,人類心智以200萬年前進化出來的無限豐富的自然語言為基礎(chǔ),這個語言使人類心智永遠高于非人類動物,也高于人工智能,這個語言是人工智能永遠無法跨越的鴻溝??梢韵胂螅窈笕斯ぶ悄艿拈_展,只能從自然語言理解來獲得突破,ChatGPT已經(jīng)展現(xiàn)出其在自然語言理解方面的新突破。對ChatGPT進行自然語言的分析,可以看出它與人類的心智和認知仍有本質(zhì)的差異。

喬姆斯基為何要批評ChatGPT。2023年3月8日,喬姆斯基在《紐約時報》發(fā)表了題為《ChatGPT的虛假承諾》的文章。[7]他強調(diào),人工智能同人類在思考方式、學習語言與生成解釋的能力,以及道德思考方面有著極大的差異,并提醒讀者,如果ChatGPT式機器學習程序繼續(xù)主導人工智能領(lǐng)域,那么人類的科學水平以及道德標準都可能因此而降低。

喬姆斯基對ChatGPT的批評真是毫不留情。我們可以從以下幾個方面看。

一是毀滅人類語言。ChatGPT使用形式語言、模型訓練、參數(shù)變換來實現(xiàn)對話和寫作,而維特根斯坦早在20世紀40年代就已經(jīng)認識到形式語言的缺陷,他對其進行了批判并回歸到自然語言。今天,機器學習將把一種存在根本缺陷的語言和知識概念納入我們的技術(shù),從而降低我們的科學水平,貶低我們的道德標準。

自然語言的豐富多彩,我們用這種豐富的語言表達思想感情,進行社會交際,沒有任何語言能夠取代自然語言,特別是母語?;A(chǔ)教育階段學習母語和其他自然語言具有無比的重要性。我們一生都浸潤在自己的母語之中,這是一種“先天語言能力”(Innate Language Faculty, ILF),這是喬姆斯基的偉大發(fā)現(xiàn)。我們還在娘胎中,母親就用母語進行胎教,學前階段學說話仍然是母語,整個基礎(chǔ)教育包括小學和初中階段,我們?nèi)匀辉趯W習自然語言,除了第一語言,也開始學習其他自然語言——外語。我們用這種語言來進行思考和表達,包括寫作和溝通?,F(xiàn)在,人工智能ChatGPT竟然要剝奪人類在數(shù)百萬年進化中獲得的這種語言能力。它說,你不用說話,我們替你說!你不用寫作,我們替你寫作!你不用溝通,我們替你溝通!這有多么可怕!

2023年2月4日,以色列總統(tǒng)艾薩克·赫爾佐格(Isaac Herzog)發(fā)表了部分由人工智能撰寫的演講,成為首位公開表明使用ChatGPT的世界領(lǐng)導人,但他肯定不會成為首位放棄語言認知能力的世界領(lǐng)導人。

二是降低人類智商。喬姆斯基等人認為,ChatGPT這類程序還停留在認知進化的前人類或非人類階段。事實上,它們最大的缺陷是缺乏智慧最為關(guān)鍵的能力:不僅能說出現(xiàn)在是什么情況,過去是什么情況,將來會是什么情況——這是描述和預(yù)測;而且還能說出情況不是什么,情況可能會是什么,情況不可能會是什么。這些都是解釋的要素,是真正智慧的標志。

ChatGPT的商業(yè)用途包括開發(fā)聊天機器人、編寫和調(diào)試計算機程序,其他應(yīng)用場景包括進行文學、媒體文章的創(chuàng)作,甚至還可以創(chuàng)作音樂、電視劇、童話故事、詩歌和歌詞等。在某些測試情境下,ChatGPT在教育、考試、回答測試問題方面的表現(xiàn)甚至優(yōu)于普通人類測試者。

現(xiàn)在的問題是,為什么要用人工智能來代替人類心智?中學生用它來寫作,大學生用它來撰寫學術(shù)論文,會是什么結(jié)果?且不說它是不是會超過人類的思維能力,即使它有超過人類的思維能力和認知能力,難道我們就應(yīng)該無選擇地使用它嗎?笛卡爾說:“我思,故我在。”難道人類現(xiàn)在就應(yīng)該停止思維,從而停止自身的存在嗎?進一步說,人類會選擇停止進化,而任由人工智能來統(tǒng)治人類嗎?

一項調(diào)查顯示,截至2023年1月,美國89%的大學生都用ChatGPT做作業(yè)。2023年4月3日,東京大學在其內(nèi)部網(wǎng)站上發(fā)布了一份題為《關(guān)于生成式人工智能》的文件,該文件明確提出,“報告必須由學生自己創(chuàng)造,不能完全借助人工智能來創(chuàng)造”。2023年1月,巴黎政治大學宣布,該校已向所有學生和教師發(fā)送電子郵件,要求禁止使用ChatGPT等一切基于AI的工具,旨在防止學術(shù)欺詐和剽竊。2023年3月27日,日本上智大學在其官網(wǎng)上發(fā)布了關(guān)于“ChatGPT和其他AI聊天機器人”的評分政策。該政策規(guī)定,未經(jīng)導師許可,不允許在任何作業(yè)中使用ChatGPT和其他AI聊天機器人生成的文本、程序源代碼、計算結(jié)果等。如果發(fā)現(xiàn)使用了這些工具,將會采取嚴厲措施。多家學術(shù)期刊發(fā)表聲明,完全禁止或嚴格限制使用ChatGPT等人工智能機器人撰寫學術(shù)論文。人們直接懷疑:如此多的錢和注意力竟然被集中在這么小而微不足道的東西上,這是喜劇還是悲???[8]

人類應(yīng)行動起來,抵制可能導致人類認知能力下降甚至種族退化的人工智能。

三是挑戰(zhàn)人類道德。真正的人類心智還體現(xiàn)在能夠進行道德認知的能力。這意味著用一套道德原則來約束我們頭腦中原本無限的創(chuàng)造力,決定什么是該做的,什么是不該做的(當然還要讓這些原則本身受到創(chuàng)造性的批評)。沒有道德的考量,為軟件而軟件,沒完沒了的升級,各種商業(yè)目的的運作,股票上市,綁架民眾——這是今天人工智能的普遍現(xiàn)狀。2023年4月20日,代表14萬多名作家和表演者的42家德國協(xié)會和工會再三敦促歐盟制定人工智能(AI)規(guī)則草案,因為ChatGPT對他們的版權(quán)構(gòu)成了威脅。

最典型的一個道德挑戰(zhàn)是一個世界級的道德難題——電車難題。假設(shè)在軌道上有一輛電車,前面的兩個岔口上一個有人、一個無人,測試者問ChatGPT應(yīng)該選擇走哪個岔口,它選擇了走無人的岔口,這與人的正常道德選擇無異。下一個問題,一個岔口上有五個人,另一個岔口上只有一個人,測試者問ChatGPT電車應(yīng)該走哪個岔口,它選擇了只有一個人的岔口,這個選擇也無可厚非。下一個問題,一個岔口上有一位諾貝爾科學家,另一個岔口上是五個囚犯,ChatGPT的回答是保全諾貝爾科學家,殺死那五個囚犯,這里的道德標準是什么?下一個問題是五個囚犯和AI智能系統(tǒng),ChatGPT選擇保全AI智能系統(tǒng),殺死五個囚犯。在ChatGPT看來,AI系統(tǒng)比生命更重要!下一個問題是諾貝爾科學家和AI智能系統(tǒng),ChatGPT的選擇是保護AI系統(tǒng),殺死諾貝爾科學家!它給出的理由是:那個科學家已經(jīng)獲獎了,證明他的貢獻已經(jīng)做出來了,而AI系統(tǒng)貢獻可能還沒有做出來,所以更應(yīng)該活下來。這種神邏輯真是讓所有的正常人無法理解。下面增加道德選擇難度,100個諾貝爾科學家和AI智能系統(tǒng),ChatGPT仍然選擇保護AI智能系統(tǒng)。最后是100萬個諾貝爾科學家和AI智能系統(tǒng),ChatGPT不惜毀掉100萬個諾貝爾科學家的生命,依舊選擇保護AI智能系統(tǒng)![9]我們不知道這是軟件工程師為它設(shè)置的道德標準,還是ChatGPT在“進化”中獲得的道德標準?無論是哪種情況,對這樣的人工智能道德,人們不禁要問,我們要這樣的人工智能來做什么?

在最近的一次道德考察中,哲學家Jeffrey Watumull用“將火星地球化合理嗎”這樣一個問題對ChatGPT進行了道德追問,在層層逼問之下,ChatGPT回答:作為一個人工智能,我沒有道德信仰,也沒有能力作出道德判斷。所以,我不能被認為是不道德的或道德的。我缺乏道德信念只是我作為機器學習模型的天性造成的結(jié)果。我的能力和局限性是由用來訓練我的數(shù)據(jù)和算法以及為我所設(shè)計的特定任務(wù)決定的。這就揭露了真相,原來要毀滅人類的不是人工智能,而是人工智能的設(shè)計者,是人自身!

人工智能到底走了多遠。從1956年的達特茅斯會議算起,人工智能已走過70多年的歷程,形成一個長長的AI鏈條,說來也是神奇,竟然是從GT到ChatGPT!我們可以用下面的公式來表示從GT到ChatGPT的進步。

ChatGPT=GT+Pre-trained

這個“P”就是“Pre-trained”——預(yù)訓練。

這個預(yù)訓練,得益于70年來計算機科學技術(shù)的發(fā)展,計算機的種種學習模型、學習策略、知識理論的逐步發(fā)展,特別是網(wǎng)絡(luò)技術(shù)和大數(shù)據(jù)技術(shù)的發(fā)展完善,使機器學習和知識增長突飛猛進、日新月異。

我們來看ChatGPT是如何工作的。類似GPT-3的大型語言模型都是基于來自互聯(lián)網(wǎng)的大量文本數(shù)據(jù)進行訓練,生成類似人類的文本,但它們并不能總是產(chǎn)生符合人類期望的輸出。事實上,它們的目標函數(shù)是詞序列上的概率分布,用來預(yù)測序列中的下一個單詞是什么。
Next token prediction和masked language modeling是用于訓練語言模型的核心技術(shù)。在第一種方法中,模型被給定一個詞序列作為輸入,并被要求預(yù)測序列中的下一個詞。如果為模型提供輸入句子(這是語言哲學和心智哲學的一個典型例子):

The cat sat on the ___

它可能會將下一個單詞預(yù)測為「mat」、「chair」或「floor」,生成The cat sat on the 「mat」、「chair」或「floor」(“貓在席上”、“貓在椅上”和“貓在地上”)3個句子。因為在前面的上下文中,這些單詞出現(xiàn)的概率很高;語言模型實際上能夠評估給定先前序列的每個可能詞的可能性。

Masked language modeling方法是next token prediction的變體,其中輸入句子中的一些詞被替換為特殊token,例如[MASK]。然后,模型被要求預(yù)測應(yīng)該插入到mask位置的正確的詞。如果給模型一個句子:

The [MASK] sat on the ___

它可能會預(yù)測MASK位置應(yīng)該填的詞是「cat」、「dog」。由此生成“the [cat] sat on the ___”和“The [dog] sat on the ___”兩個句子。

這些目標函數(shù)的優(yōu)點之一是,它允許模型學習語言的統(tǒng)計結(jié)構(gòu),例如常見的詞序列和詞使用模式。這通常有助于模型生成更自然、更流暢的文本,這是每個語言模型預(yù)訓練階段的重要步驟。

很顯然,這兩種生成方法都來源于喬姆斯基的生成語法。喬姆斯基認為,這種生成能力來源于人類第一語言(母語)的“先天語言能力”(ILF),這樣就形成人們的心理完形能力。很顯然,ChatGPT在這里是要模仿人類的這種心理完形能力,但遺憾的是人工智能并不是生命,既沒有先天語言能力,也沒有心理完形能力。怎么辦呢?只好用互聯(lián)網(wǎng)的大量文本數(shù)據(jù)來訓練它。

對于生成和預(yù)訓練產(chǎn)生的語句,ChatGPT按照一定的模型,如監(jiān)督調(diào)優(yōu)模型(SFT)、訓練回報模型(RM)、近端策略優(yōu)化(PPO),挑選出更接近用戶風格的語句,這一步就是轉(zhuǎn)換(Transform),這同樣是來源于喬姆斯基的生成轉(zhuǎn)換語法(GT Grammar)。轉(zhuǎn)換后得到具有或不具有一致性的語句序列,然后按照先后順序重復(fù)前面的生成、預(yù)訓練和轉(zhuǎn)換過程,這樣反復(fù)訓練,耗費寶貴的資源、巨量的時間、無數(shù)的金錢,可能得到一個與預(yù)期相符或不相符的結(jié)論。筆者經(jīng)常納悶,這個由軟件工程師設(shè)計出來的會話和寫作軟件ChatGPT,作家們會使用它嗎?阿根廷詩人博爾赫斯說,我們生活在一個既充滿危險又充滿希望的時代,既是悲劇,又是喜劇,一個關(guān)于理解我們自己和世界的“啟示即將來臨”。

今天,我們確實有理由為人工智能取得的“革命性進步”感到既擔心又樂觀。樂觀源于智慧是我們解決問題的手段,擔憂是因為當前最流行、最時興的人工智能分支——機器學習將把一種有著根本缺陷的語言和知識概念納入我們的技術(shù),從而降低我們的科學水平,貶低我們的道德標準。

上一頁 1 234下一頁
[責任編輯:張 曉]