3.4?知識(shí)分子The Intellectual
圖源:pixabay
編者按
今年年初,國(guó)產(chǎn)大模型DeepSeek憑借低成本和優(yōu)秀的推理能力震動(dòng)了業(yè)界,但對(duì)普通人來(lái)說(shuō),恐怕給人更深刻的是它犀利的語(yǔ)言風(fēng)格??磻T了GPT-4百科式精準(zhǔn)而波瀾不驚的語(yǔ)言風(fēng)格,DeepSeek的嬉笑怒罵讓人親切得多,甚至有時(shí)會(huì)讓人覺(jué)得恍惚。AI似乎早已躍出了我們對(duì)工具的固有認(rèn)知,我們對(duì)話(huà)的,是不是已經(jīng)是一個(gè)具有智能的硅基生命?
在新書(shū)《為機(jī)器立心》中,北京通用人工智能研究院院長(zhǎng)、北京大學(xué)智能學(xué)院院長(zhǎng)、北京大學(xué)人工智能研究院院長(zhǎng)、清華大學(xué)基礎(chǔ)科學(xué)講席教授朱松純就為我們講述了和AI的“相處之道”,我們應(yīng)該如何和AI共生,又如何讓AI理解人類(lèi)的善與美。
本書(shū)是朱松純教授對(duì)通用人工智能的深刻思考與實(shí)踐總結(jié),解答了什么是通用人工智能、如何認(rèn)清智能的本質(zhì)、如何為人工智能找到統(tǒng)一理論與認(rèn)知架構(gòu),進(jìn)而為機(jī)器立“心”等重要問(wèn)題。旨在為AI賦予“心”與“魂”,開(kāi)啟智能時(shí)代的“中國(guó)時(shí)刻”。
書(shū)中不僅直面當(dāng)下AI的迷思——如“ChatGPT是否只是‘缸中之腦’”“如何超越‘鸚鵡學(xué)舌’式的智能”,還提出了獨(dú)到的“1238”路線圖:一個(gè)統(tǒng)一框架、兩大系統(tǒng)完備性、三項(xiàng)基本特征、八大關(guān)鍵問(wèn)題,為通用人工智能的研究提供了系統(tǒng)性思路。書(shū)中還介紹了四大研究成果:通用智能體“通通”、大任務(wù)仿真平臺(tái)“通界”、評(píng)級(jí)標(biāo)準(zhǔn)“通智測(cè)試”、科研平臺(tái)“通境”,并探討了AI與產(chǎn)業(yè)結(jié)合的可能性。
以下內(nèi)容出自該書(shū)第一章。朱松純指出,我們對(duì)于大模型的能力仍然存在高估,更關(guān)鍵的是,大模型的雖然出色,但仍然是缸中之腦,不具備真正的智能。若AI無(wú)法建立符號(hào)與實(shí)在的實(shí)質(zhì)性聯(lián)結(jié),它的“智能”可能終將困于語(yǔ)言的鏡廳之中。
撰文 |朱松純
01 大模型與缸中之腦
缸中之腦是由哲學(xué)家希拉里·帕特南(Hilary Putnam)提出的一個(gè)著名思想實(shí)驗(yàn)。如圖 1-1 所示,該實(shí)驗(yàn)假設(shè)將人的大腦與身體剝離,大腦被放入一個(gè)能夠維持其機(jī)能的盛有營(yíng)養(yǎng)液的容器中,一臺(tái)聯(lián)結(jié)大腦神經(jīng)元的超級(jí)計(jì)算機(jī)負(fù)責(zé)制造出各種幻象,讓大腦誤以為一切仍保持正常,就像《黑客帝國(guó)》所演繹的那樣。那么,人類(lèi)該怎么知道自己不是 “缸中之腦”呢?
圖1-1 "缸中之腦"
基于語(yǔ)義學(xué)的分析,帕特南指出,當(dāng)處于缸中大腦狀態(tài)的人聲稱(chēng)自己是“缸中之腦”時(shí),“缸”和“腦”的所指已經(jīng)發(fā)生了變化。如何理解這一觀點(diǎn)呢?
舉個(gè)簡(jiǎn)單的例子:假設(shè)存在一個(gè)孿生地球,其居民的生活方式、語(yǔ)言均與人類(lèi)相同,但他們的水分子構(gòu)成為 XYZ,而不是 H2O。兩種“水”在外觀、用途和名稱(chēng)上并無(wú)差異,且兩地居民對(duì)“水”的心理感知相同,但它們指向的實(shí)質(zhì)卻不同,因此其含義也應(yīng)有所區(qū)別。這也啟示研究者要從符號(hào)落地(symbol grounding)的視角看待大模型[1]。
我們研究團(tuán)隊(duì)的成員前段時(shí)間發(fā)表了一篇論文:Brain in a Vat: On Missing Pieces Towards Artificial General Intelligence in Large Language Models(《缸中之腦:關(guān)于大語(yǔ)言模型建立的通用人工智能的一些缺失》)。該論文指出大模型無(wú)異于“缸中之腦”,因?yàn)榇竽P捅旧聿⒉淮嬖谟谡鎸?shí)世界中,無(wú)法像人一樣實(shí)現(xiàn)從“詞語(yǔ)(word)”到“世界(world)”的聯(lián)結(jié)。
這一點(diǎn)是由它的內(nèi)在構(gòu)造機(jī)制所決定的,即通過(guò)統(tǒng)計(jì)建模在大量文本上進(jìn)行訓(xùn)練,學(xué)習(xí)文本之間的語(yǔ)言學(xué)相關(guān)關(guān)系,從而根據(jù)上一個(gè)詞語(yǔ)預(yù)測(cè)下一個(gè)詞語(yǔ)。缺乏符號(hào)落地使得大模型很容易陷入無(wú)限循環(huán),如圖 1-2 所示,用戶(hù)啟動(dòng)了一個(gè)話(huà)題,讓兩個(gè) GPT-4 進(jìn)行對(duì)話(huà),它們?cè)谥贿M(jìn)行一輪對(duì)話(huà)后,就開(kāi)始對(duì)彼此表示感謝,并且無(wú)限重復(fù)“感謝”。這與符號(hào)落地理論相呼應(yīng),即當(dāng)不能建立從詞語(yǔ)到世界的聯(lián)結(jié)時(shí),對(duì)話(huà)將進(jìn)入無(wú)限循環(huán)。
圖 1-2 兩個(gè) GPT-4 無(wú)限循環(huán)的對(duì)話(huà)
大模型的智能與其說(shuō)是內(nèi)在的,不如說(shuō)是人類(lèi)智能的投影。大模型生成的文本本身并不具有意義,其意義完全取決于人類(lèi)用戶(hù)對(duì)文本的闡釋。美國(guó)語(yǔ)言學(xué)家諾姆·喬姆斯基(Noam Chomsky)曾經(jīng)嘗試挑戰(zhàn)語(yǔ)言學(xué)界,構(gòu)造了一個(gè)符合語(yǔ)法規(guī)范但無(wú)意義的句子:無(wú)色的綠思狂暴地沉睡(Colorless green ideas sleep furiously)。中國(guó)語(yǔ)言學(xué)之父趙元任在《從胡說(shuō)中尋找意義》一文中,以一種充滿(mǎn)哲思的方式闡釋了這個(gè)句子:
我有一個(gè)朋友,總是充滿(mǎn)各種想法,好的和壞的,精致的和粗糙的,陳舊的和新穎的。在付諸實(shí)踐之前,他通常會(huì)把新 的想法放在心里,讓它們成熟和發(fā)酵。然而,當(dāng)他匆忙時(shí),有時(shí)會(huì)在想法完全成熟之前就付諸實(shí)踐,換句話(huà)說(shuō),當(dāng)它們還很 “生”的時(shí)候。他的一些“生綠”想法非常生動(dòng)且豐富多彩,但并非總是如此,有些則相當(dāng)樸素和無(wú)色。當(dāng)他想起一些無(wú)色的想法仍然太不成熟,以至于無(wú)法使用時(shí),他會(huì)再次考慮,或者讓它們“睡覺(jué)”,正如他所說(shuō)的那樣。但是,其中一些想法可能彼此沖突和矛盾,當(dāng)它們?cè)谕煌砩弦黄稹八X(jué)”時(shí),它們會(huì)爆發(fā)激烈的爭(zhēng)斗,將整個(gè)夜晚變成一場(chǎng)噩夢(mèng)。因此,我的朋友經(jīng)常抱怨說(shuō),他那些無(wú)色的“生綠”想法睡得很狂暴。
這段充滿(mǎn)哲思的闡釋讓我們深刻理解到,文字本身并不攜帶固有的意義,而是人類(lèi)賦予了它們意義。這種意義既可以是字詞本身的含義,也可以是結(jié)合了現(xiàn)實(shí)生活體驗(yàn),從而超越單個(gè)字詞而在語(yǔ)境中創(chuàng)造出來(lái)的新的含義。因此,意義的前提是符號(hào)落地。
現(xiàn)在的大模型更多的是在純符號(hào)空間中進(jìn)行符號(hào)組合,即使它們生成了諸如“我愛(ài)你”這樣的語(yǔ)句,也不過(guò)是另一種形式的“缸中之腦”。這種表達(dá)缺乏對(duì)人類(lèi)真實(shí)生活體驗(yàn)的深刻理解,因此與我們所認(rèn)同和期待的“我愛(ài)你”有著本質(zhì)的不同。
02 是真的掌握了概念,還是僅僅形成了“隱藏記憶”
大模型訓(xùn)練數(shù)據(jù)集的不透明性,以及人類(lèi)評(píng)估時(shí)所采取的指標(biāo)差異,可能導(dǎo)致人類(lèi)高估了大模型的真實(shí)性能。
大模型通常利用龐大且容易獲取的互聯(lián)網(wǎng)數(shù)據(jù)進(jìn)行訓(xùn)練,而訓(xùn)練數(shù)據(jù)中可能包括了用于后續(xù)評(píng)估的數(shù)據(jù)集。由于我們目前無(wú)法確切了解 GPT-4 等大模型訓(xùn)練數(shù)據(jù)集的構(gòu)成,“泛化”這一概念變得模糊不清。我們難以判斷這些模型是真的掌握了核心概念,還是僅僅在從訓(xùn)練過(guò)程中形成的“隱藏記憶”中進(jìn)行檢索。這種不透明性阻礙了學(xué)術(shù)界對(duì)這些模型進(jìn)行公正和可靠的評(píng)估。
圖 1-3 顯示的是一道連掌握加減進(jìn)位運(yùn)算的小學(xué)生都能正確解答的數(shù)學(xué)題,但是 GPT-4 大模型卻算錯(cuò)了。這說(shuō)明大模型沒(méi)有掌握哪怕最簡(jiǎn)單的加減法運(yùn)算規(guī)則。
圖 1-3 GPT-4 大模型出現(xiàn)的計(jì)算錯(cuò)誤
圖 1-4 顯示的是 GPT-4 大模型未經(jīng)事實(shí)驗(yàn)證,就胡亂編造地生成 “林黛玉倒拔垂楊柳”的事實(shí)性錯(cuò)誤內(nèi)容。這說(shuō)明大模型雖然通過(guò)海量文本數(shù)據(jù)分別學(xué)到了“林黛玉在大觀園”和“魯智深倒拔垂楊柳”的內(nèi)容,但是本質(zhì)上并不具備事實(shí)判斷的能力。它所表現(xiàn)出的乃是一種“知識(shí)幻象”。
圖 1-5 顯示的是 GPT-4 大模型編造的宋江、吳用、花榮“桃園三結(jié)義”的故事。這同樣說(shuō)明了大模型本質(zhì)上不具備事實(shí)判斷的能力,而只表現(xiàn)出一種“知識(shí)幻象”。
圖 1-4 GPT-4 大模型杜撰的“林黛玉倒拔垂楊柳”
圖1-5 GPT-4 大模型自行更換了“桃園三結(jié)義”中的人物
圖1-6 顯示的是當(dāng)輸入“馬騎著宇航員”的英文“A horse is ridingan astronaut”時(shí),某文生圖大模型生成的結(jié)果。生成的圖像是宇航員騎著馬,而不是馬騎著宇航員。這表明該模型在理解自然語(yǔ)言的字面含義方面存在局限,并不能準(zhǔn)確地解析和生成與輸入語(yǔ)句含義相符的圖像。
圖1-6 某文生圖大模型生成的錯(cuò)誤圖像
此外,大模型的一個(gè)重要問(wèn)題是嘗試將本身不屬于語(yǔ)言范疇的問(wèn)題轉(zhuǎn)化為語(yǔ)言問(wèn)題。然而,在這一轉(zhuǎn)化下,本身不使用語(yǔ)言而使用計(jì)算模型的問(wèn)題自然變得漏洞百出。比如,經(jīng)過(guò)統(tǒng)計(jì),在處理一個(gè)小學(xué)難度的數(shù)據(jù)集時(shí),即使是采用了多步迭代策略的大模型,其正確率也難以超過(guò) 50%。大模型在處理數(shù)據(jù)集時(shí)的正確率見(jiàn)表 1-1。
在傳統(tǒng)邏輯推理任務(wù)中,大模型的準(zhǔn)確度往往依賴(lài)于語(yǔ)言的清晰度和具體性。一旦我們將原本具有明確語(yǔ)義的詞匯替換為抽象的符號(hào),大模型的推理能力就會(huì)急劇下降。
大模型做不好抽象推理,在那些僅依賴(lài)于從幾個(gè)小樣本中找到潛在規(guī)律的任務(wù)中,大模型的表現(xiàn)較為一般。如圖1-7 所示,在以英國(guó)學(xué)者約翰·C. 瑞文(John C. Raven)命名的瑞文標(biāo)準(zhǔn)推理測(cè)驗(yàn)中,測(cè)試者需要根據(jù)已有的8 個(gè)圖形的形狀、數(shù)量、大小等,尋找隱含的規(guī)律,然后推理出最后一個(gè)圖形。大模型在瑞文標(biāo)準(zhǔn)推理測(cè)驗(yàn)中的表現(xiàn)較差。
圖1-7 瑞文標(biāo)準(zhǔn)推理測(cè)驗(yàn)中的圖形推理問(wèn)題
大模型在創(chuàng)造力方面的表現(xiàn)也遠(yuǎn)遠(yuǎn)不如人類(lèi),甚至在某些方面達(dá)不到兒童的水平。最近,研究人員提出一種創(chuàng)造力測(cè)試方法,靈感源于歐美廣受歡迎的電視節(jié)目中的游戲環(huán)節(jié)。這項(xiàng)測(cè)試要求參與者對(duì)一組單詞進(jìn)行分類(lèi),并說(shuō)明其分類(lèi)的邏輯依據(jù)。實(shí)驗(yàn)結(jié)果顯示,與人類(lèi)參與者相比,大模型在解決此類(lèi)問(wèn)題時(shí)遇到了顯著的困難。
大模型雖然在某些方面表現(xiàn)出色,但它們并不具備真正的“智能”,更像是一種新型的“數(shù)據(jù)庫(kù)”。在實(shí)際應(yīng)用中,大模型最常面臨的問(wèn)題之一是所謂的“幻覺(jué)”現(xiàn)象。這些模型在海量文本數(shù)據(jù)上進(jìn)行訓(xùn)練,因此在回答問(wèn)題時(shí),它們往往會(huì)搜索所有訓(xùn)練數(shù)據(jù),尋找與問(wèn)題在統(tǒng)計(jì)意義上相似的內(nèi)容來(lái)回答。然而,這種回答僅僅基于問(wèn)題和數(shù)據(jù)之間的 “相似性”,并不是真正的“相關(guān)性”。
數(shù)據(jù)價(jià)值趨于飽和,學(xué)術(shù)界普遍認(rèn)為大模型不是通用人工智能。OpenAI 的首席執(zhí)行官山姆·奧爾特曼(Sam Altman)曾公開(kāi)表示,目前大模型所使用的數(shù)據(jù)量已經(jīng)接近公開(kāi)可獲取數(shù)據(jù)的極限,盲目提升規(guī)模并不會(huì)帶來(lái)可預(yù)見(jiàn)的突破。
數(shù)據(jù)是大模型訓(xùn)練中的關(guān)鍵要素。在微軟的加持下,OpenAI 得以利用先進(jìn)的搜索技術(shù),其訓(xùn)練數(shù)據(jù)集已經(jīng)非常廣泛,幾乎涵蓋了互聯(lián)網(wǎng)上所有可公開(kāi)訪問(wèn)的信息,數(shù)據(jù)的價(jià)值幾乎已經(jīng)被耗盡。
GPT-4 在很大程度上代表了在當(dāng)前數(shù)據(jù)集規(guī)模下所能達(dá)到的性能極限。在這種情況下,單純?cè)黾訑?shù)據(jù)量或模型規(guī)模,將難以在人工智能領(lǐng)域再次實(shí)現(xiàn)質(zhì)的飛躍。
03 為什么大模型不是AGI
在圖靈獎(jiǎng)得主楊立昆(Yann LeCun)看來(lái),大模型研究是在走人工智能的下坡道?,F(xiàn)有的研究缺乏對(duì)于認(rèn)知推理模型的構(gòu)建,而單純的數(shù)據(jù)驅(qū)動(dòng)無(wú)法達(dá)成人類(lèi)級(jí)別的智能。楊立昆同時(shí)表示,ChatGPT 缺乏創(chuàng)新,沒(méi)什么革命性,ChatGPT 推出的 GPT-3.5 模型在很多方面綜合了這些年來(lái)多方所開(kāi)發(fā)的多種技術(shù)。
加州大學(xué)伯克利分校認(rèn)知心理學(xué)教授艾利森·戈?duì)柲峥耍ˋlison Gopnik)在近期的文章中指出,大模型是一種模仿機(jī)器,缺乏認(rèn)知推理所需的創(chuàng)造力。許多嬰兒都能完成的任務(wù),大模型至今無(wú)法完成。
首先,大模型語(yǔ)言空間無(wú)法覆蓋所有智能任務(wù)。由于大模型對(duì)于符號(hào)數(shù)據(jù)的依賴(lài)性,其性能僅表達(dá)符號(hào)層面的“知”,卻無(wú)法完成操作層面的“行”,不滿(mǎn)足對(duì)于通用智能體“知行合一”的要求。
現(xiàn)實(shí)生活中存在大量符號(hào)數(shù)據(jù)難以表達(dá)的任務(wù),比如,炒菜的時(shí)候如何把握火候、駕駛的時(shí)候如何控制方向等。這一類(lèi)任務(wù)無(wú)法利用符號(hào)化的文字進(jìn)行表達(dá),也無(wú)法利用大模型進(jìn)行學(xué)習(xí)。同時(shí),大模型由于沒(méi)有“行”,沒(méi)有動(dòng)機(jī)、目標(biāo),也沒(méi)有操作的具身空間,完全無(wú)法像人類(lèi)一樣,在一個(gè)實(shí)體空間中進(jìn)行主動(dòng)探索、發(fā)現(xiàn)知識(shí)和積累知識(shí)。這使得大模型只能被動(dòng)獲取內(nèi)容,而無(wú)法主動(dòng)掌握技能。
麥克阿瑟“天才獎(jiǎng)”得主、華盛頓大學(xué)教授、美國(guó)阿蘭圖靈研究中心研究員葉因·蔡(Yejin Choi)在 TED 大會(huì)上公開(kāi)表示,大模型缺乏常識(shí)概念,不具備人類(lèi)主動(dòng)探索的能力。
其次,大模型具有虛假涌現(xiàn)及不可控的特性。斯坦福大學(xué)的研究者們最近發(fā)現(xiàn),大模型所謂的涌現(xiàn)能力并非真實(shí)存在,而是衡量標(biāo)準(zhǔn)的結(jié)果。他們采用了非線性衡量標(biāo)準(zhǔn),如采用指數(shù)標(biāo)準(zhǔn) xn。隨著 x 的線性增長(zhǎng),模型的表現(xiàn)似乎呈現(xiàn)出指數(shù)爆炸式的涌現(xiàn)現(xiàn)象。然而,如果采用線性衡量標(biāo)準(zhǔn),大模型的表現(xiàn)僅呈現(xiàn)線性增長(zhǎng),不存在性能提升越來(lái)越快的情況,更不存在量變到質(zhì)變的可能。
此外,基于神經(jīng)網(wǎng)絡(luò)的大模型有巨大的不可控性。作為一個(gè)黑盒模型,我們無(wú)法預(yù)測(cè)其輸出內(nèi)容,尤其是在輸入大量錯(cuò)誤信息后,模型很容易產(chǎn)生不可控的輸出。
[1]《知識(shí)分子》編者注:帕特南認(rèn)為,詞語(yǔ)的意義不僅依賴(lài)心理狀態(tài)或語(yǔ)言規(guī)則,更取決于其與外界的實(shí)際指稱(chēng)關(guān)聯(lián)。若一個(gè)人是缸中大腦,其感官經(jīng)驗(yàn)完全由計(jì)算機(jī)模擬,那么“缸”和“腦”所指的并非真實(shí)對(duì)象,而是虛擬信號(hào);同樣,孿生地球上的“水”雖與地球水外觀相同,但因化學(xué)成分為XYZ而非H?O,其意義已悄然分化。這引出了符號(hào)落地問(wèn)題:語(yǔ)言符號(hào)需通過(guò)與現(xiàn)實(shí)世界的直接關(guān)聯(lián)獲得意義。而當(dāng)前大語(yǔ)言模型雖能通過(guò)文本數(shù)據(jù)生成語(yǔ)言,卻缺乏與現(xiàn)實(shí)經(jīng)驗(yàn)的直接錨定。
BOOK TIME
《通用人工智能的中國(guó)藍(lán)圖系列(套裝2冊(cè))》
朱松純著
浙江科學(xué)技術(shù)出版社
2024年12月 出版
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.