成人深夜视频网站|日韩高清无码久久|中文a√在线天堂|亚洲黄网站在线看|欧美视频 第二页|日本 久草 天堂|高潮无遮挡黄视频|久久一级内射精品|国产操逼一级视频|五月天婷婷色AV

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

生成式人工智能對(duì)社會(huì)科學(xué)的機(jī)遇、風(fēng)險(xiǎn)和建議

0
分享至


生成式人工智能目前正在改變眾多不同行業(yè)。然而,尚不清楚此類工具會(huì)如何影響社會(huì)科學(xué)研究。美國(guó)杜克大學(xué)教授Christopher Andrew Bail在國(guó)際頂尖學(xué)術(shù)期刊《美國(guó)國(guó)家科學(xué)院院刊》發(fā)表了一篇題為《生成式人工智能可以推動(dòng)社會(huì)科學(xué)發(fā)展嗎?》(Can Generative AI improve social science)的文章,系統(tǒng)總結(jié)并分析了生成式人工智能對(duì)社會(huì)科學(xué)研究的機(jī)遇、風(fēng)險(xiǎn)和建議。本文認(rèn)為生成式人工智能技術(shù)有望改進(jìn)調(diào)查研究、在線實(shí)驗(yàn)等人類行為研究方法。不過(guò),訓(xùn)練數(shù)據(jù)的偏見、倫理、環(huán)境影響及低質(zhì)量研究泛濫等問題,也會(huì)對(duì)社會(huì)科學(xué)研究產(chǎn)生負(fù)面影響。文章最后指出,社會(huì)科學(xué)家可以通過(guò)創(chuàng)建研究人類行為的開源基礎(chǔ)設(shè)施來(lái)應(yīng)對(duì)生成式人工智能帶來(lái)的挑戰(zhàn)。啟元洞見編譯核心內(nèi)容,旨在為讀者提供參考。

一、什么是生成式人工智能

諸如ChatGPT之類的大語(yǔ)言模型(LLMs)會(huì)攝入海量基于文本的數(shù)據(jù),并計(jì)算在給定文本段落中,某個(gè)單詞(或詞組)在已有的語(yǔ)言模式下出現(xiàn)的概率。隨著技術(shù)進(jìn)步,人工智能研究人員能夠使用越來(lái)越多的文本數(shù)據(jù)訓(xùn)練此類模型,再加上“Transformer”架構(gòu),大語(yǔ)言模型能夠更嫻熟地掌握語(yǔ)言規(guī)律。因此,大語(yǔ)言模型類似于過(guò)去十年在搜索引擎、應(yīng)用程序中普遍存在的“自動(dòng)補(bǔ)全”技術(shù),但其規(guī)模要大得多,訓(xùn)練過(guò)程也更為復(fù)雜。盡管學(xué)者們對(duì)大語(yǔ)言模型是否“理解”其生成的內(nèi)容存在爭(zhēng)議,但許多人對(duì)其在對(duì)話場(chǎng)景中模仿人類、綜合不同信息源以及執(zhí)行基本推理的能力印象深刻。

圖像和視頻生成領(lǐng)域也取得進(jìn)展。生成式人工智能工具創(chuàng)建全新圖像時(shí),并非像語(yǔ)言模型那樣基于詞匯間的關(guān)系計(jì)算單詞出現(xiàn)的概率,而是通過(guò)不同顏色或尺寸像素的共現(xiàn)規(guī)律,組合生成一系列合成視覺內(nèi)容。這其中包括合成人臉、經(jīng)典藝術(shù)作品的復(fù)刻,或是超現(xiàn)實(shí)(有時(shí)極具創(chuàng)新性)的藝術(shù)形式——這些成果既引發(fā)了創(chuàng)意行業(yè)從業(yè)者的關(guān)注,也讓他們深感憂慮。諸如DALL-E和Stable Diffusion這類模型,能通過(guò)文本提示生成視覺內(nèi)容:它們會(huì)探尋詞匯共現(xiàn)模式與像素排列之間的關(guān)聯(lián),使用戶得以定制高度個(gè)性化的視覺素材。

二、生成式人工智能為社會(huì)科學(xué)帶來(lái)的機(jī)遇

盡管生成式人工智能模型存在顯著缺陷,但它們?cè)谀承﹫?chǎng)景下似乎能夠模仿人類。當(dāng)前,人類在很大程度上無(wú)法判斷此類文本的作者是人類還是大語(yǔ)言模型。例如研究顯示,GPT-3能輕松生成關(guān)于新冠疫情的虛假信息,但大多數(shù)社交媒體平臺(tái)沒有檢測(cè)出來(lái)。

盡管生成式人工智能成功模仿人類的能力顯然存在潛在危害,但這些能力或許能為社會(huì)科學(xué)家的研究目的所用。它可創(chuàng)建實(shí)驗(yàn)所需的文本或圖像,并在研究人員反饋下提升材料效度、可比性,還能保護(hù)真人隱私。生成短篇內(nèi)容時(shí),生成式人工智能出錯(cuò)率較低,在復(fù)雜行為模擬中也表現(xiàn)不俗,例如,GPT-3能按人口統(tǒng)計(jì)特征模仿民意調(diào)查受訪者,輸入受訪者特征細(xì)節(jié)后,其回答與真實(shí)受訪者高度相似。還有人認(rèn)為,生成式人工智能也是創(chuàng)建調(diào)查問題或設(shè)計(jì)多項(xiàng)目量表以衡量抽象社會(huì)概念的有用工具。此外,生成式人工智能還可用于復(fù)現(xiàn)實(shí)驗(yàn)。例如,大語(yǔ)言模型可復(fù)制認(rèn)知科學(xué)以及道德研究中的經(jīng)典實(shí)驗(yàn),并在囚徒困境和其他行為博弈中模擬人類行為。

生成式人工智能或?qū)⒋呱碌难芯啃问健?/strong>社會(huì)科學(xué)理論常涉及群體層面過(guò)程,但招募大量人群互動(dòng)困難且成本高。盡管生成式人工智能可能永遠(yuǎn)無(wú)法復(fù)制人類群體的自發(fā)行為,但研究人員或許仍能在網(wǎng)絡(luò)空間中部署機(jī)器人群體來(lái)近似模擬此類行為。有研究人員搭建了一個(gè)社交媒體研究平臺(tái),讓受訪者與模仿對(duì)立政黨成員的大語(yǔ)言模型互動(dòng)十分鐘,多數(shù)參與者難辨對(duì)方是人類還是機(jī)器人。該研究設(shè)計(jì)表明,只要研究人員實(shí)時(shí)仔細(xì)監(jiān)控人機(jī)互動(dòng)中的幻覺或?yàn)E用情況,大語(yǔ)言模型可能有助于開展群體層面過(guò)程的研究。

(一)生成式人工智能改進(jìn)基于模擬的研究

生成式人工智能工具可以用于直接模擬大規(guī)模人類群體,推動(dòng)“基于主體的建模”(ABM)范式革新。ABM指的是研究人員通過(guò)創(chuàng)建合成社會(huì)來(lái)研究社會(huì)進(jìn)程,要求研究人員用計(jì)算機(jī)代碼構(gòu)建社會(huì)場(chǎng)景的模擬(如社交網(wǎng)絡(luò)、社區(qū)或市場(chǎng)),并根據(jù)人類行為理論設(shè)定的規(guī)則,創(chuàng)建在這些場(chǎng)景中互動(dòng)的主體。ABM的一大優(yōu)勢(shì)在于,它允許研究人員探索假設(shè)場(chǎng)景,并從個(gè)體行為(如群體內(nèi)偏見)推導(dǎo)宏觀模式(如居住隔離)。但早期的ABM使用遵循簡(jiǎn)單規(guī)則的主體,因缺乏語(yǔ)言交互、社交情境理解等,難以捕捉人類行為全貌。

近期研究表明,大語(yǔ)言模型可用于解決基于模擬的研究的一些局限性。研究人員用GPT-3.5驅(qū)動(dòng)數(shù)十個(gè)主體在虛構(gòu)小鎮(zhèn)環(huán)境中互動(dòng),賦予主體們個(gè)性、特征及記憶,隨著模擬進(jìn)行,這些主體不僅形成日常生活規(guī)律,還展示了涌現(xiàn)的群體屬性(如討論是否參加派對(duì)、議論消息)。盡管該實(shí)驗(yàn)創(chuàng)建的模擬環(huán)境相對(duì)簡(jiǎn)單,但也證明了生成式人工智能對(duì)社會(huì)模擬的潛力。

此外,大語(yǔ)言模型可以集成到ABM中,以開發(fā)或測(cè)試更復(fù)雜的人類行為理論。例如,大語(yǔ)言模型可以重現(xiàn)社交媒體上的社會(huì)運(yùn)動(dòng)動(dòng)態(tài),還可以在模擬經(jīng)濟(jì)和勞動(dòng)力市場(chǎng)中重現(xiàn)競(jìng)爭(zhēng)動(dòng)態(tài)、組織內(nèi)的信息傳播和決策以及危機(jī)應(yīng)對(duì)。未來(lái)研究需明確大語(yǔ)言模型是否真實(shí)地體現(xiàn)了如此多人類行為的不可預(yù)測(cè)性。若解決,二者整合可研究現(xiàn)實(shí)中難觸及的主題(如社交媒體上的暴力極端主義)與人群(如暴力極端分子)。模擬也可以為我們?cè)谶@些主題上的少量觀察性研究提供信息,并且也可以使用這些觀察數(shù)據(jù)進(jìn)行校準(zhǔn)。其涌現(xiàn)的群體行為或?yàn)樯鐣?huì)干預(yù)提供參考,但需驗(yàn)證大語(yǔ)言模型模擬的真實(shí)性。

(二)生成式人工智能革新文本分析

無(wú)論生成式人工智能的行為模擬能力如何,這類技術(shù)已在社會(huì)科學(xué)文本數(shù)據(jù)分析中展現(xiàn)潛力。有研究證明,GPT-3.5通過(guò)分析美國(guó)官員公開聲明,可精準(zhǔn)分類其意識(shí)形態(tài),結(jié)果與主流投票分析方法高度吻合,還能捕捉中間派背離黨派極端的細(xì)微傾向。有學(xué)者使用由社會(huì)學(xué)、政治學(xué)和心理學(xué)等社會(huì)科學(xué)領(lǐng)域以及歷史、文學(xué)和語(yǔ)言學(xué)等非社會(huì)科學(xué)領(lǐng)域的專家編碼的數(shù)據(jù)集,比較了大語(yǔ)言模型重現(xiàn)人類專家注釋者工作的能力??傮w而言,大語(yǔ)言模型表現(xiàn)良好,尤其是在編碼政治學(xué)家和社會(huì)學(xué)家創(chuàng)建的數(shù)據(jù)時(shí)。不過(guò),使用大語(yǔ)言模型仍需要一定程度的人工監(jiān)督,且需熟悉任務(wù)特定的提示工程。

文本分析或是生成式人工智能改進(jìn)社會(huì)科學(xué)研究最有前景的領(lǐng)域之一。盡管大語(yǔ)言模型準(zhǔn)確性暫未超越人類專家,但其處理速度與規(guī)模優(yōu)勢(shì)顯著:可短時(shí)間內(nèi)完成全量文本語(yǔ)料庫(kù)編碼,而非傳統(tǒng)抽樣分析。生成式人工智能還支持多語(yǔ)言編碼及數(shù)據(jù)錄入等基礎(chǔ)工作。值得注意的是,人類編碼員常出現(xiàn)主觀偏差、一致性不足等問題,而大模型雖也存在偏見風(fēng)險(xiǎn),但標(biāo)準(zhǔn)化處理能力更強(qiáng)。不過(guò),仍需更多研究評(píng)估模型在文本分析中的隱私風(fēng)險(xiǎn),尤其是訓(xùn)練數(shù)據(jù)對(duì)小眾群體的覆蓋不足問題。目前,生成式人工智能已實(shí)質(zhì)性拓展了社會(huì)科學(xué)文本研究的問題邊界,其與傳統(tǒng)分析方法的結(jié)合,或?qū)⒅厮芊墙Y(jié)構(gòu)化數(shù)據(jù)的研究范式。

三、生成式人工智能

社會(huì)科學(xué)研究中的潛在風(fēng)險(xiǎn)

(一)存在人類偏見

生成式人工智能因基于人類創(chuàng)建的互聯(lián)網(wǎng)數(shù)據(jù)訓(xùn)練,普遍存在偏見與認(rèn)知錯(cuò)誤。提示工程可以解決部分大語(yǔ)言模型中的偏見(如讓大模型扮演特定群體角色)。早期研究表明,從人工智能工具中消除偏見可能比從人類群體中消除偏見更容易,但前提是研究者能識(shí)別偏見。然而,在主流模型(如GPT-4)訓(xùn)練過(guò)程不透明的情況下并非易事。

對(duì)于社會(huì)科學(xué)家來(lái)說(shuō),一個(gè)關(guān)鍵問題是生成式人工智能的偏見對(duì)于研究目的是“缺陷”還是“特征”。若能控制偏見,可用于研究其對(duì)態(tài)度行為的影響(如模擬歧視性招聘場(chǎng)景)。生成式人工智能也可應(yīng)用在“逆向工程”某些類型的偏見。例如,對(duì)針對(duì)廣泛提示產(chǎn)生的代詞進(jìn)行實(shí)驗(yàn),有可能識(shí)別新型的性別歧視。

另一方面,生成式人工智能工具無(wú)法準(zhǔn)確代表邊緣化群體的人可能會(huì)阻礙社會(huì)科學(xué)研究。那些希望大語(yǔ)言模型可以幫助研究人員評(píng)估他們?cè)诟鄻踊巳褐械母深A(yù)措施影響的人可能會(huì)對(duì)這種模仿的質(zhì)量感到失望,因?yàn)橛?xùn)練數(shù)據(jù)不足。

(二)產(chǎn)生垃圾科學(xué)

生成式人工智能被惡意利用的風(fēng)險(xiǎn)引發(fā)雙重?fù)?dān)憂:短期內(nèi),大語(yǔ)言模型因擅長(zhǎng)大規(guī)模模仿人類,可能被用于批量傳播錯(cuò)誤信息;長(zhǎng)期來(lái)看,人工智能生成的偏見性/錯(cuò)誤內(nèi)容若充斥互聯(lián)網(wǎng),可能導(dǎo)致未來(lái)模型基于缺陷數(shù)據(jù)自我訓(xùn)練。

學(xué)術(shù)研究領(lǐng)域也面臨類似隱患,依賴生成式人工智能進(jìn)行文獻(xiàn)綜述、生成研究問題或處理海量文本時(shí),可能產(chǎn)出低質(zhì)量“垃圾科學(xué)”,導(dǎo)致期刊和資助機(jī)構(gòu)被無(wú)效研究淹沒。目前計(jì)算機(jī)科學(xué)家已嘗試通過(guò)“數(shù)字水印”標(biāo)記人工智能生成內(nèi)容(如圖像模型中已應(yīng)用),但在大語(yǔ)言模型中實(shí)施難度較大。有人建議為大語(yǔ)言模型設(shè)定“詞匯口音”(如強(qiáng)制使用特定詞表),但大規(guī)模推行需所有模型開發(fā)方協(xié)調(diào)共識(shí)。

(三)倫理爭(zhēng)議

使用生成式人工智能進(jìn)行研究是否符合倫理?這是社會(huì)科學(xué)家面臨的緊迫問題。生成式人工智能工具存在偏見且可能產(chǎn)生幻覺信息,若人類研究參與者在無(wú)監(jiān)督情況下與之對(duì)話,這些信息可能被傳播。例如,用大語(yǔ)言模型模擬人際互動(dòng)時(shí),其輸出的偏見內(nèi)容可能誤導(dǎo)參與者。

另一個(gè)重要問題是,研究人員在讓研究參與者接觸生成式人工智能之前是否必須始終獲得知情同意。對(duì)于任何研究,如果受訪者可能接觸到由大語(yǔ)言模型生成的錯(cuò)誤信息或辱罵性語(yǔ)言,這種做法似乎至關(guān)重要。然而,在研究中披露生成式人工智能的作用也會(huì)降低其模擬人類行為的科學(xué)效用,因參與者反應(yīng)可能受“對(duì)人工智能的態(tài)度”影響。

使用人工智能處理敏感數(shù)據(jù)也引發(fā)了關(guān)于隱私和保密的新?lián)鷳n。數(shù)據(jù)可能被私人公司存儲(chǔ)或出售,且這類企業(yè)不受學(xué)術(shù)機(jī)構(gòu)的受試者保護(hù)標(biāo)準(zhǔn)約束。此外,生成式人工智能的環(huán)境成本亦需關(guān)注。2019年研究顯示,訓(xùn)練單個(gè)大語(yǔ)言模型的碳排放相當(dāng)于五輛汽車整個(gè)壽命周期內(nèi)的排放總量,盡管技術(shù)進(jìn)步提升了訓(xùn)練效率,但模型規(guī)模增長(zhǎng)仍加劇環(huán)境負(fù)擔(dān)。然而,也必須權(quán)衡訓(xùn)練模型的成本與它們所創(chuàng)造的效率。例如,一項(xiàng)研究表明,人工智能在寫作和繪圖方面的碳排放量比人類低。

四、為社會(huì)科學(xué)研究創(chuàng)建開源基礎(chǔ)設(shè)施

生成式人工智能在社會(huì)科學(xué)研究中的應(yīng)用面臨風(fēng)險(xiǎn)與機(jī)遇的平衡挑戰(zhàn)。當(dāng)前,專有模型(如GPT-4)的訓(xùn)練細(xì)節(jié)和微調(diào)過(guò)程高度保密,OpenAI甚至未披露其基本參數(shù)。這種不透明性使研究者難以評(píng)估模型偏見,且依賴的企業(yè)工具可能將研究與商業(yè)利益綁定——例如Meta雖曾開放Llama模型文檔,但近期停止共享訓(xùn)練數(shù)據(jù)集,且可能隨時(shí)限制訪問或收費(fèi),重現(xiàn)社交媒體公司數(shù)據(jù)共享模式收緊的歷史軌跡。

社會(huì)科學(xué)家開發(fā)自己的開源生成式人工智能模型或可成為破局關(guān)鍵,可以更好地控制大模型何時(shí)以及如何產(chǎn)生偏見。社會(huì)科學(xué)家還可以共同努力為生成式人工智能工具創(chuàng)建訓(xùn)練數(shù)據(jù),增強(qiáng)對(duì)大模型行為的控制力,同時(shí)保護(hù)研究提示詞隱私,避免數(shù)據(jù)被轉(zhuǎn)售或用于商業(yè)模型迭代。

開源模型還經(jīng)常創(chuàng)建和維持一個(gè)有共同關(guān)切的人群社區(qū)。社會(huì)科學(xué)家不必猜測(cè)專有模型何時(shí)以及如何表現(xiàn)出偏見,也不必?zé)o休止地測(cè)試不同的提示以實(shí)現(xiàn)研究目標(biāo),而是可以共同努力確定生成式人工智能工具在社會(huì)科學(xué)研究中的局限性。關(guān)于生成式人工智能的透明公開討論也可以幫助研究人員評(píng)估上述一些其他風(fēng)險(xiǎn),如錯(cuò)誤信息的傳播。社會(huì)科學(xué)家還可以設(shè)計(jì)開源生成式人工智能工具,通過(guò)運(yùn)行旨在測(cè)試某些訓(xùn)練和微調(diào)過(guò)程是否使學(xué)者能夠更容易地重現(xiàn)彼此工作的實(shí)驗(yàn),最大限度地提高研究可復(fù)制的機(jī)會(huì)。

但開源化也伴隨新風(fēng)險(xiǎn):惡意行為者可能利用公開權(quán)重構(gòu)建傳播錯(cuò)誤信息的模型,或獲取危險(xiǎn)領(lǐng)域知識(shí)。不過(guò)學(xué)界認(rèn)為,此類風(fēng)險(xiǎn)與互聯(lián)網(wǎng)既有信息相比可控,且可通過(guò)建立跨學(xué)科委員會(huì)進(jìn)行治理——該機(jī)構(gòu)可負(fù)責(zé)審核模型發(fā)布范圍、平衡環(huán)境成本(如訓(xùn)練大型模型的碳排放),并構(gòu)建訪問控制基礎(chǔ)設(shè)施(如API與云服務(wù))。若能實(shí)現(xiàn),開源組織不僅能降低學(xué)術(shù)資源不平等,還可將開放科學(xué)倫理嵌入人工智能研究。這一努力需要跨領(lǐng)域協(xié)作與持續(xù)投入,但對(duì)社會(huì)科學(xué)擺脫專有技術(shù)束縛、建立兼具創(chuàng)新與倫理的研究范式至關(guān)重要。

免責(zé)聲明:本文轉(zhuǎn)自啟元洞見。文章內(nèi)容系原作者個(gè)人觀點(diǎn),本公眾號(hào)編譯/轉(zhuǎn)載僅為分享、傳達(dá)不同觀點(diǎn),如有任何異議,歡迎聯(lián)系我們!

研究所簡(jiǎn)介

國(guó)際技術(shù)經(jīng)濟(jì)研究所(IITE)成立于1985年11月,是隸屬于國(guó)務(wù)院發(fā)展研究中心的非營(yíng)利性研究機(jī)構(gòu),主要職能是研究我國(guó)經(jīng)濟(jì)、科技社會(huì)發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問題,跟蹤和分析世界科技、經(jīng)濟(jì)發(fā)展態(tài)勢(shì),為中央和有關(guān)部委提供決策咨詢服務(wù)。“全球技術(shù)地圖”為國(guó)際技術(shù)經(jīng)濟(jì)研究所官方微信賬號(hào),致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見。

地址:北京市海淀區(qū)小南莊20號(hào)樓A座

電話:010-82635522

微信:iite_er

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

全球技術(shù)地圖 incentive-icons
全球技術(shù)地圖
洞見前沿,引領(lǐng)未來(lái)
3931文章數(shù) 13401關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈(zèng)里的“詩(shī)與遠(yuǎn)方

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版