當(dāng)前,人工智能正以前所未有的速度融入社會(huì),引發(fā)深刻的信任危機(jī)。2025年7月18日,Nature旗下子刊《Humanities and Social Sciences Communications》發(fā)表文章《在人工智能時(shí)代呼吁跨學(xué)科信任研究》(A call for transdisciplinary trust research in the artificial intelligence era)。文章通過對(duì)過去三十年超過34,000篇相關(guān)研究的文獻(xiàn)計(jì)量分析,發(fā)現(xiàn)當(dāng)前研究盡管不乏交叉學(xué)科的努力,但嚴(yán)重缺乏科學(xué)家與社會(huì)利益相關(guān)方(如政策制定者、開發(fā)者、公眾)之間的深度協(xié)作,即“跨學(xué)科”(transdisciplinary)整合。為此,文章系統(tǒng)性地提出一個(gè)全新的跨學(xué)科研究框架,旨在彌合科學(xué)研究與社會(huì)實(shí)踐之間的鴻溝,為應(yīng)對(duì)信息繭房、歧視、戰(zhàn)爭(zhēng)等重大挑戰(zhàn),重建人工智能時(shí)代的社會(huì)
一、引言:
新時(shí)代的機(jī)遇與信任基石
我們正處在一個(gè)新時(shí)代的黎明——人工智能革命。廣義上,人工智能被定義為計(jì)算機(jī)程序、機(jī)器或系統(tǒng)所具備的、能夠做出類人智能決策并自主執(zhí)行任務(wù)的能力。這場(chǎng)革命的獨(dú)特之處在于,它能夠模擬人類認(rèn)知的多個(gè)方面,使機(jī)器能夠評(píng)估情境、從經(jīng)驗(yàn)中學(xué)習(xí),并將知識(shí)應(yīng)用于決策和問題解決。這標(biāo)志著技術(shù)從自動(dòng)化物理任務(wù)向應(yīng)對(duì)認(rèn)知挑戰(zhàn)的根本性轉(zhuǎn)變,有效填補(bǔ)了機(jī)械自動(dòng)化與人類推理之間的“知識(shí)與智能鴻溝”。
人工智能在全球范圍內(nèi)帶來了前所未有的機(jī)遇,涵蓋了工業(yè)4.0、自動(dòng)駕駛、醫(yī)療健康和軍事等多個(gè)領(lǐng)域。據(jù)預(yù)測(cè),其帶來的效率和生產(chǎn)力提升將在2030年前為全球經(jīng)濟(jì)貢獻(xiàn)約13萬億美元的增長(zhǎng)。然而,隨著人工智能日益融入我們的生活,一個(gè)嚴(yán)峻的現(xiàn)實(shí)擺在我們面前:適用于人類的傳統(tǒng)人際信任觀念,并不能直接延伸至人工智能。人工智能的社會(huì)整合引發(fā)了操控、歧視、失控等倫理風(fēng)險(xiǎn),直接威脅到社會(huì)信任。對(duì)人工智能技術(shù)的信任是其被廣泛采納和增進(jìn)公眾接受度的前提;反之,信任的缺失不僅會(huì)導(dǎo)致效率降低、經(jīng)濟(jì)損失和創(chuàng)新停滯,更可能加劇社會(huì)不平等,甚至引發(fā)社會(huì)動(dòng)蕩,最終破壞社會(huì)凝聚力。
這些重大的社會(huì)挑戰(zhàn),若無跨學(xué)科學(xué)術(shù)界與社會(huì)利益相關(guān)方的協(xié)同努力,是無法得到有效解決的。然而,本文對(duì)過去三十年超過34000篇信任研究文章的文獻(xiàn)計(jì)量分析表明,盡管多學(xué)科和交叉學(xué)科研究已不鮮見,但真正的跨學(xué)科合作卻極為稀缺。研究發(fā)現(xiàn),科學(xué)家與利益相關(guān)方之間的合作——作為跨學(xué)科研究的核心特征——普遍缺失。這種“缺環(huán)”導(dǎo)致現(xiàn)有研究難以觸及最終用戶,無法有效建立信任或提供整合性解決方案。因此,本文旨在確立一個(gè)關(guān)于信任的跨學(xué)科研究議程,呼吁學(xué)術(shù)界及其他利益相關(guān)方加強(qiáng)協(xié)同,以提升人工智能時(shí)代信任研究的質(zhì)量與影響力。
二、信任困境:
人工智能時(shí)代下社會(huì)面臨的重大挑戰(zhàn)
人際信任是人類繁榮與經(jīng)濟(jì)增長(zhǎng)的基石,它降低了合作成本,促進(jìn)了社會(huì)福祉??鐚W(xué)科的公認(rèn)定義將信任界定為:一方基于對(duì)另一方將采取關(guān)鍵行動(dòng)的積極預(yù)期,而愿意承受風(fēng)險(xiǎn)的意愿,即使在沒有監(jiān)督的情況下。這種意愿使信任本身成為一種“困境”,充滿了潛在的風(fēng)險(xiǎn)與收益。
當(dāng)我們將信任的對(duì)象從人類轉(zhuǎn)向人工智能時(shí),這一困境變得更加復(fù)雜。盡管我們可以借鑒人際信任的維度來構(gòu)建人工智能信任框架,如能力(Ability)、善意(Benevolence)和誠(chéng)信(Integrity),但這些概念需要重新詮釋。人工智能系統(tǒng)的“能力”指的是其技術(shù)性能(如安全性、可靠性、準(zhǔn)確性);而“善意”(如隱私保護(hù)、公平性)和“誠(chéng)信”(如可解釋性、問責(zé)制)并非人工智能的內(nèi)在屬性,而是通過系統(tǒng)設(shè)計(jì)、倫理編程和監(jiān)管保障來實(shí)現(xiàn)的。這種重構(gòu)凸顯了人工智能信任不是人際信任的復(fù)制,而是一種由人機(jī)互動(dòng)、技術(shù)特性和制度機(jī)制共同塑造的、獨(dú)特的社會(huì)技術(shù)建構(gòu)。
當(dāng)前,人工智能技術(shù)的飛速發(fā)展在創(chuàng)造機(jī)遇的同時(shí),也帶來了一系列重大的社會(huì)挑戰(zhàn):
1.畫像分析(Profiling):機(jī)器學(xué)習(xí)算法通過分析海量數(shù)據(jù)來預(yù)測(cè)未來結(jié)果,廣泛應(yīng)用于零售、市場(chǎng)營(yíng)銷和精準(zhǔn)醫(yī)療等領(lǐng)域,但也帶來了嚴(yán)重風(fēng)險(xiǎn),如未經(jīng)授權(quán)的數(shù)據(jù)收集和侵入性廣告,可能損害用戶的心理健康與自我認(rèn)知。
2.虛假信息(Misinformation):計(jì)算機(jī)視覺技術(shù)催生了“深度偽造”(deepfakes)風(fēng)險(xiǎn)。這些高度逼真、用于傳播虛假信息的偽造內(nèi)容,能夠操縱社交媒體輿論、損害個(gè)人聲譽(yù),破壞了“不傷害”(non-maleficence)原則,從根本上侵蝕了信息信任。
3.歧視(Discrimination):大語言模型等可能延續(xù)甚至放大現(xiàn)實(shí)社會(huì)中的偏見。例如,在人力招聘中出現(xiàn)基于性別、年齡和種族的偏見,或在司法決策中產(chǎn)生歧視性結(jié)果。這些有偏見的輸出損害了公平性原則,侵蝕了人們對(duì)人工智能應(yīng)用的信任。
4.工作崗位替代(Job Displacement):人工智能驅(qū)動(dòng)的機(jī)器人技術(shù),憑借其視覺、觸覺和自主決策能力,正在自動(dòng)駕駛、制造業(yè)和外科醫(yī)療等領(lǐng)域大展拳腳。然而,其自主性也帶來了替代藍(lán)領(lǐng)和白領(lǐng)工作的風(fēng)險(xiǎn)。隨著機(jī)器承擔(dān)更多角色,問責(zé)制問題日益突出,導(dǎo)致公眾對(duì)人工智能的信任度下降。
5.戰(zhàn)爭(zhēng)(Warfare):深度學(xué)習(xí)在軍事領(lǐng)域通過其復(fù)雜的算法提升了軍事行動(dòng)、防御系統(tǒng)和網(wǎng)絡(luò)安全領(lǐng)域的決策效率。但其“黑箱”特性也帶來巨大風(fēng)險(xiǎn),尤其是在涉及自主武器的軍事決策中,可能導(dǎo)致意外的平民傷亡和關(guān)鍵系統(tǒng)失控,挑戰(zhàn)了“可解釋性人工智能”(XAI)原則,其與道德、倫理和法律原則的潛在沖突,嚴(yán)重侵蝕國(guó)家間的信任。
6.奇點(diǎn)(Singularity):量子增強(qiáng)型人工智能有望在藥物設(shè)計(jì)、氣候建模和空間探索等領(lǐng)域取得突破性進(jìn)展。然而,人工智能向通用人工智能(AGI)或超級(jí)智能(ASI)的快速演進(jìn)也引發(fā)了生存風(fēng)險(xiǎn),例如人工智能可能超越人類智能,導(dǎo)致治理失控(如基本技能喪失、責(zé)任擴(kuò)散、人類能動(dòng)性下降)。這些發(fā)展可能破壞以人為中心的原則,加劇人工智能對(duì)齊問題,最終危及人類對(duì)人工智能演進(jìn)本身的信任。
這些重大的社會(huì)挑戰(zhàn)清晰地表明,構(gòu)建人工智能信任需要跨領(lǐng)域的協(xié)同努力,不僅涉及工程、計(jì)算機(jī)科學(xué)、社會(huì)學(xué)、心理學(xué)等學(xué)科的交叉,還必須整合來自開發(fā)者、投資者、監(jiān)管者、用戶和公眾等不同利益相關(guān)方的知識(shí)與視角。
三、研究現(xiàn)狀:
跨學(xué)科合作的“缺環(huán)”
為應(yīng)對(duì)上述挑戰(zhàn),我們亟需一個(gè)能夠整合政治、社會(huì)和經(jīng)濟(jì)維度的跨學(xué)科信任研究議程。通過對(duì)Web of Science數(shù)據(jù)庫(kù)中34459篇信任研究相關(guān)文章進(jìn)行文獻(xiàn)計(jì)量網(wǎng)絡(luò)分析,我們?cè)u(píng)估了當(dāng)前研究的多學(xué)科、交叉學(xué)科與跨學(xué)科現(xiàn)狀(見圖1)。
圖1 A.基于34,459篇研究文章創(chuàng)建的文獻(xiàn)計(jì)量網(wǎng)絡(luò)圖,展示了98個(gè)研究領(lǐng)域(節(jié)點(diǎn))和8個(gè)研究集群(不同顏色);
B.各集群的平均總鏈接強(qiáng)度,顯示了不同研究領(lǐng)域間的關(guān)聯(lián)強(qiáng)度;
C.各集群的內(nèi)外鏈接比率,反映了交叉學(xué)科程度;
D.集群在二維圖上的位置,顯示了其相對(duì)關(guān)聯(lián)性;
E.基于機(jī)構(gòu)歸屬的合著比例餅圖
分析結(jié)果揭示了一個(gè)顯著的缺失:幾乎沒有任何研究文章符合跨學(xué)科研究議程的核心特征,甚至很少使用其術(shù)語。這一缺陷表明,過往研究在很大程度上未能將來自不同學(xué)科的知識(shí)、方法和視角整合到一個(gè)統(tǒng)一、整體的框架中。盡管研究涉及多個(gè)科學(xué)領(lǐng)域,但近99%的研究未能納入制度性利益相關(guān)方(如開發(fā)者、政策制定者和公眾)的觀點(diǎn)。數(shù)據(jù)顯示,98.7%的出版物作者完全來自學(xué)術(shù)和研究機(jī)構(gòu)(ARI),僅有0.8%的出版物由學(xué)術(shù)研究機(jī)構(gòu)與制度性利益相關(guān)方(IS)合著,而完全由利益相關(guān)方撰寫的出版物僅占0.5%。這意味著,學(xué)者和其他利益相關(guān)方在研究與干預(yù)的開發(fā)過程中并非平等的合作伙伴。制度性利益相關(guān)方視角的缺失,嚴(yán)重阻礙了我們對(duì)人工智能信任問題的深入理解。
四、破局之道:
構(gòu)建一個(gè)跨學(xué)科信任研究框架
為解決上述問題,我們提出了一個(gè)跨學(xué)科框架,旨在應(yīng)對(duì)重大挑戰(zhàn),并為增強(qiáng)人工智能信任及其社會(huì)影響提供解決方案(見圖2)。該框架基于一個(gè)核心理念:重大的社會(huì)挑戰(zhàn)必須與現(xiàn)有的科學(xué)知識(shí)差距相聯(lián)系,才能發(fā)展出有效的實(shí)踐方案。
圖2 A.跨學(xué)科研究議程強(qiáng)調(diào)科學(xué)家與利益相關(guān)方的合作。
B.跨學(xué)科研究框架將社會(huì)進(jìn)步和科學(xué)發(fā)展視為知識(shí)驅(qū)動(dòng)的系統(tǒng),經(jīng)歷三個(gè)階段:?jiǎn)栴}、話語和結(jié)果。該過程在利益相關(guān)方與科學(xué)家的持續(xù)對(duì)話引導(dǎo)下,分為三個(gè)階段:?jiǎn)栴}轉(zhuǎn)化、新知識(shí)生產(chǎn)和跨學(xué)科整合。框架的核心是圍繞五個(gè)關(guān)鍵要素構(gòu)建新知識(shí):可信賴性(Trustworthiness)、風(fēng)險(xiǎn)(Risk)、用戶(User)、場(chǎng)域(Sphere)和應(yīng)用場(chǎng)景(Terrain)。
該框架的運(yùn)行分為三個(gè)階段:
1.問題轉(zhuǎn)化(Problem Transformation):識(shí)別重大的社會(huì)挑戰(zhàn),并將其與科學(xué)知識(shí)缺口聯(lián)系起來,重新定義為一個(gè)共同的研究目標(biāo)。
2.新知識(shí)生產(chǎn)(Production of New, Connectable Knowledge):科學(xué)家和利益相關(guān)方共同開發(fā)和實(shí)施一個(gè)整合概念。這一概念圍繞五個(gè)核心信任要素展開:可信賴性(Trustworthiness)、風(fēng)險(xiǎn)(Risk)、用戶(User)、場(chǎng)域(Sphere)和應(yīng)用場(chǎng)景(Terrain)。框架以“用戶”為中心,確保人的權(quán)利與尊嚴(yán)得到優(yōu)先考慮。
3.跨學(xué)科整合(Transdisciplinary Integration):對(duì)整合后的結(jié)果進(jìn)行評(píng)估,并為社會(huì)和科學(xué)界產(chǎn)出最終成果。
在整個(gè)過程中,形成了兩條不同的跨學(xué)科路徑:一條是現(xiàn)實(shí)世界路徑,側(cè)重于實(shí)際的社會(huì)解決方案;另一條是科學(xué)內(nèi)部路徑,致力于實(shí)證研究和科學(xué)發(fā)現(xiàn)。該框架通過整合來自科學(xué)和社會(huì)領(lǐng)域的多元視角,為支持可信賴的人工智能提供了一個(gè)結(jié)構(gòu)化方法,從而實(shí)現(xiàn)對(duì)信任問題的整體性處理。
五、框架應(yīng)用實(shí)例:
以自動(dòng)駕駛汽車為例
為了說明該框架的實(shí)際效用,我們以自動(dòng)駕駛汽車(AV)領(lǐng)域?yàn)槔M(jìn)行詳細(xì)應(yīng)用。該案例源于一個(gè)真實(shí)事件:2023年10月,在美國(guó)舊金山,由于發(fā)生嚴(yán)重事故,當(dāng)局吊銷了Cruise自動(dòng)駕駛出租車的運(yùn)營(yíng)許可。
(一)第一階段:?jiǎn)栴}轉(zhuǎn)化
1.挑戰(zhàn)界定:通過與制造商、監(jiān)管機(jī)構(gòu)及公眾等利益相關(guān)方協(xié)商,可界定出如下挑戰(zhàn):自動(dòng)駕駛旨在革新交通,但系統(tǒng)故障和倫理困境等風(fēng)險(xiǎn),損害了安全性、可靠性,侵蝕了公眾對(duì)自動(dòng)駕駛汽車的信任。
2.挑戰(zhàn)與科學(xué)知識(shí)的連接:多學(xué)科專家合作發(fā)現(xiàn),盡管自動(dòng)駕駛汽車能減少人為失誤,但在復(fù)雜環(huán)境中仍存在安全隱患。專家們一致認(rèn)為,需要一個(gè)整合技術(shù)、心理、倫理、法律等方面的整體策略。
3.轉(zhuǎn)化為共同研究對(duì)象:團(tuán)隊(duì)將挑戰(zhàn)轉(zhuǎn)化為共同研究項(xiàng)目,聚焦于自動(dòng)駕駛汽車部署中因系統(tǒng)故障和決策不透明而引發(fā)的信任問題。
(二)第二階段:新知識(shí)生產(chǎn)
1.明確科學(xué)家與利益相關(guān)方的角色:在跨學(xué)科合作中,科學(xué)家負(fù)責(zé)數(shù)據(jù)與驗(yàn)證,利益相關(guān)方提供實(shí)踐洞見與資源,確保方案的社會(huì)相關(guān)性。
2.設(shè)計(jì)整合概念:團(tuán)隊(duì)圍繞“用戶”設(shè)計(jì)一個(gè)整合概念。例如,整合“可信賴性”與“風(fēng)險(xiǎn)”以開發(fā)清晰的應(yīng)急決策模型;整合“場(chǎng)域”與“應(yīng)用場(chǎng)景”以滿足不同社區(qū)的交通需求。
(三)第三階段:跨學(xué)科整合
1.評(píng)估整合結(jié)果:通過利益相關(guān)方的討論,共同評(píng)估已形成的信任增強(qiáng)策略。例如,通過情景分析來識(shí)別具體的信任增強(qiáng)措施。
2.為社會(huì)和科學(xué)界產(chǎn)出成果:項(xiàng)目完成后,團(tuán)隊(duì)可以為組織、科技公司和政府機(jī)構(gòu)的決策者編寫一份綜合指南,并通過學(xué)術(shù)出版分享研究成果,從而對(duì)社會(huì)和科學(xué)領(lǐng)域產(chǎn)生持久影響。
這個(gè)假設(shè)性項(xiàng)目不僅能在科學(xué)界激發(fā)關(guān)于自動(dòng)駕駛汽車信任的進(jìn)一步研究,還能影響關(guān)于自動(dòng)駕駛汽車的社會(huì)討論,甚至為政府的監(jiān)管決策提供信息,從而對(duì)社會(huì)和科學(xué)領(lǐng)域產(chǎn)生持久影響。
六、結(jié)論與展望
恢復(fù)、保護(hù)和建立對(duì)人工智能的信任,對(duì)于社會(huì)的安全穩(wěn)定和全球體系的有效運(yùn)作至關(guān)重要。展望未來,人工智能系統(tǒng)之間以及人工智能與人類之間雙向的新興信任動(dòng)態(tài),要求我們發(fā)展新的概念方法。未來的信任框架不僅要考慮人類如何信任人工智能,還必須思考人工智能系統(tǒng)如何評(píng)估和響應(yīng)人類的可靠性,甚至在網(wǎng)絡(luò)化和自動(dòng)化環(huán)境中建立某種形式的“AI-to-AI”信任。這些混合信任系統(tǒng)挑戰(zhàn)了傳統(tǒng)的人類中心主義定義,呼喚著對(duì)信任理論的“后人類主義”擴(kuò)展。
在探索人工智能這個(gè)未知領(lǐng)域時(shí),我們認(rèn)識(shí)到,對(duì)人工智能的信任不僅塑造著我們的人際關(guān)系,也促使我們對(duì)自身本質(zhì)進(jìn)行深刻的探索。這段旅程不僅關(guān)乎技術(shù)進(jìn)步,更反映了我們作為創(chuàng)造者的角色——我們的愿景正在塑造我們的命運(yùn)。它提醒我們,我們是塑造自身命運(yùn)的積極參與者,需要在一個(gè)快速變化的世界中,深刻反思我們的終極目標(biāo)與價(jià)值所在。
免責(zé)聲明:本文轉(zhuǎn)自啟元洞見。文章內(nèi)容系原作者個(gè)人觀點(diǎn),本公眾號(hào)編譯/轉(zhuǎn)載僅為分享、傳達(dá)不同觀點(diǎn),如有任何異議,歡迎聯(lián)系我們!
轉(zhuǎn)自丨啟元洞見
研究所簡(jiǎn)介
國(guó)際技術(shù)經(jīng)濟(jì)研究所(IITE)成立于1985年11月,是隸屬于國(guó)務(wù)院發(fā)展研究中心的非營(yíng)利性研究機(jī)構(gòu),主要職能是研究我國(guó)經(jīng)濟(jì)、科技社會(huì)發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問題,跟蹤和分析世界科技、經(jīng)濟(jì)發(fā)展態(tài)勢(shì),為中央和有關(guān)部委提供決策咨詢服務(wù)。“全球技術(shù)地圖”為國(guó)際技術(shù)經(jīng)濟(jì)研究所官方微信賬號(hào),致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見。
地址:北京市海淀區(qū)小南莊20號(hào)樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.