#倫理#邏輯和概率#計算和人工智能
圖片通過AI生成
許多人希望人工智能能夠發(fā)現(xiàn)道德真理。但正如哥德爾所表明的那樣,決定什么是正確的永遠是我們的負擔
想象一下,在這個世界里,人工智能被賦予了最高的道德責任:對罪犯進行量刑、分配醫(yī)療資源,甚至調解國家之間的沖突。這似乎是人類進步的頂峰:一個不受情感、偏見或不一致的負擔的實體,以無可挑剔的精確度做出道德決策。與人類法官或政策制定者不同,機器不會被個人利益或推理失誤所左右。它不會說謊。它不接受賄賂或請求。它不會為艱難的決定而哭泣。
然而,在這種理想化的道德仲裁者的愿景之下隱藏著一個基本問題:機器能否像人類一樣理解道德,還是僅限于倫理推理的模擬?人工智能可能會復制人類的決策而不加以改進,從而繼承人類道德判斷的相同偏見、盲點和文化扭曲。在試圖效仿我們的過程中,它可能只會復制我們的局限性,而不是超越它們。但還有一個更深層次的擔憂。道德判斷借鑒了直覺、歷史意識和背景——這些品質抵制形式化。倫理學可能如此根植于生活經驗中,以至于任何將其編碼為形式結構的嘗試都有可能使其最基本的特征扁平化。如果是這樣,人工智能不僅會反映人類的缺點,還會反映人類的缺點。它將剝奪道德的深度,而道德首先使道德反思成為可能。
盡管如此,許多人仍試圖將倫理學形式化,將某些道德主張視為不作為結論,而是作為起點。一個典型的例子來自功利主義,它通常以一個人應該采取行動以最大限度地提高整體福祉的原則作為基本公理。由此可以得出更具體的原則,例如,讓大多數(shù)人受益是正確的,或者應該根據(jù)其對完全幸福的后果來判斷行為。隨著計算資源的增加,人工智能越來越適合從固定的道德假設開始,并通過其在復雜情況下的影響進行推理。
我是斜杠青年,一個PE背景的雜食性學者!?致力于剖析如何解決我們這個時代的重大問題!?使用數(shù)據(jù)和研究來解真正有所作為的因素!
但是,將倫理學這樣的東西正式化到底意味著什么?通過觀察正式系統(tǒng)長期以來發(fā)揮核心作用的領域,這個問題更容易理解。例如,物理學幾個世紀以來一直依賴形式化。沒有單一的物理理論可以解釋一切。相反,我們有許多物理理論,每種理論都旨在描述宇宙的特定方面:從夸克和電子的行為到星系的運動。這些理論經常存在分歧。例如,亞里士多德物理學用朝向地球中心的自然運動來解釋墜落的物體;牛頓力學用萬能引力取代了這一點。這些解釋不僅不同,而且不同。它們是不相容的。然而,兩者都有一個共同的結構:它們從基本假設開始——關于運動、力或質量的假設——并得出越來越復雜的后果。艾薩克·牛頓的運動定律和詹姆斯·克拉克·麥克斯韋的方程就是典型的例子:緊湊、優(yōu)雅的公式,從中可以推導出對物理世界的廣泛預測。
倫理理論也有類似的結構。就像物理理論一樣,它們試圖描述一個領域——在這種情況下,是道德景觀。他們旨在回答有關哪些行為是對的或錯的以及為什么的問題。這些理論也存在分歧,即使他們推薦類似的行動,例如捐贈給慈善機構,他們也以不同的方式證明它們的合理性。倫理理論也經常從一小部分基本原則或主張開始,從中推理出更復雜的道德問題。結果主義者一開始的想法是,行動應該最大限度地提高幸福感;道義論者從行為必須尊重義務或權利的想法出發(fā)。這些基本承諾的功能與物理學中的對應承諾類似:它們定義了每個倫理理論中道德推理的結構。
正如人工智能在物理學中用于在現(xiàn)有理論中運行一樣——例如,優(yōu)化實驗設計或預測復雜系統(tǒng)的行為——它也可以用于倫理學中,在給定框架內擴展道德推理。在物理學中,人工智能通常在既定模型內運行,而不是提出新的物理定律或概念框架。它可以計算多種力如何相互作用并預測它們對物理系統(tǒng)的綜合影響。同樣,在倫理學中,人工智能不會產生新的道德原則,而是將現(xiàn)有的道德原則應用于新穎且往往復雜的情況。它可能會權衡相互競爭的價值觀——公平、傷害最小化、正義——并評估它們對哪種行動在道德上是最好的綜合影響。結果不是新的道德體系,而是對現(xiàn)有道德體系的深化應用,由科學建?;A的相同形式推理塑造。但是,人工智能對道德的了解是否存在固有的局限性?是否存在任何機器,無論多么先進,都無法證明的真正倫理命題?
這些問題呼應了數(shù)理邏輯中的一個基本發(fā)現(xiàn),可能是有史以來最基本的見解:庫爾特·哥德爾的不完備性定理。他們表明,任何足以描述算術的邏輯系統(tǒng)要么不一致,要么不完整。在本文中,我認為這種限制雖然起源于數(shù)學,但對倫理以及我們如何設計人工智能系統(tǒng)進行道德推理產生了深遠的影響。
正如人工智能在物理學中用于在現(xiàn)有理論中運行一樣——例如,優(yōu)化實驗設計或預測復雜系統(tǒng)的行為——它也可以用于倫理學中,在給定框架內擴展道德推理。在物理學中,人工智能通常在既定模型內運行,而不是提出新的物理定律或概念框架。它可以計算多種力如何相互作用并預測它們對物理系統(tǒng)的綜合影響。同樣,在倫理學中,人工智能不會產生新的道德原則,而是將現(xiàn)有的道德原則應用于新穎且往往復雜的情況。它可能會權衡相互競爭的價值觀——公平、傷害最小化、正義——并評估它們對哪種行動在道德上是最好的綜合影響。結果不是新的道德體系,而是對現(xiàn)有道德體系的深化應用,由科學建模基礎的相同形式推理塑造。但是,人工智能對道德的了解是否存在固有的局限性?是否存在任何機器,無論多么先進,都無法證明的真正倫理命題?
這些問題呼應了數(shù)理邏輯中的一個基本發(fā)現(xiàn),可能是有史以來最基本的見解:庫爾特·哥德爾的不完備性定理。他們表明,任何足以描述算術的邏輯系統(tǒng)要么不一致,要么不完整。在本文中,我認為這種限制雖然起源于數(shù)學,但對倫理以及我們如何設計人工智能系統(tǒng)進行道德推理產生了深遠的影響。
假設我們設計一個人工智能系統(tǒng)來模擬道德決策。與其他人工智能系統(tǒng)一樣——無論是預測股票價格、導航道路還是策劃內容——它都會被編程為最大化某些預定義的目標。為此,它必須依賴于形式化的計算邏輯:要么是演繹推理,從固定規(guī)則和公理中得出結論,要么是概率推理,根據(jù)數(shù)據(jù)模式估計可能性。無論哪種情況,人工智能都必須采用數(shù)學結構進行道德評估。但哥德爾的不完備性定理揭示了一個根本的局限性。哥德爾表明,任何足以表達算術的形式系統(tǒng),例如自然數(shù)及其運算,都不可能既完整又一致。如果這樣的系統(tǒng)是一致的,總會有它無法證明的真實陳述。特別是,當應用于人工智能時,這表明任何能夠進行豐富道德推理的系統(tǒng)都不可避免地存在道德盲點:它無法得出的倫理真理。這里,“真”指的是算術標準解釋中的真值,例如“2 + 2 = 4”的說法,這在普通數(shù)學規(guī)則下是正確的。如果系統(tǒng)不一致,那么它就可以證明任何東西,包括矛盾,使其無法作為道德決策的指南。
哥德爾不完備性定理不僅適用于人工智能,也適用于形式系統(tǒng)內的任何倫理推理。關鍵區(qū)別在于,人類推理者至少在原則上可以修改他們的假設,采用新的原則,并重新思考框架本身。相比之下,人工智能仍然受其賦予的形式結構的約束,或者在它只能在預定義約束下修改的形式結構中運行。通過這種方式,哥德爾定理為人工智能如果建立在正式系統(tǒng)之上,可以從這些系統(tǒng)內完全證明或驗證道德,設定了一個邏輯界限。
我們大多數(shù)人第一次接觸公理是在學校,通常是通過幾何。一個著名的例子是平行公設,它說如果你選擇一個不在一條線上的點,你可以只畫一條平行于原始線的點穿過該點。2000多年來,這似乎是不言而喻的。然而,在 19 世紀,卡爾·弗里德里希·高斯、尼古拉·羅巴切夫斯基和雅諾斯·博利亞伊等數(shù)學家表明,構建平行假設不成立的內部一致幾何是可能的。在一些這樣的幾何形狀中,不存在平行線;在另一些國家,則無數(shù)人這樣做。這些非歐幾里得幾何打破了歐幾里得公理獨特地描述空間的信念。
總會有真實但無法證明的陳述,最值得注意的是系統(tǒng)自己的一致性聲明
這一發(fā)現(xiàn)引發(fā)了更深層次的擔憂。如果長期以來被認為不言而喻的平行假設可以被拋棄,那么定義自然數(shù)以及加法和乘法運算的算術公理呢?我們憑什么可以相信它們沒有隱藏的不一致之處?然而,伴隨著這一挑戰(zhàn)而來的是一個承諾。如果我們能夠證明算術公理是一致的,那么就有可能擴展它們以開發(fā)一組一致的更豐富的公理,這些公理定義了整數(shù)、有理數(shù)、實數(shù)、復數(shù)等。正如 19 世紀數(shù)學家利奧波德·克羅內克 (Leopold Kronecker) 所說:“上帝創(chuàng)造了自然數(shù);其他一切都是人的工作。證明算術的一致性將證明許多重要數(shù)學領域的一致性。
證明算術一致性的方法是由數(shù)學家大衛(wèi)·希爾伯特提出的。他的方法包括兩個步驟。首先,希爾伯特認為,為了證明形式系統(tǒng)的一致性,必須能夠在系統(tǒng)自己的符號語言中提出一個相當于“這個系統(tǒng)是一致的”的主張,然后僅使用系統(tǒng)自己的推理規(guī)則來證明該主張。證明不應該依賴于系統(tǒng)之外的任何東西,甚至不依賴其公理的假定“自證”。其次,希爾伯特主張將算術建立在更基本的東西上。這項任務是由伯特蘭·羅素 (Bertrand Russell) 和阿爾弗雷德·諾斯·懷特海 (Alfred North Whitehead) 在他們不朽的《數(shù)學原理》(1910-13) 中完成的。在符號邏輯領域工作,該領域不涉及數(shù)字,而是涉及“如果 x,則 y”等抽象命題,他們表明算術公理可以從較小的邏輯公理集中推導出定理。這留下了最后一個挑戰(zhàn):這組符號邏輯公理(可以建立算術)能否證明自己的一致性?如果可以的話,希爾伯特的夢想就會實現(xiàn)。這種希望成為 20 世紀初數(shù)學的指導目標。
正是在這種樂觀的氣氛中,年輕的奧地利邏輯學家?guī)鞝柼亍じ绲聽枺↘urt G?del)提出了一個結果,該結果將瓦解希爾伯特的愿景。1931年,哥德爾發(fā)表了他的不完備性定理,表明這樣一個完全自給自足的數(shù)學系統(tǒng)的想法本身是不可能的。具體來說,哥德爾表明,如果一個形式系統(tǒng)滿足幾個條件,它將包含它無法證明的真實主張。它必須足夠復雜以表達算術,包括歸納原理(允許它通過證明一般陳述對基本情況和每個連續(xù)步驟成立來證明一般陳述),一致,并具有一組可判定的公理(這意味著可以確定,對于任何給定的陳述,它是否符合公理的條件)。任何滿足這些條件的系統(tǒng),例如羅素和懷特海在《數(shù)學原理》中開發(fā)的一組邏輯公理,都必然是不完整的:總會有一些陳述在系統(tǒng)內可以表達,但無法從其公理中證明。更引人注目的是,哥德爾表明,這樣的系統(tǒng)可以表達,但不能證明它本身是一致的。
哥德爾的證明(我在這里簡化)依賴于他的句法算術化得出的兩個關鍵見解,即將形式系統(tǒng)的任何句子與特定的自然數(shù)(稱為其哥德爾數(shù))相關聯(lián)的強大想法。首先,任何復雜到足以表達算術和歸納法的系統(tǒng)都必須允許具有自由變量的公式,例如 S(x): 'x = 10',其真值取決于 x 的值。當 x 實際上為 10 時,S(x) 為真,否則為 false。由于系統(tǒng)中的每個語句都有一個唯一的哥德爾數(shù) G(S),因此公式可以引用它自己的哥德爾數(shù)。具體來說,系統(tǒng)可以形成諸如 S(G(S)) 之類的語句:“G(S) = 10”,其真值取決于 S(x) 自己的哥德爾數(shù)是否等于 10。其次,在任何邏輯系統(tǒng)中,公式 S 的證明都有一定的結構:從公理開始,應用推理規(guī)則從這些公理生成新公式,最終推導出 S 本身。就像每個公式 S 都有一個哥德爾數(shù) G(S) 一樣,通過將證明中的整個公式序列視為一個長公式,S 的每個證明都被分配一個哥德爾數(shù)。因此,我們可以定義一個證明關系 P(x, y),其中 P(x, y) 成立,當且僅當 x 是 S 證明的哥德爾數(shù),并且 y 是 S 本身的哥德爾數(shù)時。x 編碼 S 證明的聲明成為系統(tǒng)內的語句,即 P(x, y)。
第三,基于這些思想,哥德爾表明,任何能夠表達算術和歸納原理的形式系統(tǒng)也可以制定關于其自身證明的陳述。例如,系統(tǒng)可以表達這樣的語句:“n 不是公式 S 證明的哥德爾數(shù)”。由此,它可以更進一步表達這樣的主張:“沒有一個數(shù)字 n,使得 n 是公式 S 證明的哥德爾數(shù)。”換句話說,系統(tǒng)可以說某個公式 S 在系統(tǒng)內是不可證明的。第四,哥德爾巧妙地構建了一個自指公式 P,它斷言:“沒有一個數(shù)字 n 使得 n 是公式 P 證明的哥德爾數(shù)?!币簿褪钦f,P 自己說,“P 是不可證明的。這樣,P 就是一個形式陳述,表達了它自己在系統(tǒng)內部的不可證明性。
緊接著,如果公式 P 在系統(tǒng)內是可證明的,那么它就是錯誤的,因為它斷言它沒有證據(jù)。這意味著該系統(tǒng)被證明是錯誤的,因此是不一致的。因此,如果系統(tǒng)是一致的,那么 P 就無法證明,因此 P 確實是不可證明的。這導致了這樣的結論:在任何足以表達算術和歸納法的一致形式系統(tǒng)中,總會有真實但不可證明的陳述,最值得注意的是系統(tǒng)自己的一致性主張。
哥德爾定理的含義既深刻又令人不安。它們粉碎了希爾伯特的希望,即數(shù)學可以簡化為一個完整的、機械的推導系統(tǒng),并暴露了形式推理的固有局限性。最初,哥德爾的發(fā)現(xiàn)遇到了阻力,一些數(shù)學家認為他的結果并不像看起來那么普遍。然而,隨著后來的數(shù)學家和邏輯學家,最著名的約翰·馮·諾依曼,證實了它們的正確性和廣泛適用性,哥德爾定理被廣泛認為是數(shù)學基礎中最重要的發(fā)現(xiàn)之一。
哥德爾的結果也引發(fā)了哲學辯論。例如,數(shù)學家和物理學家羅杰·彭羅斯 (Roger Penrose) 認為,他們指出了人類認知和形式算法推理之間的根本區(qū)別。他聲稱,人類意識使我們能夠以任何算法過程都無法復制的方式感知某些真理——例如哥德爾證明在形式系統(tǒng)中無法證明的真理。對于彭羅斯來說,這表明意識的某些方面可能超出了計算的范圍。他的結論與約翰·塞爾的“中國房間”論點相似,該論點認為之所以如此,是因為算法純粹在句法上縱符號,而沒有掌握其語義內容。盡管如此,彭羅斯和塞爾得出的結論并不直接來自哥德爾定理。哥德爾的結果嚴格適用于形式數(shù)學系統(tǒng),不對意識或認知提出主張。人類的頭腦是否能夠將無法證明的真理識別為真實,或者機器是否能夠擁有能夠識別這種真理的頭腦,仍然是一個懸而未決的哲學問題。
道德不僅僅是做正確的事,而是理解為什么它是正確的
然而,哥德爾的不完備性定理確實揭示了算法推理的深刻局限性,尤其是人工智能,它不僅涉及計算,還涉及道德推理本身。如果沒有他的定理,至少可以想象人工智能可以形式化所有道德真理,此外,還可以從一組一致的公理中證明它們。但哥德爾的工作表明這是不可能的。任何人工智能,無論多么復雜,都無法證明它所能表達的所有道德真理。真理主張和可證明性之間的差距為正式的道德推理可以走多遠設定了一個基本界限,即使對于最強大的機器也是如此。
這給倫理帶來了兩個截然不同的問題。第一個是古老的。正如柏拉圖在《優(yōu)西弗羅》中所建議的那樣,道德不僅僅是做正確的事情,而是理解為什么它是正確的。道德行為需要理由,一種基于理性的解釋。這種理性道德正當化的理想激發(fā)了我們的大部分倫理思想,但哥德爾定理表明,如果道德推理被形式化,那么就會有道德真理在這些體系中無法證明。通過這種方式,哥德爾不僅破壞了希爾伯特證明數(shù)學一致性的愿景;他也可能動搖了柏拉圖將倫理學完全建立在理性的希望上。
第二個問題更實際。即使是高性能的人工智能也可能遇到無法僅使用給定的道德框架來證明或解釋其建議的合理性的情況。人們擔心的不僅是人工智能可能采取不道德的行為,還在于它無法證明其行為是合乎道德的。當人工智能被用來指導或證明人類做出的決策時,這一點變得尤為緊迫。即使是高性能的人工智能也會遇到一個邊界,超過這個邊界,它無法僅使用自己框架的資源來證明或解釋其決策的合理性。無論它變得多么先進,它都會有可以表達的倫理真理,但永遠無法證明。
現(xiàn)代人工智能的發(fā)展通常分為兩種方法:基于邏輯的人工智能(通過嚴格的演義得出知識)和大型語言模型(LLM),從統(tǒng)計模式預測意義。這兩種方法都依賴于數(shù)學結構。形式邏輯基于符號作和集合論。法學碩士并不嚴格地基于演繹邏輯,而是結合使用統(tǒng)計推理、模式識別和計算技術來生成響應。
正如公理為數(shù)學推理提供基礎一樣,法學碩士也依靠數(shù)據(jù)中的統(tǒng)計關系來近似邏輯推理。他們不是通過推斷道德真理來參與倫理,而是通過復制此類辯論如何在語言中展開。這是通過梯度下降實現(xiàn)的,梯度下降是一種算法,通過在減少誤差的方向上更新權重來最小化損失函數(shù),近似將輸入映射到輸出的復雜函數(shù),使它們能夠從大量數(shù)據(jù)中概括模式。它們不推斷答案,而是生成合理的答案,“推理”來自數(shù)十億個神經網絡參數(shù),而不是明確的規(guī)則。雖然它們主要用作概率模型,根據(jù)統(tǒng)計模式預測文本,但計算邏輯在神經網絡中的優(yōu)化、基于規(guī)則的推理和某些決策過程中發(fā)揮著作用。
但概率和統(tǒng)計學本身就是形式系統(tǒng),不僅以算術為基礎,還以概率公理為基礎,例如蘇聯(lián)數(shù)學家安德烈·柯爾莫哥洛夫 (Andrey Kolmogorov) 提出的公理,這些公理控制著復雜事件的可能性如何推導、用新數(shù)據(jù)更新以及如何跨場景聚合。任何復雜到足以表達概率或統(tǒng)計主張的形式語言也可以表達算術,因此受哥德爾不完備性定理的約束。這意味著法學碩士繼承了哥德爾的局限性。即使是將邏輯推理與概率建模相結合的混合系統(tǒng),如 IBM Watson、OpenAI Codex 或 DeepMind 的 AlphaGo,仍然受到哥德爾限制的約束。所有基于規(guī)則的組件都受到哥德爾定理的約束,該定理表明一些在系統(tǒng)中可表達的真命題無法在系統(tǒng)內得到證明。就概率成分而言,它們受形式公理的支配,這些公理定義了概率分布的更新方式、不確定性的聚合方式以及如何得出結論。他們可以得出合理的答案,但他們無法在他們接受訓練的統(tǒng)計模式之外證明這些答案的合理性。
一些基本的數(shù)學問題超出了正式的解決范圍
乍一看,哥德爾對人工智能,尤其是法學碩士的限制似乎無關緊要。畢竟,大多數(shù)道德體系從來都不是為了解決所有可以想象到的道德問題。它們旨在指導特定領域,例如戰(zhàn)爭、法律或商業(yè),并且通常依賴于僅松散形式化的原則。如果可以針對具體案例制定正式模型,有人可能會爭辯說,無法完全正式化倫理并不是特別令人不安。此外,哥德爾的不完備性定理并沒有停止數(shù)學家的日常工作。數(shù)學家繼續(xù)尋找證明,即使知道一些真實的陳述可能是無法證明的。本著同樣的精神,某些倫理真理可能超出正式證據(jù)這一事實不應阻止人類或人工智能尋求它們、闡明它們并試圖證明它們的合理性或證明它們。
但哥德爾的發(fā)現(xiàn)不僅僅是理論上的。它們對數(shù)學本身產生了實際影響。一個引人注目的案例是連續(xù)介質假說,它詢問是否存在一個基數(shù)嚴格介于自然數(shù)和實數(shù)之間的集合。這個問題源于集合論,集合論是處理數(shù)學實體集合的數(shù)學領域,例如數(shù)字、函數(shù)甚至其他集合。它最廣泛接受的公理化,即集合論的 Zermelo-Fraenkel 公理和選擇公理,幾乎是所有現(xiàn)代數(shù)學的基礎。1938 年,哥德爾本人證明,假設這些公理是一致的,連續(xù)體假說不能從這些公理中反駁。1963 年,保羅·科恩 (Paul Cohen) 證明了相反的情況:連續(xù)體假說也無法從相同的公理中證明。這一具有里程碑意義的結果證實,一些基本的數(shù)學問題超出了正式解決的范圍。
我認為,這同樣適用于倫理學。哥德爾在數(shù)學中揭示的局限性不僅在理論上與人工智能倫理相關;它們具有實際重要性。首先,正如數(shù)學包含無法在其自身公理中證明的真實陳述一樣,很可能存在形式上無法證明但在倫理上重要的倫理真理——連續(xù)體假說的道德等價物。這些問題可能出現(xiàn)在旨在處理困難權衡的系統(tǒng)中,例如權衡公平與損害。我們無法預見在正式道德框架內運行的人工智能何時,甚至是否會遇到這樣的限制。正如科恩在哥德爾不完備性定理之后花了 30 多年時間才證明連續(xù)體假說的獨立性一樣,我們無法預測何時(如果有的話)我們會遇到在人工智能倫理體系中可以表達但仍然無法證明的倫理原則。
其次,哥德爾還表明,沒有足夠復雜的形式系統(tǒng)可以證明自己的一致性。這在倫理學中尤其令人不安,在倫理學中,我們的倫理框架是否一致還很不清楚。這不是人工智能獨有的限制;人類也無法證明他們構建的形式系統(tǒng)的一致性。但這對人工智能來說尤其重要,因為它最雄心勃勃的承諾之一是超越人類的判斷:更清晰、更公正、更大規(guī)模地進行推理。
哥德爾的結果為這一愿望設定了硬性限制。限制是結構性的,而不僅僅是技術性的。正如愛因斯坦的相對論對宇宙設定了速度上限一樣——無論我們的航天器多么先進,我們都無法超過光速——哥德爾定理對形式推理施加了界限:無論人工智能變得多么先進,它都無法逃脫它所運行的形式系統(tǒng)的不完整性。此外,哥德爾定理可能會以不可預見的方式限制實際倫理推理,就像一些重要的數(shù)學猜想已被證明無法從集合論的標準公理中證明一樣,或者因為光速雖然無法達到,但仍然對工程和天體物理學施加了真正的限制。例如,在我寫這篇文章的時候,美國宇航局的帕克太陽探測器是歷史上最快的人造物體,以每小時大約 430,000 英里(約700,000 公里)的速度行駛,僅為光速的 0.064%。然而,這個上限仍然至關重要:例如,有限的光速塑造了太空探測器、著陸器和漫游車的設計,所有這些都至少需要半自主運行,因為來自地球的無線電信號需要幾分鐘甚至幾小時才能到達。哥德爾定理可能會以類似令人驚訝的方式限制倫理計算。
無論人工智能學習多少,都會有關于正義的主張,它永遠無法在自己的系統(tǒng)中證明
哥德爾的結果與人工智能倫理特別相關還有另一個原因。與基于規(guī)則的靜態(tài)系統(tǒng)不同,先進的人工智能,特別是大型語言模型和自適應學習系統(tǒng),不僅可以應用預定義的道德框架,還可以隨著時間的推移修改其中的要素。人工智能驅動的道德推理的一個核心承諾是它能夠通過學習完善倫理模型,解決人類道德判斷中的模糊性和盲點。隨著人工智能系統(tǒng)的發(fā)展,它們可能會嘗試修改自己的公理或參數(shù)以響應新數(shù)據(jù)或反饋。對于在龐大且不斷變化的數(shù)據(jù)集上訓練的機器學習系統(tǒng)以及將邏輯推理與統(tǒng)計推理相結合的混合模型尤其如此。然而,哥德爾的結果揭示了一個結構上的局限性:如果一個倫理框架在一個足夠表達的形式體系中被形式化,那么沒有一組一致的公理可以證明其中所有可表達的真實陳述。
為了說明這一點,考慮一個負責維護正義的人工智能。它可以按照廣泛接受的道德原則進行編程,例如公平和傷害最小化。雖然基于這些原則的人造正義模型不可避免地過于簡單化,受到計算限制和認知偏差的限制,但從理論上講,人工智能沒有這樣的限制。它可以不斷地從實際的人類行為中學習,完善其理解并構建一種日益細致入微的正義概念,將人類經驗的越來越多的維度編織在一起。如前所述,它甚至可以改變自己的公理。但無論人工智能學習多少,或者它如何修改自己,總會有關于正義的主張,雖然它可能能夠建模,但它永遠無法在自己的系統(tǒng)內證明。更令人不安的是,人工智能將無法證明它構建的道德體系在內部是一致的——它不會在其龐大的道德推理網絡中的某個地方自相矛盾——除非它是不一致的,在這種情況下,它可以證明任何東西,包括虛假,比如它自己的一致性。
最終,哥德爾的不完備性定理對人工智能可以實現(xiàn)完美倫理推理的觀念發(fā)出警告。正如數(shù)學總是包含無法正式證明的真理一樣,道德也總是包含無法通過算法解決的復雜性。問題不僅僅是人工智能是否能夠做出道德決策,而是它是否能夠克服任何基于預定義邏輯的系統(tǒng)的局限性——正如哥德爾所表明的那樣,這些局限性可能會阻止某些真理在系統(tǒng)內被證明,即使它們是可識別的。雖然人工智能倫理一直在努力解決偏見、公平和可解釋性問題,但更深層次的挑戰(zhàn)仍然存在:人工智能能否認識到自身道德推理的局限性?這一挑戰(zhàn)可能會在人為倫理和人類倫理之間設置一個不可逾越的界限。
哥德爾不完備性定理與機器倫理學之間的關系凸顯了一種結構上的相似之處:正如沒有一個形式系統(tǒng)可以既完整又自成一體一樣,沒有一個人工智能可以實現(xiàn)既詳盡又完全可證明的道德推理。從某種意義上說,哥德爾的發(fā)現(xiàn)擴展并復雜化了康德傳統(tǒng)??档抡J為,知識取決于先驗真理,即構建我們現(xiàn)實經驗的基本假設。哥德爾定理表明,即使在建立在明確定義的公理之上的形式系統(tǒng)中,仍然存在超出系統(tǒng)建立它們的能力的真理。如果康德試圖通過知識的必要先決條件來定義理性的局限性,那么哥德爾則揭示了形式推理本身的內在不完整性,這是任何一套公理都無法從內部解決的??倳谐銎溆嬎阏莆盏牡赖抡胬?,即抵制算法解決的倫理問題。
因此,更深層次的問題在于人工智能無法識別其自身推理框架的邊界——它無法知道其道德結論何時建立在不完整的前提之上,或者何時問題超出了其倫理體系可以正式解決的范圍。雖然人類也面臨認知和認識限制,但我們不受給定形式結構的約束。我們可以發(fā)明新的公理,質疑舊的公理,或者根據(jù)哲學洞察力或倫理深思熟慮修改我們的整個框架。相比之下,人工智能系統(tǒng)只有在其架構允許的情況下才能生成或采用新的公理,即便如此,此類修改也會發(fā)生在預定義的元規(guī)則或優(yōu)化目標內。他們缺乏概念反思的能力,無法指導人類在基本假設中的轉變。即使更豐富的形式語言或更豐富的公理集可以證明一些以前無法證明的真理,但沒有一組滿足哥德爾對可判定性和一致性要求的有限公理可以證明在任何足夠強大的形式系統(tǒng)中可表達的所有真理。從這個意義上說,哥德爾設定了一個界限——不僅是機器可以證明什么,而且是它們可以從給定的倫理或邏輯架構中證明什么。
當人工智能做出看似道德缺陷的決定時,它可能會促使我們重新審視自己的判斷
人工智能的一大希望或恐懼是,它有一天可能會超越最初編程到它的道德原則,并模擬這種自我質疑。通過機器學習,人工智能可以修改自己的道德框架,產生新的道德見解,并揭示受認知偏差和計算限制的人類思想者可能忽視的模式和解決方案。然而,這種適應性帶來了一個深刻的風險:人工智能不斷發(fā)展的道德可能會與人類倫理發(fā)生如此根本的分歧,以至于它的決定對我們來說變得難以理解,甚至在道德上令人厭惡。這反映了某些宗教倫理觀念。在一些神學傳統(tǒng)中,神圣道德被認為遠遠超出了人類的理解范圍,以至于它可能顯得武斷甚至殘酷,這是邪惡和神圣命令理論問題辯論的核心主題。人工智能倫理也出現(xiàn)了類似的挑戰(zhàn):隨著人工智能系統(tǒng)變得越來越自主和自我修改,它們的道德決定可能會變得如此不透明和脫離人類推理,以至于它們有可能被視為不可預測、難以捉摸甚至不公正。
然而,雖然人工智能可能永遠無法完全掌握道德推理,但它可能成為完善人類道德思想的有力工具。與通常由偏見、直覺或未經審查的假設影響的人類決策不同,人工智能有可能通過以形式公正的方式處理類似案件來揭露我們道德推理中的不一致之處。然而,這種潛力取決于人工智能識別案例在道德上何時相似的能力,而人工智能系統(tǒng),尤其是法學碩士,可能會內化和重現(xiàn)它們旨在減輕的人類偏見,這一事實使這項任務變得復雜。當人工智能做出看似道德缺陷的決定時,它可能會促使我們重新審視自己判斷背后的原則。我們是出于良好的道德原因來區(qū)分案件,還是在沒有意識到的情況下應用雙重標準?人工智能可以幫助挑戰(zhàn)和完善我們的道德推理,不是通過提供最終答案,而是通過揭示我們道德框架中的差距、矛盾和被忽視的假設。
人工智能可能至少以兩種方式偏離人類的道德直覺:以不同的方式處理我們認為相似的案例,或者以相同的方式處理我們認為不同的案例。在這兩種情況下,潛在的問題是人工智能是否正確識別了道德上相關的區(qū)別或相似性,或者它是否只是在其訓練數(shù)據(jù)中反映了不相關的模式。在某些情況下,這種差異可能源于人類根深蒂固的偏見,例如基于種族、性別或社會經濟地位的歧視模式。但在其他情況下,人工智能可能會發(fā)現(xiàn)人類判斷歷來遺漏的具有道德意義的特征。例如,它可以發(fā)現(xiàn)手推車問題的新變體,表明兩種看似相同的危害在道德上很重要。在這種情況下,人工智能可能會先于人類哲學家檢測到新的倫理模式。挑戰(zhàn)在于,我們無法提前知道我們面臨的是哪種偏離。人工智能的每一個令人驚訝的道德判斷都必須按照自己的條件進行評估——既不能不加批判地接受,也不能立即被駁回。然而,即使這種對新穎見解的開放態(tài)度也無法將人工智能從形式推理的結構界限中解放出來。
這是更深層次的教訓。哥德爾定理不僅僅是表明存在機器無法證明的真理。它們表明,道德推理和數(shù)學一樣,總是開放式的,總是超出形式上可以得出的范圍。那么,挑戰(zhàn)不僅在于如何將道德推理編碼到人工智能中,還在于如何確保其不斷發(fā)展的道德框架與人類價值觀和社會規(guī)范保持一致。盡管人工智能的速度、精度和計算能力如此之快,但它仍然無法做到使道德推理真正成為可能的一件事:不僅能夠質疑什么是正確的,而且質疑為什么。因此,倫理必須仍然是人類的努力,是一場持續(xù)的、不完美的斗爭,任何機器都無法完全掌握。
了解更多時間深度剖析,盡在于此@黃先生斜杠青年
商業(yè)咨詢和顧問業(yè)務,請@yellowscholar
關注我,帶你先看到未來!?
轉載聲明:除調整格式外,不得對原文做改寫、改編。原創(chuàng)不易,謝謝!E-mail:yellow@aliyun.com
?聲明:本文為原創(chuàng)文本,非生成式,轉載請注明出處!
商務咨詢/顧問/請@yellowscholar?作者:黃先生斜杠青年
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.