2025年5月26日,《軍事倫理學(xué)雜志》發(fā)表了題為《忠誠(chéng)僚機(jī)、人工智能與認(rèn)知增強(qiáng):對(duì)賽博格-無(wú)人機(jī)戰(zhàn)爭(zhēng)的警示》(Loyal Wingmen, Artificial Intelligence, and Cognitive Enhancement: A Warning Against Cyborg-Drone Warfare)的研究文章,探討了未來(lái)空戰(zhàn)中整合人工智能并與載人飛機(jī)協(xié)同作戰(zhàn)的“忠誠(chéng)僚機(jī)”(Loyal Wingmen)武裝無(wú)人機(jī)概念?!百惒└瘛笔侵妇哂杏袡C(jī)和生物機(jī)電身體部件的生物。在軍事領(lǐng)域,其概念可以擴(kuò)展到士兵通過(guò)外骨骼、可穿戴計(jì)算機(jī)等技術(shù)增強(qiáng)自身能力。在“賽博格-無(wú)人機(jī)”戰(zhàn)爭(zhēng)(Cyborg-Drone)中,無(wú)人機(jī)被視為一種“賽博格”存在,即它們既依賴(lài)于人類(lèi)的控制,又具備自主操作的能力。這種融合使得無(wú)人機(jī)在執(zhí)行任務(wù)時(shí)能夠結(jié)合人類(lèi)的認(rèn)知能力和機(jī)器的精確性。文章指出,雖然這種戰(zhàn)術(shù)人機(jī)協(xié)同可能帶來(lái)軍事優(yōu)勢(shì),但人工智能介入武器關(guān)鍵功能會(huì)引發(fā)倫理風(fēng)險(xiǎn)。為應(yīng)對(duì)此風(fēng)險(xiǎn),通過(guò)增強(qiáng)人類(lèi)監(jiān)管者認(rèn)知能力(尤其是利用腦機(jī)接口)以實(shí)現(xiàn)“有意義的人類(lèi)控制”成為一種潛在途徑。該文分析,盡管腦機(jī)接口或能加速戰(zhàn)場(chǎng)干預(yù),防止人工智能相關(guān)傷害,但應(yīng)警惕其帶來(lái)的倫理弊端可能遠(yuǎn)超益處。啟元洞見(jiàn)編譯整理了其中的核心內(nèi)容,以供讀者參考。
一、引言
在空戰(zhàn)實(shí)踐中,飛行員是否應(yīng)運(yùn)用認(rèn)知增強(qiáng)技術(shù)監(jiān)督整合人工智能的武裝無(wú)人機(jī)運(yùn)作,已成為突出的倫理議題。“忠誠(chéng)僚機(jī)”無(wú)人機(jī)概念是人工智能融入武器系統(tǒng)趨勢(shì)的產(chǎn)物,設(shè)想此類(lèi)飛行器作為“人機(jī)團(tuán)隊(duì)”一部分,伴隨載人飛機(jī)進(jìn)入軍事對(duì)抗空域。核心倫理關(guān)切在于確保人工智能在無(wú)人機(jī)武器操作中的角色仍處于充分的人類(lèi)控制之下。這種控制不僅是軍事效能內(nèi)在要求,更是戰(zhàn)爭(zhēng)中行使道德能動(dòng)性、為暴力行為所致不公承擔(dān)道德責(zé)任的前提。隨著人工智能技術(shù)在武器系統(tǒng)內(nèi)高速執(zhí)行功能能力日增,人類(lèi)操作員認(rèn)知上難以跟上人工智能生成信息流的風(fēng)險(xiǎn)也隨之加大。應(yīng)對(duì)此風(fēng)險(xiǎn)的一種思路便是增強(qiáng)人類(lèi)認(rèn)知,加速人機(jī)交互。
目前,部分國(guó)家政府,如美英兩國(guó),傾向于利用人工智能技術(shù)補(bǔ)充而非取代人類(lèi)作戰(zhàn)人員,其公開(kāi)政策是采納人工智能以實(shí)現(xiàn)“人機(jī)協(xié)同”。即便如此,在人機(jī)協(xié)同作戰(zhàn)情境下,部署人工智能賦能武器系統(tǒng)仍可能因缺乏“有意義的人類(lèi)控制”而在道德上不可接受。從軍事角度看,控制不足的武器系統(tǒng)同樣不受歡迎。為此,一些軍事機(jī)構(gòu)開(kāi)始探索增強(qiáng)人類(lèi)認(rèn)知能力,以期跟上人工智能信息處理步伐。例如,美軍預(yù)測(cè)“賽博格”技術(shù),包括“用于腦機(jī)接口的神經(jīng)植入物”,將實(shí)現(xiàn)人類(lèi)與無(wú)人機(jī)等武器系統(tǒng)的“無(wú)縫交互”。本文聚焦“忠誠(chéng)僚機(jī)”,評(píng)估采用腦機(jī)接口(BCI)進(jìn)行“賽博格-無(wú)人機(jī)”作戰(zhàn)的假設(shè)性構(gòu)想。
二、無(wú)人機(jī)作戰(zhàn)向人機(jī)協(xié)同的轉(zhuǎn)變
近二十年來(lái),武裝無(wú)人機(jī)主要用于低烈度沖突環(huán)境。然而,在面對(duì)更強(qiáng)對(duì)手、空域競(jìng)爭(zhēng)更激烈的環(huán)境中,此類(lèi)無(wú)人機(jī)作戰(zhàn)模式難以為繼,其遠(yuǎn)程通信鏈路易受干擾,機(jī)體也更易被先進(jìn)防空系統(tǒng)摧毀。同時(shí),西方國(guó)家空軍也面臨戰(zhàn)斗機(jī)數(shù)量不足的戰(zhàn)略隱憂(yōu)。這種戰(zhàn)略焦慮部分推動(dòng)了美國(guó)軍方的“第三次抵消”戰(zhàn)略,其核心在于“運(yùn)用機(jī)器或人工智能輔助人類(lèi)決策和執(zhí)行軍事行動(dòng)”。英國(guó)國(guó)防部亦有類(lèi)似判斷,認(rèn)為“未來(lái)的軍事優(yōu)勢(shì)”將取決于“人機(jī)在作戰(zhàn)系統(tǒng)中的有效整合”。
戰(zhàn)術(shù)層面上,“忠誠(chéng)僚機(jī)”概念應(yīng)運(yùn)而生,即人工智能賦能的無(wú)人機(jī)與有人駕駛軍機(jī)協(xié)同作戰(zhàn)。此概念有望在飛行員數(shù)量減少的情況下,通過(guò)無(wú)人機(jī)集群維持作戰(zhàn)“體量”?!爸艺\(chéng)僚機(jī)”是多國(guó)正在研發(fā)的“第六代”戰(zhàn)斗機(jī)系統(tǒng)的核心組成部分。這些系統(tǒng)均基于一個(gè)核心假設(shè):有人戰(zhàn)斗機(jī)將與提供各類(lèi)支援的無(wú)人機(jī)協(xié)同行動(dòng)??死兴筙Q-58A“女武神”(Valkyrie)無(wú)人機(jī)即為該領(lǐng)域較先進(jìn)的代表,其功能多由名為“天空博格”(Skyborg)的人工智能系統(tǒng)控制。
在前美國(guó)空軍部長(zhǎng)弗蘭克·肯德?tīng)枺‵rank Kendall)的設(shè)想中,一名飛行員可指揮多達(dá)五架“忠誠(chéng)僚機(jī)”。飛行員的角色是“管理”無(wú)人機(jī)。從通信角度看,將人類(lèi)監(jiān)管者部署于無(wú)人機(jī)附近,比依賴(lài)遠(yuǎn)程操作員更具作戰(zhàn)優(yōu)勢(shì),因?yàn)槎叹嚯x數(shù)據(jù)傳輸更難被敵方干擾,且數(shù)據(jù)交換延遲更短。這對(duì)于打擊快速移動(dòng)目標(biāo)或及時(shí)中止攻擊至關(guān)重要。“忠誠(chéng)僚機(jī)”的物理鄰近性,因其能實(shí)現(xiàn)更及時(shí)的干預(yù),從而具備潛在的道德優(yōu)勢(shì)。
三、“忠誠(chéng)僚機(jī)”與控制難題
從倫理視角審視,“忠誠(chéng)僚機(jī)”概念的關(guān)鍵在于人工智能技術(shù)的整合及其影響。核心憂(yōu)慮在于,這些武裝人工智能賦能無(wú)人機(jī)在實(shí)際運(yùn)作中可能脫離充分的人類(lèi)控制。維持此類(lèi)條件對(duì)于人道主義原因至關(guān)重要。人工智能固有地?zé)o法做出道德決策和承擔(dān)道德責(zé)任。因此,人類(lèi)對(duì)人工智能賦能武器系統(tǒng)暴力相關(guān)功能的控制程度,需要足夠有意義。
美英兩國(guó)的政策在一定程度上反映了這一要求,強(qiáng)調(diào)操作員應(yīng)有能力干預(yù)和終止交戰(zhàn),并允許指揮官和操作員在使用武力方面行使適當(dāng)水平的人類(lèi)判斷,確?!芭c情境相適應(yīng)的人類(lèi)參與”。“適當(dāng)”一詞暗示了并非任何形式的人類(lèi)參與都足夠,且其適宜性與具體情境相關(guān)。
“忠誠(chéng)僚機(jī)”的良性功能可由人工智能執(zhí)行。但雷神技術(shù)公司副總裁喬恩·諾曼(Jon Norman)設(shè)想了一個(gè)更令人擔(dān)憂(yōu)的情景:未來(lái)戰(zhàn)場(chǎng)上,人工智能或允許飛行員派遣武裝無(wú)人機(jī)至敵人陣地附近“隨意開(kāi)火”。即使無(wú)人機(jī)的關(guān)鍵功能仍需人類(lèi)介入,對(duì)人工智能輔助暴力的有意義人類(lèi)控制也需要從時(shí)間角度來(lái)理解:必須有機(jī)會(huì)及時(shí)否決人工智能,以防止因系統(tǒng)錯(cuò)誤導(dǎo)致的意外影響和不公正傷害。
然而,在實(shí)踐中,可能沒(méi)有足夠的時(shí)間進(jìn)行此類(lèi)仔細(xì)檢查。有分析指出,“忠誠(chéng)僚機(jī)”概念的一個(gè)問(wèn)題是“尚不清楚行動(dòng)中的戰(zhàn)斗機(jī)飛行員是否有時(shí)間管理半自主助手”。在充滿(mǎn)干擾的戰(zhàn)斗環(huán)境中,非法目標(biāo)可能在匆忙中被忽略。已經(jīng)存在一些人工智能賦能武器系統(tǒng),其運(yùn)行速度之快,以至于其人類(lèi)控制者感到力不從心。未來(lái)人機(jī)協(xié)同的高壓情境下,缺乏人類(lèi)深思熟慮和及時(shí)干預(yù)的機(jī)會(huì),可能會(huì)加劇過(guò)度信任人工智能的問(wèn)題。
人機(jī)交互領(lǐng)域的研究早已認(rèn)識(shí)到現(xiàn)代人類(lèi)傾向于“自動(dòng)化偏見(jiàn)”。這種偏見(jiàn)可能導(dǎo)致人們高估人工智能生成輸出的可靠性。隨著戰(zhàn)爭(zhēng)日益數(shù)據(jù)驅(qū)動(dòng)化,作戰(zhàn)人員也可能經(jīng)歷信息過(guò)載,這同樣有可能誘導(dǎo)對(duì)人工智能生成輸出的過(guò)度信任。就“忠誠(chéng)僚機(jī)”而言,從無(wú)人機(jī)向其人類(lèi)監(jiān)管者飛機(jī)傳輸數(shù)據(jù)可能會(huì)導(dǎo)致信息過(guò)載,從而削弱人類(lèi)控制的意義。
“有意義人類(lèi)控制”的潛力也部分取決于武器系統(tǒng)設(shè)計(jì)中考慮所謂“人類(lèi)因素”的方式。美英政府均強(qiáng)調(diào)對(duì)操作員進(jìn)行必要培訓(xùn),并認(rèn)識(shí)到人機(jī)界面的設(shè)計(jì)至關(guān)重要。就“忠誠(chéng)僚機(jī)”而言,飛行員將需要“完全集成和優(yōu)雅的界面”。然而,未來(lái),如果人工智能技術(shù)更先進(jìn)、作戰(zhàn)環(huán)境更復(fù)雜,所需的人機(jī)接口機(jī)制可能會(huì)更復(fù)雜,人類(lèi)對(duì)多架無(wú)人機(jī)的控制可能不再能夠以有意義的方式持續(xù)。人類(lèi)大腦處理信息的能力有限,一些國(guó)家關(guān)注實(shí)現(xiàn)系統(tǒng)操作員“可管理的認(rèn)知負(fù)荷”。現(xiàn)代戰(zhàn)爭(zhēng)日益快節(jié)奏和數(shù)據(jù)驅(qū)動(dòng)的特性在這方面構(gòu)成了嚴(yán)峻挑戰(zhàn)。
四、用于“賽博格-無(wú)人機(jī)”作戰(zhàn)的
腦機(jī)接口
面對(duì)數(shù)據(jù)豐富且人工智能輔助的戰(zhàn)爭(zhēng)以超人速度進(jìn)行的前景,軍事規(guī)劃者可能最終被迫在人類(lèi)控制和人工智能控制先進(jìn)武器系統(tǒng)之間做出選擇。值得考慮追求人工智能賦能武器系統(tǒng)有意義人類(lèi)控制的第三種方法:改善人類(lèi)認(rèn)知。腦機(jī)接口是潛在實(shí)現(xiàn)此類(lèi)改善的最具技術(shù)雄心的機(jī)制之一,空軍飛行員可能成為首批使用者。
根據(jù)人機(jī)協(xié)同的戰(zhàn)術(shù)邏輯,其軍事優(yōu)勢(shì)在于結(jié)合各自的優(yōu)勢(shì)。通過(guò)與無(wú)人機(jī)“合作”,人類(lèi)飛行員將得以“專(zhuān)注于關(guān)鍵認(rèn)知任務(wù)”。然而,即使如此,有時(shí)也可能難以成功地持續(xù)執(zhí)行這些關(guān)鍵任務(wù)。幾十年來(lái)一直存在一種持續(xù)的做法,即使用藥理干預(yù)來(lái)臨時(shí)增強(qiáng)飛行員的注意力和警覺(jué)性。但在新興的人機(jī)協(xié)同時(shí)代,依賴(lài)藥理技術(shù)增強(qiáng)認(rèn)知的一個(gè)問(wèn)題是藥物影響大腦需要時(shí)間。此外,維持有意義的人類(lèi)控制可能需要旨在實(shí)現(xiàn)人機(jī)之間快速數(shù)據(jù)流動(dòng)的認(rèn)知增強(qiáng)技術(shù)。
電子腦機(jī)接口設(shè)備能夠?qū)崿F(xiàn)人腦與機(jī)器之間的雙向通信,延續(xù)了“賽博格化”的傳統(tǒng)。腦機(jī)接口技術(shù)可以消除對(duì)物理控制機(jī)制的需求,使人機(jī)交互能夠以新的、更快的方式進(jìn)行。當(dāng)與人工智能技術(shù)相結(jié)合時(shí),腦機(jī)接口有潛力讓用戶(hù)訪(fǎng)問(wèn)和交流大量信息。因此人們將腦機(jī)接口作為改進(jìn)人機(jī)協(xié)同的技術(shù)?!耙饽羁刂啤睙o(wú)人機(jī)的想法已存在了十多年。美軍報(bào)告推測(cè)未來(lái)將使用腦機(jī)接口使士兵能夠直接控制無(wú)人機(jī)等資產(chǎn)。蘭德公司預(yù)測(cè),未來(lái)戰(zhàn)場(chǎng)上,人類(lèi)思想可以通過(guò)腦機(jī)接口能力“導(dǎo)入人工智能軟件”,允許操作員“同時(shí)控制多個(gè)技術(shù)平臺(tái)”。
五、一項(xiàng)警示
認(rèn)知增強(qiáng)也可以增強(qiáng)戰(zhàn)爭(zhēng)的道德性,如果它促進(jìn)了對(duì)戰(zhàn)斗員和平民的更好區(qū)分。就人工智能賦能無(wú)人機(jī)的空對(duì)地打擊而言,讓飛行員監(jiān)管者靠近無(wú)人機(jī)對(duì)打擊區(qū)附近的平民已經(jīng)更有利。使用腦機(jī)接口可以假設(shè)性地加速飛行員的決策和行動(dòng)以進(jìn)行干預(yù),因?yàn)槿祟?lèi)的神經(jīng)反應(yīng)通常比其動(dòng)能反應(yīng)更快。
然而,“賽博格-無(wú)人機(jī)”戰(zhàn)爭(zhēng)也可能帶來(lái)至少兩種嚴(yán)重的倫理風(fēng)險(xiǎn)。第一種風(fēng)險(xiǎn),僅與手術(shù)植入的腦機(jī)接口相關(guān),即被俘的飛行員可能遭受無(wú)差別的傷害。一個(gè)已成為該飛行員身體一部分的接口設(shè)備,可能提供與附近“忠誠(chéng)僚機(jī)”及其機(jī)載武器的持續(xù)連接。在這種情況下,敵人可能會(huì)合理地將一個(gè)已知的、無(wú)法被干擾的賽博格視為持續(xù)的軍事威脅,即使其處于被俘狀態(tài)。非戰(zhàn)斗員身份可能在被俘的那一刻并未獲得。傳統(tǒng)上賦予戰(zhàn)俘的法律保護(hù)可能會(huì)受到損害。
與使用腦機(jī)接口監(jiān)督“忠誠(chéng)僚機(jī)”相關(guān)的第二個(gè)倫理風(fēng)險(xiǎn)是,這些設(shè)備可能會(huì)在戰(zhàn)斗中削弱飛行員的道德能動(dòng)性。通過(guò)人工智能和人類(lèi)智能的體驗(yàn)性模糊,使用腦機(jī)接口可能會(huì)加劇人類(lèi)對(duì)人工智能過(guò)度信任的問(wèn)題,從而削弱對(duì)人工智能賦能武器系統(tǒng)的人類(lèi)控制的充分性。
一些分析認(rèn)為未來(lái)有意義的人類(lèi)控制將關(guān)鍵取決于腦機(jī)接口。然而,在一個(gè)由兩種不同類(lèi)型的智能組成的人機(jī)團(tuán)隊(duì)的背景下,不宜審慎地假設(shè)人類(lèi)將永遠(yuǎn)是主要的思考者。另一種可能性是,那些與人工智能賦能武器系統(tǒng)神經(jīng)連接的人類(lèi),可能實(shí)質(zhì)上成為人工智能的追隨者。戰(zhàn)斗機(jī)飛行員與“忠誠(chéng)僚機(jī)”之間想象中的基于腦機(jī)接口的交互,不僅涉及從人類(lèi)向無(wú)人機(jī)發(fā)送控制信號(hào),還將涉及該無(wú)人機(jī)的人工智能將數(shù)據(jù)直接發(fā)送到飛行員的大腦。在這種傳統(tǒng)的人類(lèi)思維與人工智能數(shù)據(jù)處理之間中介層次的移除中,在這個(gè)認(rèn)知融合的時(shí)刻,人類(lèi)的道德能動(dòng)性將不再對(duì)人工智能賦能的武器系統(tǒng)產(chǎn)生獨(dú)立的影響?!爸艺\(chéng)僚機(jī)”將不受有意義的人類(lèi)控制。
六、結(jié)論
為應(yīng)對(duì)重大沖突做好準(zhǔn)備的戰(zhàn)略壓力,正驅(qū)使一些國(guó)家發(fā)展一種新的無(wú)人機(jī)作戰(zhàn)概念?!爸艺\(chéng)僚機(jī)”作為重要平臺(tái)出現(xiàn),用于增加“體量”和火力。從倫理角度看,關(guān)鍵問(wèn)題在于,這些人機(jī)團(tuán)隊(duì)中的人工智能賦能無(wú)人機(jī)是否會(huì)在有意義的人類(lèi)控制下運(yùn)行。
隨著技術(shù)進(jìn)步和戰(zhàn)爭(zhēng)節(jié)奏加快,武器系統(tǒng)的人類(lèi)控制者將發(fā)現(xiàn)越來(lái)越難以理解系統(tǒng)的人工智能在做什么。未來(lái),或許,即使是訓(xùn)練有素的人員使用高度直觀(guān)的人機(jī)界面,也將難以行使有意義的控制。但對(duì)這種可能性的道德上更可取的反應(yīng),必然是規(guī)劃賽博格式增強(qiáng)人類(lèi)作戰(zhàn)人員的大腦。飛行員使用腦機(jī)接口技術(shù)監(jiān)督“忠誠(chéng)僚機(jī)”,可能假設(shè)性地提供一個(gè)增加的機(jī)會(huì)進(jìn)行快速干預(yù)。然而,這種人道主義益處可以說(shuō)不足以成為理由,如果它同時(shí)也引入了嚴(yán)重的倫理風(fēng)險(xiǎn)。
如果腦機(jī)接口的更廣泛影響是損害非戰(zhàn)斗員身份和人類(lèi)道德能動(dòng)性,那么“賽博格-無(wú)人機(jī)”戰(zhàn)爭(zhēng)將是不公正的,應(yīng)該避免。對(duì)未來(lái)使用人工智能賦能無(wú)人機(jī)的一種更審慎的方法是,繼續(xù)要求它們?cè)跊](méi)有這種人類(lèi)增強(qiáng)的情況下也能被有意義地控制。
免責(zé)聲明:本文轉(zhuǎn)自啟元洞見(jiàn)。文章內(nèi)容系原作者個(gè)人觀(guān)點(diǎn),本公眾號(hào)編譯/轉(zhuǎn)載僅為分享、傳達(dá)不同觀(guān)點(diǎn),如有任何異議,歡迎聯(lián)系我們!
轉(zhuǎn)自丨啟元洞見(jiàn)
研究所簡(jiǎn)介
國(guó)際技術(shù)經(jīng)濟(jì)研究所(IITE)成立于1985年11月,是隸屬于國(guó)務(wù)院發(fā)展研究中心的非營(yíng)利性研究機(jī)構(gòu),主要職能是研究我國(guó)經(jīng)濟(jì)、科技社會(huì)發(fā)展中的重大政策性、戰(zhàn)略性、前瞻性問(wèn)題,跟蹤和分析世界科技、經(jīng)濟(jì)發(fā)展態(tài)勢(shì),為中央和有關(guān)部委提供決策咨詢(xún)服務(wù)?!叭蚣夹g(shù)地圖”為國(guó)際技術(shù)經(jīng)濟(jì)研究所官方微信賬號(hào),致力于向公眾傳遞前沿技術(shù)資訊和科技創(chuàng)新洞見(jiàn)。
地址:北京市海淀區(qū)小南莊20號(hào)樓A座
電話(huà):010-82635522
微信:iite_er
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.