機(jī)器之心報(bào)道
編輯:陳陳
實(shí)時(shí)強(qiáng)化學(xué)習(xí)來了!AI 再也不怕「卡頓」。
設(shè)想這樣一個(gè)未來場(chǎng)景:多個(gè)廚師機(jī)器人正在協(xié)作制作煎蛋卷。雖然我們希望這些機(jī)器人能使用最強(qiáng)大可靠的智能模型,但更重要的是它們必須跟上瞬息萬變的節(jié)奏 —— 食材需要在精準(zhǔn)時(shí)機(jī)添加,煎蛋過程需要實(shí)時(shí)監(jiān)控以確保受熱均勻。只要機(jī)器人動(dòng)作稍有延遲,蛋卷必定焦糊。它們還必須應(yīng)對(duì)協(xié)作伙伴動(dòng)作的不確定性,并做出即時(shí)適應(yīng)性調(diào)整。
實(shí)時(shí)強(qiáng)化學(xué)習(xí)
然而,現(xiàn)有的強(qiáng)化學(xué)習(xí)算法多基于一種理想化的交互模式:環(huán)境與智能體輪流「暫?!挂缘却龑?duì)方完成計(jì)算或響應(yīng)。具體表現(xiàn)為:
環(huán)境暫停假設(shè):當(dāng)智能體進(jìn)行計(jì)算決策和經(jīng)驗(yàn)學(xué)習(xí)時(shí),環(huán)境狀態(tài)保持靜止;
智能體暫停假設(shè):當(dāng)環(huán)境狀態(tài)發(fā)生轉(zhuǎn)移時(shí),智能體暫停其決策過程。
這種類似「回合制游戲」的假設(shè),嚴(yán)重脫離現(xiàn)實(shí),難以應(yīng)對(duì)持續(xù)變化、延遲敏感的真實(shí)環(huán)境。
下圖突出顯示了智能體在實(shí)時(shí)環(huán)境中出現(xiàn)的兩個(gè)關(guān)鍵困難,而這些在標(biāo)準(zhǔn)的回合制 RL 研究中是不會(huì)遇到的。
首先,由于動(dòng)作推理時(shí)間較長(zhǎng),智能體可能不會(huì)在環(huán)境的每一步都采取動(dòng)作。這可能導(dǎo)致智能體采用一種新的次優(yōu)性策略,稱之為無動(dòng)作遺憾(inaction regret)。
第二個(gè)困難是,動(dòng)作是基于過去的狀態(tài)計(jì)算的,因而動(dòng)作會(huì)在環(huán)境中產(chǎn)生延遲影響。這導(dǎo)致另一個(gè)新的次優(yōu)性來源,這在隨機(jī)環(huán)境中尤為突出,稱之為延遲遺憾(delay regret)。
在這樣的背景下,Mila 實(shí)驗(yàn)室兩篇 ICLR 2025 論文提出了一種全新的實(shí)時(shí)強(qiáng)化學(xué)習(xí)框架,旨在解決當(dāng)前強(qiáng)化學(xué)習(xí)系統(tǒng)在部署過程中面臨的推理延遲和動(dòng)作缺失問題,使得大模型也能在高頻、連續(xù)的任務(wù)中實(shí)現(xiàn)即時(shí)響應(yīng)。
第一篇論文提出了一種最小化無動(dòng)作遺憾的解決方案,第二篇提出了一種最小化延遲遺憾的解決方案。
最小化無動(dòng)作:交錯(cuò)推理
第一篇論文基于這樣一個(gè)事實(shí):在標(biāo)準(zhǔn)的回合制強(qiáng)化學(xué)習(xí)交互范式中,隨著模型參數(shù)數(shù)量的增加,智能體無動(dòng)作的程度也會(huì)隨之增加。因此,強(qiáng)化學(xué)習(xí)社區(qū)必須考慮一種新的部署框架,以便在現(xiàn)實(shí)世界中實(shí)現(xiàn)基礎(chǔ)模型規(guī)模化的強(qiáng)化學(xué)習(xí)。為此,本文提出了一個(gè)用于異步多過程推理和學(xué)習(xí)的框架。
- 論文地址:https://openreview.net/pdf?id=fXb9BbuyAD
- 代碼地址 https://github.com/CERC-AAI/realtime_rl
- 論文標(biāo)題: ENABLING REALTIME REINFORCEMENT LEARNING AT SCALE WITH STAGGERED ASYNCHRONOUS INFERENCE
在該框架中,允許智能體充分利用其可用算力進(jìn)行異步推理與學(xué)習(xí)。具體而言,本文提出了兩種交錯(cuò)式推理算法,其核心思想是通過自適應(yīng)調(diào)整并行推理過程的時(shí)序偏移,使智能體能夠以更快的固定間隔在環(huán)境中執(zhí)行動(dòng)作。
本文證明:只要計(jì)算資源足夠,無論模型有多大、推理時(shí)間有多長(zhǎng),使用任意一種算法都可以做到在每一個(gè)環(huán)境步都執(zhí)行動(dòng)作,從而完全消除無動(dòng)作遺憾。
本文在 Game Boy 和 Atari 實(shí)時(shí)模擬中測(cè)試了提出的新框架,這些模擬的幀率和交互協(xié)議與人類在主機(jī)上實(shí)際玩這些游戲時(shí)所體驗(yàn)到的幀率和交互協(xié)議同步。
論文重點(diǎn)介紹了異步推理和學(xué)習(xí)在《寶可夢(mèng):藍(lán)》游戲中使用一個(gè)擁有 1 億參數(shù)的模型成功捕捉寶可夢(mèng)時(shí)所展現(xiàn)的卓越性能。需要注意的是,智能體不僅必須快速行動(dòng),還必須不斷適應(yīng)新的場(chǎng)景才能取得進(jìn)展。
此外,論文還重點(diǎn)介紹了該框架在像俄羅斯方塊這樣注重反應(yīng)時(shí)間的實(shí)時(shí)游戲中的表現(xiàn)。結(jié)果證明,在使用異步推理和學(xué)習(xí)時(shí),模型規(guī)模越大,性能下降的速度就越慢。然而,大模型性能下降的根本原因是延遲遺憾效應(yīng)尚未得到解決。
用單個(gè)神經(jīng)網(wǎng)絡(luò)最小化無動(dòng)作和延遲遺憾
- 論文地址:https://openreview.net/pdf?id=YOc5t8PHf2
- 項(xiàng)目地址:https://github.com/avecplezir/realtime-agent
- 論文標(biāo)題: HANDLING DELAY IN REAL-TIME REINFORCEMENT LEARNING
第二篇論文提出了一種架構(gòu)解決方案,用于在實(shí)時(shí)環(huán)境中部署神經(jīng)網(wǎng)絡(luò)時(shí)最大限度地減少無響應(yīng)和延遲,因?yàn)樵趯?shí)時(shí)環(huán)境中,交錯(cuò)推理并非可行。順序計(jì)算在深度網(wǎng)絡(luò)中效率低下,因?yàn)樯疃染W(wǎng)絡(luò)中每一層的執(zhí)行時(shí)間大致相同。因此,總延遲會(huì)隨著網(wǎng)絡(luò)深度的增加而成比例增加,從而導(dǎo)致響應(yīng)緩慢。
這一局限性與早期 CPU 架構(gòu)的缺陷如出一轍 —— 當(dāng)指令只能串行處理時(shí),會(huì)導(dǎo)致計(jì)算資源利用率低下且執(zhí)行時(shí)間延長(zhǎng)?,F(xiàn)代 CPU 采用 pipelining 技術(shù)成功解決了這一問題,該技術(shù)允許多條指令的不同階段并行執(zhí)行。
受此啟發(fā),本文在神經(jīng)網(wǎng)絡(luò)中引入了并行計(jì)算機(jī)制:通過一次計(jì)算所有網(wǎng)絡(luò)層,有效降低了無動(dòng)作遺憾。
為了進(jìn)一步減少延遲,本文引入了時(shí)序跳躍連接(temporal skip connections),使得新的觀測(cè)信息可以更快地傳遞到更深的網(wǎng)絡(luò)層,而無需逐層傳遞。
該研究的核心貢獻(xiàn)在于:將并行計(jì)算與時(shí)序跳躍連接相結(jié)合,從而在實(shí)時(shí)系統(tǒng)中同時(shí)降低無動(dòng)作遺憾和延遲遺憾。
下圖對(duì)此進(jìn)行了說明。圖中縱軸表示網(wǎng)絡(luò)層的深度,從初始觀測(cè)開始,依次經(jīng)過第一層、第二層的表示,最終到達(dá)動(dòng)作輸出;橫軸表示時(shí)間。因此,每一條箭頭代表一層的計(jì)算過程,所需時(shí)間為 δ 秒。
在基線方法中(左圖),一個(gè)新的觀測(cè)必須依次穿過全部 N 層網(wǎng)絡(luò),因此動(dòng)作的輸出需要 N × δ 秒才能獲得。
通過對(duì)各層進(jìn)行并行計(jì)算(中圖),可以將推理吞吐量從每 Nδ 秒一次提高到每 δ 秒一次,從而減少無動(dòng)作遺憾。
最終,時(shí)序跳躍連接(如右圖所示)將總延遲從 Nδ 降低至 δ—— 其機(jī)制是讓最新觀測(cè)值僅需單次 δ 延遲即可傳遞至輸出層。從設(shè)計(jì)理念來看,該方案通過在網(wǎng)絡(luò)表達(dá)能力與時(shí)效信息整合需求之間進(jìn)行權(quán)衡,從根本上解決了延遲問題。
此外,用過去的動(dòng)作 / 狀態(tài)來增強(qiáng)輸入可以恢復(fù)馬爾可夫特性,即使在存在延遲的情況下也能提高學(xué)習(xí)穩(wěn)定性。正如結(jié)果所示,這既減少了延遲,也減少了與優(yōu)化相關(guān)的遺憾。
兩者結(jié)合使用
交錯(cuò)式異步推理與時(shí)序跳躍連接是彼此獨(dú)立的技術(shù),但具有互補(bǔ)性。時(shí)序跳躍連接可減少模型內(nèi)部從觀測(cè)到動(dòng)作之間的延遲,而交錯(cuò)推理則確保即使在使用大模型時(shí),也能持續(xù)穩(wěn)定地輸出動(dòng)作。
兩者結(jié)合使用,可以將模型規(guī)模與交互延遲解耦,從而使在實(shí)時(shí)環(huán)境中部署既具有強(qiáng)表達(dá)能力、又響應(yīng)迅速的智能體成為可能。這對(duì)于機(jī)器人、自動(dòng)駕駛、金融交易等高度依賴響應(yīng)速度的關(guān)鍵領(lǐng)域具有重要意義。
通過使大模型在不犧牲表達(dá)能力的前提下實(shí)現(xiàn)高頻率決策,這些方法為強(qiáng)化學(xué)習(xí)在現(xiàn)實(shí)世界的延遲敏感型應(yīng)用中落地邁出了關(guān)鍵一步。
https://mila.quebec/en/article/real-time-reinforcement-learning
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.