henry 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
人多,好辦事。agent多,照樣好辦事!
在最新的Andrew’s Letters中,吳恩達(dá)老師就指出:并行智能體正在成為提升AI能力的新方向。
信中,他描繪了這樣的一些場(chǎng)景:
- 多個(gè)agent并行抓取分析網(wǎng)頁(yè),更快速地生成深度研究報(bào)告。
- 多個(gè)agent協(xié)同處理代碼庫(kù)的不同部分,加快編程任務(wù)完成速度。
- 多個(gè)agent在后臺(tái)并行工作,同時(shí)由一個(gè)監(jiān)督agent向用戶提供反饋,實(shí)現(xiàn)并行異步控制。
在這些場(chǎng)景中,多個(gè)agent協(xié)作,就像一支高效的agent team同時(shí)處理不同任務(wù),速度快、效率高。
這為我們理解AI能力的提升提供了新視角——
不僅僅依靠更多的數(shù)據(jù)和算力,更重要的是讓多個(gè)智能體協(xié)同并行工作。
并行智能體才是未來(lái)
以往,當(dāng)我們談?wù)揂I能力的提升時(shí),更多依賴(lài)的是所謂的“力大磚飛”的scaling law,也就是希望通過(guò)更多的數(shù)據(jù)和算力來(lái)獲得性能的提升。
據(jù)吳恩達(dá)所說(shuō),這一點(diǎn)在他之前在百度和OpenAI的工作中,已得到了充分驗(yàn)證。
但問(wèn)題是,這些方法往往需要長(zhǎng)時(shí)間才能輸出結(jié)果。
相比之下,并行運(yùn)行的agent提供了另一種方式:在提升性能的同時(shí),讓用戶無(wú)需長(zhǎng)時(shí)間等待結(jié)果。
此外,大語(yǔ)言模型token成本的不斷下降,也讓多個(gè)agent并行處理的方法變得可行。
但就像網(wǎng)友指出的:如何協(xié)調(diào)多個(gè)agent呢?
咱光給方向,不給答案也不行啊。
對(duì)于這一疑問(wèn),吳恩達(dá)在信中也是有所提及:因?yàn)槟呐聦?duì)于人類(lèi)來(lái)說(shuō),將一個(gè)復(fù)雜任務(wù)(比如開(kāi)發(fā)復(fù)雜的軟件應(yīng)用)拆分成小任務(wù)并交由下面的多個(gè)工程師并行完成,都就極具挑戰(zhàn),而一旦擴(kuò)展到更多的并行單元,那么難度將會(huì)更大。
同樣的,將任務(wù)分解給多個(gè)智能體并行執(zhí)行也并不容易。
不過(guò),凡事要用發(fā)展的眼光看問(wèn)題:
吳恩達(dá)以?xún)善罱恼撐臑槔?,說(shuō)明了并行智能體研究的發(fā)展:
一篇是來(lái)自Ryan Ehrlich等人的論文《Code Monkeys:Scaling Test-Time Compute for Software Engineering》。
簡(jiǎn)單來(lái)說(shuō),這篇論文讓大語(yǔ)言模型在推理時(shí)并行生成多個(gè)軌跡,來(lái)生成多樣化的候選解決方案,從而提高編程問(wèn)題解決的效率。
其次是Together Mixture Of Agents(MoA)架構(gòu),它通過(guò)同時(shí)利用多個(gè)大語(yǔ)言模型來(lái)提升性能。
值得一提的是,該架構(gòu)還能進(jìn)一步調(diào)整分層架構(gòu)(每層包含的agent數(shù)和層數(shù)),來(lái)進(jìn)一步提升性能。
在信的最后,吳恩達(dá)總結(jié)道:
在如何最優(yōu)地利用并行agent方面,仍然有大量研究與工程工作需要探索。我相信,能夠高效并行工作的agent數(shù)量,就像能夠高效并行工作的人的數(shù)量一樣,最終會(huì)非常龐大。
最后的最后,我們不妨說(shuō)句題外話。
2009年,吳恩達(dá)在他的經(jīng)典論文《Large-Scale Deep Unsupervised Learning Using Graphics Processors》中,首次系統(tǒng)性地展示了GPU在深度學(xué)習(xí)中的大規(guī)模應(yīng)用。
這篇論文不僅證明了GPU計(jì)算能顯著提升卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效率,更預(yù)告著深度學(xué)習(xí)時(shí)代的到來(lái)。
而這一切的核心,歸根結(jié)底就倆字:
并行
[1]https://x.com/AndrewYNg/status/1961118026398617648
[2]https://www.deeplearning.ai/the-batch/agents-running-in-parallel-get-there-faster/
[3]https://arxiv.org/pdf/2501.14723
[4]https://docs.together.ai/docs/mixture-of-agents?utm_campaign=The%20Batch&utm_source=hs_email&utm_medium=email&_hsenc=p2ANqtz--bx7Qwyz4z_x_fNl93PMa-tjsrHFwAsEMSCHyOV1wXdBXA9LRFQJ6RKmk8P7MHd0o7_REn
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.