英偉達研究院和佐治亞理工大學的研究人員最近發(fā)表了一篇論文,拋出了一個非共識的觀點:
小語言模型(SLM)才是AI智能體的未來,而不是那些龐大的大型語言模型。
https://arxiv.org/abs/2506.02153v1
作者核心理由主要是以下三點:
首先,SLM已經(jīng)足夠強大,能處理AI智能體中大多數(shù)重復、專一的任務;其次,它們天生更適合智能體系統(tǒng)的架構(gòu),靈活且易集成;最后,從經(jīng)濟角度看,SLM更省錢、更高效,能大幅降低AI運行成本。
想象一下,AI智能體系統(tǒng)就像一個虛擬團隊,能自動分解任務、調(diào)用工具(比如瀏覽器或代碼編輯器),最終解決問題。目前,大多數(shù)AI智能體都依賴LLM作為“大腦”,因為LLM聊天能力強、知識廣博,能處理各種復雜問題。
論文指出,2024年AI智能體市場已達52億美元,預計到2034年飆升至2000億美元,企業(yè)中超過一半已經(jīng)在用。但問題來了:AI智能體的任務往往重復單一,比如“檢查郵件”“生成報告”,用LLMs這種“全能選手”來干這些活,就好像用超級計算機玩掃雷,開蘭博基尼送披薩——過于浪費資源。
而且不單是浪費,智能體系統(tǒng)任務的特點也使得小模型能更好的適配智能體生態(tài),從而更有可能交付出更符合要求的結(jié)果。
因為本質(zhì)上AI智能體不是聊天機器人,而是“工具箱+大腦”的系統(tǒng)。SLM小巧,訓練/微調(diào)成本低(幾小時GPU就行),易適應新需求(如新法規(guī))。這帶來“民主化”,從而能讓更多人能開發(fā)智能體,減少偏見,促進創(chuàng)新。
作者指出,智能體任務只用LLM的一小部分技能,如格式嚴格的工具調(diào)用。而AI智能體系統(tǒng)天然異構(gòu)就利于混用模型,主智能體用LLM,子任務用SLM。
而如果大量采用SLM,還能發(fā)揮數(shù)據(jù)收集優(yōu)勢:智能體運行時,自然產(chǎn)生的專精數(shù)據(jù),可以用來微調(diào)SLM,形成良性循環(huán),從而使得結(jié)果越來越好。
01
什么是SLM
論文對SLM給出了一個實用的定義:
SLMs:能裝進普通消費電子設備(如手機或筆記本),推理速度快,能實時服務一個用戶的智能體請求。目前,10億參數(shù)以下的模型可以算是SLM。而其他更大的模型,通常需要云端服務器支持。
為什么這樣定義?SLM像“便攜大腦”,適合終端部署;LLM像“宇宙級超級電腦”,但延遲高、成本大。
作者給了一個很極端但是又很有意思的例子做比喻:如果AI無限大,會受光速限制沒法實時互動;無限小,又太弱沒法做事。人類大腦就是平衡點,SLM就像人類大腦這個平衡點,高效,易于迭代。
作者對比兩種類型的智能體結(jié)構(gòu):
在左側(cè),一個語言模型與用戶聊天并直接觸發(fā)每個工具,因此整個流程都位于該單個模型中。
在右側(cè),一個小型控制器程序處理工具調(diào)用,讓模型專注于對話或特定推理。
這種拆分使得為大多數(shù)調(diào)用插入小型語言模型變得容易,節(jié)省成本,并將大型模型僅保留用于不太常見的開放式問答或者推理步驟。
論文表示,最前沿的小模型如Phi-3和Hymba,在工具使用、常識推理和指令遵循方面,性能足以媲美30B到70B的大模型,但在實際工作流中的計算量卻降低了10-30倍。
英偉達還對三款真實世界的AI智能體進行了測試,發(fā)現(xiàn):
MetaGPT:60%的任務可以用SLM取代
Open Operator:40%的任務可以用SLM取代
Cradle(圖形界面自動化):70%的任務可以用SLM取代
02
SLM那么好,為什么還要用LLM呢?
論文認為AI智能體沒有大規(guī)模利用SLM的主要原因還是因為路徑依賴。
大量資金(高達570億美元)被投入了中心化的大模型基礎設施,團隊傾向于重復使用付費設置,而不是轉(zhuǎn)向更輕的本地選項,短期內(nèi)難以轉(zhuǎn)變。
行業(yè)內(nèi)對「大即是好」的偏見依然強烈。對小型模型的研究一直在追逐用于大型模型的相同廣泛基準,而這些測試都體現(xiàn)不出于小模型在智能體任務上的優(yōu)秀表現(xiàn)。
SLM幾乎沒有GPT-4那樣的熱度,小模型也不像讓大模型那樣經(jīng)歷了一輪一輪的營銷熱潮,因此許多構(gòu)建者從未嘗試過更便宜更合理的路線。
對此,論文認為如果研究任務員和智能體搭建者能夠做到一下幾點,那么將能很好的發(fā)揮SLM在智能體方面的潛力。
-收集梳理數(shù)據(jù)
-針對特定任務微調(diào)SLM
-把任務進行聚類并建立SLM的“技能”
03
華人作者介紹
SHIZHE DIAO
根據(jù)他領英公開的資料,他先后就讀于北京師范大學,香港科技大學,曾經(jīng)在UIUC做過訪問學者。
曾經(jīng)在字節(jié)AI LAB做過實習,2024年加入英偉達擔任研究科學家。
Xin Dong
根據(jù)他的個人博客,他博士畢業(yè)于哈佛大學。曾經(jīng)在騰訊,Meta等公司有過工作和實習經(jīng)歷。
Yonggan Fu
根據(jù)他的領英公開資料,他本科畢業(yè)于中國科學技術大學,在萊斯大學和喬治亞理工完成了自己的博士學業(yè)。
在Meta和英偉達實習過,現(xiàn)為英偉達研究科學家。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.