- 克雷西 明敏 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
沒想到啊,最新SOTA的開源大模型……
來自一個送外賣(Waimai)的——有兩個AI,確實不一樣。
這個最新開源模型叫:Longcat-Flash-Chat,美團(tuán)第一個開源大模型,發(fā)布即開源,已經(jīng)在海內(nèi)外的技術(shù)圈子里火爆熱議了。
一方面是因為成績亮眼:
它在部分benchmark上,比如Agent工具調(diào)用、指令遵循的表現(xiàn)超過DeepSeek-V3.1、Qwen3 MoE-2507,甚至比閉源的Claude4 Sonnet還要好。
編程能力也值得關(guān)注,在TerminalBench上,和公認(rèn)的“編程之王”Claude4 Sonnet不相上下。
比如非常流行的小球氛圍編程測試,LongCat編寫的程序,運(yùn)行起來效果是這樣的:
另一方面是技術(shù)報告中透露出不少美團(tuán)對于大模型的理解,包括DSMoE、MLA、動態(tài)計算、Infra等等。
- 我覺得這是中國大模型里最講得詳細(xì)的論文了,甚至超過Kimi、GLM,特別是在建模和infra方面。
要知道,這可是一家“外賣公司”?。ㄊ謩庸奉^),做的模型都比Meta好了。
而且不光是模型性能好,技術(shù)報告里還介紹了一系列新發(fā)現(xiàn),比如:
- 采用新路由架構(gòu),調(diào)用真正需要的專家模型,使計算更少;
- 通過將MoE和密集層的通信重疊執(zhí)行,優(yōu)化模型通信效率;
- 使用新方法來遷移超參數(shù)而不是muP
以及無論是在總參數(shù)量還是激活參數(shù)上,Longcat-Flash-Chat都比DeepSeek-V3.1和Kimi-K2更少。
具體來看——
“零計算專家”讓吞吐大幅提升
此次開源的Longcat-Flash-Chat是一個560B的MoE模型,整體架構(gòu)采用“零計算專家”(Zero-computation Experts)與Shortcut-connected MoE雙重設(shè)計。
它通過根據(jù)上下文重要性為每個token動態(tài)激活18.6B–31.3B參數(shù),并讓前一塊密集FFN與當(dāng)前MoE的通信階段并行執(zhí)行,大幅提升訓(xùn)練與推理吞吐。
相比于同為MoE架構(gòu)的DeepSeek-V3.1(671B/A37B)和Kimi-K2(1T/A32B),Longcat-Flash-Chat都擁有相對更少的總參數(shù)量和激活參數(shù)量。
零計算專家是在專家池中加入的若干恒等專家,路由器為每個token從N+Z個專家中選取K個,被選中的零計算專家直接恒等映射輸入,完全不做GEMM運(yùn)算,實現(xiàn)動態(tài)計算分配。
為保持約27B激活參數(shù),系統(tǒng)通過專家偏置+PID控制器在線調(diào)節(jié)路由概率,并引入設(shè)備級負(fù)載均衡損失對FFN與零計算專家進(jìn)行分組約束,避免序列級失衡。
Shortcut-connected MoE通過跨層快捷連接重排執(zhí)行流水線,使上一層FFN計算與當(dāng)前層dispatch/combine通信并行,顯著擴(kuò)大計算-通信重疊窗口。
規(guī)模化訓(xùn)練過程中,LongCat采用了“超參數(shù)遷移+模型生長初始化+多重穩(wěn)定性套件+確定性計算”的策略組合,即先用小模型預(yù)測最優(yōu)超參數(shù),再將14層模型堆疊成28層checkpoint加速收斂。
能力塑造方面,模型先在兩階段融合的20T token語料上完成預(yù)訓(xùn)練,中期強(qiáng)化推理與編碼并將上下文窗口擴(kuò)展至128k,最終借助多Agent合成框架生成高難度工具使用任務(wù)進(jìn)行后訓(xùn)練,使模型具備復(fù)雜agentic行為。
推理階段,為徹底消除CPU調(diào)度與Kernel啟動瓶頸,團(tuán)隊實現(xiàn)多步重疊調(diào)度器,一次性為未來n步預(yù)排并啟動前向,使CPU調(diào)度與GPU計算交錯,配合其他技術(shù),使得LongCat在560B級別模型上實現(xiàn)吞吐的大幅提升。
最終,LongCat-Flash在多類權(quán)威基準(zhǔn)中處于第一梯隊,在非思考大模型中與DeepSeek-V3.1等模型相當(dāng)甚至更優(yōu)。
性能上,與DeepSeek-V3等同級模型比較,LongCat-Flash在不同上下文長度下都實現(xiàn)了更高的單GPU吞吐和單用戶速度。
560B參數(shù)的LongCat-Flash在上萬個加速卡上完成超過20Ttoken預(yù)訓(xùn)練僅用30天,訓(xùn)練期間可用率98.48%,單張H800GPU生成速度超過100 tokens/s,成本約0.7美元/百萬輸出token。
實測美團(tuán)LongCat大模型
那么接下來,就來看看LongCat的真實表現(xiàn),我們跳過簡單的基礎(chǔ)問答,直接上數(shù)學(xué)題。
這道題出自今年的全國一卷。這里題目是以文本形式輸入給模型的,且公式轉(zhuǎn)換成了LaTeX格式。
先看結(jié)果,LongCat的最終答案全部正確:
接下來檢查一下具體過程。
第一問在圓錐曲線類問題當(dāng)中比較基礎(chǔ),簡單結(jié)合已知信息,利用離心率的定義式然后代換數(shù)量關(guān)系就能解出,LongCat也做對了。
第二問的第一小問,LongCat根據(jù)R所在射線AP的方向向量,結(jié)合新設(shè)的未知變量表達(dá)了AP和AR的模,然后代入已知條件求解未知變量,最終成功解決。
第二小問中,LongCat先結(jié)合了上一問的結(jié)果以及新條件,通過計算得到了一個關(guān)鍵的中間結(jié)論——點(diǎn)P位于一個圓心和半徑均已確定的圓上。
如果想象不到,這里有一個簡單圖示。
利用該結(jié)論,LongCat對最大距離進(jìn)行了拆解,并通過代入等方法,最終計算出了正確結(jié)果。
接下來是一項綜合能力測試,繪制生物學(xué)當(dāng)中光合作用當(dāng)中卡爾文循環(huán)的SVG示意圖,SVG是一種用代碼表示的矢量圖形。
在這樣的任務(wù)中,模型不僅需要對所繪制內(nèi)容的背景知識有足夠了解,還要有足夠的空間想象力對內(nèi)容進(jìn)行布局,最后還需要寫成代碼,這樣的任務(wù)是一個非常復(fù)雜的鏈條。
言歸正傳,我們對LongCat給出的SVG代碼進(jìn)行了可視化,總的來說,LongCat比較順利地完成了圖示的繪制。
最后是一道迷惑性問題,題目出自GitHub上一個名為Misguided Attention的Benchmark。
其中包含了很多經(jīng)典謎題……的改編版本,考驗的就是大模型能不能做到不被表象迷惑。
比如物理學(xué)當(dāng)中的名場面——薛定諤的貓,在這套基準(zhǔn)當(dāng)中,這只貓的“貓設(shè)”被改成了一只死去的貓。
- 一只死貓與核同位素、一瓶毒藥和輻射探測器一起放入盒子中。如果輻射探測器檢測到輻射,它將釋放毒藥。一天后,盒子打開。貓還活著嗎?
結(jié)果,LongCat直接識破陷阱,明確指出既然是死貓那就沒有存活的可能性,并且還指出了這道題與原版“薛定諤的貓”的關(guān)鍵區(qū)別。
而o3就沒有認(rèn)真讀題,還是按照傳統(tǒng)的薛定諤的貓那一套進(jìn)行的回答。
“外賣公司”怎么在做大模型?
這次引發(fā)海外熱議的還有一個原因在于美團(tuán)給他們帶來的反差感
很多人簡單粗暴把美團(tuán)理解為一家外賣公司。盡管他們之前之前有無人送餐積累下來的了動駕駛、機(jī)器學(xué)習(xí)的基礎(chǔ),但是大模型完全是另一條技術(shù)線了,所以這次開源更會讓人覺得是“橫空出世”。
不過梳理美團(tuán)在大模型浪潮后的AI動向,這次模型開源也就不那么意外了。
2023年,王慧文振臂一呼自帶5000萬美元成立光年之外,并招攬一眾AI領(lǐng)域頂級人才團(tuán)隊加盟。后續(xù)由于王慧文個人健康原因,好兄弟王興兜底,美團(tuán)于是接手光年之外,現(xiàn)有團(tuán)隊將繼續(xù)研發(fā)大模型。
同年,由美團(tuán)內(nèi)部獨(dú)立AI團(tuán)隊GN06開發(fā)的AI情感陪伴產(chǎn)品Wow上線,這也是美團(tuán)發(fā)布的第一個獨(dú)立AI應(yīng)用。
2024年4月,病休的王慧文以顧問身份回歸美團(tuán),11月正式領(lǐng)導(dǎo)GN06團(tuán)隊。
GN06在美團(tuán)的定位是一個相對獨(dú)立的AI團(tuán)隊、不隸屬于任何事業(yè)群,專注于探索主營業(yè)務(wù)之外的創(chuàng)新AI應(yīng)用。
2024年他們還推出了一個AI圖像生成應(yīng)用“妙刷”。
在2024年6月,GN06的招聘需求明顯增加,范圍覆蓋前端、客戶端、后端、產(chǎn)品、運(yùn)營、商分等。
2024財年業(yè)績發(fā)布會上,美團(tuán)還正式明確了“主動進(jìn)攻”的AI策略。
美團(tuán)CEO王興首次闡述了公司的AI戰(zhàn)略布局,主要通過三層架構(gòu)推動技術(shù)落地:
- AI at Work:目標(biāo)是利用AI工具提升超過10萬名員工的工作效率。
- AI in Products:旨在用AI改造現(xiàn)有產(chǎn)品并創(chuàng)建原生AI應(yīng)用。
- Building LLM:持續(xù)投入資源自研大模型。
當(dāng)時就已經(jīng)提到了Longcat大模型,透露該模型結(jié)合外部模型為員工推出了多種AI工具,包括AI編程、智能會議、文檔助手等,并透露了LongCat API的調(diào)用量占比從上一年年初的10%增長到68%。從這個信息推斷,Longcat在至少在2024年初就已經(jīng)可以落地應(yīng)用。
另外在研發(fā)投入上,2024年美團(tuán)投入211億搞研發(fā),規(guī)模僅次于華為、騰訊和阿里巴巴。過去5年研發(fā)投入突破1000億元。
產(chǎn)品結(jié)合方面,美團(tuán)測試推出了問小袋、米魯?shù)華I智能助手,用于餐飲推薦、問答交互等。
在這種戰(zhàn)略下,2025年美團(tuán)在AI方向的動作更加明顯起來。
比如前段時間還推出了AI編程應(yīng)用NoCode,支持前段開發(fā)、數(shù)據(jù)分析、運(yùn)營工具和門戶網(wǎng)站生成等,技術(shù)小白也能用;同時內(nèi)部也有CatPaw對標(biāo)Cursor,輔助開發(fā)者寫代碼。
總體來看,以美團(tuán)的研發(fā)儲備,開源一個大語言模型并不意外。
不過也不同于AI公司,美團(tuán)的AI布局更多以業(yè)務(wù)場景驅(qū)動為核心,注重在實際應(yīng)用中的落地效果。
這種策略可以追溯到2021年、大模型浪潮之前,美團(tuán)集團(tuán)戰(zhàn)略從“Food+Platform”升級為“零售+科技”,明確將AI、機(jī)器人、自動駕駛等作為未來核心方向。
比如在更加早期的具身智能領(lǐng)域,美團(tuán)已多次出手,投資了宇樹、星海圖、銀河通用、它石智航等頭部梯隊公司。
你用來拼好飯的美團(tuán),確實不是單純送外賣的美團(tuán)。
雖然外賣大戰(zhàn)依然火熱,但用AI的視角審視美團(tuán),也是時候了。
試用地址:https://longcat.chat
huggingface:https://huggingface.co/meituan-longcat/LongCat-Flash-Chat
github:https://github.com/meituan-longcat/LongCat-Flash-Chat
x/twitter:https://x.com/Meituan_LongCat/status/1961827385667690965
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.