今天凌晨,阿里云正式發(fā)布了Qwen3系列,一口氣開源了從0.6B到235B共8款模型:2個MoE大模型和6個Dense大模型,構(gòu)成了阿里完整的模型矩陣。
這次Qwen3的開源重塑了大模型標準,可以說在“后DeepSeek R1”時代,以阿里為代表的國內(nèi)大廠,正在借助產(chǎn)品化思維,以性價比和多模態(tài)能力全方位搶奪DeepSeek的市場影響力。
01
Qwen3再一次拉高了世界開源標準
這回阿里云開源的Qwen3,在架構(gòu)、性能、推理速度和應(yīng)用方向上均有較大創(chuàng)新和提升。Qwen3系列在模型架構(gòu)上采用了MoE(混合專家)架構(gòu)。
旗艦?zāi)P?Qwen3-235B-A22B 擁有約2350億的總參數(shù)量,在每次推理時僅僅激活約220億參數(shù),性能極其耐打,在綜合能力、代碼與數(shù)學、多語言能力、知識與推理等多項基準測試中,都能與DeepSeek R1、OpenAI o1、o3-mini、Grok 3和谷歌Gemini 2.5 Pro等目前市場上的主流大模型相抗衡。
一個亮點是:Qwen3-4B模型憑借極低的參數(shù)量,在一系列基準測試中與GPT-4o(2024-11-20版本)打了個有來有回。這體現(xiàn)了阿里在推理效率上的提升并非以犧牲能力為代價。
其輕量化模型Qwen3-30B-A3B和32B,在許多任務(wù)上的表現(xiàn)也足夠令人滿意。
除了基準測試上亮眼的表現(xiàn)外,Qwen3系列這回的一個主要創(chuàng)新特點是:混合思考模式。這種設(shè)計讓用戶能根據(jù)任務(wù)難度控制模型的推理量:思考模式下,模型能夠逐步推理,適合復雜問題,強調(diào)深度思考。無思考模式:模型快速響應(yīng),適合簡單問題,優(yōu)先速度。難問題用更多推理,簡單問題快速解答。
并且,Qwen3為了在國際應(yīng)用端擴展影響力,已經(jīng)能夠支持119種語言和方言。外網(wǎng)的各國網(wǎng)友對其的評價都很不錯,橫向?qū)Ρ鹊脑挘琎wen3已經(jīng)追上或者超越了OpenAI o1、谷歌Gemini 2.5 Pro。
Qwen3還針對最近半年爆火的“AI智能體”概念做出了優(yōu)化,強調(diào)了“智能體”能力。比如它們強化了Qwen3 模型的編碼和代理能力,并增強了對 MCP 的支持,讓Qwen3 學會如何思考以及如何與環(huán)境交互。
在預(yù)訓練方面,Qwen3 的數(shù)據(jù)集相比 Qwen2.5 幾乎翻了一倍,達到了3.6萬億個token,覆蓋了更廣泛的領(lǐng)域知識和語境,再度提升了在復雜任務(wù)處理和多語言場景中的表現(xiàn)。
這回Qwen3系列的開源,統(tǒng)一采用Apache 2.0開源協(xié)議開放權(quán)重。通過“小杯-中杯-大杯-超大杯”的產(chǎn)品邏輯構(gòu)建了一個完整的“Qwen宇宙”。
綜合來看,Qwen3 在單純的技術(shù)性能、成本價格、工具調(diào)用和MCP調(diào)用等所有方面獲得了全面的提升,其已經(jīng)將開源世界的標準提升了一個層次。
02
DeepSeek光環(huán)下的大廠百態(tài)
4月25日的2025百度AI開發(fā)者大會上,百度創(chuàng)始人李彥宏點名批評DeepSeek“不是萬能的,它只能處理單一的文本,不能理解聲音、圖片、視頻等多模態(tài)內(nèi)容。更大的問題是慢和貴,中國市場上絕大多數(shù)大模型API的價格都更低,而且反應(yīng)速度更快。”
他點出了DeepSeek龐大光環(huán)下,中國的大廠正在走向用性價比抗衡DeepSeek的現(xiàn)狀:用更小參數(shù),更低成本的方式,實現(xiàn)更快的響應(yīng),完成不屬于DeepSeek的多模態(tài)效果。
阿里的Qwen3迅速引入MoE架構(gòu)和雙模式推理設(shè)計,將龐大模型在實際使用中的成本大幅降低。憑借DeepSeek R1三分之一的參數(shù)量,性能全面超越R1。
首先,Qwen3的MoE架構(gòu)使得推理過程中僅激活部分專家,從而降低了實際計算開銷。例如,Qwen3-235B-A22B雖然總參數(shù)達235B,但每個token只需計算其中約9%(22B)的參數(shù)。這意味著在相近硬件條件下,其推理延遲并不像參數(shù)規(guī)??瓷先ツ菢痈卟豢膳省?/p>
其次,Qwen3的雙模式推理設(shè)計高效地分配算力。在“非思考模式”下,模型可直接生成答案,實現(xiàn)接近即時的響應(yīng);而在需要“思考模式”時,才投入額外計算資源進行多步推理。這種按需分配計算的策略,使模型在大部分簡單交互中保持了快速性,又能在關(guān)鍵時刻發(fā)揮深度推理能力。
這其實與騰訊的雙軌思路相似。2025年2月13日,騰訊元寶接入DeepSeek R1滿血版,幾天之后就上線了 “強推理深度思考模型”混元T1模型,隨即混元團隊官宣Turbo S模型上線測試,號稱在響應(yīng)速度上比DeepSeek R1更快。Turbo模型針對日常對話進行優(yōu)化,弱化長鏈推理而追求即時回答能力。騰訊內(nèi)部的AI助手“元寶”應(yīng)用中,就集成了Turbo快思考和T1深思考兩種模型,允許用戶在需要詳細推理時調(diào)用T1,平時默認用Turbo即時回答。
這種雙軌策略,與阿里Qwen3單模型雙模式有異曲同工之妙,都是為不同復雜度的問題提供差異化模型,既保證效果又保證速度。
DeepSeek R1自從正式上線以來,其幻覺現(xiàn)象頻發(fā)就成為了各大廠商瞄準的攻堅對象。
百度就是其中的代表。百度在國內(nèi)大模型競爭中經(jīng)歷了一個明顯的策略轉(zhuǎn)折:從最初堅持閉源、尋求商業(yè)變現(xiàn),到在DeepSeek等沖擊下宣布開源、全面免費的重大轉(zhuǎn)向。
2025年3月16日,百度如期發(fā)布了文心大模型4.5。文心4.5被定義為百度首個“原生多模態(tài)”大模型,具備圖像、文本、音頻等多模態(tài)聯(lián)合理解與生成能力。它引入了深度思考能力,能夠進行復雜問題的逐步推理,并集成了百度自研的iRAG檢索增強技術(shù)。
通過“深度搜索”功能,文心4.5可以自動檢索外部知識以回答用戶問題,顯著降低了幻覺率,這也是百度迎戰(zhàn)DeepSeek的底氣所在。
在價格方面,百度也正在開始加碼。前幾天的百度AI開發(fā)者大會上發(fā)布的文心4.5Turbo,相比于文心4.5價格下降80%,每百萬token的輸入輸出價格僅為DeepSeek V3的40%。DeepSeek的成本優(yōu)勢正在大廠們的面前蕩然無存。
字節(jié)跳動為了應(yīng)對DeepSeek的競爭,則將自身的產(chǎn)品重心放在了多模態(tài)上。從旗下火山引擎團隊于2024年5月首次對外全面介紹了代號“豆包”的大模型家族,一口氣亮相了9個模型開始,豆包就著重多模態(tài)模型上的發(fā)展。
與其他廠商喜歡強調(diào)模型參數(shù)和基準測試成績不同,字節(jié)刻意淡化參數(shù)規(guī)模與榜單,轉(zhuǎn)而突出實際落地效果和低使用門檻,力求讓大模型真正融入多樣化的實際場景。
本月中旬,豆包1.5深度思考模型上線,除了在數(shù)學推理、編程競賽、科學推理等專業(yè)領(lǐng)域上表現(xiàn)超越DeepSeek R1之外,最大的亮點是Doubao-1.5-thinking-pro-vision具備了視覺推理理解能力,同時豆包文生圖模型3.0版本發(fā)布,進一步豐富了多模態(tài)生態(tài)。
字節(jié)跳動的多模態(tài)戰(zhàn)略背后,是敏銳感知到了大模型從技術(shù)概念轉(zhuǎn)向產(chǎn)品概念的路徑。后DeepSeek R1時代里,單純追求參數(shù)規(guī)模和技術(shù)指標的提升已不足以構(gòu)建產(chǎn)品護城河了。
字節(jié)跳動帶著這家宇宙大廠的“互聯(lián)網(wǎng)基因”,加入了大模型競爭。多模型并進確保了其在文本、語音、圖像各方面全面開花;極低價格和廣泛產(chǎn)品植入為其贏得了規(guī)模和數(shù)據(jù)。
總的來看,除了單純的專業(yè)領(lǐng)域的基準測試刷分之外,價格、響應(yīng)、多模態(tài)都已經(jīng)成了各大廠商應(yīng)對DeepSeek競爭的有力武器。當基礎(chǔ)語言對話能力很難拉開差距時,各大廠用產(chǎn)品思維找到了迅速突圍DeepSeek的差異化功能。
03
開源生態(tài)的長短期利益結(jié)合
隨著DeepSeek、Llama、Qwen、智譜在開源生態(tài)構(gòu)建上付出了越來越多的努力,開源已經(jīng)成為主流路線之一。過去大廠傾向于閉源謀利,而如今開源被證明是贏得生態(tài)和快速迭代的有效途徑。DeepSeek進一步刺激了大廠擁抱開源生態(tài)的決心,阿里全面開源千問證明了 “模型開源是AI時代的主題”。
不難看出,國內(nèi)大模型正走向一個比拼綜合實力和效率的時代,而不再僅以參數(shù)和單點性能論英雄。
Qwen3、DeepSeek以及騰訊、百度、字節(jié)的各種“模型”迭代實踐,折射出了一種轉(zhuǎn)變:大家都在追求更高的性價比——既要性能足夠好,又要成本足夠低、應(yīng)用足夠廣。
可以說,我們正在進入AI的下半場。
OpenAI的研究員姚順雨前段時間曾發(fā)長文,探討AI的下半場該專注于哪里:“從現(xiàn)在開始,AI將從解決問題轉(zhuǎn)向定義問題。為了在‘下半場’蓬勃發(fā)展,人們需要及時轉(zhuǎn)變思維方式和技能,更接近產(chǎn)品經(jīng)理的水平?!?/p>
根據(jù)晚點訪談,阿里云CTO、通義實驗室負責人周靖人對于開源大模型的戰(zhàn)略意義:首先,模型作為核心生產(chǎn)要素,開源能加速其普及,推動產(chǎn)業(yè)快速發(fā)展;其次,開源已成為大模型創(chuàng)新的重要驅(qū)動力。
可以預(yù)見的是:國內(nèi)大模型的落地方向?qū)⒏淤N近實際應(yīng)用,不再只是實驗室里的模型比拼。這也給開源大模型的參數(shù)效率、推理成本提供了一個更加激烈的競爭區(qū)域。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.