新智元報道
編輯:定慧
【新智元導(dǎo)讀】微軟前AI副總裁兼杰出科學(xué)家Sebastien Bubeck發(fā)文表示GPT-5 Pro從零攻克了數(shù)學(xué)論文中的未解區(qū)間,這個發(fā)現(xiàn)讓他大受震撼。該發(fā)現(xiàn)引得眾多大佬轉(zhuǎn)發(fā),OpenAI總裁認為AI或?qū)⒓铀贁?shù)學(xué)研究。
AI真的能解決人類的前沿問題嗎?
比如類似龐加萊猜想、求解麥克斯韋方程、費馬大定理、黎曼猜想等問題。
今天這個問題有了答案。
AI還真的可以!完全獨立,不參考人類已有的任何方法。
昨晚,GPT-5 Pro可以從零開始完全求解一個復(fù)雜的數(shù)學(xué)問題。
并且再次強調(diào),它沒有使用任何人類此前的證明方法。
而它的答案比論文中的求解方法都要好。
不過值得人類慶幸的是,論文作者后面又提供了全新的方法超過了AI。
Sebastien Bubeck是OpenAI的研究工程師,此前曾擔(dān)任微軟人工智能副總裁兼杰出科學(xué)家。
他把一篇論文直接扔給了GPT-5 Pro。
這篇論文研究了一個非常自然的問題:在光滑凸優(yōu)化中,梯度下降法的步長η滿足什么條件時,迭代點所對應(yīng)的函數(shù)值形成的曲線是凸的?
論文地址:https://arxiv.org/pdf/2503.10138v1
在論文的v1版本中,他們證明了如果η小于1/L(L為光滑度),則可以得到此屬性。
如果η大于1.75/L,作者他們就構(gòu)造了一個反例。
因此,未解決的問題是:在區(qū)間[1/L,1.75/L]內(nèi)會發(fā)生什么情況。
首先,簡單解釋下這個問題。
梯度下降就像下山,每一步要選一個步長η。L可以理解成地形的「彎曲程度」(越大越陡/越敏感)。
論文不只關(guān)心「會不會往下走」(單調(diào)下降),還關(guān)心下降的軌跡是不是「凸」的:也就是每一步的進步幅度不會忽大忽小,不會「前面像平臺、后面突然跳崖」。
這對何時停下來很有用——凸就表示越來越平穩(wěn),不會突然又大降。
Sebastien用GPT-5 Pro去攻這個未解決區(qū)間,模型把已知下限從1/L推進到1.5/L。
以下是GPT-5 Pro給出的證明。
雖然初看不明覺厲,但整體證明過程看起來非常優(yōu)雅。
本來這個發(fā)現(xiàn)讓Sebastien興奮了好一陣,甚至想要直接發(fā)一篇arXiv論文。
但是,人類還是比AI快了一步。
論文原作者很快發(fā)了v2版本,徹底收尾,他們將閾值改寫1.75/L。
Sebastien認為這個發(fā)現(xiàn)依然非常令人鼓舞,為什么?AI不是并沒有打敗人類嗎?
因為GPT-5 Pro在證明中,它試圖證明的是1.5/L而不是1.75/L,這也表明GPT-5 Pro并沒有直接去搜索v2版本。
另外,上述證明與v2的證明也非常不同,它更像是v1證明的一種演進。
這么看,現(xiàn)在的AI能力,不僅僅是博士級,很多時候都超過博士了。
這個發(fā)現(xiàn)也讓很多大佬們表示,AI下一個可能改變和影響的就是數(shù)學(xué)領(lǐng)域。
在AI的幫助下,人類知識的邊界將會再次被拓寬。
OpenAI的總裁Greg Brockman甚至表示這可能是AI在數(shù)學(xué)領(lǐng)域展現(xiàn)生命力的一種跡象。
此外,這次發(fā)現(xiàn)也和之前OpenAI官宣自己拿下IMO和IOI金牌不同。
這次攻破數(shù)學(xué)題的模型,就是面向用戶的GPT-5 Pro版本,而不是內(nèi)部推理模型。
Sebastien表示這個結(jié)論是經(jīng)過自己25分鐘驗證。
作為前微軟人工智能副總裁兼杰出科學(xué)家,他的證明應(yīng)該沒問題,看來AI確實實際證明了該數(shù)學(xué)問題。
GPT-5發(fā)布后雖然毀譽參半。
但是,GPT-5 Pro是真的達到,甚至超過了奧特曼所說的「博士級」AI。
雖然這次解決的問題還沒有超過人類,但這種完全自主、自發(fā)現(xiàn)的能力苗頭還是彰示了AI的能力。
這讓我想起了流浪地球里的MOSS,也是自發(fā)現(xiàn)、自組織、自編程的AI。
Sebastien是一個很厲害的人。
他目前在OpenAI從事人工智能相關(guān)的工作。
在此之前,Sebastien曾擔(dān)任微軟的副總裁兼首席科學(xué)家,在微軟研究院工作了10年(最初加入理論研究組)。
Sebastien還在普林斯頓大學(xué)擔(dān)任了3年的助理教授。
在Sebastien的職業(yè)生涯的前15年里,他主要研究凸優(yōu)化、在線算法以及機器學(xué)習(xí)中的對抗魯棒性。
因這些研究工作多次獲得最佳論文獎(包括STOC2023、NeurIPS2018和2021最佳論文獎、與微軟研究院實習(xí)生合作獲得的ALT2018和2023最佳學(xué)生論文獎、COLT2016最佳論文獎以及COLT2009最佳學(xué)生論文獎)。
他現(xiàn)在更加關(guān)注于理解智能是如何在大語言模型中涌現(xiàn)的,以及如何利用這種理解來提升大語言模型的智能水平,可能最終實現(xiàn)通用人工智能(AGI)。
Sebastien們將這種方法稱為「AGI物理學(xué)」,因為他試圖從不同的尺度(參數(shù)、神經(jīng)元、神經(jīng)元組、層、數(shù)據(jù)課程等)揭示AI系統(tǒng)各部分如何協(xié)同工作,從而產(chǎn)生這些模型驚人且出人意料的行為。
看起來,像Sebastien這樣的數(shù)學(xué)家、科學(xué)家們正在致力于嘗試破解大模型的黑箱之謎。
希望AI在拓展人類認知邊界的同時,人類也能破解大模型的秘密。
參考資料:
https://x.com/Sebastien%20Bubeck/status/1958198661139009862
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.