機(jī)器之心報(bào)道
編輯:澤南、楊文
他說:2027年AGI就來。
23 歲被 OpenAI 開除,利用自己的「內(nèi)部消息」打造了一支規(guī)模達(dá) 15 億美元的基金,今年這支基金的表現(xiàn)還比華爾街高出 700%。
如此跌宕起伏的人生,你就說刺不刺激?
最近,這個(gè)名叫 Leopold Aschenbrenner 的小哥因這段離譜的經(jīng)歷在社交媒體上火了?!度A爾街日?qǐng)?bào)》等媒體報(bào)道了他迅速躥升的故事。
Aschenbrenner 本是 OpenAI 知名的「超級(jí)對(duì)齊」團(tuán)隊(duì)成員,被認(rèn)為是 OpenAI 前首席科學(xué)家 Ilya Sutskever 的嫡系,不過后來因涉嫌泄露公司內(nèi)部信息而被 OpenAI 解雇。
兩個(gè)月后,他發(fā)布了一篇 165 頁的分析文章《Situational Awareness: The Decade Ahead》,在硅谷引發(fā)廣泛關(guān)注。
轉(zhuǎn)頭,這小哥就扎進(jìn)投資領(lǐng)域,創(chuàng)建了名為 Situational Awareness 的對(duì)沖基金。
別看他沒啥專業(yè)投資經(jīng)驗(yàn),但他的投資策略簡單粗暴,就是押注那些可能從 AI 技術(shù)發(fā)展中受益的行業(yè),如半導(dǎo)體、基礎(chǔ)設(shè)施和電力公司,以及一些新興 AI 公司,比如 Anthropic,另一邊又做空那些可能被淘汰的行業(yè)來保持收益。
這一策略令該基金在短時(shí)間內(nèi)吸引大量投資者,資金規(guī)模迅速突破 15 億美元。
其背后不乏大佬支持,包括支付公司 Stripe 的創(chuàng)始人 Patrick 和 John Collison 兩兄弟,Meta 的 AI 團(tuán)隊(duì)領(lǐng)導(dǎo) Daniel Gross 和 Nat Friedman,以及著名投資者 Graham Duncan。
此外,Aschenbrenner 還招聘了曾在彼得?蒂爾宏觀對(duì)沖基金工作過的 Carl Shulman,作為該基金的研究總監(jiān)。
許多投資者也對(duì)該基金表現(xiàn)出極大的信任,愿意將資金鎖定數(shù)年不動(dòng)。
據(jù)《華爾街日?qǐng)?bào)》報(bào)道,該基金在今年上半年實(shí)現(xiàn)了 47% 的回報(bào)率,遠(yuǎn)超同期標(biāo)普 500 指數(shù)的 6% 和技術(shù)對(duì)沖基金指數(shù)的 7%,堪稱市場中的一匹黑馬。
Aschenbrenner 去年在接受播客主持人 Dwarkesh Patel 采訪時(shí)表示:「我們將比紐約那些管理資金的人擁有更多的情境意識(shí),肯定會(huì)在投資上做得非常出色。」
Leopold Aschenbrenner 是誰?
Aschenbrenner 是個(gè) 00 后,在德國出生,作為「天才少年」的他 15 歲時(shí)進(jìn)入哥倫比亞大學(xué)學(xué)習(xí),并于 19 歲時(shí)以優(yōu)異成績畢業(yè),獲得了數(shù)學(xué)、統(tǒng)計(jì)學(xué)和經(jīng)濟(jì)學(xué)三個(gè)學(xué)位,成為該校的優(yōu)秀畢業(yè)生。
GPA 夠高,據(jù)說還是年級(jí)第一。
畢業(yè)后,他在牛津大學(xué)的全球優(yōu)先事項(xiàng)研究所從事長期經(jīng)濟(jì)增長研究,并參與了有效利他主義運(yùn)動(dòng)。 他曾在 FTX Future Fund 工作,專注于 AI 安全和全球風(fēng)險(xiǎn)管理。
2023 年,Aschenbrenner 加入了 OpenAI,成為「超級(jí)對(duì)齊」(Superalignment)團(tuán)隊(duì)的一員,致力于確保未來的超級(jí)智能 AI 與人類價(jià)值觀一致。他參與過的工作,包括被廣泛關(guān)注的《Weak-to-Strong Generalization: Eliciting Strong Capabilities With Weak Supervision》(https://arxiv.org/abs/2312.09390)。
在全球領(lǐng)先的人工智能實(shí)驗(yàn)室工作時(shí),他發(fā)現(xiàn)了 OpenAI 可能將美國 AI 機(jī)密泄露給外國對(duì)手的安全漏洞。于是在 2024 年 4 月,他將自己的擔(dān)憂寫成備忘錄分享給董事會(huì)成員,但時(shí)值 OpenAI「宮斗」第二季,隨后以泄密為理由被 OpenAI 解雇。
故事發(fā)展到這樣的程度,或許只需要看做是 OpenAI 去年宮斗背景下混亂的一角,但 Leopold Aschenbrenner 顯然不是等閑之輩。
《態(tài)勢感知:未來十年》
在去年被 OpenAI 趕走后,Leopold Aschenbrenner 更加沒了束縛,他在一篇長達(dá) 165 頁的論文《Situational Awareness: The Decade Ahead》(態(tài)勢感知:未來十年)中,闡述了自己對(duì)于 AI 發(fā)展的看法,在硅谷被廣泛傳閱。
他的論點(diǎn)簡單而具革命性:「全世界正處于人類歷史上最大的變革之中,而我們還在昏昏欲睡。現(xiàn)在,可能只有幾百人,大多數(shù)都在舊金山和人工智能實(shí)驗(yàn)室,能真正理解當(dāng)前 AI 領(lǐng)域發(fā)生的事情。」
文章鏈接:https://situational-awareness.ai/
在文章中,作者探討了近年來 AI 能力的指數(shù)級(jí)增長,尤其是 GPT-2 到 GPT-4 出現(xiàn)的過程。Leopold Aschenbrenner 強(qiáng)調(diào),這是一個(gè)快速進(jìn)步的時(shí)代,人工智能從完成非?;A(chǔ)的任務(wù)發(fā)展到擁有更復(fù)雜、類似人類的理解和語言生成能力。
「數(shù)量級(jí)」(Orders of Magnitude,即「OOM」)的概念對(duì)于討論至關(guān)重要。Aschenbrenner 使用數(shù)量級(jí)(OOM)來評(píng)估 AI 能力、算力和數(shù)據(jù)消耗的進(jìn)步,OOM 指給定指標(biāo)的十倍增長。就計(jì)算能力和數(shù)據(jù)可擴(kuò)展性而言,從 GPT-2 到 GPT-4 的轉(zhuǎn)換代表了許多 OOM。
這些收益的背后有三個(gè)主要因素 —— 擴(kuò)展定律(Scaling Laws)、算法創(chuàng)新及海量數(shù)據(jù)集的使用,它們的增長接近于指數(shù)級(jí)。根據(jù)擴(kuò)展定律,當(dāng)使用更大規(guī)模的數(shù)據(jù)和處理能力進(jìn)行訓(xùn)練時(shí),模型的性能會(huì)得到可靠的提升。
算法創(chuàng)新也至關(guān)重要。訓(xùn)練方法、優(yōu)化策略和底層架構(gòu)的進(jìn)步提升了 AI 模型的功效和效率。這些發(fā)展使模型能夠更好地利用持續(xù)增長的算力和可用數(shù)據(jù)。
Leopold Aschenbrenner 強(qiáng)調(diào)了到 2027 年實(shí)現(xiàn)通用人工智能(AGI)的可能路徑。他認(rèn)為,在業(yè)界持續(xù)投入算力,提升算法效率的前提下,我們或許能夠讓 AI 系統(tǒng)在眾多領(lǐng)域上與人類智力匹敵,甚至超越人類。
通用人工智能的出現(xiàn)無疑將產(chǎn)生深遠(yuǎn)的影響。這類系統(tǒng)能夠獨(dú)立解決復(fù)雜問題,以目前只有人類專家才能做到的方式進(jìn)行創(chuàng)新,執(zhí)行復(fù)雜的工作,這又賦予了 AI 系統(tǒng)自我進(jìn)化的潛力。
AGI 的發(fā)展會(huì)改變各行各業(yè),提高生產(chǎn)力和效率。但它也帶來了一些重要問題,例如失業(yè)、AI 道德,需要強(qiáng)有力的治理結(jié)構(gòu)來控制完全自主系統(tǒng)帶來的風(fēng)險(xiǎn)。
Aschenbrenner 在文中探討了超級(jí)智能的概念,以及從如今 AI 快速過渡到遠(yuǎn)超人類認(rèn)知能力的系統(tǒng)的可能性。該論點(diǎn)的核心思想是,驅(qū)動(dòng) AI 進(jìn)化的原理可能會(huì)產(chǎn)生一個(gè)反饋回路,一旦達(dá)到人類水平,其智力就會(huì)爆發(fā)式增長。根據(jù)「智能爆炸」的概念,AGI 可能會(huì)自行開發(fā)算法和技能,它們能夠比人類研究人員更快地完善自身設(shè)計(jì)。這種自我完善的循環(huán)可能會(huì)帶來智力的指數(shù)級(jí)增長。
他對(duì)可能影響這種快速升級(jí)的各種變量進(jìn)行了全面的分析。首先,AGI 系統(tǒng)憑借無與倫比的速度以及訪問和處理海量數(shù)據(jù)的能力,能夠識(shí)別遠(yuǎn)遠(yuǎn)超出人類理解范圍的模式和洞察。
此外,AGI 還強(qiáng)調(diào)研究工作的并行化。與人類研究人員不同,AGI 系統(tǒng)能夠同時(shí)進(jìn)行多項(xiàng)測試,并行改進(jìn)其設(shè)計(jì)和性能的不同部分。
因此,這些系統(tǒng)將比任何人都強(qiáng)大得多,能夠開發(fā)新技術(shù),解決復(fù)雜的科學(xué)技術(shù)難題,甚至可能以當(dāng)今無法想象的方式管理物理系統(tǒng)。超級(jí)智能可能帶來的優(yōu)勢,例如材料科學(xué)、能源和健康領(lǐng)域的進(jìn)步,這些進(jìn)步可能會(huì)顯著提高經(jīng)濟(jì)生產(chǎn)力和人類福祉。與此同時(shí),控制是主要問題之一。一旦系統(tǒng)超越人類智力,就很難確保其行為符合人類的價(jià)值觀和利益。
構(gòu)建 AGI 所需的計(jì)算基礎(chǔ)設(shè)施需要大規(guī)模工業(yè)動(dòng)員,這不僅包括純粹的算力,還包括設(shè)備效率、能源利用和信息處理能力的提升。
Aschenbrenner 認(rèn)為,隨著 AGI 越來越近,國家安全機(jī)構(gòu)將在這些技術(shù)的創(chuàng)造和管理中發(fā)揮更大的作用。他認(rèn)為,通用人工智能的戰(zhàn)略意義可以與阿波羅計(jì)劃、曼哈頓計(jì)劃相比較。
在他的文章發(fā)布一年多以后,AI 技術(shù)日新月異,不過我們也看到了當(dāng)初的很多預(yù)測在被一步步得到驗(yàn)證。最直接的可能就是各家科技巨頭紛紛投入重金,建設(shè)前所未有的大規(guī)模 AI 算力基礎(chǔ)設(shè)施的盛景了。
那么,AGI 會(huì)如 Aschenbrenner 所說的在 2027 年到來嗎?或許通過他的投資收益,我們可以間接地看到些端倪。
https://www.wsj.com/finance/investing/billions-flow-to-new-hedge-funds-focused-on-ai-related-bets-48d97f41
https://situational-awareness.ai/
https://x.com/renckorzay/status/1961480306328019407
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.