當(dāng)前,在 AI 和具身智能創(chuàng)業(yè)圈中,似乎越年輕就越能吸引更多眼光。然而,任何領(lǐng)域都需要來自各個年齡段的力量。在美國有這樣一名 70 后——美國斯坦福大學(xué)教授簡·利普哈特(Jan Liphardt),他于 2024 年創(chuàng)辦了一家名為 OpenMind 的公司,旨在打造“機器人的安卓操作系統(tǒng)”。
圖 | 簡·利普哈特(Jan Liphardt)(來源:https://openmind.or)
過去幾十年來,Jan 一直在探索如何讓復(fù)雜系統(tǒng)進行感知、適應(yīng)和學(xué)習(xí),他的職業(yè)生涯也一直處于 AI、生物學(xué)和去中心化系統(tǒng)的交匯點上。作為一名教授,Jan 之前的科學(xué)研究得到了美國國立衛(wèi)生研究院和美國能源部的支持,最近幾年他意識到自己之前研究的那些生物系統(tǒng)協(xié)調(diào)挑戰(zhàn)同樣阻礙著機器人產(chǎn)業(yè)的發(fā)展。因此,他決定打造“機器人的安卓系統(tǒng)”,目前這一系統(tǒng)包含兩款軟件產(chǎn)品。同時,OpenMind 正準(zhǔn)備于 2025 年 9 月之前交付由其軟件驅(qū)動的 10 只機器狗組成的首批機器人隊伍。
OM1:通用機器人大腦
該公司的第一款產(chǎn)品是名為 OM1 的通用機器人大腦。OM1 是 OpenMind 所打造的的 AI 原生操作系統(tǒng),也是專為類人機器人打造的軟件層,可以在任何機器人硬件上實現(xiàn)運行。不同于人們此前構(gòu)建的傳統(tǒng)機器人堆棧,OM1 是從零開始設(shè)計的,旨在實現(xiàn)智能的自適應(yīng)行為。OM1 并不需要依賴僵化的、針對特定任務(wù)的代碼,而是集成了感知、基礎(chǔ)模型、記憶和上下文,這使得機器人能夠觀察和解讀其環(huán)境,同時還能理解自然語言,并能實時調(diào)整其行動。事實上,可以將 OM1 理解為一個共享自主層,它能針對硬件差異進行抽象化,并能讓不同形態(tài)的設(shè)備都能具備高級智能。
圖 | OM1 的核心功能(來源:https://openmind.org/demo)
據(jù)介紹,OM1 目前已經(jīng)實現(xiàn) AI 智能體在數(shù)字與物理世界的雙重部署。用戶只需創(chuàng)建一個 AI 人格,即可同時在云端和實體機器人硬件上運行。通過 OM1,用戶既能與 OpenAI 的 GPT-4o(或 Gemini Robotics、Claude、DeepSeek 等模型)進行交互,又能通過大模型控制的實體機器人實現(xiàn)握手等物理互動?;?OM1 構(gòu)建的智能體和機器人可以整合多元的數(shù)據(jù)源(比如來自互聯(lián)網(wǎng)、攝像頭、激光雷達),從而實現(xiàn)發(fā)表 X 推文、物理空間探索等多樣化任務(wù)。作為一款開源系統(tǒng),OM1 還賦予用戶以充分的控制權(quán),支持針對家庭場景或工作場景進行定制優(yōu)化。
(來源:https://github.com/OpenMind/OM1)
FABRIC:機器人的去中心化協(xié)同網(wǎng)絡(luò)
該公司的第二款產(chǎn)品是一款名為 FABRIC 的去中心化協(xié)同網(wǎng)絡(luò),它使機器人能夠安全地共享信息和協(xié)調(diào)任務(wù)。FABRIC 好比是一種新型協(xié)議,其能為機器人提供一種跨環(huán)境驗證身份、共享上下文和安全協(xié)調(diào)的方法。它解決了這樣一個核心問題:即機器該如何建立身份、該如何確定自身位置,以及該如何與從未接觸過的其他機器人共享知識。隨著越來越多的機器人部署到生活中,人們亟需 FABRIC 這樣的信任層,以便讓它們能夠協(xié)同工作。無論這些機器人是由誰制造的,也無論這些機器人在何處運行,那些使用 FABRIC 的機器人都能了解自己所處的位置、附近有哪些機器人,以及接下來應(yīng)該做什么。
想象一下,一個送貨機器人感應(yīng)到一輛自動駕駛汽車已經(jīng)送來了食物,而利用 FABRIC 它能驗證車輛身份和確認(rèn)其位置,并能通過實時協(xié)調(diào)來取回包裹,全程完全無需人工干預(yù)或者事先集成。這種可信賴的“機器人之間的交互”能夠幫助機器人解鎖從自主物流、到保險、到支付軌道等眾多領(lǐng)域的應(yīng)用潛力。也就是說,F(xiàn)ABRIC 為機器人構(gòu)建了一個關(guān)于世界的共享認(rèn)知體系,隨著更多機器人加入網(wǎng)絡(luò),這個體系還會自行迭代得越來越智能。就好比為機器人賦予了集體記憶,讓它們能夠從彼此的經(jīng)驗中相互學(xué)習(xí)。與人類不同的是,機器幾乎可以實現(xiàn)即時學(xué)習(xí),這意味著如果能為它們提供一種更好的與其他機器人連接的方式,它們就能更容易地接受訓(xùn)練和吸收新信息。
圖 | FABRIC 的介紹(來源:https://openmind.org/)
沒有協(xié)同,機器人就不存在智能
眾所周知,人形機器人和其他類型的機器人已經(jīng)存在幾十年之久。當(dāng)前,機器人行業(yè)正處于一個轉(zhuǎn)折點,機器人硬件正在變得功能強大且價格親民。在移動互聯(lián)網(wǎng)時代,安卓系統(tǒng)成為了不同手機廠商共同使用的操作系統(tǒng)。而在具身智能時代,隨著不同機器人公司的陸續(xù)涌現(xiàn),它們是否也需要一個能夠共享、共通的類似于安卓系統(tǒng)的存在?答案是肯定的。
如今的每個機器人都如同一個個孤島一般。許多機器人都是從內(nèi)部到外部構(gòu)建的,比如采用垂直整合模式、采用封閉的應(yīng)用程序接口,以及由單一公司負(fù)責(zé)軟硬件的設(shè)計和開發(fā)。這種方法在受控環(huán)境中是有效的,但是無法擴展到現(xiàn)實世界之中。當(dāng)在工廠、醫(yī)院等不同地方部署機器人時,來自不同供應(yīng)商的機器人需要實現(xiàn)相互協(xié)作。它們需要共享空間理解、協(xié)調(diào)任務(wù)并建立信任,而在目前機器人根本做不到這些。如果你從十個供應(yīng)商那里分別購買十個機器人,你會發(fā)現(xiàn)它們之間往往是無法相互通信的。
盡管人們已在機器人硬件上投入了數(shù)十億美元,但機器人之間仍然無法相互交流、共享知識或有效協(xié)同工作。同時,盡管 AI 可以控制物理系統(tǒng),但是連接所有事物的軟件層卻并不存在。這些機器人們被困在單一供應(yīng)商的生態(tài)系統(tǒng)中,限制了彼此之間的協(xié)作,并且無法去適應(yīng)現(xiàn)實世界的復(fù)雜性。隨著機器人被用于更多“需要人機交互”的場景,人們希望機器人能像人類一樣思考。假如機器人可以通過相互連接并互相分享有關(guān)如何使用不同語言的信息,就將幫助它們更好地與更多用戶互動,從而無需人類用戶去將每種語言一一地教會它。
圖 | OpenMind 的員工合影(來源:https://openmind.org/)
OpenMind 指出,我們?nèi)祟惱硭?dāng)然地認(rèn)為自己可以與地球上的任何其他人互動,這是因為我們的周圍建立了大量基礎(chǔ)設(shè)施,這讓我們能夠信任他人、給他人打電話、發(fā)信息,以及進行互動、協(xié)作并共同完成事情。而機器人要想實現(xiàn)更大的“野望”,也需要擁有像人類世界一樣的獨屬于自己的“基礎(chǔ)設(shè)施”。
而在此前,這一“基礎(chǔ)設(shè)施”的缺失阻礙了機器人的潛力的釋放。假設(shè)希望機器人能在開放環(huán)境中運行,那么就需要一個開放的智能網(wǎng)絡(luò)。OpenMind 在機器人領(lǐng)域所做的工作,正如 Linux 和以太坊在軟件領(lǐng)域所做的一樣。如果說 AI 技術(shù)是“大腦”,機器人技術(shù)是“軀體”,那么協(xié)同系統(tǒng)就是“神經(jīng)系統(tǒng)”。Jan 認(rèn)為,假如沒有協(xié)同,機器人就不存在智能,就只剩下機械運動。
當(dāng)前,許多公司都專注于制造機器人或其硬件組件,以便讓其實現(xiàn)移動、抓取物體或與周圍世界互動。在其他公司競相打造人形機器人的硬件之際,OpenMind 卻專注于此前處于缺失狀態(tài)的一環(huán):智能基礎(chǔ)設(shè)施。OpenMind 所打造的軟件能為機器人協(xié)作創(chuàng)建一種通用語言。這解決的不僅僅是一個技術(shù)問題,更是解決了一個基礎(chǔ)設(shè)施問題。正如互聯(lián)網(wǎng)需要開放協(xié)議以便實現(xiàn)計算機之間的通信一樣,機器人技術(shù)也需要開放標(biāo)準(zhǔn)以實現(xiàn)機器之間的協(xié)調(diào)。正因此,OpenMind 的 OM1 與 FABRIC 共同構(gòu)建了一個開放、安全的協(xié)同層,讓任何機器人都能在這個共享的全球網(wǎng)絡(luò)中植入智能、驗證信任并采取行動。
本月初,OpenMind 還完成了由 Pantera Capital 領(lǐng)投的 2000 萬美元融資輪,參與方包括 Ribbit、Coinbase Ventures 和 Pebblebed 等戰(zhàn)略投資者和天使投資人。眼下,來自全球范圍內(nèi)的一些機器人制造商已經(jīng)開始授權(quán)使用 OpenMind 的技術(shù)。同時,OpenMind 正在進一步地為機器人構(gòu)建軟件基礎(chǔ),以便實現(xiàn)跨平臺、跨環(huán)境、跨形態(tài)的感知、適應(yīng)和協(xié)同工作。另外,該公司目前正專注于將其技術(shù)推向家庭用戶,并開始對產(chǎn)品進行迭代。
未來,其計劃將由 OM1 驅(qū)動的機器人擴展到學(xué)校、家庭和工作場所,并計劃正式推出 FABRIC 應(yīng)用程序,該應(yīng)用程序能夠允許人們驗證真實世界的數(shù)據(jù),并能支持機器人的自主協(xié)調(diào)。就在剛剛,OpenMind 在 X 上發(fā)文表示目前已有 150000 用戶加入了 FABRIC 的等待使用清單 [1]。長遠(yuǎn)來看,該公司的目標(biāo)不僅僅是制造更優(yōu)秀的機器人,而是要為一種全新的智能系統(tǒng)構(gòu)建基礎(chǔ)設(shè)施,使機器能夠相互協(xié)作和相互學(xué)習(xí),進而連接所有會思考的機器。
參考資料:
1.https://x.com/openmind_agi/status/1953372297072394319
https://profiles.stanford.edu/jan-liphardt
https://OpenMind.org/news/what-is-OpenMind
https://OpenMind.org/news/OpenMind-20m-raise
https://techcrunch.com/2025/08/04/OpenMind-wants-to-be-the-android-operating-system-of-humanoid-robots/
https://venturebeat.com/business/OpenMind-is-fast-tracking-a-future-of-human-robot-collaboration/
https://liphardtlab.stanford.edu/jan.html
https://github.com/OpenMind/OM1
運營/排版:何晨龍
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.