三個人、一篇論文,估值850億
一個“沒有產品”的超級獨角獸
作者 | 呂敬之 ?編輯 | 吾人??來源 |?#融中財經
AI界又出現了一個超級獨角獸。
AI領域從不缺乏顛覆性事件,卻極少有一家公司能像Thinking Machines Lab 這樣,在成立僅七個月、尚未推出正式產品、甚至沒有實際用戶的情況下,就以120億美元(折合人民幣850億元)的估值驚艷全球行業。
這家由前OpenAI首席技術官(CTO)Mira Murati牽頭創立的人工智能研究公司,憑借三十余人的“豪華團隊”,其中還包括OpenAI前安全研究副總裁、北大女學霸翁荔,不僅順利完成20億美元種子輪融資,更吸引了AMD、英偉達等行業巨頭爭相注資,一躍成為OpenAI、Anthropic和Google DeepMind等頭部企業的潛在勁敵。
不同于傳統創業公司“產品先行”的路徑,Thinking Machines Lab從誕生之初就自帶“顛覆屬性”。其核心團隊幾乎全員來自OpenAI,涵蓋了AI產品落地、核心技術研發等關鍵領域的頂尖人才,這種“頂配陣容”讓市場看到了復刻甚至超越OpenAI的可能性。
更值得關注的是,公司在無產品的情況下,選擇以技術研究成果為“名片”,通過發布研究博客和學術論文,向行業傳遞其在多模態基礎模型與下一代人機協作領域的布局,這種“技術驅動”的打法,也為AI初創公司的發展提供了全新范本 。
一個“沒有產品”的獨角獸
成立七個月、沒有產品也沒有用戶的公司被大佬們爭先投資,估值120億美元(折合人民幣850億)。
Thinking Machines Lab就是這么一家神奇的公司。
Thinking Machines Lab由前OpenAI首席技術官Mira Murati于2025年2月創立,是一家聚焦多模態基礎模型與下一代人機協作的人工智能研究公司;創立僅半年,便憑約三十人、三分之二出自OpenAI的豪華團隊完成由Andreessen Horowitz領投、英偉達與AMD跟投的20億美元種子輪,估值高達120億美元,并已與Google Cloud達成算力合作,計劃在未來幾個月內發布包含開源組件的首款產品,以幫助研究人員和初創公司定制自己的AI模型,同時正大規模招攬具備AI產品經驗的人才,被視為OpenAI、Anthropic和Google DeepMind的有力挑戰者。
為什么一家甚至還“沒有產品”的公司能獲得這么高的期待?這離不開“人、卡、勢”的三重優勢。
人的方面,Thinking Machines Lab可謂擁有頂級初創團隊。創始人Mira Murati是前OpenAI CTO,曾經一手把ChatGPT、DALL-E、GPT-4做成全球級產品;聯創Barret Zoph、John Schulman等人同樣是Transformer與RLHF路線的核心作者。
對投資機構而言,這支30人左右的小分隊幾乎是一張“全明星期權”:只要他們未來24個月里放出任何一條新曲線,就能直接對標OpenAI的1500億估值,850億只是提前折現。
卡的方面,大模型競爭已變成GPU軍備賽。Thinking Machines Lab在官宣當天就拿到英偉達、AMD的聯合注資,等于一次性鎖定幾萬張H100/H200的配額。在“得顯卡者得天下”的共識下,資本寧愿把估值一次性打滿,也不愿在卡更加稀缺的6個月后再去追高。
勢的方面,2024-2025年,AI估值模型從“收入P/S”迅速讓位于“生態席位費”:全球能真正從頭訓練GPT-4級稠密模型的團隊不超過5家,新名單已經關閉。Thinking Machines Lab是最后一個由“原OpenAI核心決策層”整體出走的標的,一旦錯過,下一個同等量級的敘事窗口可能3年后才出現。850億里有一半買的是“席位”,而不是產品。
再加上二級市場對AI的FOMO情緒外溢:只要公司放出“我們已能穩定訓練100B以上多模態模型”的技術博客,哪怕沒有對外API,二級市場就會用OpenAI 1500億、Anthropic 600億的錨直接做線性插值,把850億“合理化”。因此,850億并不是傳統意義上的“收入估值”,而是“敘事+算力+人才”三位一體的看漲期權定價;真到下一輪產品落地,如果模型性能或商業化不及預期,估值同樣可能迅速回調。
在Thinking Machines Lab背后的投資人中,英偉達和AMD備受關注。
英偉達和AMD投資Thinking Machines Lab,表面看是“投人”,骨子里是“買入口、鎖需求、搶話語權”。把高端GPU直接塞進下一代“殺手級”模型,訓練GPT-4.5級以上的多模態稠密模型,單集群就要幾萬張H100/H200,誰先搶到卡,誰就擁有下一個“爆款”入口。
英偉達和AMD把資本換成股權,等于把“賣卡”前置成“占股+綁定采購”,一次性鎖定未來可能高達3-4萬顆高端GPU的確定需求,避免被“自研芯片”計劃截胡。
用“客戶即股東”模式抬高競品拿卡門檻,英偉達和AMD通過入股Thinking Machines Lab,把稀缺卡優先供給“自己人”,變相讓競爭對手排隊更久,從而延緩別家模型迭代節奏,鞏固自身生態節奏話語權。
一篇論文
前幾天,Thinking Machines Lab發表了一篇論文,這也是少見的論文比產品先行的創業公司。
Thinking Machines開辟了研究博客專欄「Connectionism」(聯結主義),發表了第一篇博客文章“Defeating Nondeterminism in LLM Inference”(擊敗LLM推理中的非確定性)。
文中提到,盡管將溫度參數設為0(即采用貪婪采樣),LLM的輸出仍然可能出現不一致。這種現象在實際應用中普遍存在,即使在相同的輸入和模型配置下,多次運行得到的結果也可能不同。
對此,一種流行的解釋是,這種現象是由于浮點數的非結合性(即浮點加法不滿足結合律)和GPU并行計算中的原子操作競爭條件共同導致的。論文將這一觀點稱為“并發+浮點數”假說。
論文深入研究了LLM推理過程中使用的GPU內核,發現雖然浮點數的非結合性是導致數值差異的根本原因,但并發執行中的原子操作并非LLM推理非確定性的主要來源。提出“批大小變化”理論:作者指出,LLM推理中的非確定性主要源于服務器負載的變化,這會導致每次推理時的批大小(batch size)不同。而現有的GPU內核在設計上缺乏“批不變性”(batch invariance),即計算結果會隨著批大小的變化而變化。
通過實驗,論文展示了即使運行相同的矩陣乘法,當批大小不同時,得到的結果也可能存在顯著差異。這表明,LLM推理系統在處理不同負載時,由于缺乏批不變性,會導致輸出結果的不一致。作者提出,要解決非確定性問題,需要確保LLM推理中涉及的關鍵計算內核(如RMSNorm、矩陣乘法和注意力機制)具備批不變性。具體來說,要保證無論批大小如何變化,每個樣本的歸約(reduction)計算順序都保持一致。
簡單來說,文章研究的是如何提升模型輸出的穩定性和可預測性。
這一點對用戶來說至關重要,因為這直接關系到用戶對AI系統的信任、開發者對問題的調試能力、系統的公平性與合規性、強化學習中的訓練一致性、用戶體驗的穩定性以及科學研究的可復現性。
如果同一個問題每次詢問AI都得到不同的答案,用戶會質疑模型的可靠性,尤其是在法律、醫療、金融、教育等高風險領域,輸出的一致性直接影響用戶對系統的信任。開發者也需要可復現的模型輸出,以便穩定地復現bug并進行修復,這是軟件測試、回歸測試和模型評估的基礎。
此外,如果模型對相同輸入給出不同輸出,可能意味著某些群體或輸入被系統性區別對待,這在審計、合規和公平性評估中是不可接受的,因為必須確保模型行為一致才能判斷是否公平。在強化學習中,訓練時使用的采樣策略與推理時必須保持一致,否則會導致策略漂移,使模型表現下降,非確定性還會讓“on-policy RL”變成“off-policy RL”,從而破壞訓練目標。
最重要的是,用戶也期望AI產品像傳統軟件一樣穩定,如果今天問“如何報稅”得到一個答案,明天又變了,用戶會感到困惑甚至憤怒,對企業來說,輸出一致性是服務質量的一部分,直接影響品牌聲譽。科學研究同樣需要可復現的實驗結果來比較不同模型或算法的優劣,如果模型輸出每次都不同,就無法判斷是模型改進帶來的提升還是隨機波動。因此,可預測性和可重復性不是技術細節,而是AI系統能否被人類信任、部署和規模化使用的底線要求,就像一臺每次按鍵都打出不同字母的鍵盤無法被信任或改進一樣,不可復現的AI也無法被真正應用。
AI大模型的下一章
Thinking Machines Lab的出圈,似乎也給AI大模型初創公司一些新的啟示。
在追求模型性能的同時,必須高度重視輸出的可預測性和可重復性,這是贏得用戶信任、確保系統可靠性的關鍵,尤其在醫療、金融等高風險領域,一致性直接關系到用戶是否敢用、愿用。
其次,技術透明和深入剖析問題根源至關重要,Thinking Machines Lab通過揭示LLM非確定性源于批大小變化而非浮點并發,表明AI公司應敢于挑戰行業常識,用扎實研究撥開迷霧,這種“技術誠實”本身就是品牌力。
工程優化與學術研究需緊密結合,AI公司不能僅停留在算法層面,而要下沉到GPU內核、數值計算順序等底層細節,通過批不變性內核、固定分塊策略等工程手段,將理論確定性真正落地為產品確定性。
除此之外,開發者體驗是生態護城河,提供可復現的推理結果、開源批不變算子庫、支持確定性模式,能極大降低開發者調試和部署成本,吸引社區共建,形成“越用越穩”的飛輪。
確定性推理為AI高級應用鋪平道路,強化學習、在線評估、合規審計、模型對比等場景都要求訓練與推理零偏差,AI公司若率先解決非確定性,就能在RLHF、法律審計、金融風控等高價值市場占據先機。
Thinking Machines Lab以小團隊切入“大模型基礎設施痛點”并快速引發關注,提示AI公司不必卷參數、卷規模,而是可以聚焦“別人忽視的確定性縫隙”,用極致工程創新打出差異化,告訴行業:性能不是唯一指標,穩定、可信、可復現,才是AI大規模商用的真正門票。
縱觀AI大模型行業的發展,也開啟了下一個時。模型架構將更加注重效率與可解釋性,不再單純追求參數規模,而是探索如混合專家模型、稀疏激活、線性注意力等機制,在降低計算成本的同時維持性能,同時提升模型決策過程的可解釋性以符合監管要求。
"確定性AI"將成為商業化分水嶺,隨著Thinking Machines Lab揭示非確定性根源,行業將加速推進批不變性內核、數值穩定算法及標準化測試協議,確保醫療、金融等關鍵場景的輸出可復現,可能催生專門的"可信AI"認證體系。
訓練推理一體化重構,邊緣-云協同的分布式訓練框架將成熟,支持千億級模型在消費級硬件上微調,配合動態批處理、內存壓縮技術實現"本地私有化部署+云端彈性擴展"的混合模式。第四,多模態融合進入2.0階段,文本、視覺、音頻、傳感器數據將在統一token空間中進行原生融合,出現專為機器人、車載終端設計的"物理世界大模型",推動AI從數字交互向實體操作進化。
未來,人機協作范式轉變,模型將具備實時置信度評估能力,在不確定時主動調用工具或請求人類介入,推動"AI-人類混合決策鏈"成為企業標配工作流程。能源效率成為核心指標,行業可能建立"每token能耗"評級制度,驅動液冷服務器、模型壓縮技術普及,預計2027年主流模型推理能耗將比2024年降低一個數量級。
這些趨勢共同指向一個未來:AI大模型將從"暴力計算"轉向"精密工程",在可控、可信、可持續的基礎上,真正成為社會關鍵基礎設施。
風險提示:
本網站內用戶發表的所有信息(包括但不限于文字、視頻、音頻、數據及圖表)僅代表個人觀點,僅供參考,與本網站立場無關,不構成任何投資建議,市場有風險,選擇需謹慎,據此操作風險自擔。
版權聲明:
此文為原作者或媒體授權發表于野馬財經網,且已標注作者及來源。如需轉載,請聯系原作者或媒體獲取授權。
本網站轉載的屬于第三方的信息,并不代表本網站觀點及對其真實性負責。如其他媒體、網站或個人擅自轉載使用,請自負相關法律責任。如對本文內容有異議,請聯系:contact@yemamedia.com

融中財經
京公網安備 11011402012004號