二○二四年,Yann LeCun 在一場學術會議上對著一群博士生說了一句話:「不要研究 LLM。試著找到能克服 LLM 限制的方法。」
這句話在現場引起了不小的反應。說這話的人,是卷積神經網路的發明者、2018 年圖靈獎得主、在 Meta 擔任了十二年首席 AI 科學家的人——換句話說,是現代深度學習架構的奠基者之一。如果連他都說別做 LLM,或許值得認真聽。
二○二六年三月十日,LeCun 在 X 上宣布了 AMI Labs 完成十億零三千萬美元種子輪融資,估值三十五億美元,成為歐洲史上最大種子輪。投資人名單包括 Nvidia、Bezos Expeditions、Samsung、Temasek,以及 Tim Berners-Lee、Eric Schmidt、Mark Cuban 和 Jeff Bezos 個人。
這不只是一筆大融資。這是有史以來最具份量的一個人,用最有份量的資本,公開對整個 AI 產業的主流方向投下不信任票。
AMI Labs 融資速覽(2026-03-10)
- 融資金額:十億零三千萬美元(约 8.9 億歐元)
- 種子前估值:三十五億美元
- 記錄:歐洲史上最大種子輪,全球前幾大種子輪之一
- 共同領投:Cathay Innovation、Greycroft、Hiro Capital、HV Capital、Bezos Expeditions
- 策略投資人:Nvidia、Samsung、Temasek、Toyota Ventures、Sea、Publicis、SBVA(前身為 SoftBank Ventures Asia)
- 個人投資人:Jeff Bezos、Tim Berners-Lee、Eric Schmidt、Mark Cuban、Jim Breyer、Xavier Niel
- 公司定位:非營利初期;計劃開源部分研究成果;首批商業夥伴包括醫療 AI 公司 Nabla
他是誰,為什麼這件事重要
要理解這筆投資的意義,得先理解 Yann LeCun 在 AI 史上的位置。
一九八九年,在貝爾實驗室,LeCun 設計了 LeNet——第一個實際可用的卷積神經網路(CNN),用來識別手寫數字。這個架構後來成為今天所有電腦視覺系統的基礎。影像辨識、人臉偵測、醫療影像分析,每一個都站在 LeCun 在貝爾實驗室做的工作上。
二○一八年,ACM 將圖靈獎頒給 LeCun、Geoffrey Hinton 和 Yoshua Bengio,稱他們三人的貢獻是「讓深度神經網路成為計算的關鍵組件」。圖靈獎是計算機科學界的諾貝爾獎。這三個人被稱為「深度學習三巨頭」。
二○一三年,Facebook(今 Meta)請 LeCun 創立並領導 Facebook AI Research(FAIR)。他在那裡待了十二年,把 FAIR 建成全球最有影響力的開放 AI 研究機構之一,推動了 Meta Llama 等開源模型的發布。
然後,二○二五年十月,Meta 裁減了 AI 部門六百名員工,FAIR 受到波及。新的 AI 領導層轉向封閉式研究,短期產品優先。LeCun 協助建立的機構正在被重組成他不認識的樣子。二○二五年十一月,他宣布離職。
AMI 是法文「朋友」的意思,也是 Advanced Machine Intelligence 的縮寫。LeCun 在宣布時說:「發音是 ‘ami’,法文裡是朋友的意思。」
LLM 的問題到底在哪
在解釋 AMI 在做什麼之前,得先理解 LeCun 認為 LLM 錯在哪裡。這不是在說 ChatGPT 沒用——LeCun 多次強調 LLM 很有用。問題在於它們是否能走到「人類級別的智能」。
LeCun 的核心論點有三個。
第一個是數學問題。每個 LLM 生成的 token 都有一個小機率 e 是錯的。在一千個 token 的輸出裡,全部正確的機率是 (1 - e)^1000,這個數字趨向零的速度非常快。「你沒辦法用一個在每個步驟都有機率犯錯的系統,做長鏈推理。」
第二個是計算預算問題。每個 token 使用固定的計算量,不管這個問題是「2+2 等於多少」還是「費馬大定理的完整證明」。「沒有辦法讓模型在難題上花更多時間。這根本上就是 Kahneman 說的 System 1 思考——快速、反射式的,沒有深思熟慮。」
第三個是理解問題。LeCun 最喜歡用的例子是:「LLM 知道『玻璃杯』和『碎裂』這兩個詞經常出現在同一個語境裡。但它不知道,如果你把一個玻璃杯從桌子推下去,它會摔碎。它只有統計關聯,沒有物理世界的因果理解。」
簡而言之:LLM 是世界上讀過最多書的實體,但它從來沒有用手摸過任何東西。
LeCun 在 Davos 說:「LLM 五年內就會差不多過時,被能夠理解物理世界的新架構取代。」
他在一次更直白的場合說得更清楚:「透過 LLM 達到超級智能,是完全的廢話。這條路根本走不到。」
值得一提的是,LeCun 的批評不是針對 AI 存在風險的擔憂——他認為「整個 AI 存在性風險的辯論被大幅誇大」。他與 Hinton 和 Bengio 的分歧,同時存在於技術架構層面(LLM 能否達到 AGI)和風險評估層面(AI 是否已構成緊迫的存在威脅)。三個圖靈獎共同得主,三個截然不同的答案。
JEPA 是什麼,為什麼它不一樣
AMI Labs 的核心技術是 LeCun 在二○二二年論文中提出的 JEPA 架構:Joint Embedding Predictive Architecture(聯合嵌入預測架構)。
最好的方式是與 GPT 對比來理解它。
GPT 系列的訓練是「預測下一個詞」。給模型一段文字,讓它猜接下來是什麼詞,一個接一個,直到生成完整輸出。這個方式非常有效——但它學到的是統計規律,而不是世界的抽象結構。
JEPA 的訓練不同:它讓模型預測的不是具體的下一個詞,而是一個抽象表示。給模型一張圖片的一部分,它要預測缺失部分的「概念性特徵」,而不是每個像素的顏色值。兩個輸入都被壓縮成高維空間裡的抽象向量,模型學著在那個空間裡預測和推理。
這個差異的後果是深遠的。當 V-JEPA 2(JEPA 的影片版本,仍在 Meta 研究,AMI 計劃延伸這個路線)僅用六十二小時的影片訓練後,被拿去測試機器人手臂控制時,在從未見過的環境裡,零樣本的拾取放置任務成功率達到六十五到八十%;即使在部分任務上仍有差距,也是世界模型用感測器數據做到具身控制的首批可信結果之一。它沒有被告知任何機器人動力學的物理公式——它從影片裡學到了某種對物理世界的「預感」。
LeCun 把這個方向稱為「世界模型」(World Model):一個 AI 系統對環境運作方式的內部模型,讓它可以在採取行動之前,先在腦中模擬可能的後果。這是真正的 System 2 思考的前提。
Nvidia 為什麼要投資反對自己的公司
AMI Labs 的投資人名單裡有一個矛盾到令人困惑的名字:Nvidia。
Nvidia 的商業模式建立在 LLM 需要大量 GPU 算力這個事實上。二○二六年三月,Jensen Huang 在 GTC 上宣布 Blackwell 加 Vera Rubin 的累計訂單已達一兆美元。LLMM 越大、越多,Nvidia 賺得越多。如果 LeCun 是對的,LLM 時代的算力需求可能根本性地改變,那對 Nvidia 不是好消息。
但 Jensen 還是投了。
這裡有三層邏輯。
第一層:物理 AI 同樣需要大量算力,只是型態不同。Jensen 在今年 CES 說「物理 AI 的 ChatGPT 時刻到了」。訓練世界模型需要處理影片和感測器數據,計算需求不比 LLM 少。Nvidia 為此建立了 Isaac Cosmos 平台,專門服務機器人訓練場景。算力的需求不會消失,只是需求的形態會改變——而 Nvidia 在兩種形態下都是主要供應商。
第二層:對沖。Nvidia 同時投資了 OpenAI 和 Anthropic,現在又投了批評它們路線的 AMI Labs。這是一個全球最大晶片公司在確認:不管哪個架構贏,它都在場上。二○二六年三月,Jensen 還公開表示正在縮減對 OpenAI 和 Anthropic 的投資曝險——這讓 AMI 的投資更加耐人尋味。
第三層:Jensen 自己也相信物理 AI。他的路線圖和 LeCun 的論點有交集:通用機器人需要對物理世界的深度理解,而不只是統計關聯。

融資潮背後的市場邏輯
AMI Labs 不是孤立的。在同一時間,一整個「世界模型」創業生態正在形成。
World Labs(李飛飛創辦):二○二四年成立,已籌得近十億美元,目前尋求五十億美元估值。技術路線不同——李飛飛的方向是「空間智能」,讓 AI 理解三維物理世界的幾何關係;第一個商業產品 Marble 可以把文字和圖片轉成可編輯的 3D 環境。二○二六年二月,Autodesk 投資了兩億美元。
Wayve(英國):用端對端學習的世界模型做自動駕駛,獲得 SoftBank、Microsoft、Nvidia 共超過十億美元投資。
具身 AI(Embodied AI)市場的預測數字也在為這場賭注背書。MarketsandMarkets 估計,具身 AI 市場將從二○二五年的四十四億美元成長到二○三○年的兩百三十億美元,年複合成長率三十九%,而亞太地區預計將是最大的單一市場。
二○二六年第一季,僅 AMI Labs 一家就吸收了超過十億美元,加計 World Labs 同期獲得的兩億美元 Autodesk 投資,世界模型新創在這一季吸引的資本已超過十二億美元。一年前這個數字接近零。
台灣在這場賭局裡的位置
如果 LeCun 是對的——如果 AI 的下一個重要戰場是物理世界裡的機器人和具身智能——台灣的位置比在 LLM 時代更有力。
LLM 的核心戰場是算力(誰有最多 A100/H100)和資料(誰有最多訓練文字)。台灣在算力的供應鏈上(台積電製造晶片),但不在算力的擁有端。
世界模型的戰場則不同:它需要機器人硬體、精密製造、感測器整合、機電一體化零組件,以及大量高品質的物理世界數據。這些恰好是台灣製造業過去三十年積累的核心能力。
具體來說:
鴻海(富士康):二○二五年在 Computex 發布「Foxconn Genesis」機器人平台。二○二六年初,首批人形機器人正按計劃部署至休士頓的 GB300 AI 伺服器廠,目標成為全球第一批把人形機器人整合進 AI 伺服器製造的設施。
上銀科技(HIWIN):滾珠螺桿和線性導引系統的全球主要供應商,這些是人形機器人關節的關鍵零件。機器人業務預計在二○二六年超越集團營收的一○%。公司正在開發針對人形機器人重載應用的行星滾子螺桿,預計二○二六年量產。上銀執行長表示,全球主要代工廠進入人形機器人領域後,都找過他們洽談。
廣達、緯創、和碩:這些台灣 ODM 廠在 GTC 2026 上都以「AI 供應鏈夥伴」身分登場。世界模型和機器人 AI 系統需要整合多種硬體——計算模組、感測器陣列、通訊介面——恰好是台灣 ODM 最擅長的事。
台灣在世界模型時代的三個關鍵問題
在 LLM 時代,台灣主要扮演算力硬體的製造角色。世界模型需要機器人、感測器和物理環境的整合——台灣有機會扮演更接近端的角色,而不只是供應零件。
訓練世界模型需要大量真實物理環境的感測器數據。台灣的工廠自動化和製造環境,本身就是高密度的物理數據源。這是一個目前被低估的競爭優勢。
台灣的 AI 政策討論主要圍繞算力建設(GPU 算力中心)和 LLM 應用。如果世界模型和具身 AI 的發展速度如預期,政策端的轉向準備是否充分,值得持續觀察。
批評者的聲音
不是所有人都認為 LeCun 說得對。
Gary Marcus(AI 批評者,長期與 LeCun 有公開辯論)在 Substack 發文《對 Yann LeCun 的過度頌揚》,指出 LeCun 過去數十年間做過多個預測都沒有成真,JEPA 在大規模應用上仍未經過驗證。「他是個偉大的科學家,但這並不代表他的世界觀預測是準確的。」
更廣泛的反駁是:即使 LeCun 對 LLM 的批評在技術上有部分正確,也不代表 JEPA 就是答案。世界模型的概念在強化學習領域討論了十年,沒有一個系統真正突破了玩具環境的限制。V-JEPA 2 六十二小時影片訓練後能做到六十五%的機器人抓取,印象深刻——但距離 LeCun 描述的「和貓一樣理解世界」,還有多遠的路?
另一個問題是商業模式。AMI Labs 目前沒有收入,也沒有明確的產品路線圖,計劃在第一年專注基礎研究。十億美元的資本消耗在頂尖研究員的薪資、計算資源和實驗室建設上,燃燒速度不慢。LeCun 說「五年內有突破」,但投資人通常不等五年。

這筆投資在賭什麼
把所有線索放在一起,AMI Labs 的十億美元種子輪,其實是在賭一個非常具體的命題:在二○二六年之後,大量資本和智識注意力將從「讓語言模型更大」轉向「讓 AI 理解物理世界」,而掌握這個轉型早期基礎研究的公司,將在下一個 AI 週期裡佔據戰略位置。
這個命題不需要 LeCun 對 LLM 的批評百分之百正確,才能成為一個好的投資。只需要「物理 AI 是一個大市場,且目前還沒有定論」這個條件成立。Jensen Huang 說是,具身 AI 市場的預測說是,二○二六年第一季流入這個領域的十三億美元說是。
Nvidia 可以同時持有「LLM 是現在最重要的商業 AI」和「世界模型是未來最重要的技術方向」兩個觀點,並在兩個方向上都下注。這不是矛盾,是在不確定的未來裡做的理性投資組合配置。
LeCun 不在乎市場如何下注。他有一個更素樸的論點:「你能告訴我,哪裡有一個機器人,能做一隻貓能做的事?哪怕是在模擬環境裡?」
如果你找不到,你就知道 AI 還有多少路沒有走。
在 AMI Labs 的十億美元裡,有人選擇把賭注押在走那段路上。