LLM 只是個彎道 — Yann LeCun 十億美元押注 AI 典範轉移

LLM 只是個彎道 — Yann LeCun 十億美元押注 AI 典範轉移

📅 ・ 約 13 分鐘閱讀 ・ 3,970 字

二○二四年,Yann LeCun 在一場學術會議上對著一群博士生說了一句話:「不要研究 LLM。試著找到能克服 LLM 限制的方法。」

這句話在現場引起了不小的反應。說這話的人,是卷積神經網路的發明者、2018 年圖靈獎得主、在 Meta 擔任了十二年首席 AI 科學家的人——換句話說,是現代深度學習架構的奠基者之一。如果連他都說別做 LLM,或許值得認真聽。

二○二六年三月十日,LeCun 在 X 上宣布了 AMI Labs 完成十億零三千萬美元種子輪融資,估值三十五億美元,成為歐洲史上最大種子輪。投資人名單包括 Nvidia、Bezos Expeditions、Samsung、Temasek,以及 Tim Berners-Lee、Eric Schmidt、Mark Cuban 和 Jeff Bezos 個人。

這不只是一筆大融資。這是有史以來最具份量的一個人,用最有份量的資本,公開對整個 AI 產業的主流方向投下不信任票。

AMI Labs 融資速覽(2026-03-10)

  • 融資金額:十億零三千萬美元(约 8.9 億歐元)
  • 種子前估值:三十五億美元
  • 記錄:歐洲史上最大種子輪,全球前幾大種子輪之一
  • 共同領投:Cathay Innovation、Greycroft、Hiro Capital、HV Capital、Bezos Expeditions
  • 策略投資人:Nvidia、Samsung、Temasek、Toyota Ventures、Sea、Publicis、SBVA(前身為 SoftBank Ventures Asia)
  • 個人投資人:Jeff Bezos、Tim Berners-Lee、Eric Schmidt、Mark Cuban、Jim Breyer、Xavier Niel
  • 公司定位:非營利初期;計劃開源部分研究成果;首批商業夥伴包括醫療 AI 公司 Nabla

他是誰,為什麼這件事重要

要理解這筆投資的意義,得先理解 Yann LeCun 在 AI 史上的位置。

一九八九年,在貝爾實驗室,LeCun 設計了 LeNet——第一個實際可用的卷積神經網路(CNN),用來識別手寫數字。這個架構後來成為今天所有電腦視覺系統的基礎。影像辨識、人臉偵測、醫療影像分析,每一個都站在 LeCun 在貝爾實驗室做的工作上。

二○一八年,ACM 將圖靈獎頒給 LeCun、Geoffrey Hinton 和 Yoshua Bengio,稱他們三人的貢獻是「讓深度神經網路成為計算的關鍵組件」。圖靈獎是計算機科學界的諾貝爾獎。這三個人被稱為「深度學習三巨頭」。

二○一三年,Facebook(今 Meta)請 LeCun 創立並領導 Facebook AI Research(FAIR)。他在那裡待了十二年,把 FAIR 建成全球最有影響力的開放 AI 研究機構之一,推動了 Meta Llama 等開源模型的發布。

然後,二○二五年十月,Meta 裁減了 AI 部門六百名員工,FAIR 受到波及。新的 AI 領導層轉向封閉式研究,短期產品優先。LeCun 協助建立的機構正在被重組成他不認識的樣子。二○二五年十一月,他宣布離職。

AMI 是法文「朋友」的意思,也是 Advanced Machine Intelligence 的縮寫。LeCun 在宣布時說:「發音是 ‘ami’,法文裡是朋友的意思。」


LLM 的問題到底在哪

在解釋 AMI 在做什麼之前,得先理解 LeCun 認為 LLM 錯在哪裡。這不是在說 ChatGPT 沒用——LeCun 多次強調 LLM 很有用。問題在於它們是否能走到「人類級別的智能」。

LeCun 的核心論點有三個。

第一個是數學問題。每個 LLM 生成的 token 都有一個小機率 e 是錯的。在一千個 token 的輸出裡,全部正確的機率是 (1 - e)^1000,這個數字趨向零的速度非常快。「你沒辦法用一個在每個步驟都有機率犯錯的系統,做長鏈推理。」

第二個是計算預算問題。每個 token 使用固定的計算量,不管這個問題是「2+2 等於多少」還是「費馬大定理的完整證明」。「沒有辦法讓模型在難題上花更多時間。這根本上就是 Kahneman 說的 System 1 思考——快速、反射式的,沒有深思熟慮。」

第三個是理解問題。LeCun 最喜歡用的例子是:「LLM 知道『玻璃杯』和『碎裂』這兩個詞經常出現在同一個語境裡。但它不知道,如果你把一個玻璃杯從桌子推下去,它會摔碎。它只有統計關聯,沒有物理世界的因果理解。」

簡而言之:LLM 是世界上讀過最多書的實體,但它從來沒有用手摸過任何東西。

LeCun 在 Davos 說:「LLM 五年內就會差不多過時,被能夠理解物理世界的新架構取代。」

他在一次更直白的場合說得更清楚:「透過 LLM 達到超級智能,是完全的廢話。這條路根本走不到。」

📝 補充說明

值得一提的是,LeCun 的批評不是針對 AI 存在風險的擔憂——他認為「整個 AI 存在性風險的辯論被大幅誇大」。他與 Hinton 和 Bengio 的分歧,同時存在於技術架構層面(LLM 能否達到 AGI)和風險評估層面(AI 是否已構成緊迫的存在威脅)。三個圖靈獎共同得主,三個截然不同的答案。


JEPA 是什麼,為什麼它不一樣

AMI Labs 的核心技術是 LeCun 在二○二二年論文中提出的 JEPA 架構:Joint Embedding Predictive Architecture(聯合嵌入預測架構)。

最好的方式是與 GPT 對比來理解它。

GPT 系列的訓練是「預測下一個詞」。給模型一段文字,讓它猜接下來是什麼詞,一個接一個,直到生成完整輸出。這個方式非常有效——但它學到的是統計規律,而不是世界的抽象結構。

JEPA 的訓練不同:它讓模型預測的不是具體的下一個詞,而是一個抽象表示。給模型一張圖片的一部分,它要預測缺失部分的「概念性特徵」,而不是每個像素的顏色值。兩個輸入都被壓縮成高維空間裡的抽象向量,模型學著在那個空間裡預測和推理。

這個差異的後果是深遠的。當 V-JEPA 2(JEPA 的影片版本,仍在 Meta 研究,AMI 計劃延伸這個路線)僅用六十二小時的影片訓練後,被拿去測試機器人手臂控制時,在從未見過的環境裡,零樣本的拾取放置任務成功率達到六十五到八十%;即使在部分任務上仍有差距,也是世界模型用感測器數據做到具身控制的首批可信結果之一。它沒有被告知任何機器人動力學的物理公式——它從影片裡學到了某種對物理世界的「預感」。

LeCun 把這個方向稱為「世界模型」(World Model):一個 AI 系統對環境運作方式的內部模型,讓它可以在採取行動之前,先在腦中模擬可能的後果。這是真正的 System 2 思考的前提。


Nvidia 為什麼要投資反對自己的公司

AMI Labs 的投資人名單裡有一個矛盾到令人困惑的名字:Nvidia。

Nvidia 的商業模式建立在 LLM 需要大量 GPU 算力這個事實上。二○二六年三月,Jensen Huang 在 GTC 上宣布 Blackwell 加 Vera Rubin 的累計訂單已達一兆美元。LLMM 越大、越多,Nvidia 賺得越多。如果 LeCun 是對的,LLM 時代的算力需求可能根本性地改變,那對 Nvidia 不是好消息。

但 Jensen 還是投了。

這裡有三層邏輯。

第一層:物理 AI 同樣需要大量算力,只是型態不同。Jensen 在今年 CES 說「物理 AI 的 ChatGPT 時刻到了」。訓練世界模型需要處理影片和感測器數據,計算需求不比 LLM 少。Nvidia 為此建立了 Isaac Cosmos 平台,專門服務機器人訓練場景。算力的需求不會消失,只是需求的形態會改變——而 Nvidia 在兩種形態下都是主要供應商。

第二層:對沖。Nvidia 同時投資了 OpenAI 和 Anthropic,現在又投了批評它們路線的 AMI Labs。這是一個全球最大晶片公司在確認:不管哪個架構贏,它都在場上。二○二六年三月,Jensen 還公開表示正在縮減對 OpenAI 和 Anthropic 的投資曝險——這讓 AMI 的投資更加耐人尋味。

第三層:Jensen 自己也相信物理 AI。他的路線圖和 LeCun 的論點有交集:通用機器人需要對物理世界的深度理解,而不只是統計關聯。

Foxconn 機器人生產線 — 台灣製造業的 AI 轉型前沿,Photo: Gemini


融資潮背後的市場邏輯

AMI Labs 不是孤立的。在同一時間,一整個「世界模型」創業生態正在形成。

World Labs(李飛飛創辦):二○二四年成立,已籌得近十億美元,目前尋求五十億美元估值。技術路線不同——李飛飛的方向是「空間智能」,讓 AI 理解三維物理世界的幾何關係;第一個商業產品 Marble 可以把文字和圖片轉成可編輯的 3D 環境。二○二六年二月,Autodesk 投資了兩億美元。

Wayve(英國):用端對端學習的世界模型做自動駕駛,獲得 SoftBank、Microsoft、Nvidia 共超過十億美元投資。

具身 AI(Embodied AI)市場的預測數字也在為這場賭注背書。MarketsandMarkets 估計,具身 AI 市場將從二○二五年的四十四億美元成長到二○三○年的兩百三十億美元,年複合成長率三十九%,而亞太地區預計將是最大的單一市場。

二○二六年第一季,僅 AMI Labs 一家就吸收了超過十億美元,加計 World Labs 同期獲得的兩億美元 Autodesk 投資,世界模型新創在這一季吸引的資本已超過十二億美元。一年前這個數字接近零。


台灣在這場賭局裡的位置

如果 LeCun 是對的——如果 AI 的下一個重要戰場是物理世界裡的機器人和具身智能——台灣的位置比在 LLM 時代更有力。

LLM 的核心戰場是算力(誰有最多 A100/H100)和資料(誰有最多訓練文字)。台灣在算力的供應鏈上(台積電製造晶片),但不在算力的擁有端。

世界模型的戰場則不同:它需要機器人硬體、精密製造、感測器整合、機電一體化零組件,以及大量高品質的物理世界數據。這些恰好是台灣製造業過去三十年積累的核心能力。

具體來說:

鴻海(富士康):二○二五年在 Computex 發布「Foxconn Genesis」機器人平台。二○二六年初,首批人形機器人正按計劃部署至休士頓的 GB300 AI 伺服器廠,目標成為全球第一批把人形機器人整合進 AI 伺服器製造的設施。

上銀科技(HIWIN):滾珠螺桿和線性導引系統的全球主要供應商,這些是人形機器人關節的關鍵零件。機器人業務預計在二○二六年超越集團營收的一○%。公司正在開發針對人形機器人重載應用的行星滾子螺桿,預計二○二六年量產。上銀執行長表示,全球主要代工廠進入人形機器人領域後,都找過他們洽談。

廣達、緯創、和碩:這些台灣 ODM 廠在 GTC 2026 上都以「AI 供應鏈夥伴」身分登場。世界模型和機器人 AI 系統需要整合多種硬體——計算模組、感測器陣列、通訊介面——恰好是台灣 ODM 最擅長的事。

🎯

台灣在世界模型時代的三個關鍵問題

台灣能從供應商升格為方案整合商嗎

在 LLM 時代,台灣主要扮演算力硬體的製造角色。世界模型需要機器人、感測器和物理環境的整合——台灣有機會扮演更接近端的角色,而不只是供應零件。

台灣的物理世界數據是優勢嗎

訓練世界模型需要大量真實物理環境的感測器數據。台灣的工廠自動化和製造環境,本身就是高密度的物理數據源。這是一個目前被低估的競爭優勢。

政府 AI 政策是否跟上了這個轉向

台灣的 AI 政策討論主要圍繞算力建設(GPU 算力中心)和 LLM 應用。如果世界模型和具身 AI 的發展速度如預期,政策端的轉向準備是否充分,值得持續觀察。


批評者的聲音

不是所有人都認為 LeCun 說得對。

Gary Marcus(AI 批評者,長期與 LeCun 有公開辯論)在 Substack 發文《對 Yann LeCun 的過度頌揚》,指出 LeCun 過去數十年間做過多個預測都沒有成真,JEPA 在大規模應用上仍未經過驗證。「他是個偉大的科學家,但這並不代表他的世界觀預測是準確的。」

更廣泛的反駁是:即使 LeCun 對 LLM 的批評在技術上有部分正確,也不代表 JEPA 就是答案。世界模型的概念在強化學習領域討論了十年,沒有一個系統真正突破了玩具環境的限制。V-JEPA 2 六十二小時影片訓練後能做到六十五%的機器人抓取,印象深刻——但距離 LeCun 描述的「和貓一樣理解世界」,還有多遠的路?

另一個問題是商業模式。AMI Labs 目前沒有收入,也沒有明確的產品路線圖,計劃在第一年專注基礎研究。十億美元的資本消耗在頂尖研究員的薪資、計算資源和實驗室建設上,燃燒速度不慢。LeCun 說「五年內有突破」,但投資人通常不等五年。

世界模型 vs. 語言模型的架構示意,Photo: Gemini


這筆投資在賭什麼

把所有線索放在一起,AMI Labs 的十億美元種子輪,其實是在賭一個非常具體的命題:在二○二六年之後,大量資本和智識注意力將從「讓語言模型更大」轉向「讓 AI 理解物理世界」,而掌握這個轉型早期基礎研究的公司,將在下一個 AI 週期裡佔據戰略位置。

這個命題不需要 LeCun 對 LLM 的批評百分之百正確,才能成為一個好的投資。只需要「物理 AI 是一個大市場,且目前還沒有定論」這個條件成立。Jensen Huang 說是,具身 AI 市場的預測說是,二○二六年第一季流入這個領域的十三億美元說是。

Nvidia 可以同時持有「LLM 是現在最重要的商業 AI」和「世界模型是未來最重要的技術方向」兩個觀點,並在兩個方向上都下注。這不是矛盾,是在不確定的未來裡做的理性投資組合配置。

LeCun 不在乎市場如何下注。他有一個更素樸的論點:「你能告訴我,哪裡有一個機器人,能做一隻貓能做的事?哪怕是在模擬環境裡?」

如果你找不到,你就知道 AI 還有多少路沒有走。

在 AMI Labs 的十億美元裡,有人選擇把賭注押在走那段路上。