超越DeepSeek、Gemini 與 OpenAI!三星AI小模型TRM超強
鉅亨網編譯莊閔棻
三星在人工智慧(AI)領域的研發持續亮眼。最新發表的 Tiny Recursive Model(TRM)以小模型之姿,效能已超越部分參數量高達 10,000 倍的大型語言模型(LLM)。

TRM 僅有 7 百萬個參數,相較於大型 LLM 的數十億參數,規模小了數個數量級。三星在論文《Less is More: Recursive Reasoning with Tiny Networks》中,詳細說明了 TRM 的創新架構。
TRM 核心特點包括:
- 自我遞迴:TRM 會將自身輸出作為下一步的輸入,形成自我改進的回饋循環。
- 更新推理:每次輸出經過多輪推理循環,模擬出更深層的架構,無需額外記憶體或計算成本。
- 逐步優化:每一輪遞迴都能提升預測或結果的準確性。
三星的做法類似於人類反覆閱讀自己的草稿,每次都修正錯誤,明顯優於傳統大型語言模型的邏輯推理方式。傳統 LLM 若在某一步出錯,整個推理過程可能崩潰;即便鏈式思維(chain-of-thought)能改善部分問題,但仍脆弱不穩。
TRM 驚人成績
- 極限數獨:準確率 87.4%(階層推理模型僅 55%)
- 迷宮難題:準確率 85%
- ARC-AGI-1:準確率 45%
- ARC-AGI-2:準確率 8%
值得注意的是,即便 TRM 參數量僅占其他大型語言模型的極小比例,它仍能超越或接近 DeepSeek R1、Google Gemini 2.5 Pro 及 OpenAI o3-mini 的表現。
三星進一步發現,增加模型層數反而可能因過擬合降低泛化能力;相反地,減少層數但增加遞迴次數,能顯著提升 TRM 小模型的整體 AI 性能。
延伸閱讀
- 講座
- 公告
上一篇
下一篇