LongCat-2.0-Preview是什麼
LongCat-2.0-Preview 是美團推出的萬億參數級大模型預覽版,採用 MoE 架構,總參數達 1.6T、激活參數約 48B,支持 1M 超長上下文。模型基於 5–6 萬張國產加速卡完成全流程訓練與推理,英偉達算力佔比爲 0,系業內首次在國產芯片上跑通萬億級大模型訓推閉環,目前模型已開放內測,每日提供 1000 萬免費 Token 額度。

LongCat-2.0-Preview的主要功能
-
超長上下文理解:支持 1M token 長文本輸入,可處理整本書籍、大型代碼庫、長篇報告等海量內容。
-
代碼生成與推理:基於 MoE 架構精準調度專家網絡,在編程、數學推理與複雜指令跟隨任務中表現穩定。
-
多輪對話與語義檢索:通過稀疏注意力機制,在長對話歷史中快速定位關鍵信息,減少重複計算。
-
多模態內容理解:結合美團在本地生活場景的積累,支持對複雜業務文檔、圖文混合內容的深度解析。
LongCat-2.0-Preview的技術原理
-
MoE(混合專家)架構:總參數 1.6T 中僅激活 48B 參與單次前向計算,通過門控路由動態選擇最相關的專家模塊,降低推理成本。
-
N-gram Embedding:將部分原本位於專家層的參數前移至 Embedding 層,引入詞組級建模能力,使高頻語言模式可直接匹配命中,減少逐層計算開銷。
-
稀疏注意力與跨層流感知索引:引入輕量稀疏注意力機制,疊加跨層語義路徑索引,避免全量 O(n²) Attention 計算,保障 1M 上下文下的推理延遲可控。
-
確定性算子自研:針對國產芯片生態,自研 FlashAttention 反向梯度(FAG)、Scatter 類算子及 GEMM 模塊,將性能損失控制在 5% 左右,確保萬卡集羣長期訓練的可復現性。
-
顯存與通信優化:通過 V-ZB 算法將訓練峯值顯存壓縮至 60GB 以下,重構專家並行(EP)、張量並行(TP)與流水線並行(PP)策略,適配國產芯片帶寬與顯存約束。
如何使用LongCat-2.0-Preview
- 申請內測資格:訪問LongCat開放平台,官網點擊內測申請入口,填寫基本信息並提交審覈。
- 等待審覈通過:團隊將在申請提交後進行資格審覈,通過後以郵件或短信形式通知用戶開通權限。
- 登錄平台獲取額度:用審覈通過的賬號登錄 LongCat 平台,系統自動發放每日 1000 萬 Token 的免費調用額度。
- 選擇接入方式:用戶可通過 Web 聊天界面直接體驗,或根據文檔指引獲取 API Key,將模型接入自有應用與工作流程。
- 開始長文本任務:在對話框或 API 請求中輸入長文檔、代碼庫或複雜指令,模型將基於 1M 上下文窗口與 MoE 專家網絡完成推理並返回結果。
LongCat-2.0-Preview的關鍵信息和使用要求
-
模型名稱:LongCat-2.0-Preview
-
發佈方:美團 / LongCat 團隊
-
模型架構:MoE,總參數 1.6T,激活參數 48B
-
上下文窗口:1M(百萬級)token
-
算力底座:5–6 萬張國產加速卡,訓推全流程國產化
-
使用階段:受邀內測,需申請資格
-
免費額度:每日 1000 萬 Token
-
硬件要求:用戶端無需配置硬件,通過雲端 API 或 Web 界面調用
LongCat-2.0-Preview的核心優勢
-
全流程國產自主可控:從訓練到推理完全基於國產芯片,擺脫對英偉達 CUDA 生態的依賴,驗證國產算力可支撐頂級大模型任務。
-
超長文本能力領先:1M 上下文窗口配合稀疏注意力,在長文檔分析、視頻腳本理解等場景具備顯著優勢。
-
推理成本可控:MoE 架構僅激活少量專家,N-gram Embedding 進一步降低計算量,單位任務成本遠低於稠密模型。
-
工程穩定性強:通過確定性計算與多層容錯恢復體系,在萬卡級國產集羣上實現長週期穩定訓練,故障定位與復現能力追平國際水平。
-
開源基因深厚:LongCat 團隊已開源 Flash、Video、Image、AudioDiT 等多個項目,2.0 版本大概率延續開放路線。
LongCat-2.0-Preview的同類競品對比
| 對比維度 | LongCat-2.0-Preview | DeepSeek-V4 |
|---|---|---|
| 發佈方 | 美團 | DeepSeek |
| 總參數量 | 約 1.6T | 萬億級 |
| 激活參數 | 約 48B | 未公開具體數值 |
| 上下文窗口 | 1M | 1M |
| 訓練算力 | 5–6 萬張國產卡,全流程 | 英偉達 GPU 訓練,國產平台推理首發 |
| 架構特色 | N-gram Embedding + 稀疏注意力 | MLA + MoE |
| 國產自主程度 | 訓推全流程國產化,英偉達含量爲 0 | 訓練依賴英偉達,推理可跑國產芯片 |
| 開源策略 | 大概率延續開源 | 已開源 |
| 使用成本 | 內測階段每日 1000 萬免費 Token | V4 Flash 0.02 元/百萬 Tokens,V4 Pro 0.025 元/百萬 Tokens |
| 生態定位 | 驗證國產算力上限,深耕本地生活場景 | 極致性價比,服務廣泛開發者 |
LongCat-2.0-Preview的應用場景
-
長文檔分析與研報生成:一次性輸入百萬字級資料,進行摘要提取、觀點對比與深度研報撰寫。
-
大型代碼庫理解與開發:處理整個項目倉庫的代碼,完成跨文件依賴分析、Bug 定位與功能模塊生成。
-
智能客服與工單處理:在電商、外賣、酒旅等場景中,基於超長上下文理解用戶歷史訂單與複雜投訴鏈路。
-
多語言翻譯與本地化:利用長上下文保持術語一致性,處理整本技術手冊或影視字幕的批量翻譯。
-
教育科研與知識管理:輔助學者快速梳理海量文獻,構建知識圖譜,回答跨論文的綜合性問題。
© 版權聲明
文章版权归作者所有,未经允许请勿转载。
相關文章
暫無評論...