LongCat-2.0-Preview – 美團推出的萬億參數級大模型預覽版

AI工具4天前發佈新公告 AI管理員
0 0

LongCat-2.0-Preview是什麼

LongCat-2.0-Preview 是美團推出的萬億參數級大模型預覽版,採用 MoE 架構,總參數達 1.6T、激活參數約 48B,支持 1M 超長上下文。模型基於 5–6 萬張國產加速卡完成全流程訓練與推理,英偉達算力佔比爲 0,系業內首次在國產芯片上跑通萬億級大模型訓推閉環,目前模型已開放內測,每日提供 1000 萬免費 Token 額度。

LongCat-2.0-Preview – 美團推出的萬億參數級大模型預覽版

LongCat-2.0-Preview的主要功能

  • 超長上下文理解:支持 1M token 長文本輸入,可處理整本書籍、大型代碼庫、長篇報告等海量內容。
  • 代碼生成與推理:基於 MoE 架構精準調度專家網絡,在編程、數學推理與複雜指令跟隨任務中表現穩定。
  • 多輪對話與語義檢索:通過稀疏注意力機制,在長對話歷史中快速定位關鍵信息,減少重複計算。
  • 多模態內容理解:結合美團在本地生活場景的積累,支持對複雜業務文檔、圖文混合內容的深度解析。

LongCat-2.0-Preview的技術原理

  • MoE(混合專家)架構:總參數 1.6T 中僅激活 48B 參與單次前向計算,通過門控路由動態選擇最相關的專家模塊,降低推理成本。
  • N-gram Embedding:將部分原本位於專家層的參數前移至 Embedding 層,引入詞組級建模能力,使高頻語言模式可直接匹配命中,減少逐層計算開銷。
  • 稀疏注意力與跨層流感知索引:引入輕量稀疏注意力機制,疊加跨層語義路徑索引,避免全量 O(n²) Attention 計算,保障 1M 上下文下的推理延遲可控。
  • 確定性算子自研:針對國產芯片生態,自研 FlashAttention 反向梯度(FAG)、Scatter 類算子及 GEMM 模塊,將性能損失控制在 5% 左右,確保萬卡集羣長期訓練的可復現性。
  • 顯存與通信優化:通過 V-ZB 算法將訓練峯值顯存壓縮至 60GB 以下,重構專家並行(EP)、張量並行(TP)與流水線並行(PP)策略,適配國產芯片帶寬與顯存約束。

如何使用LongCat-2.0-Preview

  • 申請內測資格:訪問LongCat開放平台,官網點擊內測申請入口,填寫基本信息並提交審覈。
  • 等待審覈通過:團隊將在申請提交後進行資格審覈,通過後以郵件或短信形式通知用戶開通權限。
  • 登錄平台獲取額度:用審覈通過的賬號登錄 LongCat 平台,系統自動發放每日 1000 萬 Token 的免費調用額度。
  • 選擇接入方式:用戶可通過 Web 聊天界面直接體驗,或根據文檔指引獲取 API Key,將模型接入自有應用與工作流程。
  • 開始長文本任務:在對話框或 API 請求中輸入長文檔、代碼庫或複雜指令,模型將基於 1M 上下文窗口與 MoE 專家網絡完成推理並返回結果。

LongCat-2.0-Preview的關鍵信息和使用要求

  • 模型名稱:LongCat-2.0-Preview
  • 發佈方:美團 / LongCat 團隊
  • 模型架構:MoE,總參數 1.6T,激活參數 48B
  • 上下文窗口:1M(百萬級)token
  • 算力底座:5–6 萬張國產加速卡,訓推全流程國產化
  • 使用階段:受邀內測,需申請資格
  • 免費額度:每日 1000 萬 Token
  • 硬件要求:用戶端無需配置硬件,通過雲端 API 或 Web 界面調用

LongCat-2.0-Preview的核心優勢

  • 全流程國產自主可控:從訓練到推理完全基於國產芯片,擺脫對英偉達 CUDA 生態的依賴,驗證國產算力可支撐頂級大模型任務。
  • 超長文本能力領先:1M 上下文窗口配合稀疏注意力,在長文檔分析、視頻腳本理解等場景具備顯著優勢。
  • 推理成本可控:MoE 架構僅激活少量專家,N-gram Embedding 進一步降低計算量,單位任務成本遠低於稠密模型。
  • 工程穩定性強:通過確定性計算與多層容錯恢復體系,在萬卡級國產集羣上實現長週期穩定訓練,故障定位與復現能力追平國際水平。
  • 開源基因深厚:LongCat 團隊已開源 Flash、Video、Image、AudioDiT 等多個項目,2.0 版本大概率延續開放路線。

LongCat-2.0-Preview的同類競品對比

對比維度 LongCat-2.0-Preview DeepSeek-V4
發佈方 美團 DeepSeek
總參數量 約 1.6T 萬億級
激活參數 約 48B 未公開具體數值
上下文窗口 1M 1M
訓練算力 5–6 萬張國產卡,全流程 英偉達 GPU 訓練,國產平台推理首發
架構特色 N-gram Embedding + 稀疏注意力 MLA + MoE
國產自主程度 訓推全流程國產化,英偉達含量爲 0 訓練依賴英偉達,推理可跑國產芯片
開源策略 大概率延續開源 已開源
使用成本 內測階段每日 1000 萬免費 Token V4 Flash 0.02 元/百萬 Tokens,V4 Pro 0.025 元/百萬 Tokens
生態定位 驗證國產算力上限,深耕本地生活場景 極致性價比,服務廣泛開發者

LongCat-2.0-Preview的應用場景

  • 長文檔分析與研報生成:一次性輸入百萬字級資料,進行摘要提取、觀點對比與深度研報撰寫。
  • 大型代碼庫理解與開發:處理整個項目倉庫的代碼,完成跨文件依賴分析、Bug 定位與功能模塊生成。
  • 智能客服與工單處理:在電商、外賣、酒旅等場景中,基於超長上下文理解用戶歷史訂單與複雜投訴鏈路。
  • 多語言翻譯與本地化:利用長上下文保持術語一致性,處理整本技術手冊或影視字幕的批量翻譯。
  • 教育科研與知識管理:輔助學者快速梳理海量文獻,構建知識圖譜,回答跨論文的綜合性問題。
© 版權聲明

相關文章

暫無評論

暫無評論...