Hy-MT1.5-1.8B-1.25bit – 騰訊混元開源的手機端離線翻譯模型

AI工具1周前發佈新公告 AI管理員
0 0

Hy-MT1.5-1.8B-1.25bit是什麼

Hy-MT1.5-1.8B-1.25bit 是騰訊混元團隊推出的極致量化壓縮版手機端離線翻譯大模型。模型基於混元翻譯大模型 Hy-MT1.5-1.8B(18億參數)打造,通過創新的 Sherry 稀疏三值量化技術 將模型壓縮至僅 440MB,支持 33種語言、5種方言/民漢 及 1056個翻譯方向,無需聯網可在手機本地運行,翻譯質量超越谷歌翻譯等主流商業系統。

Hy-MT1.5-1.8B-1.25bit – 騰訊混元開源的手機端離線翻譯模型

Hy-MT1.5-1.8B-1.25bit的主要功能

  • 33種語言離線互譯:覆蓋中英、法日、阿拉伯語、俄語等主流語言,以及藏語、蒙古語等少數民族語言,共1056個翻譯方向。
  • 手機端本地運行:下載模型後即可完全離線翻譯,無需網絡連接,不消耗流量。
  • 後台取詞翻譯:配套Demo支持”後台取詞模式”,在瀏覽網頁、查看郵件時可隨時調用翻譯。
  • 文本實時翻譯:輸入或粘貼文本後快速生成翻譯結果,支持複製輸出。
  • 多語言方向切換:支持任意語言對之間的雙向翻譯切換。

Hy-MT1.5-1.8B-1.25bit的技術原理

  • 基礎模型:基於騰訊混元翻譯大模型 Hy-MT1.5-1.8B(1.8B參數),該模型通過”通用預訓練→MT定向預訓練→監督微調→在線蒸餾→強化學習”多階段訓練框架打造。
  • Sherry 稀疏三值量化(1.25-bit):採用細粒度稀疏策略,每4個參數中3個用1-bit存儲(取值爲-1或1),1個置爲0,平均每個參數僅需 1.25 bit。
  • STQ 專用內核:騰訊專爲手機CPU設計的稀疏三值量化推理內核,完美適配 SIMD 指令集,實現高效解碼。
  • 量化感知訓練(QAT):通過訓練中的分佈對齊與偏移優化,緩解超低比特量化帶來的精度損失。
  • GRPO 強化學習:採用Group Relative Policy Optimization算法,結合多維度評分標準(準確性、流暢度、一致性、文化適配性、可讀性)優化翻譯質量。

如何使用Hy-MT1.5-1.8B-1.25bit

  • 下載安裝:從魔搭社區 https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/master/Hy-MT-demo.apk 或 HuggingFace 下載 Demo APK 並安裝。
  • 啓動加載:首次打開自動加載 440MB 模型,加載完成後即可使用。
  • 文本翻譯:輸入或粘貼文本,點擊 Translate 可離線翻譯;點擊底部語言欄可切換翻譯方向。
  • 後台取詞:在其他 App 中長按選中文本,選擇”離線翻譯”,懸浮窗直接顯示結果,無需跳轉。

Hy-MT1.5-1.8B-1.25bit的關鍵信息和使用要求

  • 發佈方:騰訊混元團隊
  • 模型參數:1.8B
  • 量化精度:1.25-bit(Sherry稀疏三值量化)
  • 模型體積:440MB
  • 支持平台:安卓(Demo版),iOS正式版後續支持
  • 開源協議:模型權重、代碼、技術報告全面開源
  • 系統:安卓手機(Demo版暫不支持iOS)
  • 內存:建議8GB及以上(演示設備爲驍龍865/888/7+Gen2,8GB/16GB內存)
  • 存儲:預留約500MB空間下載模型
  • 網絡:首次下載模型需聯網,之後可完全離線使用

Hy-MT1.5-1.8B-1.25bit的核心優勢

  • 極致輕量化:模型僅 440MB,原始FP16版本爲3.3GB,壓縮比約 7.5倍,普通手機可常駐後台。
  • 翻譯質量高:在Flores-200、WMT25等基準上,1.8B原始模型已超越谷歌翻譯、百度翻譯、微軟翻譯等商業API和Tower-Plus-72B、Qwen3-32B等更大開源模型;1.25bit量化版在保持極小體積的同時,質量損失可控。
  • 推理速度快:配合STQ內核,在驍龍888手機上翻譯速度比FP16版本快約 8倍(1.9秒 vs 58.2秒)。
  • 全離線零隱私:完全本地處理,無需上傳任何數據,無訂閱費用,一次下載永久使用。
  • 硬件適配友好:1.25bit方案對SIMD指令集友好,全系安卓機型均可流暢運行。

Hy-MT1.5-1.8B-1.25bit的項目地址

  • HuggingFace模型庫:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit
  • arXiv技術論文:https://arxiv.org/pdf/2512.24092

Hy-MT1.5-1.8B-1.25bit的同類競品對比

對比維度 Hy-MT1.5-1.8B-1.25bit Tower-Plus-72B 谷歌翻譯 (Google Translate API)
產品定位 端側離線翻譯大模型 開源翻譯專用大模型 商業雲端翻譯服務
發佈方 騰訊混元 Unbabel / 社區 Google
模型體積 440 MB 145 GB 雲端部署(無本地體積)
參數量 1.8B 72B 未公開
運行方式 手機本地離線運行 需服務器 / A100 等高性能 GPU 雲端 API 調用
聯網需求 ❌ 完全不需要 ✅ 需部署在服務器 ✅ 必須聯網
支持語言 33 種 + 5 種方言/民漢 多語言 100+ 種語言
Flores-200 (ZH↔XX) 82.2 79.7 69.3
Flores-200 (EN↔XX) 87.4 86.2 77.0
WMT25 57.0 41.0 38.9
Minority↔Mandarin 59.1 35.4 33.4
推理速度 極快(驍龍888僅 1.9 秒 慢(72B 大模型推理成本高) 依賴網絡延遲(通常 1–3 秒)

Hy-MT1.5-1.8B-1.25bit的應用場景

  • 境外出行:無網絡環境(偏遠地區、飛機、地鐵)下的菜單、路牌、對話實時翻譯,解決境外信號不穩定痛點。
  • 商務辦公:離線處理涉外郵件、合同文檔,敏感商業信息完全本地處理,杜絕數據上傳風險。
  • 少數民族溝通:支持藏語、蒙古語、維吾爾語等民漢互譯,服務邊疆地區日常交流與政務辦理。
  • 學術研究:本地閱讀外文文獻、論文,隨時取詞翻譯,保護學術隱私與知識產權。
  • 日常閱讀:離線瀏覽外文網頁、社交媒體、電子書,無需流量即可獲取高質量譯文。
© 版權聲明

相關文章

暫無評論

暫無評論...