Hy-MT1.5-1.8B-1.25bit是什麼
Hy-MT1.5-1.8B-1.25bit 是騰訊混元團隊推出的極致量化壓縮版手機端離線翻譯大模型。模型基於混元翻譯大模型 Hy-MT1.5-1.8B(18億參數)打造,通過創新的 Sherry 稀疏三值量化技術 將模型壓縮至僅 440MB,支持 33種語言、5種方言/民漢 及 1056個翻譯方向,無需聯網可在手機本地運行,翻譯質量超越谷歌翻譯等主流商業系統。

Hy-MT1.5-1.8B-1.25bit的主要功能
-
33種語言離線互譯:覆蓋中英、法日、阿拉伯語、俄語等主流語言,以及藏語、蒙古語等少數民族語言,共1056個翻譯方向。
-
手機端本地運行:下載模型後即可完全離線翻譯,無需網絡連接,不消耗流量。
-
後台取詞翻譯:配套Demo支持”後台取詞模式”,在瀏覽網頁、查看郵件時可隨時調用翻譯。
-
文本實時翻譯:輸入或粘貼文本後快速生成翻譯結果,支持複製輸出。
-
多語言方向切換:支持任意語言對之間的雙向翻譯切換。
Hy-MT1.5-1.8B-1.25bit的技術原理
-
基礎模型:基於騰訊混元翻譯大模型 Hy-MT1.5-1.8B(1.8B參數),該模型通過”通用預訓練→MT定向預訓練→監督微調→在線蒸餾→強化學習”多階段訓練框架打造。
-
Sherry 稀疏三值量化(1.25-bit):採用細粒度稀疏策略,每4個參數中3個用1-bit存儲(取值爲-1或1),1個置爲0,平均每個參數僅需 1.25 bit。
-
STQ 專用內核:騰訊專爲手機CPU設計的稀疏三值量化推理內核,完美適配 SIMD 指令集,實現高效解碼。
-
量化感知訓練(QAT):通過訓練中的分佈對齊與偏移優化,緩解超低比特量化帶來的精度損失。
-
GRPO 強化學習:採用Group Relative Policy Optimization算法,結合多維度評分標準(準確性、流暢度、一致性、文化適配性、可讀性)優化翻譯質量。
如何使用Hy-MT1.5-1.8B-1.25bit
-
下載安裝:從魔搭社區 https://modelscope.cn/models/AngelSlim/Hy-MT1.5-1.8B-1.25bit-GGUF/resolve/master/Hy-MT-demo.apk 或 HuggingFace 下載 Demo APK 並安裝。
-
啓動加載:首次打開自動加載 440MB 模型,加載完成後即可使用。
-
文本翻譯:輸入或粘貼文本,點擊 Translate 可離線翻譯;點擊底部語言欄可切換翻譯方向。
-
後台取詞:在其他 App 中長按選中文本,選擇”離線翻譯”,懸浮窗直接顯示結果,無需跳轉。
Hy-MT1.5-1.8B-1.25bit的關鍵信息和使用要求
-
發佈方:騰訊混元團隊
-
模型參數:1.8B
-
量化精度:1.25-bit(Sherry稀疏三值量化)
-
模型體積:440MB
-
支持平台:安卓(Demo版),iOS正式版後續支持
-
開源協議:模型權重、代碼、技術報告全面開源
-
系統:安卓手機(Demo版暫不支持iOS)
-
內存:建議8GB及以上(演示設備爲驍龍865/888/7+Gen2,8GB/16GB內存)
-
存儲:預留約500MB空間下載模型
-
網絡:首次下載模型需聯網,之後可完全離線使用
Hy-MT1.5-1.8B-1.25bit的核心優勢
-
極致輕量化:模型僅 440MB,原始FP16版本爲3.3GB,壓縮比約 7.5倍,普通手機可常駐後台。
-
翻譯質量高:在Flores-200、WMT25等基準上,1.8B原始模型已超越谷歌翻譯、百度翻譯、微軟翻譯等商業API和Tower-Plus-72B、Qwen3-32B等更大開源模型;1.25bit量化版在保持極小體積的同時,質量損失可控。
-
推理速度快:配合STQ內核,在驍龍888手機上翻譯速度比FP16版本快約 8倍(1.9秒 vs 58.2秒)。
-
全離線零隱私:完全本地處理,無需上傳任何數據,無訂閱費用,一次下載永久使用。
-
硬件適配友好:1.25bit方案對SIMD指令集友好,全系安卓機型均可流暢運行。
Hy-MT1.5-1.8B-1.25bit的項目地址
- HuggingFace模型庫:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit
- arXiv技術論文:https://arxiv.org/pdf/2512.24092
Hy-MT1.5-1.8B-1.25bit的同類競品對比
| 對比維度 | Hy-MT1.5-1.8B-1.25bit | Tower-Plus-72B | 谷歌翻譯 (Google Translate API) |
|---|---|---|---|
| 產品定位 | 端側離線翻譯大模型 | 開源翻譯專用大模型 | 商業雲端翻譯服務 |
| 發佈方 | 騰訊混元 | Unbabel / 社區 | |
| 模型體積 | 440 MB | 145 GB | 雲端部署(無本地體積) |
| 參數量 | 1.8B | 72B | 未公開 |
| 運行方式 | 手機本地離線運行 | 需服務器 / A100 等高性能 GPU | 雲端 API 調用 |
| 聯網需求 | ❌ 完全不需要 | ✅ 需部署在服務器 | ✅ 必須聯網 |
| 支持語言 | 33 種 + 5 種方言/民漢 | 多語言 | 100+ 種語言 |
| Flores-200 (ZH↔XX) | 82.2 | 79.7 | 69.3 |
| Flores-200 (EN↔XX) | 87.4 | 86.2 | 77.0 |
| WMT25 | 57.0 | 41.0 | 38.9 |
| Minority↔Mandarin | 59.1 | 35.4 | 33.4 |
| 推理速度 | 極快(驍龍888僅 1.9 秒) | 慢(72B 大模型推理成本高) | 依賴網絡延遲(通常 1–3 秒) |
Hy-MT1.5-1.8B-1.25bit的應用場景
-
境外出行:無網絡環境(偏遠地區、飛機、地鐵)下的菜單、路牌、對話實時翻譯,解決境外信號不穩定痛點。
-
商務辦公:離線處理涉外郵件、合同文檔,敏感商業信息完全本地處理,杜絕數據上傳風險。
-
少數民族溝通:支持藏語、蒙古語、維吾爾語等民漢互譯,服務邊疆地區日常交流與政務辦理。
-
學術研究:本地閱讀外文文獻、論文,隨時取詞翻譯,保護學術隱私與知識產權。
-
日常閱讀:離線瀏覽外文網頁、社交媒體、電子書,無需流量即可獲取高質量譯文。
© 版權聲明
文章版权归作者所有,未经允许请勿转载。
相關文章
暫無評論...