Hy-MT1.5-1.8B-1.25bit – 腾讯混元开源的轻量化的离线翻译模型

Hy-MT1.5-1.8B-1.25bit是腾讯混元团队正式开源的一款极致轻量化的离线翻译模型。这款模型最大的亮点在于它通过先进的量化压缩技术,将原本需要数GB内存的翻译大模型压缩至440MB 左右,使得普通智能手机也能在完全不联网的情况下,流畅运行高质量的实时翻译。
Hy-MT1.5-1.8B-1.25bit - 腾讯混元开源的轻量化的离线翻译模型

Hy-MT1.5-1.8B-1.25bit核心亮点

  • 体积极小 (仅 440MB)
    原始模型(Hy-MT1.5-1.8B)在 FP16 精度下占用约 3.3GB 内存,对于手机端来说负担较重。腾讯团队采用了 1.25-bit 极致量化压缩技术(基于 Sherry 稀疏高效三值量化方案),将模型体积缩小了约 87.5%,最终仅需 440MB 存储空间
  • 全离线运行
    模型完全在本地设备(如安卓手机)上运行,无需消耗网络流量,也不依赖云端服务器。这意味着在飞机上、地铁里或出国漫游时,依然可以使用
  • 隐私安全
    由于翻译过程完全在本地处理,用户的聊天记录、邮件内容或个人隐私信息不会上传到云端,实现了“零隐私暴露”
Hy-MT1.5-1.8B-1.25bit - 腾讯混元开源的轻量化的离线翻译模型

Hy-MT1.5-1.8B-1.25bit性能表现

尽管体积被极致压缩,但其翻译质量并未大幅缩水,甚至在某些场景下超越了主流商用 API:
  • 翻译质量:在多个基准测试(如 FLORES-200)中,该模型的翻译效果比肩甚至超越了谷歌翻译等主流商业系统,达到了千亿级(235B)大模型的 90 分位水平
  • 响应速度:在骁龙 888 等主流芯片上,处理 50 个 token 的平均耗时仅为 0.18秒,推理速度快于许多商用 API(通常在 0.4秒左右)
  • 广泛的语言支持
    • 原生支持 33 种国际语言(中、英、日、法、俄、阿拉伯语等)。
    • 支持 5 种方言/少数民族语言(藏语、蒙古语、维吾尔语、壮语、彝语)
    • 总计支持 1056 个翻译方向

Hy-MT1.5-1.8B-1.25bit技术规格对比

为了适应不同性能的设备,腾讯推出了两种量化方案,你可以根据手机配置选择:
表格

特性1.25-bit 版本 (Sherry)2-bit 版本 (SEQ)
模型体积440 MB574 MB
适用设备全系机型(包括内存紧张的手机)中高端机型(追求更高精度)
技术特点稀疏高效三值量化,每4个参数仅用5bit存储拉伸弹性量化,精度略高
核心优势极致轻量化,常驻后台无压力翻译质量几乎无损

Hy-MT1.5-1.8B-1.25bit如何获取与体验

目前该模型已全面开源,开发者和技术爱好者可以通过以下渠道获取:
  • 开源平台
    • Hugging Face(面向海外用户)
    • 魔搭社区 (ModelScope)(面向国内用户)
  • Demo 体验
    腾讯提供了一个适配了“后台取词模式”的安卓 Demo 应用(APK),用户下载后可直接在手机上体验离线翻译功能。iOS 版本目前尚未上线,正在适配中

Hy-MT1.5-1.8B-1.25bit的项目地址

  • HuggingFace模型库:https://huggingface.co/AngelSlim/Hy-MT1.5-1.8B-1.25bit
  • arXiv技术论文:https://arxiv.org/pdf/2512.24092
© 版权声明

相关文章

暂无评论

none
暂无评论...