返回全部工具
    本地 AI 工具

    浏览器内 AI 翻译器

    反馈问题

    使用私密 M2M100 工作流在浏览器中本地翻译文本和轻量文档

    源文本

    使用私密 M2M100 工作流在浏览器中本地翻译文本和轻量文档

    输入词数: 0

    翻译设置

    为这次私密本地翻译选择源语言、目标语言和浏览器后端。

    此工具使用本地 Transformers.js 翻译管线和 Xenova/m2m100_418M,可在浏览器内支持 100+ 语言方向。

    长文档会被拆分成多个片段并直接在浏览器 RAM 中翻译。超大输入仍取决于设备内存以及 CPU 或 GPU 性能。

    粘贴文本或导入文档以开始本地翻译流程。0%

    译文

    在复制或下载之前先检查本地生成的译文。

    运行统计

    快速查看本地翻译运行和所选模型的细节。

    输入词数

    0

    输出词数

    0

    文本片段数

    0

    语言对

    --

    已用后端

    --

    模型

    Xenova/m2m100_418M

    离线运行环境

    作用域 Service Worker
    Service Worker 不可用

    粘贴或导入文本,选择源语言和目标语言,再选择浏览器后端,然后在不把文档发送给 Google 或应用服务器的情况下运行本地 AI 翻译。

    浏览器端处理
    即时结果
    不存储数据

    浏览器内 AI 翻译器是什么?

    浏览器内 AI 翻译器让你在浏览器中完成翻译,而不是把文本粘贴到公开云翻译框里。它适合内部笔记、多语言草稿、客户资料片段,或任何你想先快速理解、同时又希望源文本留在设备上的内容。

    当前工作流使用 Transformers.js 与 Xenova/m2m100_418M,走的是 local-first 路线。首次运行时浏览器可能需要下载并缓存模型,之后如果缓存仍在,后续运行会顺畅得多。

    翻译工作往往意味着把原文发送到外部服务

    很多翻译工具都要求你先把整段文本送到远程服务,这对内部草稿或敏感资料并不理想。

    当你要处理很多语言对时,常常还得在不同翻译服务之间来回切换,而不是使用一个统一的本地流程。

    较长文本如果试图一次性翻译,也会给浏览器内存带来压力,因此分块和稳定处理非常重要。

    在浏览器中使用 M2M100 做更私密的多语言翻译

    这个工具通过 Transformers.js 在浏览器里直接运行 Xenova/m2m100_418M,因此翻译过程中源文本会留在本机。

    较长内容会先拆成多个合适的片段,再分阶段完成本地翻译,以降低错误和内存压力。

    如果设备支持,你可以优先使用 WebGPU,也可以切换到 WASM 以获得更广泛的兼容性。

    如何使用浏览器内 AI 翻译器

    1. 1载入文本 - 把内容粘贴进来,或导入 .txt / .md 文件。
    2. 2选择语言对 - 先设置正确的源语言与目标语言,再开始翻译。
    3. 3选择后端 - 可以让 auto 自动决定,也可以手动指定 WebGPU / WASM。
    4. 4运行本地翻译 - 让工具分块、按需下载模型,并在浏览器中完成整个流程。
    5. 5检查术语 - 在使用结果前,检查专有名词、缩写与专业术语。
    6. 6复制或下载 - 导出译文继续使用,而不必把源文上传到应用服务器。

    主要功能

    • 基于 Transformers.js 与 M2M100 的浏览器本地翻译
    • 在浏览器内支持 100+ 语言方向
    • 长文本分块处理以获得更稳定的执行
    • 源文本不上传到应用服务器
    • 首次下载后可复用浏览器缓存中的本地模型

    优势

    • 无需把敏感文本发到托管翻译服务也能完成翻译
    • 在隐私重要时避免把内容发给 Google Translate
    • 按设备条件选择 WebGPU 或 WASM 本地推理路径
    • 后续翻译可继续复用已缓存的本地模型

    使用场景

    翻译内部笔记

    把工作笔记转换到另一种语言,而不把数据交给公开翻译服务。

    本地化初稿准备

    为网页文案或产品文本生成第一版译稿,之后再由人工润色。

    研究摘录翻译

    快速理解阅读材料中的片段,同时让源内容留在本地。

    更偏离线的工作流

    在同一个浏览器里复用已缓存模型完成后续翻译。

    技巧与常见错误

    技巧

    • 设置正确的源语言代码,模型在明确语言输入时通常表现更稳。
    • 保留段落结构,有助于分块和合并结果保持稳定。
    • 翻译完成后,要再检查专有名词、品牌名和专业术语。

    常见错误

    • 不检查语境就把机器翻译直接当成最终版本。
    • 粘贴超大文本后仍期待所有设备速度都一样快。
    • 清空浏览器缓存后还希望后续继续保持原来的离线复用能力。

    知识要点

    • M2M100 是一种多语言 sequence-to-sequence 翻译模型,适合在浏览器里承担广覆盖的本地翻译任务。
    • 分块翻译是处理长文本的现实策略,因为它能减轻内存压力并提升稳定性。
    • local-first AI 可以降低源文本暴露风险,但最终译文质量仍取决于模型与人工复核。

    常见问题

    文本会发送到 Google 或应用服务器吗?

    不会。文本在浏览器中处理。只有模型文件可能在首次运行时需要下载。

    支持很多语言吗?

    支持。当前工作流使用 M2M100 和较广的语言代码列表,可覆盖许多不同语言对。

    为什么工具要分块?

    分块有助于较长输入适配浏览器内存限制,并让本地翻译更稳定。

    可以直接把结果当成最终发布稿吗?

    不建议。它更适合私密初稿和快速理解,正式发布前仍应由人工复核。

    探索更多 本地 AI 工具

    浏览器内 AI 翻译器 属于 本地 AI 工具。探索更多免费在线工具,快速完成相关任务。

    查看全部 本地 AI 工具