ブラウザ内 AI 翻訳とは?
ブラウザ内 AI 翻訳は、公開クラウド翻訳ボックスへテキストを貼り付ける代わりに、ブラウザ内で翻訳を進められるようにするツールです。内部メモ、多言語ドラフト、顧客向けの下書き、まず意味をつかみたい文章など、元テキストを端末に残したい場面に向いています。
現在のワークフローは Transformers.js と Xenova/m2m100_418M を使う local-first 構成です。初回はモデルのダウンロー ドとキャッシュが必要な場合がありますが、キャッシュが残っていれば次回以降はかなり軽くなります。
翻訳は便利でも、原文を外部へ送る前提になりやすい
多くの翻訳ツールは、まず全文を外部サービスへ送る前提で作られています。それは内部草稿や機密性のある文章には向きません。
多くの言語ペアを扱う場合、クラウド翻訳サービスを行き来する運用になりやすく、作業が散らかります。
長文を一度に翻訳しようとすると、ブラウザメモリへの負荷も大きくなるため、分割処理が重要になります。
M2M100 をブラウザ内で動かして、より私的に翻訳する
このツールは Transformers.js 経由で Xenova/m2m100_418M をブラウザ内で実行するため、翻訳中も原文は端末内に残ります。
長い入力は扱いやすいチャンクに分けて段階的に翻訳するため、メモリ負荷と不安定さを抑えやすくなります。
対応端末では WebGPU を優先でき、互換性を重視したい場合は WASM に切り替えられます。
ブラウザ内 AI 翻訳の使い方
- 1テキストを読み込む - 内容を貼り付けるか、.txt / .md ファイルを読み込みます。
- 2言語ペアを選ぶ - 実行前に元言語と翻訳先言語を正しく設定します。
- 3バックエンドを選ぶ - auto に任せるか、WebGPU / WASM を明示的に選びます。
- 4ローカル翻訳を実行する - 必要に応じてモデルを取得し、ブラウザ内で全文を翻訳します。
- 5用語を確認する - 固有名詞、略語、専門用語を結果の中で見直します。
- 6コピーまたは保存する - 元文をサーバーへ送らずに訳文だけを書き出します。
主な機能
- Transformers.js と M2M100 によるブラウザ内ローカル翻訳
- ブラウザ内で 100 以上の言語方向を扱える
- 長文を安定処理するためのチャンク分割
- 元テキストをアプリサーバーへ送信しない
- 初回後はブラウザキャッシュのモデルを再利用可能
メリット
- ホスト型翻訳サービスへ機密テキストを渡さずに翻訳できる
- プライバシーが重要な場面で Google Translate への送信を避けられる
- 端末に応じて WebGPU / WASM を選べる
- 後続の翻訳でもキャッシュ済みモデルを活用できる
利用シーン
内部メモの翻訳
業務メモを別言語に変換しつつ、データを公開翻訳サービスへ渡さない。
ローカライズ初稿の作成
Web コピーや製品文言の第一稿を作ってから、人が仕上げる。
調査メモの読解補助
読書メモや引用を素早く理解しつつ、元文はローカルに保持する。
オフライン寄りの再利用
同じブラウザでキャッシュ済みモデルを使い、後続の翻訳も続ける。
コツとよくあるミス
コツ
- 元言語コードを正しく指定すると、モデルはより安定して翻訳しやすくなります。