すべてのツールに戻る
    ローカル AI ツール

    AI パーソナル知識ベース(Local RAG)

    問題を報告する

    PDF やメモに対して、ブラウザ内の非公開 RAG 検索、IndexedDB 保存、端末内 AI 回答で会話できます

    知識ベース

    ローカル PDF、Markdown、テキスト文書を取り込み、ブラウザ側の非公開文書インデックスを構築します。

    文書数: 0
    Chunk 数: 0

    PDF やテキスト文書を取り込み、ブラウザが LangChain と Transformers.js でローカルに分割・索引化したうえで、IndexedDB ベースの知識ベースへ質問します。ソース文書はアプリサーバーへ送信されません。

    このツールは LangChain.js で分割し、Transformers.js で埋め込みと回答生成を行い、IndexedDB にローカル保存します。大きな PDF は端末のメモリと CPU または GPU 余力に依存します。

    ローカル文書を読み込み、ブラウザ内の個人知識ベースを作り始めてください。0%

    知識ベースに質問

    取り込んだ文書に関する質問を入力してください。ブラウザが関連 chunk を取得してからローカル回答を生成します。

    0 単語

    索引済み文書

    現在ローカル知識ベースに保存されているファイルを確認します。

    まだ索引化された文書はありません。

    回答

    コピーや共有の前に、ローカル RAG の回答を確認します。

    実行統計

    ローカル知識ベース、使用モデル、現在のチャット状態の概要です。

    チャット件数

    0

    回答語数

    0

    埋め込みモデル

    回答モデル

    使用バックエンド

    スコープ付き service worker
    Service worker は利用できません

    取得された source chunk

    直近の回答で非公開検索コンテキストとして使われた上位一致 chunk です。

    質問後、ここに source chunk が表示されます。

    ローカルチャット履歴

    最近の質問とローカル回答はこの端末だけに保存されます。

    まだチャット履歴はありません。知識ベースに質問してローカルスレッドを始めてください。

    ブラウザ内処理
    即時結果
    データ保存なし

    AI パーソナル知識ベース(Local RAG)とは?

    多くの人は "chat with docs" の便利さを求めながらも、個人 PDF、私的メモ、社内エクスポート、学習資料をホスト型 AI ワークスペースへ入れたくはありません。気になるのはモデル品質だけではなく、元ファイルがどこに置かれるのか、索引がセッションをまたいで残るのか、そして回答の根拠となった段落を自分で確かめられるのかという点です。

    AI-Powered Personal Knowledge Base は、その流れをブラウザ内に留めます。ローカル文書を解析し、LangChain で chunk 化し、索引を IndexedDB に保存し、質問ごとに関連 chunk を取得したうえで端末内で回答を生成するため、ソース文書をアプリサーバーへ送る必要がありません。

    ホスト型の文書対話は便利でも、個人資料には露出が大きすぎることがある

    契約 PDF、私的ノート、社内要約、研究資料は、まさに会話的に照会したい文書である一方、ホスト型 AI ワークスペースへ最も送りたくない文書でもあります。

    長い文書を手で探すのは遅く、答えが複数箇所に散っているほど負担が増えます。

    さらに継続性も重要です。route を開くたびに毎回一時索引を作り直すようでは、実用的な流れになりにくくなります。

    資料を端末内に留めたまま、絞った質問と根拠確認をしやすくしたいとき、ブラウザ側 local RAG が役立ちます。

    ローカル分割、ローカル保存、ローカル取得、ローカル回答

    このツールはブラウザ内に個人知識ベースを作ります。対応ファイルを解析して検索しやすい chunk に分け、ローカル埋め込みを作り、その索引を IndexedDB に保存するので同じ端末で後から再利用できます。

    質問時にはブラウザがクエリ埋め込みを作り、関連度の高い local chunk を並べ替え、その取得結果をホスト型 backend ではなくローカル回答生成へ渡します。

    回答には取得された source chunk が添えられるため、どの段落が根拠として使われたのか確認できます。

    AI パーソナル知識ベース(Local RAG)の使い方

    1. 1文書を取り込む - PDF、Markdown メモ、テキスト文書を、あとで私的に照会したい資料として読み込みます。
    2. 2ローカル索引を作る - route に解析、chunk 化、埋め込み生成、IndexedDB 保存を行わせます。
    3. 3具体的に質問する - 広すぎる話題 prompt ではなく、根拠に結びつけやすい質問を入力します。
    4. 4回答と source を確認する - ローカル回答を読み、取得 chunk とファイル名、必要ならページ参照も見直します。
    5. 5後で再利用する - 同じ端末で route を開き直し、保存済み知識ベースとローカル会話を続けます.

    主な機能

    • 無料で利用可能
    • ログイン不要
    • ブラウザ内処理で安心
    • 即時結果
    • シンプルで使いやすい

    メリット

    • 作業時間を短縮
    • プライバシー保護
    • どのデバイスでも利用可能
    • インストール不要

    利用シーン

    私的 PDF 調査

    報告書、契約書、草稿、学習資料をホスト型 AI ワークスペースへ送らずに質問します。

    個人参照アーカイブ

    よく使うメモやエクスポートをローカル知識ベースに残し、同じ端末で繰り返し参照します。

    議事録と方針確認

    議事録、内部ガイドライン、SOP を読み込み、取得段落を見ながら確認します。

    学習補助

    教材抜粋、要約、講義ノートを端末に残したままローカル検索で見直します。

    コツとよくあるミス

    コツ

    • 検索は具体的な質問ほど機能しやすいので、曖昧な相談より根拠を求める問い方が向いています。
    • 回答が短すぎたり自信過剰に見えるときは、必ず source chunk を確認してください。
    • 文字層のある PDF や整ったテキストを使うと取得品質が安定しやすくなります。
    • まったく別の資料セットへ切り替えるときは、知識ベースを作り直すほうが分かりやすいです。

    よくあるミス

    • ローカル回答モデルがどんな文書でも完全に根拠付きで答えると考えること。
    • 保存した知識ベースが自動で別端末に同期されると思い込むこと。
    • OCR 品質の低い PDF を入れ、chunk 出力を見ずに高品質検索を期待すること。
    • 最終回答だけを読み、取得された段落を確認しないこと。

    解説メモ

    • ブラウザ側 RAG でも抽出品質は重要です。もとの文書テキストが乱れていれば、回答前の検索段階で質が落ちます。
    • Chunk 化が重要なのは、システムが PDF 全体を一度に理解するのではなく、小さな断片の索引を検索してから答えるためです。
    • IndexedDB の持続保存は同一端末での再利用を助けますが、端末間同期や共有クラウド保存とは別物です。
    • 良い local RAG は、広い雑談 prompt よりも、具体的な段落に結びつけやすい質問で使うほうがうまくいきます。

    よくある質問

    文書は端末外へ出ますか?

    いいえ。解析、chunk 化、取得、ローカル回答生成はブラウザ内で行われます。初回のみモデル資産が別途取得されることがあります。

    IndexedDB には何が入りますか?

    文書メタデータ、chunk テキスト、埋め込み、ローカル会話履歴が保存され、同じ端末で後から開き直せます。

    PDF 専用ですか?

    いいえ。PDF に加えて、ブラウザで直接処理できるプレーンテキストや Markdown 形式の文書にも対応します。

    いつでも正しく答えますか?

    いいえ。RAG は抽出品質、chunk 化、取得一致、ローカル回答モデルの限界に左右されます。

    共有チーム向けですか?

    いいえ。これは個人向けのブラウザ側知識アシスタントであり、ホスト型の複数ユーザー文書基盤ではありません。

    もっと見る ローカル AI ツール

    AI パーソナル知識ベース(Local RAG)はローカル AI ツールのツールです。関連する無料オンラインツールもまとめて確認できます。

    すべて見る ローカル AI ツール