Quay lại tất cả công cụ
    Công cụ AI Cục bộ

    Kho Tri Thức Cá Nhân Dùng AI (Local RAG)

    Báo lỗi

    Trò chuyện với PDF và ghi chú ngay trong trình duyệt bằng truy xuất RAG riêng tư, lưu IndexedDB và câu trả lời AI chạy trên thiết bị

    Knowledge base

    Nhập PDF, Markdown hoặc file văn bản cục bộ để dựng chỉ mục tài liệu riêng tư trong trình duyệt.

    Tài liệu: 0
    Chunk: 0

    Nhập PDF hoặc tài liệu văn bản, để trình duyệt chia nhỏ và lập chỉ mục cục bộ bằng LangChain và Transformers.js, rồi đặt câu hỏi trên knowledge base lưu bằng IndexedDB mà không tải file nguồn lên máy chủ ứng dụng.

    Công cụ này dùng LangChain.js để chia chunk, Transformers.js để tạo vector nhúng và sinh câu trả lời, cùng IndexedDB để lưu cục bộ. PDF lớn vẫn phụ thuộc vào RAM và CPU hoặc GPU của thiết bị.

    Hãy nhập tài liệu cục bộ để bắt đầu dựng kho tri thức riêng trong trình duyệt.0%

    Hỏi knowledge base

    Đặt câu hỏi về tài liệu đã nhập. Trình duyệt sẽ truy xuất các chunk mạnh nhất trước khi sinh câu trả lời cục bộ.

    0 Từ

    Tài liệu đã lập chỉ mục

    Xem các file hiện đang nằm trong knowledge base cục bộ.

    Chưa có tài liệu nào được lập chỉ mục.

    Câu trả lời

    Xem lại câu trả lời local RAG trước khi sao chép hoặc chia sẻ ra nơi khác.

    Thống kê lượt chạy

    Chi tiết nhanh về knowledge base cục bộ, các model đang dùng và trạng thái chat hiện tại.

    Tin nhắn chat

    0

    Số từ câu trả lời

    0

    Model vector nhúng

    Model trả lời

    Backend đã dùng

    Service worker theo route
    Service worker không khả dụng

    Chunk nguồn được truy xuất

    Đây là các chunk khớp mạnh nhất được dùng làm ngữ cảnh truy xuất riêng tư cho câu trả lời mới nhất.

    Chunk nguồn sẽ hiện ở đây sau khi bạn đặt câu hỏi.

    Lịch sử chat cục bộ

    Các câu hỏi gần đây và câu trả lời local chỉ được lưu trên thiết bị này.

    Chưa có lịch sử chat. Hãy hỏi knowledge base để bắt đầu một luồng local.

    Xử lý trên trình duyệt
    Kết quả tức thì
    Không lưu trữ dữ liệu

    Kho Tri Thức Cá Nhân Dùng AI (Local RAG) là gì

    Nhiều người muốn sự tiện lợi của kiểu hỏi đáp với tài liệu nhưng lại không muốn đẩy PDF cá nhân, ghi chú riêng, bản xuất nội bộ hay tài liệu học tập lên một hệ AI lưu trữ trên đám mây. Vấn đề không chỉ là chất lượng mô hình, mà còn là tài liệu gốc nằm ở đâu, chỉ mục có được giữ lại giữa các phiên hay không, và người dùng có xem được đoạn nào thực sự làm căn cứ cho câu trả lời hay không.

    AI-Powered Personal Knowledge Base giữ workflow đó trong trình duyệt. Công cụ parse tài liệu cục bộ, chia chunk bằng LangChain, lưu index vào IndexedDB, truy xuất các đoạn phù hợp nhất cho từng câu hỏi, rồi sinh câu trả lời cục bộ trên thiết bị để file nguồn không phải upload lên app server.

    Chat với tài liệu hosted tiện nhưng thường quá lộ với dữ liệu cá nhân

    Hợp đồng PDF, ghi chú riêng, tóm tắt nội bộ hay bộ tài liệu nghiên cứu thường là đúng những thứ người dùng muốn hỏi theo kiểu hội thoại, nhưng cũng lại là những thứ họ ít muốn đưa vào một workspace AI hosted.

    Tìm tay trong file dài khá chậm, nhất là khi câu trả lời nằm rải ở nhiều phần chứ không gói gọn trong một đoạn rõ ràng.

    Người dùng cũng cần tính liên tục. Nếu mỗi lần mở lại route đều phải dựng lại index tạm thời thì workflow sẽ nhanh chóng trở nên lặp đi lặp lại và mệt.

    Một công cụ local RAG trong trình duyệt hữu ích khi mục tiêu là giữ tài liệu riêng trên thiết bị nhưng vẫn hỏi được những câu cụ thể và kiểm tra lại bằng chứng truy xuất.

    Chia chunk cục bộ, lưu cục bộ, truy xuất cục bộ, trả lời cục bộ

    Công cụ này dựng một knowledge base cá nhân ngay trong trình duyệt. Nó parse file hỗ trợ, chia thành các chunk có thể truy xuất, tạo vector nhúng cục bộ và lưu index vào IndexedDB để cùng thiết bị đó có thể mở lại sau này.

    Khi bạn đặt câu hỏi, trình duyệt sẽ tạo vector cho truy vấn, xếp hạng các chunk cục bộ mạnh nhất và đưa các đoạn đó vào bước sinh câu trả lời cục bộ thay vì gọi một backend chat tài liệu hosted.

    Câu trả lời được ghép với source chunks đã dùng để truy xuất, để bạn còn xem lại đoạn nào thực sự được coi là phù hợp.

    Cách sử dụng Kho Tri Thức Cá Nhân Dùng AI (Local RAG)

    1. 1Nhập tài liệu - Thêm PDF, ghi chú Markdown hoặc file văn bản mà bạn muốn hỏi lại sau này trong workflow riêng tư.
    2. 2Dựng index cục bộ - Để route parse file, chia chunk, tạo vector nhúng và lưu knowledge base vào IndexedDB.
    3. 3Đặt câu hỏi cụ thể - Hãy viết câu hỏi đủ hẹp và rõ thay vì đưa ra một chủ đề quá chung chung.
    4. 4Xem câu trả lời và nguồn - Đọc câu trả lời cục bộ rồi kiểm tra các chunk đã truy xuất cùng tên file và số trang nếu có.
    5. 5Mở lại sau - Quay lại route trên cùng thiết bị để tiếp tục dùng knowledge base và lịch sử chat cục bộ.

    Tính năng chính

    • Miễn phí và dùng ngay
    • Không cần đăng nhập
    • Xử lý ngay trong trình duyệt
    • Kết quả tức thì
    • Giao diện đơn giản, dễ dùng

    Lợi ích

    • Tiết kiệm thời gian thao tác
    • Bảo vệ dữ liệu cá nhân
    • Dùng được trên mọi thiết bị
    • Không cần cài đặt

    Trường hợp sử dụng

    Nghiên cứu PDF riêng tư

    Hỏi báo cáo, hợp đồng, bản nháp hay tài liệu học tập mà không phải đưa chúng vào workspace AI hosted.

    Kho tham chiếu cá nhân

    Giữ các ghi chú và export hay dùng trong một knowledge base cục bộ để tra lại nhiều lần trên cùng thiết bị.

    Review biên bản và chính sách

    Nhập minutes, guideline nội bộ hay SOP rồi hỏi lại bằng các đoạn nguồn đã truy xuất.

    Hỗ trợ học tập

    Dùng truy xuất cục bộ để xem lại trích đoạn giáo trình, tóm tắt hay ghi chú lớp trong khi tài liệu vẫn ở trên thiết bị.

    Mẹo và lỗi thường gặp

    Mẹo

    • Nên hỏi hẹp và thiên về bằng chứng vì truy xuất thường hoạt động tốt hơn với câu hỏi cụ thể.
    • Hãy xem source chunks khi câu trả lời có vẻ quá gọn, quá tự tin hoặc chưa thật khớp với tài liệu.
    • Ưu tiên PDF có text layer rõ hoặc file văn bản sạch, vì chất lượng parse kém sẽ làm retrieval yếu đi từ đầu.
    • Hãy xóa hoặc dựng lại knowledge base khi bạn chuyển sang một bộ tài liệu hoàn toàn khác.

    Lỗi thường gặp

    • Coi model trả lời cục bộ như thể nó luôn bám đúng hoàn hảo vào mọi file bạn nhập.
    • Cho rằng knowledge base đã lưu sẽ tự đồng bộ sang thiết bị khác.
    • Nhập scan hoặc PDF OCR kém rồi kỳ vọng retrieval mạnh mà không kiểm tra chunk đầu ra.
    • Bỏ qua các đoạn đã truy xuất và chỉ đọc mỗi đoạn trả lời trên cùng.

    Ghi chú kiến thức

    • Một workflow RAG chạy trong trình duyệt vẫn phụ thuộc nặng vào chất lượng parse. Nếu text trích ra từ tài liệu bị nhiễu thì retrieval sẽ yếu trước cả khi model trả lời bắt đầu.
    • Việc chia chunk rất quan trọng vì hệ thống không suy luận trên toàn bộ PDF trong một lượt. Nó tìm trong index của các đoạn nhỏ rồi mới trả lời dựa trên các đoạn truy xuất được.
    • Lưu bền bằng IndexedDB giúp route hữu ích cho việc dùng lặp lại trên một thiết bị, nhưng không phải là đồng bộ đa thiết bị hay cloud storage dùng chung.
    • Cách dùng local RAG hiệu quả thường là hỏi câu cụ thể có thể neo vào từng đoạn tài liệu, chứ không phải đưa prompt chat quá rộng.

    Câu hỏi thường gặp

    Tài liệu có rời khỏi thiết bị không?

    Không. Parse, chia chunk, truy xuất và sinh câu trả lời đều diễn ra trong trình duyệt. Chỉ file model có thể cần tải riêng ở lần đầu.

    IndexedDB lưu những gì?

    Route lưu metadata tài liệu, text chunk, vector nhúng và lịch sử chat cục bộ để knowledge base có thể mở lại sau này trên cùng thiết bị.

    Tool chỉ dành cho PDF à?

    Không. Workflow hiện hỗ trợ PDF cùng với file văn bản thường và Markdown có thể parse trực tiếp trong trình duyệt.

    Nó có luôn trả lời đúng từ file không?

    Không. Như mọi workflow RAG khác, độ chính xác còn phụ thuộc chất lượng parse, chia chunk, retrieval và giới hạn của model trả lời cục bộ.

    Tool này có dành cho team dùng chung không?

    Không. Nó được định vị là trợ lý tri thức cá nhân chạy trong trình duyệt hơn là một nền tảng tài liệu nhiều người dùng.

    Khám phá thêm Công cụ AI Cục bộ

    Kho Tri Thức Cá Nhân Dùng AI (Local RAG) thuộc nhóm Công cụ AI Cục bộ. Khám phá thêm công cụ online miễn phí để xử lý nhanh và chính xác.

    Xem tất cả Công cụ AI Cục bộ