กลับไปยังเครื่องมือทั้งหมด
    เครื่องมือ AI แบบ Local

    คลังความรู้ส่วนตัวด้วย AI (Local RAG)

    รายงานปัญหา

    คุยกับ PDF และโน้ตของคุณในเบราว์เซอร์ด้วยการค้นคืนแบบ private, การเก็บใน IndexedDB และคำตอบ AI ที่รันบนอุปกรณ์

    Knowledge base

    นำเข้า PDF, Markdown หรือไฟล์ข้อความแบบโลคัลเพื่อสร้างดัชนีเอกสารส่วนตัวในเบราว์เซอร์

    เอกสาร: 0
    Chunk: 0

    นำเข้า PDF หรือไฟล์ข้อความ ให้เบราว์เซอร์แบ่ง chunk และสร้างดัชนีแบบโลคัลด้วย LangChain และ Transformers.js แล้วตั้งคำถามกับ knowledge base ที่เก็บใน IndexedDB โดยไม่ต้องอัปโหลดไฟล์ต้นทางไปยังแอปเซิร์ฟเวอร์

    เครื่องมือนี้ใช้ LangChain.js สำหรับแบ่งเอกสาร, Transformers.js สำหรับสร้าง embedding และคำตอบ, และใช้ IndexedDB สำหรับการเก็บแบบโลคัล PDF ขนาดใหญ่ยังขึ้นกับหน่วยความจำและกำลัง CPU หรือ GPU ของอุปกรณ์

    นำเข้าเอกสารแบบโลคัลเพื่อเริ่มสร้างคลังความรู้ส่วนตัวในเบราว์เซอร์0%

    ถาม knowledge base

    ถามคำถามเกี่ยวกับเอกสารที่นำเข้าแล้ว เบราว์เซอร์จะดึง chunk ที่เกี่ยวข้องที่สุดก่อนสร้างคำตอบแบบโลคัล

    0 คำ

    เอกสารที่ถูกสร้างดัชนี

    ดูไฟล์ที่กำลังอยู่ใน knowledge base แบบโลคัลตอนนี้

    ยังไม่มีเอกสารที่ถูกสร้างดัชนี

    คำตอบ

    ตรวจคำตอบจาก local RAG ก่อนคัดลอกหรือแชร์ออกไปที่อื่น

    สถิติการรัน

    ดูรายละเอียดสั้น ๆ ของ knowledge base แบบโลคัล โมเดลที่ใช้ และสถานะแชตปัจจุบัน

    ข้อความแชต

    0

    จำนวนคำในคำตอบ

    0

    โมเดล embedding

    โมเดลคำตอบ

    Backend ที่ใช้

    scoped service worker
    Service worker ใช้งานไม่ได้

    source chunk ที่ดึงมา

    นี่คือ chunk ที่ตรงที่สุดซึ่งถูกใช้เป็นบริบทการค้นคืนแบบ private สำหรับคำตอบล่าสุด

    หลังจากถามคำถามแล้ว source chunk จะแสดงที่นี่

    ประวัติแชตแบบโลคัล

    คำถามล่าสุดและคำตอบแบบโลคัลจะถูกเก็บไว้บนอุปกรณ์นี้เท่านั้น

    ยังไม่มีประวัติแชต ถาม knowledge base เพื่อเริ่มเธรดแบบโลคัล

    ประมวลผลในเบราว์เซอร์
    ผลลัพธ์ทันที
    ไม่จัดเก็บข้อมูล

    คลังความรู้ส่วนตัวด้วย AI (Local RAG) คืออะไร?

    หลายคนอยากได้ความสะดวกแบบถามตอบกับเอกสาร แต่ไม่อยากส่ง PDF ส่วนตัว โน้ตส่วนตัว ไฟล์ส่งออกภายใน หรือเอกสารการเรียนไปไว้ในระบบ AI ที่โฮสต์บนคลาวด์ สิ่งที่กังวลไม่ได้มีแค่คุณภาพของโมเดล แต่รวมถึงไฟล์ต้นทางอยู่ที่ไหน ดัชนีถูกเก็บข้ามรอบการใช้งานหรือไม่ และผู้ใช้ตรวจสอบได้หรือไม่ว่าข้อความส่วนใดคือหลักฐานของคำตอบ

    AI-Powered Personal Knowledge Base เก็บ workflow นี้ไว้ในเบราว์เซอร์ มันจะ parse เอกสารแบบโลคัล แบ่ง chunk ด้วย LangChain เก็บดัชนีลง IndexedDB ดึงช่วงข้อความที่ตรงที่สุดสำหรับแต่ละคำถาม และสร้างคำตอบบนอุปกรณ์ ทำให้ไม่ต้องอัปโหลดเอกสารต้นทางไปยังแอปเซิร์ฟเวอร์

    การคุยกับเอกสารแบบ hosted สะดวก แต่บางครั้งเปิดเผยมากเกินไปสำหรับข้อมูลส่วนตัว

    PDF สัญญา โน้ตส่วนตัว สรุปภายใน และชุดเอกสารวิจัย มักเป็นเอกสารที่ผู้ใช้อยากถามแบบสนทนามากที่สุด แต่ก็เป็นเอกสารที่ไม่อยากส่งเข้า workspace AI hosted เช่นกัน

    การค้นหาเองในไฟล์ยาว ๆ ช้า โดยเฉพาะเมื่อคำตอบกระจายอยู่หลายส่วน ไม่ได้อยู่ในย่อหน้าเดียวที่เห็นชัด

    ผู้ใช้ยังต้องการความต่อเนื่อง หากต้องสร้าง index ชั่วคราวใหม่ทุกครั้งที่เปิด route ซ้ำ workflow ที่ดีจะกลายเป็นงานซ้ำ ๆ

    เครื่องมือ local RAG ในเบราว์เซอร์จึงมีประโยชน์เมื่อเป้าหมายคือเก็บเอกสารส่วนตัวไว้บนอุปกรณ์ แต่ยังถามคำถามเฉพาะและตรวจหลักฐานที่ถูกดึงมาได้ง่ายขึ้น

    แบ่ง chunk แบบโลคัล เก็บแบบโลคัล ค้นคืนแบบโลคัล ตอบแบบโลคัล

    เครื่องมือนี้สร้าง knowledge base ส่วนตัวในเบราว์เซอร์โดยตรง มัน parse ไฟล์ที่รองรับ แบ่งเป็น chunk ที่ค้นคืนได้ สร้าง embedding แบบโลคัล และเก็บดัชนีลง IndexedDB เพื่อให้เปิดใช้งานซ้ำบนอุปกรณ์เดิมได้

    เมื่อคุณถามคำถาม เบราว์เซอร์จะสร้าง embedding ของคำถาม จัดอันดับ chunk แบบโลคัลที่เกี่ยวข้องที่สุด แล้วส่งช่วงข้อความที่ดึงมาเข้าสู่ขั้นตอนสร้างคำตอบแบบโลคัล แทนการใช้ backend เอกสารแบบ hosted

    คำตอบจะมาพร้อม source chunk ที่ถูกใช้ในการค้นคืน เพื่อให้คุณตรวจได้ว่าระบบอาศัยข้อความส่วนใดเป็นหลัก

    วิธีใช้งาน คลังความรู้ส่วนตัวด้วย AI (Local RAG)

    1. 1นำเข้าเอกสาร - เพิ่ม PDF, โน้ต Markdown หรือไฟล์ข้อความที่คุณต้องการถามซ้ำภายหลังใน workflow แบบ private
    2. 2สร้างดัชนีแบบโลคัล - ให้ route parse ไฟล์ แบ่ง chunk สร้าง embedding และบันทึก knowledge base ลง IndexedDB
    3. 3ถามให้เฉพาะเจาะจง - เขียนคำถามที่แคบและชัดเจน แทนการใส่ prompt ที่กว้างเกินไป
    4. 4ดูคำตอบและแหล่งอ้างอิง - อ่านคำตอบแบบโลคัลและตรวจ source chunk ที่ถูกดึงมา พร้อมชื่อไฟล์และเลขหน้าถ้ามี
    5. 5กลับมาใช้ภายหลัง - เปิด route นี้บนอุปกรณ์เดิมอีกครั้งเพื่อใช้ knowledge base ที่บันทึกไว้และเธรดแชตแบบโลคัลต่อ

    คุณสมบัติเด่น

    • ใช้งานฟรี
    • ไม่ต้องเข้าสู่ระบบ
    • ทำงานในเบราว์เซอร์
    • ผลลัพธ์ทันที
    • ใช้งานง่ายในเบราว์เซอร์

    ประโยชน์

    • ประหยัดเวลา
    • ปลอดภัยต่อข้อมูล
    • ใช้ได้ทุกอุปกรณ์
    • ไม่ต้องติดตั้ง

    กรณีการใช้งาน

    วิจัย PDF แบบ private

    ถามรายงาน สัญญา draft หรือเอกสารการเรียนโดยไม่ต้องส่งเข้า workspace AI hosted

    คลังอ้างอิงส่วนตัว

    เก็บโน้ตและ export ที่ใช้งานบ่อยไว้ใน knowledge base แบบโลคัลเพื่อค้นซ้ำบนอุปกรณ์เดิม

    ทบทวนบันทึกประชุมและนโยบาย

    นำเข้า minutes, guideline ภายใน หรือ SOP แล้วถามโดยดูช่วงข้อความต้นทางที่ถูกดึงมาด้วย

    ช่วยการเรียน

    ใช้การค้นคืนแบบโลคัลเพื่อกลับไปดูบทคัดย่อ สรุป หรือโน้ตเรียน โดยที่ไฟล์ยังอยู่บนอุปกรณ์

    เคล็ดลับและข้อผิดพลาดที่พบบ่อย

    เคล็ดลับ

    • ถามให้แคบและเน้นหลักฐาน เพราะ retrieval มักทำงานได้ดีกว่ากับคำถามที่เฉพาะเจาะจง
    • ควรดู source chunk ทุกครั้งเมื่อคำตอบดูสรุปมากเกินไปหรือมั่นใจเกินหลักฐาน
    • หากเป็นไปได้ให้ใช้ PDF ที่มี text layer ชัดหรือไฟล์ข้อความที่สะอาด เพราะการดึงข้อความที่แย่จะทำให้ retrieval อ่อนลงตั้งแต่ต้น
    • เมื่อเปลี่ยนไปใช้ชุดเอกสารคนละกลุ่มกันจริง ๆ ควรล้างหรือสร้าง knowledge base ใหม่

    ข้อผิดพลาดที่พบบ่อย

    • คิดว่าโมเดลตอบแบบโลคัลจะ grounded ได้สมบูรณ์กับทุกไฟล์เสมอ
    • เข้าใจว่า knowledge base ที่บันทึกไว้จะ sync ข้ามอุปกรณ์โดยอัตโนมัติ
    • นำเข้า scan หรือ PDF ที่ OCR แย่ แล้วคาดหวัง retrieval คุณภาพสูงโดยไม่ดูผลลัพธ์ chunk
    • อ่านแค่คำตอบบนสุดโดยไม่ตรวจช่วงข้อความที่ถูกค้นคืน

    บันทึกความรู้

    • workflow RAG ฝั่งเบราว์เซอร์ยังคงพึ่งคุณภาพการดึงข้อความอย่างมาก หากข้อความที่ parse ออกมามี noise คุณภาพ retrieval จะลดลงตั้งแต่ก่อนถึงขั้นสร้างคำตอบ
    • การแบ่ง chunk สำคัญ เพราะระบบไม่ได้ให้เหตุผลกับ PDF ทั้งฉบับในครั้งเดียว แต่ค้นจากดัชนีของช่วงย่อยแล้วค่อยตอบจากช่วงที่ถูกดึงมา
    • การเก็บด้วย IndexedDB ช่วยให้ route ใช้งานซ้ำบนอุปกรณ์เดียวกันได้ดีขึ้น แต่ไม่ใช่การ sync ข้ามอุปกรณ์หรือ cloud storage แบบแชร์ร่วมกัน
    • การใช้ local RAG ให้ดีมักมาจากคำถามที่เฉพาะและโยงไปยังช่วงข้อความได้ มากกว่าการถามกว้าง ๆ แบบสนทนาทั่วไป

    คำถามที่พบบ่อย

    เอกสารออกจากอุปกรณ์หรือไม่?

    ไม่ การ parse, แบ่ง chunk, retrieval และการสร้างคำตอบเกิดขึ้นในเบราว์เซอร์ มีเพียงไฟล์โมเดลที่อาจต้องดาวน์โหลดแยกในครั้งแรก

    IndexedDB เก็บอะไรบ้าง?

    route จะเก็บ metadata ของเอกสาร ข้อความ chunk embedding และประวัติแชตแบบโลคัล เพื่อให้เปิด knowledge base เดิมบนอุปกรณ์เดียวกันได้อีก

    รองรับแค่ PDF ใช่ไหม?

    ไม่ รองรับทั้ง PDF และไฟล์ข้อความธรรมดาหรือ Markdown ที่ประมวลผลได้โดยตรงในเบราว์เซอร์

    มันจะตอบถูกจากไฟล์เสมอไหม?

    ไม่ เช่นเดียวกับ workflow RAG อื่น ๆ ความแม่นยำขึ้นกับคุณภาพการดึงข้อความ การแบ่ง chunk คุณภาพ retrieval และข้อจำกัดของโมเดลตอบแบบโลคัล

    เหมาะกับงานที่แชร์กันทั้งทีมไหม?

    ไม่ มันถูกวางตำแหน่งเป็นผู้ช่วยความรู้ส่วนตัวในเบราว์เซอร์ มากกว่าจะเป็นแพลตฟอร์มเอกสารแบบ hosted หลายผู้ใช้

    สำรวจเพิ่มเติม เครื่องมือ AI แบบ Local

    คลังความรู้ส่วนตัวด้วย AI (Local RAG) อยู่ในหมวด เครื่องมือ AI แบบ Local ลองสำรวจเครื่องมือออนไลน์ฟรีอื่นๆ ได้เลย.

    ดูทั้งหมด เครื่องมือ AI แบบ Local