AI & MACHINE LEARNING

Pramana: การ Fine-tuning โมเดลภาษาด้วยตรรกะ Navya-Nyaya เพื่อเพิ่มทักษะการใช้เหตุผล

arXiv08 Apr 2026
1 min read
Key Takeaways
  • การนำหลักตรรกะแบบเป็นขั้นตอนมาใช้ฝึกฝนโมเดล ช่วยให้ AI สามารถรักษาความถูกต้องของเนื้อหาได้ดีกว่าการใช้ Chain-of-thought ทั่วไป

ทำไมเรื่องนี้ถึงสำคัญ

แนวทางนี้ช่วยปิดช่องว่างระหว่างการทำนายคำที่สละสลวยกับการใช้เหตุผลที่ถูกต้องตามหลักฐาน ซึ่งเป็นปัญหาหลักของ AI ในปัจจุบันที่มักจะตอบผิดอย่างมั่นใจเมื่อเจอข้อมูลลวง

โครงการ Pramana นำเสนอวิธีการใหม่ในการแก้ปัญหาความเปราะบางของโมเดลภาษาขนาดใหญ่ (LLM) ในด้านการใช้เหตุผลเชิงตรรกะ โดยการนำระบบ Navya-Nyaya ซึ่งเป็นตรรกะอินเดียโบราณที่มีอายุกว่า 2,500 ปีมาใช้เป็นโครงสร้างในการ Fine-tune ระบบนี้บังคับให้โมเดลประมวลผลผ่าน 6 ขั้นตอนที่เข้มงวด ตั้งแต่การวิเคราะห์ความสงสัย (SAMSHAYA) ไปจนถึงการตัดสินใจขั้นสุดท้าย (NIRNAYA)

ผลการทดสอบกับโมเดล Llama 3.2 และ DeepSeek-R1 พบว่าโมเดลสามารถบรรลุความถูกต้องด้านความหมาย (Semantic correctness) ได้ถึง 100% ในชุดการทดสอบการอนุมานหลายขั้นตอน แม้ว่าการทำตามรูปแบบคำสั่งจะยังไม่สมบูรณ์แบบ 100% ก็ตาม ข้อมูลนี้แสดงให้เห็นว่า LLM สามารถเรียนรู้และดูดซับวิธีการให้เหตุผลเชิงโครงสร้างได้จริงเมื่อได้รับการฝึกฝนที่เหมาะสม

สรุปประเด็นหลัก

ใช้ตรรกะ Navya-Nyaya 6 ขั้นตอนเพื่อสร้าง Scaffolding ทางความคิดให้กับ AI

บรรลุความถูกต้องด้านเนื้อหา 100% ในโจทย์ตรรกะที่ซับซ้อนหลังการ Fine-tune

เปิดตัวโมเดลและชุดข้อมูลบน Hugging Face เพื่อการวิจัยต่อยอด

นวัตกรรมและเทคโนโลยี

models

Navya-Nyaya Epistemic Scaffolding

ระบบการให้เหตุผล 6 ระยะที่ช่วยให้โมเดลตรวจสอบหลักฐานและตรวจจับข้อบกพร่องทางตรรกะได้ดีขึ้น

Developer Impact
วิศวกร ML สามารถนำชุดข้อมูลและวิธีการฝึกฝนแบบมีโครงสร้างนี้ไปใช้กับโมเดลเฉพาะทางที่ต้องการความแม่นยำสูง เช่น ระบบให้คำปรึกษาทางกฎหมายหรือวิทยาศาสตร์
Keywords
#large language models #fine-tuning #epistemic reasoning #navya-nyaya #llama
Original Source

อ่านข้อมูลเพิ่มเติมจากแหล่งข่าวหลัก

arXiv