โครงการ Pramana นำเสนอวิธีการใหม่ในการแก้ปัญหาความเปราะบางของโมเดลภาษาขนาดใหญ่ (LLM) ในด้านการใช้เหตุผลเชิงตรรกะ โดยการนำระบบ Navya-Nyaya ซึ่งเป็นตรรกะอินเดียโบราณที่มีอายุกว่า 2,500 ปีมาใช้เป็นโครงสร้างในการ Fine-tune ระบบนี้บังคับให้โมเดลประมวลผลผ่าน 6 ขั้นตอนที่เข้มงวด ตั้งแต่การวิเคราะห์ความสงสัย (SAMSHAYA) ไปจนถึงการตัดสินใจขั้นสุดท้าย (NIRNAYA)
ผลการทดสอบกับโมเดล Llama 3.2 และ DeepSeek-R1 พบว่าโมเดลสามารถบรรลุความถูกต้องด้านความหมาย (Semantic correctness) ได้ถึง 100% ในชุดการทดสอบการอนุมานหลายขั้นตอน แม้ว่าการทำตามรูปแบบคำสั่งจะยังไม่สมบูรณ์แบบ 100% ก็ตาม ข้อมูลนี้แสดงให้เห็นว่า LLM สามารถเรียนรู้และดูดซับวิธีการให้เหตุผลเชิงโครงสร้างได้จริงเมื่อได้รับการฝึกฝนที่เหมาะสม