ทีมนักวิจัยได้ศึกษาบทบาทของ Controller Gains (ความแข็งและความหน่วงของตัวควบคุม) ที่มีต่อการเรียนรู้ของหุ่นยนต์ ซึ่งเป็นส่วนประกอบสำคัญในการประมวลผลนโยบายการควบคุม (Manipulation Policies) โดยพบว่าแนวคิดเดิมที่เน้นการเลือกค่า Gain ตามลักษณะงาน (Task Compliance) อาจไม่เพียงพอ เมื่อตัวควบคุมต้องทำงานร่วมกับนโยบายการเรียนรู้ที่ปรับตามสถานะ
จากการทดลองอย่างกว้างขวางผ่านหลายภารกิจและหุ่นยนต์หลายประเภท ผลการวิจัยระบุว่าการเลือก Gain ที่เหมาะสมจะแตกต่างกันไปตามวิธีการเรียนรู้ที่ใช้ เช่น วิธี Behavior Cloning จะทำงานได้ดีที่สุดในสภาวะที่ตัวควบคุมมีความยืดหยุ่นสูง (Compliant) และมีความหน่วงสูง (Overdamped) ในขณะที่การโอนย้ายความรู้จากสถานการณ์จำลองสู่โลกจริง (Sim-to-Real Transfer) จะได้รับผลกระทบเชิงลบหากใช้ค่า Gain ที่แข็งและหน่วงเกินไป ผลการศึกษานี้ช่วยให้นักพัฒนาระบบหุ่นยนต์สามารถปรับจูนพารามิเตอร์เพื่อเพิ่มประสิทธิภาพในการฝึกฝนโมเดลได้แม่นยำยิ่งขึ้น