ตามสัญชาตญาณดั้งเดิม เรามักเชื่อว่าการเตรียมข้อมูลให้มีความสม่ำเสมอ (Uniform Distribution) จะช่วยให้ AI เรียนรู้ทักษะที่หายากได้ดีขึ้น แต่งานวิจัยชิ้นนี้กลับพบผลลัพธ์ที่ตรงกันข้าม โดยในการทดสอบด้านการคิดเชิงเหตุผลที่ซับซ้อน เช่น การติดตามสถานะและการคำนวณหลายขั้นตอน การเทรนด้วยข้อมูลที่กระจายตัวแบบ Power Law ให้ผลลัพธ์ที่ดีกว่าอย่างต่อเนื่อง
ผู้วิจัยระบุว่า ความไม่สมดุลของข้อมูลช่วยสร้างโครงสร้างที่เอื้อต่อการเรียนรู้ โดยโมเดลจะเรียนรู้ทักษะที่ปรากฏบ่อยก่อน ซึ่งทักษะเหล่านี้จะเป็นรากฐาน (Stepping Stone) ให้โมเดลเรียนรู้ทักษะที่ซับซ้อนและหายากได้ง่ายขึ้นโดยใช้ข้อมูลน้อยลงอย่างมีนัยสำคัญ