งานวิจัยนี้เปิดเผยกลไกเบื้องหลังที่ทำให้ Large Language Models (LLMs) มีพฤติกรรมที่คาดเดาไม่ได้ โดยชี้ให้เห็นว่าปัญหาไม่ได้เกิดจากอัลกอริทึมเพียงอย่างเดียว แต่เกิดจากข้อจำกัดของความละเอียดทางตัวเลข (floating-point precision) นักวิจัยพบ 'ปรากฏการณ์หิมะถล่ม' (Avalanche Effect) ในชั้นการคำนวณช่วงแรกๆ ของโมเดล ซึ่งความคลาดเคลื่อนเพียงเล็กน้อยจากการปัดเศษสามารถขยายตัวจนเปลี่ยนผลลัพธ์สุดท้ายได้อย่างสิ้นเชิง
จากการศึกษาพบว่าพฤติกรรมของ LLM สามารถแบ่งออกเป็น 3 รูปแบบตามระดับความเสถียร ได้แก่ ช่วงเสถียร (Stable) ที่ผลลัพธ์คงที่ ช่วงโกลาหล (Chaotic) ที่ความคลาดเคลื่อนทางตัวเลขเป็นตัวกำหนดผลลัพธ์ และช่วงสัญญาณชัดเจน (Signal-dominated) ที่ข้อมูลนำเข้ามีความสำคัญมากกว่าเสียงรบกวนทางตัวเลข การค้นพบนี้ช่วยอธิบายว่าทำไมโมเดลขนาดใหญ่ถึงมีความอ่อนไหวต่อการเปลี่ยนแปลงเล็กน้อยในข้อมูลนำเข้า