นักวิจัยจากมหาวิทยาลัย Stanford พัฒนาสถาปัตยกรรมฮาร์ดแวร์ใหม่ที่ออกแบบมาเพื่อจัดการกับความเบาบาง (Sparsity) ของข้อมูลในโมเดล AI ขนาดใหญ่ โดยปกติแล้วพารามิเตอร์ในโมเดลอย่าง Llama มักมีค่าเป็นศูนย์จำนวนมาก ซึ่งฮาร์ดแวร์ทั่วไปอย่าง GPU และ CPU มักจะเสียเวลาและพลังงานไปกับการคำนวณค่าศูนย์เหล่านี้
ทีมวิจัยได้ออกแบบฮาร์ดแวร์ เฟิร์มแวร์ และซอฟต์แวร์ใหม่ทั้งหมดเพื่อข้ามการคำนวณค่าที่เป็นศูนย์และจัดเก็บเฉพาะพารามิเตอร์ที่จำเป็น ผลการทดสอบพบว่าชิปต้นแบบนี้ใช้พลังงานเพียง 1 ใน 70 ของ CPU ทั่วไป และทำงานได้เร็วกว่า 8 เท่า การค้นพบนี้ถือเป็นก้าวสำคัญในการแก้ปัญหาการใช้พลังงานมหาศาลและผลกระทบต่อสิ่งแวดล้อมจากโมเดล AI ที่มีขนาดใหญ่ขึ้นเรื่อยๆ