AI & MACHINE LEARNING

นักวิจัย Stanford พัฒนาชิป Sparse AI รุ่นแรก ช่วยลดการใช้พลังงานลง 70 เท่า

IEEE Spectrum28 Apr 2026
1 min read
Key Takeaways
  • การใช้ประโยชน์จาก 'ค่าศูนย์' ในโมเดล AI ผ่านฮาร์ดแวร์เฉพาะทางสามารถพลิกโฉมประสิทธิภาพการใช้พลังงานและความเร็วในการประมวลผลได้

ทำไมเรื่องนี้ถึงสำคัญ

ในขณะที่โมเดล AI มีขนาดใหญ่ขึ้นจนกระทบต่อขีดจำกัดด้านพลังงานและค่าใช้จ่าย เทคโนโลยี Sparse Computing เสนอทางเลือกในการคงประสิทธิภาพระดับสูงไว้ได้โดยไม่ต้องพึ่งพาทรัพยากรจำนวนมหาศาล ซึ่งสำคัญมากต่อความยั่งยืนของอุตสาหกรรม AI

นักวิจัยจากมหาวิทยาลัย Stanford พัฒนาสถาปัตยกรรมฮาร์ดแวร์ใหม่ที่ออกแบบมาเพื่อจัดการกับความเบาบาง (Sparsity) ของข้อมูลในโมเดล AI ขนาดใหญ่ โดยปกติแล้วพารามิเตอร์ในโมเดลอย่าง Llama มักมีค่าเป็นศูนย์จำนวนมาก ซึ่งฮาร์ดแวร์ทั่วไปอย่าง GPU และ CPU มักจะเสียเวลาและพลังงานไปกับการคำนวณค่าศูนย์เหล่านี้

ทีมวิจัยได้ออกแบบฮาร์ดแวร์ เฟิร์มแวร์ และซอฟต์แวร์ใหม่ทั้งหมดเพื่อข้ามการคำนวณค่าที่เป็นศูนย์และจัดเก็บเฉพาะพารามิเตอร์ที่จำเป็น ผลการทดสอบพบว่าชิปต้นแบบนี้ใช้พลังงานเพียง 1 ใน 70 ของ CPU ทั่วไป และทำงานได้เร็วกว่า 8 เท่า การค้นพบนี้ถือเป็นก้าวสำคัญในการแก้ปัญหาการใช้พลังงานมหาศาลและผลกระทบต่อสิ่งแวดล้อมจากโมเดล AI ที่มีขนาดใหญ่ขึ้นเรื่อยๆ

สรุปประเด็นหลัก

ชิปใหม่ลดการใช้พลังงานเหลือเพียง 1/70 เมื่อเทียบกับ CPU ในการประมวลผล AI

ใช้หลักการข้ามการคำนวณพารามิเตอร์ที่มีค่าเป็นศูนย์ (Sparsity) เพื่อประหยัดทรัพยากร

รองรับทั้งข้อมูลแบบ Sparse ที่เกิดขึ้นเองตามธรรมชาติและที่ถูกสร้างขึ้นในโมเดล LLM

นวัตกรรมและเทคโนโลยี

infrastructure

Sparse Computing Hardware

สถาปัตยกรรมชิปที่ปรับแต่งมาเพื่อประมวลผลข้อมูลที่มีความเบาบางสูงโดยเฉพาะ ช่วยลดการเข้าถึงหน่วยความจำและการคำนวณที่ไม่จำเป็น

Developer Impact
ส่งผลดีต่อทีมวิศวกรฝั่ง Machine Learning และฮาร์ดแวร์ที่ต้องการเพิ่มประสิทธิภาพการทำ Inference ในระดับ Edge หรือในดาต้าเซ็นเตอร์ที่เน้นการประหยัดพลังงาน
Keywords
#sparse ai #ai hardware #energy efficient ai #stanford research #semiconductor
Original Source

อ่านข้อมูลเพิ่มเติมจากแหล่งข่าวหลัก

IEEE Spectrum