NVIDIA และ Google ได้ประกาศความร่วมมือในการปรับแต่งโมเดลภาษาขนาดเล็กตระกูล Gemma 4 รุ่นล่าสุด เพื่อให้สามารถทำงานได้อย่างเต็มประสิทธิภาพบนฮาร์ดแวร์ของ NVIDIA ความร่วมมือนี้ครอบคลุมการใช้งานบน NVIDIA RTX PC, เวิร์กสเตชัน, ซูเปอร์คอมพิวเตอร์ส่วนบุคคล DGX Spark ไปจนถึงโมดูล Jetson Orin Nano สำหรับงาน Edge AI
โมเดล Gemma 4 ถูกออกแบบมาให้ประมวลผลได้รวดเร็วและใช้ทรัพยากรอย่างคุ้มค่า โดยเฉพาะในรุ่น E2B และ E4B ที่เน้นความหน่วงต่ำสำหรับการใช้งานแบบออฟไลน์ ขณะที่รุ่น 26B และ 31B ถูกออกแบบมาเพื่อรองรับงานด้านการใช้เหตุผล (Reasoning) และการพัฒนา AI Agent ที่ซับซ้อนขึ้น โดย NVIDIA ได้ทำงานร่วมกับชุมชนโอเพนซอร์สอย่าง Ollama และ llama.cpp เพื่อให้มั่นใจว่านักพัฒนาจะสามารถนำโมเดลเหล่านี้ไปรันในเครื่องส่วนตัวได้ทันทีด้วยประสิทธิภาพสูงสุดจาก Tensor Cores ใน GPU