AI & MACHINE LEARNING

Docker Model Runner รองรับ NVIDIA DGX Station GB300 รันโมเดล AI ระดับล้านล้านพารามิเตอร์

Docker Blog31 Mar 2026
1 min read
Key Takeaways
  • Docker Model Runner
  • NVIDIA DGX Station GB300 ช่วยให้การรันโมเดล AI ขนาดใหญ่ระดับโลกทำได้ที่โต๊ะทำงานด้วยประสบการณ์ใช้งานแบบเดียวกับ Docker ทั่วไป

ทำไมเรื่องนี้ถึงสำคัญ

การเข้าถึงฮาร์ดแวร์ระดับ Data Center ในรูปแบบเครื่องตั้งโต๊ะช่วยให้นักพัฒนาสามารถทดลองและสร้างนวัตกรรม AI ได้รวดเร็วขึ้น ลดค่าใช้จ่ายด้าน Cloud และรักษาความเป็นส่วนตัวของข้อมูล

Docker ยกระดับการพัฒนา AI ท้องถิ่นด้วยการเพิ่มการรองรับ NVIDIA DGX Station GB300 ในเครื่องมือ Docker Model Runner ระบบใหม่นี้ขับเคลื่อนด้วยชิป NVIDIA GB300 Grace Blackwell Ultra ซึ่งมอบหน่วยความจำ GPU สูงถึง 252GB และแบนด์วิดท์มหาศาล 7.1 TB/s ทำให้เป็นแพลตฟอร์มที่ทรงพลังที่สุดสำหรับการรันโมเดลภาษาขนาดใหญ่ (LLM) ในรูปแบบตั้งโต๊ะ

การอัปเดตนี้ทำให้นักพัฒนาสามารถรันโมเดลระดับ 1 Trillion parameter หรือทำการ Fine-tune โมเดลขนาดใหญ่ได้โดยไม่ต้องใช้ระบบ Cloud นอกจากนี้ยังรองรับเทคโนโลยี Multi-Instance GPU (MIG) ของ NVIDIA ซึ่งเมื่อรวมกับ Docker Model Runner จะช่วยให้ทีมงานสามารถแบ่งทรัพยากร GPU ออกเป็นส่วนๆ เพื่อแชร์การใช้งานร่วมกันในทีมได้อย่างมีประสิทธิภาพ

สรุปประเด็นหลัก

รองรับหน่วยความจำ GPU 252GB และแบนด์วิดท์ 7.1 TB/s บนชิป Blackwell Ultra

สามารถรันโมเดลขนาดใหญ่ระดับ 1T parameter ได้แบบ Quantized

รองรับการแชร์ทรัพยากร GPU ให้กับทีมผ่านเทคโนโลยี MIG และ Docker containers

นวัตกรรมและเทคโนโลยี

infrastructure

DGX Station GB300 Support

ผสานรวมพลังของสถาปัตยกรรม Blackwell Ultra เข้ากับความสะดวกในการจัดการผ่าน Docker

platform

Multi-Instance GPU Serving

แบ่งพาร์ทิชัน GPU ออกเป็น 7 ชุด เพื่อให้บริการ AI API ภายในทีมพัฒนาได้พร้อมกัน

Developer Impact
วิศวกร AI และ ML สามารถรัน Pipeline ที่ซับซ้อนและหลายโมเดลพร้อมกันได้รวดเร็วขึ้นอย่างมาก โดยไม่ต้องเรียนรู้เครื่องมือใหม่นอกเหนือจากคำสั่ง Docker ที่คุ้นเคย
Keywords
#docker #nvidia #dgx station #blackwell ultra #llm
Original Source

อ่านข้อมูลเพิ่มเติมจากแหล่งข่าวหลัก

Docker Blog