งานวิจัยใหม่นำเสนอเฟรมเวิร์กการตรวจจับวัตถุเคลื่อนที่โดยใช้ข้อมูลจาก LiDAR เพียงอย่างเดียว ซึ่งสามารถแก้ไขปัญหาการตรวจจับพลาดในสภาพแวดล้อมที่ซับซ้อนและมีวัตถุหนาแน่นได้ดีกว่าวิธีเดิม
ROBOTICS & HUMANOID
ยกระดับการตรวจจับวัตถุเคลื่อนที่ในพื้นที่แออัดด้วยระบบ LiDAR-only
สรุปประเด็นหลัก
ใช้การผสานรวมระหว่าง motion segmentation แบบ occupancy-grid และ bird's-eye-view (BEV) dynamic prior
ลดปัญหาการเกิด false negatives เมื่อวัตถุเคลื่อนที่อยู่ใกล้กับโครงสร้างที่หยุดนิ่ง
ผลการทดสอบพบว่ามีค่า recall สูงขึ้นถึง 28.67% และ F1 score ดีขึ้น 18.50% เมื่อเทียบกับเทคโนโลยีปัจจุบัน
นวัตกรรมและเทคโนโลยี
research
Spatiotemporal Fusion Module
โมดูลที่ทำหน้าที่รวมข้อมูลการเคลื่อนไหวเชิงเวลาเข้ากับโมเดลการตรวจจับ 3D เพื่อช่วยกู้คืนข้อมูลวัตถุที่อาจถูกกรองทิ้งไปในระบบทั่วไป
models
BEV Dynamic Prior
การใช้โครงสร้างการเรียนรู้แบบ Bird's-eye-view เพื่อคาดการณ์ความน่าจะเป็นของวัตถุที่มีการเคลื่อนไหวในพื้นที่ที่ทัศนวิสัยจำกัด
Developer Impact
ช่วยให้วิศวกรหุ่นยนต์สามารถพัฒนาระบบนำทางอัตโนมัติที่มีความเสถียรมากขึ้นในสภาพแวดล้อมปิด (Indoor) โดยไม่จำเป็นต้องพึ่งพากล้องที่มีข้อจำกัดด้านมุมมอง หรือระบบ Sensor Fusion ที่ซับซ้อนและใช้ทรัพยากรสูง
Keywords
Original Source
arXiv