หุ่นยนต์นำทางในอาคารมักประสบปัญหาเมื่อกล้อง Time-of-Flight (ToF) สูญเสียข้อมูลพิกเซลความลึกถึง 78% เมื่อเผชิญกับพื้นผิวสะท้อนแสงในพื้นที่เช่นทางเดิน ในขณะที่ระบบ LiDAR 2D เพียงอย่างเดียวไม่สามารถตรวจจับสิ่งกีดขวางที่อยู่นอกระนาบสแกนได้ งานวิจัยนี้จึงนำเสนอระบบ 'Bootstrap Perception' ที่ใช้คุณสมบัติการอ้างอิงตนเอง (Self-referential) ในการแก้ไขความล้มเหลวนี้
ระบบจะใช้ข้อมูลพิกเซลที่ยังใช้งานได้จากเซนเซอร์ฮาร์ดแวร์มาช่วยปรับเทียบความลึกจากภาพ (Monocular Depth) ให้เข้ากับมาตราส่วนเชิงปริมาณ (Metric Scale) ทำให้ระบบสามารถเติมเต็มช่องว่างของข้อมูลที่ขาดหายไปได้โดยไม่ต้องใช้ข้อมูลภายนอก ผลการทดสอบในสภาพแวดล้อมจริงที่มีการเคลื่อนไหวพบว่าระบบสามารถเพิ่มความครอบคลุมของสิ่งกีดขวางใน Costmap ได้ถึง 55-110% เมื่อเทียบกับ LiDAR เพียงอย่างเดียว และสามารถทำงานได้บนบอร์ด Jetson Orin Nano ด้วยความเร็ว 218 FPS