การใช้ AI ในสงครามกำลังก้าวข้ามบทบาทจากการวิเคราะห์ข้อมูลไปสู่การเป็นผู้เล่นหลักในการกำหนดเป้าหมายและควบคุมฝูงโดรน แม้ว่าหลักการปฏิบัติของกองทัพจะเน้นการมีมนุษย์คอยกำกับดูแล (Humans in the loop) แต่ความจริงที่น่ากังวลคือระบบ AI ในปัจจุบันเป็น 'Black Box' ที่ผู้สร้างเองก็ไม่สามารถอธิบายกระบวนการตัดสินใจภายในได้ทั้งหมด
ปัญหาหลักคือ 'ช่องว่างของเจตนา' (Intention gap) เมื่อมนุษย์สั่งการ AI ภายใต้ความกดดันสูง มนุษย์อาจเข้าใจเพียงแค่ความน่าจะเป็นของความสำเร็จที่ระบบรายงาน แต่ไม่อาจทราบได้ว่า AI คำนวณผลกระทบข้างเคียงอย่างไรเพื่อไปให้ถึงเป้าหมายนั้น บทความเสนอว่าเราต้องเปลี่ยนกระบวนทัศน์จากการเน้นสร้างระบบที่เก่งขึ้น ไปสู่การเน้นวิจัยด้าน 'Mechanistic Interpretability' หรือการทำให้กลไกภายในของ AI โปร่งใสและตรวจสอบได้ เพื่อป้องกันอาชญากรรมสงครามที่อาจเกิดจากการตีความคำสั่งที่คลาดเคลื่อนของเครื่องจักร