ปัญหาคลิปวิดีโอโป๊จาก AI หรือ Deepfake Porn กำลังสร้างความเสียหายในรูปแบบใหม่ที่เรียกว่า 'ความเสียหายต่อร่างกายเสมือน' (Embodied Harms) โดยนอกจากผู้ที่ถูกสลับใบหน้าจะเป็นเหยื่อแล้ว ผู้แสดงเจ้าของร่างกายที่ถูกนำไปใช้ในวิดีโอก็ได้รับผลกระทบทางจิตใจอย่างรุนแรงเช่นกัน ข้อมูลพบว่าร่างกายของผู้แสดงในอุตสาหกรรมผู้ใหญ่ถูกนำมาใช้เป็นฐานข้อมูลในการฝึกสอน AI (Training Data) เพื่อให้ AI สามารถสร้างภาพเคลื่อนไหวและท่าทางทางเพศที่สมจริงได้
กระแสการใช้แอปพลิเคชัน 'Nudify' และการตัดต่อหน้าดาราใส่ร่างกายนักแสดงอื่นเริ่มแพร่กระจายไปสู่วงกว้างมากขึ้น ซึ่งไม่เพียงแต่เป็นการละเมิดลิขสิทธิ์ในเชิงธุรกิจ แต่ยังสร้างความหวาดกลัวในเรื่องความปลอดภัยของข้อมูลส่วนตัวและสิทธิในร่างกายดิจิทัล โดยผู้เชี่ยวชาญชี้ว่ากฎหมายในปัจจุบันมักมุ่งเน้นไปที่การคุ้มครองใบหน้า (Face) จนลืมคุ้มครองสิทธิในร่างกาย (Body) ของผู้ที่เป็นเจ้าของต้นฉบับ ซึ่งมักเป็นกลุ่มนักแสดงอิสระที่ขาดการปกป้องทางกฎหมาย