OpenAI ประกาศปล่อยนโยบายความปลอดภัยสำหรับเยาวชน (Teen Safety Policies) ที่ออกแบบมาในรูปแบบของ Prompt โดยเฉพาะ เพื่อช่วยให้นักพัฒนาสามารถนำไปประยุกต์ใช้กับโมเดลความปลอดภัยแบบ Open-weight อย่าง gpt-oss-safeguard ได้อย่างมีประสิทธิภาพ เครื่องมือนี้ถูกพัฒนาขึ้นเพื่อช่วยให้นักพัฒนาสามารถเปลี่ยนข้อกำหนดทางนโยบายที่ซับซ้อนให้กลายเป็นระบบคัดกรองเนื้อหา (Classifiers) ที่ใช้งานได้จริงในโลกของการพัฒนาซอฟต์แวร์
นโยบายเหล่านี้ครอบคลุมความเสี่ยงสำคัญหลายด้าน เช่น เนื้อหาที่มีความรุนแรง เนื้อหาทางเพศ ค่านิยมด้านร่างกายที่ผิดเพี้ยน กิจกรรมที่อันตราย และสินค้าที่จำกัดอายุผู้ซื้อ โดยเป็นการพัฒนาร่วมกับองค์กรผู้เชี่ยวชาญภายนอกอย่าง Common Sense Media และ everyone.AI ทั้งนี้ OpenAI ได้เปิดนโยบายเหล่านี้ให้เป็นโอเพนซอร์สผ่านชุมชน ROOST Model เพื่อกระตุ้นให้เกิดความร่วมมือและมาตรฐานความปลอดภัยระดับสูงทั่วทั้งระบบนิเวศของนักพัฒนา