OpenAI publica políticas para proteger a adolescentes con IA | Keryc
Hoy, 24 de marzo de 2026, OpenAI publica un conjunto de políticas de seguridad basadas en prompts para ayudar a los desarrolladores a crear protecciones apropiadas para adolescentes. Están pensadas para usarse con el modelo de peso abierto gpt-oss-safeguard y buscan convertir objetivos de seguridad en reglas operativas que funcionen en sistemas reales.
Qué se publicó
OpenAI lanzó políticas de seguridad estructuradas como prompts listos para usar con modelos de razonamiento como gpt-oss-safeguard. ¿Qué significa eso en la práctica? Que los desarrolladores tienen plantillas claras para convertir definiciones de riesgo en clasificadores aplicables a contenido generado por usuarios.
La primera versión cubre áreas concretas y de alto riesgo para adolescentes, entre ellas:
Contenido violento gráfico
Contenido sexual gráfico
Ideales corporales dañinos y conductas peligrosas relacionadas con la imagen corporal
Actividades peligrosas y desafíos virales
Roleplay romántico o violento
Bienes y servicios restringidos por edad
Estos prompts pueden emplearse tanto para filtrado en tiempo real como para análisis offline de contenido. Son diseñados para integrarse fácilmente en flujos de trabajo existentes y adaptarse a casos de uso variados.
¿Por qué esto importa ahora?
Abrir modelos con pesos libres democratiza la innovación, pero también amplifica la responsabilidad. Si cualquiera puede ejecutar modelos potentes, ¿cómo garantizamos que los jóvenes no queden expuestos a riesgos específicos? Precisamente ahí entran estas políticas: ayudan a cerrar la brecha entre objetivos generales de seguridad y reglas operativas concretas.
Muchos equipos, incluso los con experiencia, se enfrentan al problema de traducir principios amplios en reglas precisas. Eso provoca protecciones incompletas, aplicación inconsistente o filtros excesivos que censuran contenido legítimo. Estas políticas buscan ofrecer un piso mínimo y reutilizable para todo el ecosistema.
Cómo usarlo en la práctica
Piensa en una app educativa que incorpora un chatbot, o en una plataforma social con salas para adolescentes. Con estas políticas puedes:
Implementar un clasificador que marque y bloquee contenido gráfico en tiempo real.
Realizar auditorías periódicas de contenido mediante análisis offline para detectar tendencias de riesgo.
Integrar respuestas diseñadas por producto: advertencias claras, derivación a recursos de ayuda, controles parentales.
No es solo pegar un prompt. Lo útil es combinar estas políticas con decisiones de diseño de producto: controles de usuario, transparencia amigable para adolescentes, sistemas de monitoreo y respuestas adaptadas por edad. También puedes traducirlas, extenderlas a otras áreas de riesgo y adaptarlas al contexto cultural de tu audiencia.
OpenAI trabajó con organizaciones externas como Common Sense Media y everyone.ai para mejorar el alcance y los casos límite de estas políticas, así que no es un ejercicio aislado: es colaboración entre expertos y la comunidad.
"One of the biggest gaps in AI safety for teens has been the lack of clear, operational policies that developers can build from..."
Robbie Torney, Head of AI & Digital Assessments, Common Sense Media
"Efforts like this that make youth safety policies more operational are valuable because they help translate expert knowledge into guidance that can be used in real systems."
Dr. Mathilde Cerioli, Chief Scientist at everyone.AI
Limitaciones y recomendaciones
Estas políticas son un punto de partida, no una garantía completa de seguridad. Cada producto tiene riesgos y audiencias distintas: lo que funciona para una app de aprendizaje puede no ser suficiente para una red social con salas abiertas.
Recomendaciones prácticas:
Ajusta y prueba las políticas con datos reales de tu producto.
Combínalas con controles de diseño, transparencia para adolescentes y opciones de reporte.
Mantén monitoreo continuo y métricas para detectar falsos positivos y negativos.
Participa en la comunidad: la release es open source a través de la ROOST Model Community y el repositorio RMC en GitHub para retroalimentación y contribuciones.
Un paso práctico en una dirección necesaria
No es magia ni una solución única para todos. Es, sin embargo, una herramienta concreta para que los desarrolladores no empiecen desde cero al proteger a usuarios jóvenes. Si trabajas en productos que alcanzan adolescentes, estas políticas te ofrecen un marco reutilizable y colaborativo para mejorar la seguridad día a día.