OpenAI protege a adolescentes en ChatGPT con nuevos controles

4 minutos
OPENAI
OpenAI protege a adolescentes en ChatGPT con nuevos controles

OpenAI publicó una explicación pública sobre cómo resolver tensiones entre seguridad, libertad y privacidad en las conversaciones con IA. El anuncio fue hecho el 16 de septiembre de 2025 y está firmado por Sam Altman. (openai.com)

Qué anunció OpenAI y por qué importa

OpenAI deja claro que está priorizando la seguridad de adolescentes por encima de la privacidad y la libertad en ciertos casos. La compañía argumenta que las conversaciones con IA pueden ser tan sensibles como las que se tendrían con un médico o un abogado y que, por eso, merecen protecciones especiales. (openai.com)

Además, OpenAI está construyendo un sistema de predicción de edad para distinguir a usuarios menores de 18 años y adaptar la experiencia en ChatGPT. Si el sistema no está seguro, la experiencia por defecto será la de menor de 18 años. En algunos países o situaciones específicas, podrían solicitar identificación para verificar la edad, lo que OpenAI reconoce como un compromiso de privacidad para adultos. (openai.com)

Cambios concretos que anunciaron

  • ChatGPT será tratado como una herramienta con reglas distintas según la edad. Para usuarios menores de 18 se aplicarán límites más estrictos: bloqueo de contenido sexual gráfico, restricciones en conversaciones de auto daño incluso en contextos creativos, y reglas más firmes sobre interacción con temas sensibles. (openai.com)

  • Habrá controles parentales diseñados para que familias enlacen cuentas, ajusten comportamientos del modelo para adolescentes, desactiven funciones como memoria o historial y programen horas de bloqueo. También incluirán notificaciones si el sistema detecta que un adolescente está en una crisis aguda. Estas funciones, según OpenAI, estarán disponibles a finales del mes en curso. (openai.com)

  • En casos de riesgo inminente (por ejemplo, intento serio de autolesión), OpenAI dice que intentará contactar a los padres y, si no es posible, podría involucrar a las autoridades. OpenAI también desarrollará sistemas de seguridad que limiten el acceso de empleados a conversaciones sensibles y usará monitoreo automatizado para detectar posibles usos peligrosos. (openai.com)

¿Qué significa esto para ti si eres padre, adolescente o desarrollador?

Si eres padre: vas a tener más herramientas para supervisar y limitar cómo tu hijo usa ChatGPT. ¿Te parece invasivo? Es comprensible: pedir ID o notificar a autoridades son medidas que alcancen límites de privacidad que antes no veíamos en un producto de consumo. OpenAI lo presenta como un balance entre protección y autonomía. (openai.com)

Si eres adolescente: tu experiencia con la IA puede sentirse más limitada. No podrás pedir ciertos tipos de contenido y el sistema podrá tratar tus solicitudes con más cautela. Esto ayuda en seguridad, pero puede frustrar a jóvenes que buscan privacidad o independencia. ¿Cómo resolver ese choque entre protección y confianza? Esa será la pregunta central en la adopción. (openai.com)

Si eres desarrollador o emprendedor que integra ChatGPT: tendrás que pensar en cómo gestionar identidades, consentimiento y flujos de verificación de edad en tus productos. Además, la precisión del sistema de predicción de edad y los falsos positivos serán factores clave para la experiencia del usuario. OpenAI reconoce que predecir la edad no es sencillo y que, por eso, el sistema tomará la ruta más segura cuando haya dudas. (openai.com)

Preguntas abiertas y riesgos a vigilar

  • Exactitud del sistema de predicción: ¿qué margen de error tendrá y cómo se gestionan falsos positivos que podrían limitar indebidamente a adultos? OpenAI admite la dificultad técnica y opta por el modo seguro cuando hay incertidumbre. (openai.com)

  • Privacidad vs. verificación: pedir ID protege a menores pero crea nuevos riesgos de manejo de datos sensibles. OpenAI propone mejoras técnicas y aboga por protecciones legales, pero la tensión sigue ahí. (openai.com)

  • Supervisión y rendición de cuentas: notificar a padres o a autoridades en emergencias parece responsable, pero necesita medidas claras para evitar abuso y garantizar transparencia. ¿Quién decide la escalada y con qué criterios? Esa implementación será crítica. (openai.com)

Dónde leer el anuncio original

Puedes leer la explicación principal de OpenAI en su blog sobre seguridad: Teen safety, freedom, and privacy. Para detalles sobre la predicción de edad y controles parentales mira el post complementario: Building towards age prediction. (openai.com)

En resumen, OpenAI puso sobre la mesa una elección clara: priorizar la protección de adolescentes incluso cuando eso implique recortes a la privacidad o a ciertas libertades. ¿Es la decisión correcta? Depende de a quién le preguntes, pero lo que sí es cierto es que estos cambios nos empujan a discutir en serio cómo queremos que la IA entre en la vida de los más jóvenes.

¡Mantente al día!

Recibe guías prácticas, hechos verificados y análisis de IA directo en tu correo, sin jerga técnica ni rodeos.

Tus datos están a salvo. Darse de baja es muy fácil en cualquier momento.