OpenAI comparte cómo planea que ChatGPT reconozca si la persona que chatea es mayor o menor de 18 años para adaptar su experiencia. ¿Por qué importa esto hoy y no dentro de años? Porque las decisiones sobre seguridad y contenido afectan a adolescentes ahora mismo, en sus estudios y en sus vidas cotidianas. (openai.com)
Predicción de edad
La idea central es construir un sistema a largo plazo que intente determinar si alguien es mayor o menor de 18 años, y así ajustar automáticamente cómo responde ChatGPT. Esto busca que la interacción con un adolescente sea distinta a la de un adulto. (openai.com)
Esto no es una etiqueta perfecta. OpenAI reconoce que incluso los sistemas muy avanzados fallarán a veces. Cuando el sistema no tenga confianza suficiente o la información esté incompleta, tomará la opción más segura: aplicar la experiencia para menores de 18
. ¿Te suena prudente? A mí también. (openai.com)
Si se identifica a una persona como menor de 18, ChatGPT aplicará políticas de contenido apropiadas para su edad. (openai.com)
Qué cubre esa experiencia para menores
Entre las medidas explícitas que OpenAI menciona están el bloqueo de contenido sexual gráfico y la posibilidad, en casos raros de angustia aguda, de involucrar a las autoridades para garantizar seguridad. Es una línea fina entre protección y privacidad, y la compañía dice que prioriza la seguridad juvenil cuando sus principios chocan. (openai.com)
Además, OpenAI señala que los adultos tendrán vías para demostrar su edad y recuperar capacidades para adultos si así lo desean. Es decir, no es un cierre definitivo: habrá mecanismos de verificación para quienes necesiten funciones sin restricciones. (openai.com)
Controles parentales
Mientras el sistema de predicción madura, OpenAI propone controles parentales como la forma más fiable para que las familias gestionen cómo se usa ChatGPT en casa. Estos controles incluirán vincular la cuenta de un padre o madre con la del adolescente (edad mínima 13), y ajustes sobre cómo responde el modelo al menor. (openai.com)
Las funciones planeadas son concretas y prácticas:
- Invitar y vincular cuentas por correo electrónico.
- Configurar reglas de comportamiento específicas para adolescentes.
- Desactivar funciones como
memoria
o el historial de chat. - Recibir notificaciones si el sistema detecta un episodio de angustia aguda; si no se puede contactar a la familia, en casos raros se podría involucrar a las autoridades.
- Establecer horas en las que el adolescente no puede usar ChatGPT.
Todo esto se anunció con la intención de lanzarlo antes de que termine el mes. (openai.com)
Un ejemplo práctico
Imagina a una mamá que quiere que su hijo estudie con ChatGPT pero sin acceso a cierto tipo de contenido. Con estos controles puede limitar funciones, recibir avisos y programar horas sin acceso para que el chico duerma mejor. ¿No es eso lo que buscan muchas familias hoy? Este tipo de ejemplos ayudan a entender por qué OpenAI prioriza herramientas familiares mientras afina la predicción automática. (openai.com)
Dudas y riesgos que conviene recordar
Predecir edad desde el lenguaje o el comportamiento no es perfecto. Existe el riesgo de falsos positivos y negativos, y las decisiones automatizadas pueden afectar la privacidad y la autonomía de jóvenes y adultos. Por eso OpenAI subraya que seguirá consultando a expertos, defensores y responsables de políticas mientras avanza. (openai.com)
También es importante preguntarse: ¿quién define lo que es "seguro" o "apropiado" para cada edad? Esa definición requiere transparencia y participación de la comunidad. OpenAI dice estar escuchando a organizaciones y expertos mientras implementa estos cambios. (openai.com)
Qué sigue
OpenAI publicó este anuncio el 16 de septiembre de 2025 y promete seguir compartiendo avances en el proceso. Mientras tanto, las familias pueden esperar controles parentales y la compañía seguirá afinando su enfoque en seguridad juvenil, privacidad y acceso responsable. (openai.com)
Piensa en esto como una primera etapa: se construye protección, pero también es momento para preguntar, opinar y participar. ¿Quieres que la tecnología intervenga cuando detecte una crisis o prefieres más control humano y menos automatización? Son decisiones que nos tocan a todos.