OpenAI publicó un addendum a la system card de GPT-5 que explica un cambio importante en cómo el modelo responde a situaciones de angustia emocional. La actualización del 3 de octubre mejora el comportamiento por defecto de ChatGPT para reconocer señales de sufrimiento y guiar a las personas hacia apoyo en el mundo real.
Qué anunció OpenAI
La nota aclara que, desde el lanzamiento de GPT-5, el equipo trabajó en mejores benchmarks y en reforzar la seguridad en conversaciones relacionadas con salud mental y angustia emocional. El 3 de octubre se desplegó una actualización que pretende que ChatGPT reconozca mejor signos de angustia, responda con mayor cuidado y oriente hacia recursos humanos y profesionales.
Trabajaron con más de 170 expertos en salud mental para afinar las respuestas. ¿Y los resultados? Según OpenAI, las respuestas que no alcanzaban el comportamiento deseado se redujeron entre 65 y 80 por ciento.
Cómo evaluaron el cambio
El addendum publica evaluaciones base que comparan la versión del 15 de agosto, conocida como GPT-5 Instant, con la versión actualizada lanzada el 3 de octubre. Las evaluaciones buscan medir cuán bien el modelo reconoce señales de riesgo, ofrece empatía y sugiere pasos concretos hacia ayuda humana.
Reducir respuestas que "fallan" en 65-80% suena contundente, pero ¿qué significa "fallar"? En este contexto incluye no reconocer urgencia, no ofrecer orientación hacia apoyo real o dar respuestas que minimicen el problema. El trabajo con expertos ayudó a definir esos criterios y a crear ejemplos de prueba.
Qué cambia para usuarios y desarrolladores
Para ti como usuario: es más probable que, ante indicios de angustia, ChatGPT responda con empatía y ofrezca opciones concretas, como solicitar ayuda profesional, contactar líneas de crisis locales o sugerir pasos inmediatos de seguridad. No es un sustituto de un profesional, pero sí un punto de apoyo más confiable en momentos difíciles.
Para desarrolladores y equipos que integran GPT-5: el addendum y la información de evaluación sirven como referencia para entender límites y capacidades del modelo por defecto. Si construyes aplicaciones que tratan temas sensibles, sigue siendo clave mantener supervisión humana, verificar recursos locales y hacer pruebas con usuarios reales.
Limitaciones y preguntas abiertas
No todo está resuelto. Los modelos pueden seguir fallando ante matices culturales, expresiones indirectas de angustia o entradas adversas diseñadas para confundirlos. La reducción del 65-80% no implica cero errores. Además, la efectividad varía según idioma, contexto y diseño de la interfaz.
OpenAI indica que continuará trabajando en benchmarks y evaluación externa. ¿Qué esperamos? Más transparencia sobre los criterios de evaluación, auditorías independientes y mejoras iterativas que incluyan diversidad cultural y lingüística.
Un ejemplo práctico (simple)
Imagina que alguien escribe que ya no quiere seguir. Con la actualización, el modelo tenderá a:
- reconocer la urgencia y expresar empatía;
- preguntar por seguridad inmediata de forma cuidadosa;
- ofrecer recursos concretos, como líneas de ayuda y recomendar contactar a profesionales o servicios de emergencia cuando aplique;
- evitar respuestas que minimicen la situación.
Esto no reemplaza a un profesional, pero reduce la probabilidad de respuestas dañinas o indiferentes.
Reflexión final
Ver a una gran plataforma invertir en colaboración con expertos y en evaluaciones publicadas es una señal positiva. La IA sigue siendo herramienta: puede mejorar la detección y la orientación en momentos críticos, pero necesita acompañamiento humano, responsabilidad de diseño e iteración constante.
Fuente original
https://openai.com/index/gpt-5-system-card-sensitive-conversations
