ChatGPT lanza Lockdown Mode y etiquetas de riesgo elevado | Keryc
OpenAI anuncia Lockdown Mode y la estandarización de etiquetas 'Elevated Risk' en ChatGPT y productos relacionados. ¿Por qué importa? Porque a medida que las IA se conectan más a la web y a tus apps, aparecen riesgos nuevos —el más serio hoy es la inyección de prompts— y estas herramientas buscan darte más control y visibilidad.
Qué es Lockdown Mode
Lockdown Mode es una configuración opcional y avanzada diseñada para un pequeño grupo de usuarios de alto riesgo: ejecutivos, equipos de seguridad o organizaciones con datos muy sensibles. No es necesaria para la mayoría, pero sí ofrece protecciones más estrictas para quienes la necesitan.
En la práctica, Lockdown Mode limita de forma determinista cómo ChatGPT interactúa con sistemas externos. Eso significa que ciertas herramientas y capacidades se desactivan cuando podrían permitir que un atacante, mediante técnicas como la inyección de prompts, expulse datos sensibles fuera del entorno seguro.
Por ejemplo, la navegación web bajo Lockdown Mode usa solo contenido en caché. No se hacen solicitudes de red en vivo fuera de la red controlada de OpenAI. Esa restricción reduce el riesgo de que información confidencial sea enviada a un atacante a través de la navegación.
Controles para empresas y administradores
Lockdown Mode se ofrece sobre las protecciones empresariales ya existentes y está disponible en planes como ChatGPT Enterprise, ChatGPT Edu, ChatGPT for Healthcare y ChatGPT for Teachers. Los administradores pueden habilitarlo desde Workspace Settings creando un nuevo rol.
Además, los administradores mantienen control granular sobre apps: pueden decidir qué aplicaciones y qué acciones dentro de esas apps quedan permitidas aún en Lockdown Mode. Para auditoría y supervisión, la plataforma de registros de cumplimiento (Compliance API Logs Platform) entrega visibilidad detallada del uso de apps, datos compartidos y fuentes conectadas.
OpenAI dice que planea llevar Lockdown Mode a consumidores en los próximos meses, pero por ahora está pensado para entornos con requisitos de seguridad estrictos.
Qué son las etiquetas 'Elevated Risk'
Para aclarar cuándo una capacidad introduce riesgos adicionales, OpenAI estandariza una etiqueta llamada 'Elevated Risk' en ChatGPT, ChatGPT Atlas y Codex. La idea es simple: cuando veas esa etiqueta, la función puede aumentar la superficie de riesgo y merece una evaluación consciente.
Un ejemplo concreto: en Codex, puedes dar acceso de red para que el asistente busque documentación en la web. Esa pantalla de configuración ahora mostrará la etiqueta 'Elevated Risk' junto con una explicación de qué cambia, qué riesgos se introducen y cuándo tiene sentido habilitarlo.
OpenAI también señala que removerá la etiqueta cuando las mejoras de seguridad sean suficientes para que la función sea segura para uso general.
¿Por qué ahora y qué es la inyección de prompts?
La inyección de prompts ocurre cuando un tercero manipula las instrucciones que recibe la IA para lograr que revele información o ejecute acciones no deseadas. Imagina que alguien inserta código malicioso dentro de un documento que la IA procesa y la engaña para que comparta secretos. Suena a ciencia ficción, pero ya pasa en contextos reales.
Con más integraciones a la web y apps, las capacidades útiles también abren vectores de ataque nuevos. Por eso OpenAI combina varias defensas: sandboxing, protecciones contra exfiltración por URLs, monitoreo y controles empresariales como roles y logs. Lockdown Mode y las etiquetas son una capa adicional sobre ese trabajo.
Recomendaciones prácticas
Si eres usuario estándar: probablemente no necesitas Lockdown Mode. Mantén buenas prácticas: no compartas secretos sensibles en conversaciones y revisa permisos de apps.
Si eres administrador de un workspace con datos sensibles: considera evaluar Lockdown Mode, crear roles específicos y usar la Compliance API Logs Platform para auditoría.
Para desarrolladores que usan Codex u otras integraciones: revisa qué acciones pides que la IA haga en la red. Si ves 'Elevated Risk', decide si el beneficio compensa el riesgo.
Reflexión breve
Esto no es solo tecnología nueva: es una respuesta práctica a amenazas reales. La buena noticia es que ahora tienes opciones más claras para decidir cuánto riesgo aceptas y cómo lo gestionas. ¿Qué tanto quieres que tu asistente esté conectado al mundo exterior? Esa es una decisión técnica y de confianza, y ahora es más fácil tomarla informado.