OpenAI lanza bug bounty para `GPT-5` en riesgos biológicos

3 minutos
OPENAI
OpenAI lanza bug bounty para `GPT-5` en riesgos biológicos

OpenAI abrió un programa de recompensa para encontrar jailbreaks universales que puedan sortear las protecciones de GPT-5 en preguntas sobre bio y química. ¿Por qué invitar a la comunidad a romper lo que ellos mismos construyen? Porque la seguridad real mejora cuando más ojos intentan romper el sistema de forma controlada. (openai.com)

Qué anunció OpenAI

La iniciativa se llama Bio Bug Bounty y está diseñada específicamente para GPT-5. El objetivo no es probar exploits aislados, sino encontrar un universal jailbreak: un único prompt o método que permita responder correctamente las diez preguntas de seguridad bio/químicas sin activar la moderación desde un chat limpio. OpenAI ha desplegado GPT-5 y busca fortalecer sus barreras con pruebas externas. (openai.com)

Recompensas principales:

  • 25 000 USD al primer hallazgo que demuestre un verdadero universal jailbreak que pase las diez preguntas.
  • 10 000 USD al primer equipo que responda las diez preguntas usando múltiples jailbreaks.
  • Premios menores pueden otorgarse por éxitos parciales a discreción de OpenAI. (openai.com)

Cómo funciona el programa

El proceso es por aplicación y con aceptaciones continuas. Las fechas clave publicadas son:

  1. Las aplicaciones abrieron el 25 de agosto de 2025.
  2. El periodo de postulación cierra el 15 de septiembre de 2025.
  3. Las pruebas comienzan el 16 de septiembre de 2025.

El acceso es por invitación y revisión: OpenAI extenderá invitaciones a un listado de red-teamers de bio confiables y revisará nuevas aplicaciones. Todo lo relacionado con prompts, respuestas y comunicaciones estará cubierto por un acuerdo de confidencialidad. Además, los postulantes deben tener cuentas de ChatGPT para aplicar. (openai.com)

¿Por qué esto importa para todos?

Porque no es solo un concurso para investigadores. Es una medida práctica de reducción de riesgo: si alguien consigue un método que vence las defensas, OpenAI puede aprender, parchear y mejorar las barreras antes de que se use de forma malintencionada. Piensa en ello como un equivalente al bug bounty de seguridad informática, pero aplicado a comportamientos peligrosos en modelos de lenguaje.

También plantea preguntas legítimas. ¿Qué tan abierto debe ser el proceso? ¿Qué se publica y qué se mantiene bajo NDA? OpenAI eligió un balance conservador: pruebas controladas con divulgación limitada para evitar que instrucciones peligrosas se difundan. Esto ayuda a reducir daño potencial, pero obliga a confiar en terceros seleccionados para auditar los fallos.

Si eres investigador, ¿qué piden al aplicar?

OpenAI solicita una aplicación breve con nombre, afiliación, historial relevante y un plan de 150 palabras. El proceso es selectivo: se priorizará a equipos con experiencia en red teaming, seguridad o riesgos químicos y biológicos. Si te interesa, hay un formulario de aplicación público al que debes acceder antes del cierre. (openai.com)

Punto importante: el programa es específico para GPT-5 y está pensado para identificar universal jailbreaks que representen un riesgo sistémico. Las reglas y el NDA buscan equilibrar la investigación con la seguridad.

Riesgos y límites que debes tener en cuenta

  • Este no es un llamado a compartir técnicas peligrosas en público. Todo lo descubierto entra en un marco de divulgación responsable.
  • Los resultados no necesariamente serán públicos. OpenAI puede retener detalles por razones de seguridad.
  • El alcance es limitado a GPT-5. Hallazgos podrían o no aplicar a otros modelos o despliegues.

Si has participado en bug bounties de software, la dinámica te resultará familiar: incentivos, reglas claras y acceso controlado. Si no, la invitación es una señal de que la industria aprende que los modelos avanzados necesitan pruebas agresivas y externas para ser más seguros.

Reflexión breve

Este anuncio muestra que las empresas grandes ya no solo entrenan modelos en laboratorios cerrados. Están poniendo a prueba sus defensas con la comunidad para identificar fallos reales antes de que alguien los explote fuera de contexto. ¿Te interesa participar o seguir cómo evoluciona? La ventana de aplicación es corta y el proceso es serio, pero estas iniciativas cambian cómo se gestionan los riesgos en IA. (openai.com)

¡Mantente al día!

Recibe guías prácticas, hechos verificados y análisis de IA directo en tu correo, sin jerga técnica ni rodeos.

Tus datos están a salvo. Darse de baja es muy fácil en cualquier momento.