OpenAI lanza Fellowship de Seguridad para investigadores | Keryc
Hoy OpenAI abre postulaciones para la OpenAI Safety Fellowship, un programa dirigido a investigadores, ingenieros y practicantes que quieren hacer investigación rigurosa y de alto impacto sobre la seguridad y alineamiento de sistemas de IA avanzados.
¿Te interesa investigar problemas que importan hoy y mañana? Este programa dura del 14 de septiembre de 2026 al 5 de febrero de 2027 y combina mentoría, recursos y una cohorte de pares para acelerar resultados concretos.
Qué ofrece el programa
Duración: 14 de septiembre de 2026 a 5 de febrero de 2027.
Apoyo económico: estipendio mensual y soporte de cómputo.
Recursos: créditos de API y otros recursos apropiados; no incluye acceso a sistemas internos.
Mentores: trabajo cercano con mentores de OpenAI y colaboración entre la cohorte.
Espacio físico: workspace disponible en Berkeley junto a otros fellows de Constellation, con opción de trabajo remoto.
Entregables esperados: producto de investigación sustancial al final (por ejemplo, paper, benchmark o dataset).
A quién buscan
Buscan personas con capacidad de investigación y ejecución, no necesariamente con credenciales específicas. Prioridades temáticas incluyen, entre otras:
evaluación de seguridad
ética y gobernanza
robustez y mitigaciones escalables
métodos de seguridad que preservan la privacidad
supervisión de agentes (agentic oversight)
dominios de maluso de alta severidad
Se valoran perfiles de ciencias de la computación, ciencias sociales, ciberseguridad, privacidad, HCI y áreas relacionadas. Además, requieren cartas de referencia.
Cómo postular y plazos
Aplicaciones abiertas ahora y cierran el 3 de mayo.
Revisión de solicitudes y notificación a los seleccionados: 25 de julio.
Más detalles sobre elegibilidad, compensación y beneficios están en el formulario de aplicación. Puedes comenzar tu postulación aquí.
Para preguntas sobre el proceso de aplicación escribe a openaifellows@constellation.org.
Lo que realmente importa si vas a aplicar
¿Tienes una idea empíricamente fundada y técnicamente sólida? Eso es lo que buscan. No se trata solo de teoría: valoran trabajos con evidencia, métricas claras y relevancia para la comunidad investigadora.
Piensa en proyectos que al terminar de la fellowship puedan dejar algo reutilizable: un benchmark nuevo, un conjunto de datos bien documentado o un paper con evaluaciones reproducibles. Si trabajas en robustez de modelos, privacidad o evaluación humana de riesgos, tu propuesta puede encajar bien.
Recuerda: recibirás apoyo y visibilidad, pero no acceso interno a sistemas de OpenAI. Aun así, la combinación de mentoría, cómputo y una cohorte dedicada puede acelerar mucho tu proyecto.
Esta es una oportunidad para acercar la investigación de seguridad a problemas prácticos y a audiencias diversas. ¿Tienes una pregunta de investigación que podría mejorar cómo construimos y gobernamos IA? Quizás esta fellowship sea el empujón que necesitas.