OpenAI anunció un programa de subvenciones para financiar investigación independiente sobre la intersección entre la inteligencia artificial y la salud mental. El fondo ofrecerá hasta 2 millones de dólares para proyectos que generen datos, evaluaciones o ideas accionables que ayuden a que los sistemas de IA sean más seguros y útiles en conversaciones sensibles.
¿Qué anuncia OpenAI?
El programa, administrado por el equipo de Safety de OpenAI y financiado por OpenAI Group PBC, busca propuestas independientes que exploren riesgos y beneficios del uso de IA en asuntos de salud mental. Las postulaciones están abiertas desde hoy hasta el 19 de diciembre de 2025, y las selecciones se notificarán a más tardar el 15 de enero de 2026.
Hasta 2 millones de dólares en subvenciones para fomentar trabajo interdisciplinario entre investigadores técnicos, profesionales de salud mental y personas con experiencia vivida.
¿Qué tipo de proyectos buscan?
Se valoran propuestas que generen entregables claros: conjuntos de datos, evaluaciones, rubricas, o síntesis de experiencias que puedan informar prácticas de seguridad. Algunos ejemplos de áreas de interés incluyen:
Cómo varían las expresiones de angustia, delirios u otro lenguaje relacionado con salud mental entre culturas y lenguas, y cómo eso afecta la interpretación de sistemas de IA.
Perspectivas de personas con experiencia vivida sobre qué se siente seguro, útil o dañino al interactuar con chatbots.
Cómo usan actualmente las y los proveedores de salud mental herramientas de IA: qué funciona, qué falla y dónde emergen riesgos de seguridad.
Potencial de la IA para promover conductas saludables y reducir daños.
Robustez de salvaguardas ante jerga, modismos o patrones lingüísticos poco representados, especialmente en lenguas con pocos recursos.
Ajustes de tono, estilo y marco al responder a jóvenes y adolescentes, con entregables como rubricas de evaluación o ejemplos anotados.
Cómo el estigma asociado a enfermedad mental puede aparecer en recomendaciones o estilos de interacción de modelos de lenguaje.
Interpretación por IA de indicadores visuales relacionados con dismorfia corporal o trastornos alimentarios y la creación ética de datasets multimodales anotados.
Capacidades de la IA para ofrecer apoyo compasivo en procesos de duelo, incluyendo patrones de respuesta y guías de estilo.
¿Por qué importa esto ahora?
¿Te has preguntado cómo reacciona un chatbot cuando alguien muestra signos de angustia? A medida que las herramientas de IA entran en áreas más personales, entender sus límites y cómo fortalecerlas no es solo técnico: es un asunto de seguridad pública y ética.
OpenAI ya ha trabajado en estudios como Investigating Affective Use and Emotional Well-being on ChatGPT y Healthbench. Estas subvenciones buscan ampliar ese esfuerzo con investigación independiente que aporte diversidad de enfoques y contextos culturales.
Consideraciones prácticas y éticas
Si piensas postular, toma en cuenta aspectos clave:
Consentimiento y recolección responsable de datos, especialmente con poblaciones vulnerables.
Participación de personas con experiencia vivida desde el diseño del estudio, no solo como sujetos.
Claridad en entregables: datasets bien documentados, rubricas reproducibles o análisis accionable para prácticas de seguridad.
Sensibilidad cultural y lingüística: validar herramientas en contextos locales y en lenguas con pocos recursos.
No se trata solo de construir mejores modelos; se trata de hacerlo con cuidado para no causar daño y para que los resultados sean útiles fuera de entornos controlados.
¿Quién debería aplicar y cómo aprovechar esta oportunidad?
Equipos interdisciplinarios tienen ventaja: investigadores técnicos que colaboren con profesionales de salud mental y personas con experiencia vivida. Pequeños grupos académicos, ONGs, o consorcios internacionales que puedan entregar recursos reutilizables (datasets, evaluaciones, guías) son candidatos ideales.
Si tu proyecto encaja, prepara una propuesta que explique claramente los entregables, métodos éticos para recopilar datos, y cómo tus resultados pueden informar prácticas de seguridad en IA.
La convocatoria cierra el 19 de diciembre de 2025, con notificaciones previstas hasta el 15 de enero de 2026.
Pensar en IA y salud mental no es solo pensar en tecnología: es pensar en cómo la tecnología afecta vidas con matices culturales, emocionales y éticos. Estas subvenciones son una invitación a investigar con rigor y con empatía.