Desde que modelos como ChatGPT entraron al terreno público, la enseñanza de medicina ya no es la misma. ¿Cómo deben formar a los futuros médicos cuando las herramientas pueden resumir artículos, generar notas clínicas y hasta simular pacientes? Microsoft Research reunió a estudiantes y médicos para discutir exactamente eso: cómo integrar estas herramientas sin sacrificar el juicio clínico ni la responsabilidad profesional.
Qué plantea Microsoft Research
En un episodio dedicado, Peter Lee conversa con Morgan Cheatham y Daniel Chen sobre experiencias reales de estudiantes y médicos que usan IA generativa en la formación clínica. Los puntos clave: la adopción crece rápido entre los más jóvenes, hay casos concretos de uso (redacción de notas, respuesta a mensajes de pacientes, ayuda para revisar evidencia) y existe preocupación legítima sobre qué habilidades se pueden perder si la IA hace demasiado trabajo por el alumno. (microsoft.com)
"Si la IA escribe la nota por mí, ¿qué estoy aprendiendo?" — esa pregunta recorre la conversación y resume el dilema cotidiano.
Usos concretos y por qué importan
-
Práctica con pacientes sintéticos: los
LLM
y plataformas multimodales permiten crear escenarios clínicos repetibles para practicar comunicación y razonamiento sin riesgos reales. Esto amplía acceso a prácticas que antes requerían laboratorios costosos. Estudios y proyectos muestran que estas simulaciones mejoran la repetición deliberada y la retroalimentación inmediata. (arxiv.org) -
Tutoría personalizada y generación de material: la IA puede crear rutas de estudio, preguntas tipo examen y resúmenes adaptados al nivel del alumno, reduciendo la carga administrativa del profesorado. Investigaciones indican que estas herramientas ya rinden al nivel de tareas evaluativas en algunos contextos, aunque con variabilidad. (medicalxpress.com, mededu.jmir.org)
-
Soporte en la práctica clínica: despliegues tempranos integran respuestas generadas en los registros clínicos para contestar mensajes de pacientes o redactar borradores de notas, lo que promete ahorrar tiempo pero plantea preguntas de verificación y responsabilidad. (microsoft.com)
Riesgos y límites que no conviene ignorar
La discusión no es solo técnica: es ética y educativa. Algunos riesgos importantes:
-
Exactitud y veracidad: los modelos pueden generar información convincente pero incorrecta. Enseñar a verificar y preguntar por fuentes sigue siendo esencial. (mededu.jmir.org)
-
Pérdida de habilidades clínicas: redactar notas o resolver casos con ayuda constante de IA puede atenuar el desarrollo del razonamiento clínico si no hay control pedagógico. (magazine.hms.harvard.edu)
-
Transparencia y responsabilidad: ¿quién responde si una recomendación asistida por IA falla? Los estudiantes necesitan formación sobre límites de la herramienta y sobre cómo documentar su uso en la toma de decisiones. (microsoft.com)
¿Qué cambiar en los planes de estudio?
No se trata de prohibir, sino de enseñar a convivir con la herramienta. Algunas propuestas prácticas:
-
Integrar alfabetización en IA desde temprano: no para convertir a todos en ingenieros, sino para que sepan evaluar salidas, identificar sesgos y usar
RAG
(retrieval-augmented generation) o verificaciones cuando haga falta. (mededu.jmir.org) -
Diseñar evaluaciones que midan razonamiento y no solo respuestas correctas: preguntas abiertas, casos clínicos simulados y defensa oral de decisiones mantienen el foco en el juicio clínico.
-
Usar IA para expandir la práctica (simuladores, retroalimentación automatizada) pero acompañada de mentoría humana que corrija, observe y explique.
-
Políticas claras sobre documentación: cuándo se usó IA, qué partes fueron asistidas y cómo se verificó la información.
¿Y la equidad y el acceso?
Un punto que surgió en la conversación es la brecha entre centros con recursos y otros que no. La promesa es democratizar acceso a simuladores y material de calidad, pero si la adopción queda solo en hospitales grandes, la brecha educativa puede aumentar. Por eso la estrategia debe incluir mecanismos de despliegue escalable y criterios regulatorios que promuevan acceso justo. (microsoft.com, magazine.hms.harvard.edu)
Conclusión reflexiva
La IA generativa ofrece herramientas poderosas para formar médicos más eficientes y mejor preparados, pero no reemplaza lo que hace humano a un buen clínico: juicio, empatía y responsabilidad. La tarea de las escuelas no es decidir si usar IA, sino cómo usarla para potenciar la formación sin erosionar la profesión. ¿La receta? Educación en IA desde lo práctico, evaluación centrada en razonamiento y supervisión humana constante. Así, la tecnología deja de ser un atajo y se convierte en un amplificador de aprendizaje.