Anthropic presenta Anthropic Interviewer, una herramienta que usó Claude.ai para ejecutar 1,250 entrevistas con profesionales y así entender cómo la gente integra la IA en su trabajo. ¿Qué sienten? ¿Qué delegan y qué quieren preservar de su identidad profesional? ¿Y cómo se puede usar la IA para investigar a gran escala sin perder la voz humana?
Qué es Anthropic Interviewer
Anthropic Interviewer es un entrevistador automatizado diseñado para correr entrevistas cualitativas reales a escala. Funciona con una combinación de prompts, planes de entrevista generados por IA y revisión humana. La idea no es reemplazar a investigadores, sino multiplicar su alcance manteniendo controles humanos en puntos críticos.
La prueba inicial: 1,250 entrevistas con tres submuestras. 1,000 participantes del conjunto general de ocupaciones, 125 creativos y 125 científicos. Entrevistas de 10-15 minutos en Claude.ai, transcripciones anonimizadas y liberadas públicamente con consentimiento para investigación.
Cómo funciona: planificación, entrevista y análisis
- Planificación: un
system promptestablece objetivos y una rúbrica flexible. La IA genera preguntas y un flujo conversacional que luego revisan investigadores humanos. - Entrevista: la IA conduce conversaciones adaptativas en tiempo real, siguiendo buenas prácticas de investigación cualitativa. Cada entrevista duró alrededor de 10-15 minutos.
- Análisis: transcripciones pasaron por un análisis automatizado para identificar temas emergentes y por una revisión humana que interpretó resultados y extrajo citas ilustrativas.
Técnicamente, el flujo es: system prompt -> generador de preguntas -> entrevistador en tiempo real -> transcripción -> clustering temático automatizado -> revisión humana. Ese bucle permite iterar rápido sobre la metodología.
Hallazgos principales (resumen cuantitativo y cualitativo)
- Escala y confianza en los números: 86% de los profesionales dijeron que la IA les ahorra tiempo; 65% estaban satisfechos con su rol de la IA en el trabajo.
- Creativos: 97% reportaron ahorro de tiempo; 68% dijeron que la calidad de su trabajo mejoró. Al mismo tiempo, emergen ansiedad económica y estigma social dentro de sus comunidades.
- Científicos: 91% quieren más asistencia por parte de la IA, pero la confianza es baja para tareas nucleares como generación de hipótesis y diseño experimental.
- Augmentación vs automatización: 65% describieron la IA como aumentativa y 35% como automativa en su uso principal. Datos previos de uso en
Claudemostraron una división más pareja, lo que sugiere discrepancias entre reporte y práctica real.
Ejemplos concretos encontrados en las entrevistas:
- General: un asistente administrativo dijo que la IA es como un ordenador o una máquina de escribir que permite hacer más; otro trabajador comentó que evita decir cómo trabaja por temor al juicio de colegas.
- Creativos: un productor musical usa prompts para obtener listas de combinaciones de palabras que sirven de semilla para letras; un fotógrafo redujo su tiempo de edición de 12 semanas a 3.
- Científicos: investigan con IA para revisar literatura y depurar código, pero no la usan aún para tomar decisiones experimentales sin verificación humana.
Análisis técnico y metodológico
- Validación y verificación: las entrevistas muestran que la limitación técnica más citada es la falta de fiabilidad y la tendencia a inventar información. En lenguaje técnico: el problema de las hallucinations sigue siendo central.
- Sesgos y muestra: reclutamiento por plataformas de trabajo por encargo genera selección sesgada. Los resultados son señales tempranas, no estimaciones poblacionales definitivas.
- Privacidad y seguridad: se trabajó con consentimiento informado y anonimización; aún así, investigadores resaltan preocupaciones para entornos clasificados o datos sensibles.
Importante: la herramienta combina automatización con revisión humana. No es un pipeline puramente autónomo; los humanos siguen siendo la última capa de confianza.
Limitaciones y riesgos identificados
- Selección y sesgo de demanda: participantes sabían que la entrevista era por IA sobre IA, lo que puede alterar respuestas.
- Autoreporte vs comportamiento real: existieron discrepancias entre lo que la gente dice y lo que métricas de uso muestran.
- Análisis emocional limitado: texto solamente no captura tono o lenguaje corporal; se pueden perder matices.
- Globalidad: la muestra refleja mayormente contextos occidentales; faltan muchas perspectivas culturales.
Técnicamente, los riesgos operativos incluyen filtrado de datos sensibles, dependencia de prompts y la necesidad de mitigar sycophancy (cuando el modelo se ajusta demasiado a lo que cree que el usuario quiere oír).
Qué significa esto para profesionales y equipos de producto
- Para trabajadores: la mayor adopción trae reconfiguración de roles. Muchos imaginan pasar de ejecutar tareas a supervisar y entrenar sistemas.
- Para creativos: la IA acelera flujos de trabajo, pero aumenta la presión competitiva y plantea preguntas sobre autoría y mercado.
- Para científicos: hay interés fuerte en herramientas que propongan hipótesis y sintetizen datos; la prioridad técnica es mejorar la fiabilidad y la verificación automatizada.
- Para equipos de producto: usar entrevistas automatizadas como retroalimentación continua permite priorizar mejoras (reducción de hallucinations, trazabilidad de fuentes, mejores interfaces de verificación).
Cómo convertir esta investigación en mejoras reales
Un ciclo humano-AI claro puede ayudar:
- Definir métricas de seguimiento: puntuación de confianza, satisfacción en Likert, proporción augmentación/automatización.
- Recolectar entrevistas periódicas con
Anthropic Interviewery cruzarlas con telemetría objetiva de uso. - Usar análisis temático automatizado para detectar tendencias tempranas y probar cambios de producto en experimentos controlados.
- Incorporar a comunidades afectadas (creativos, científicos, docentes) en diseño participativo y gobernanza.
En términos técnicos, esto implica mejorar prompts, integrar mejores modelos de verificación de hechos, y desarrollar pipelines que produzcan salidas con traza de fuentes y niveles de confianza.
Futuro y preguntas abiertas
- ¿Cómo cerrar la brecha entre autopercepción y datos reales de uso? Se necesitan estudios longitudinales que combinen entrevistas y telemetría.
- ¿Se pueden ampliar las entrevistas a formatos multimodales para captar emociones no verbales? Audio y video ayudarían a enriquecer la lectura emocional.
- ¿Cómo medir el impacto económico real en sectores creativos si la automatización desplaza trabajos concretos?
Anthropic Interviewer demuestra que podemos preguntar a gran escala sin perder la voz humana. Pero las respuestas plantean más preguntas: ¿qué tareas quieres delegar a la IA y cuáles prefieres conservar para ti?
