Imagina cubrir elecciones en tiempo real con una "segunda cabeza" que te ayuda a conectar hilos, resumir discursos y detectar cuentas falsas. Esa es la foto que pinta Walter Fernandez, editor en jefe de CNA, sobre cómo la inteligencia artificial ya no es un experimento sino una herramienta integrada en la redacción. [La entrevista completa está en OpenAI].(https://openai.com/index/cna-walter-fernandez) (openai.com)
Qué hizo CNA y por qué importa
CNA comenzó a experimentar con IA en 2019 y, desde entonces, decidió moverse rápido pero con reglas claras: no permitir voces clonadas ni metraje generado por IA en coberturas informativas. La estrategia fue pragmática: ser temprano sin ser irresponsable. (openai.com)
La razón por la que esto importa es sencilla. CNA es una emisora con alcance global que llega a millones de hogares y dispositivos; cuando una sala de redacción así integra IA con criterio, cambia la forma en que se produce y valida la información. ¿Te imaginas la escala de impacto si las herramientas fallan o se usan sin controles? Exacto, por eso las reglas importan. (openai.com)
Un ejemplo concreto: elecciones en Singapur
En la reciente cobertura de la elección general de Singapur, CNA usó ChatGPT
como una especie de segundo cerebro: GPTs internos con información verificada para contextualizar y modelos de razonamiento para analizar campañas en redes. Uno de esos modelos detectó una relación entre cuentas sospechosas que habían cambiado sus nombres, un hallazgo que el equipo no había previsto y que ayudó a descubrir conexiones ocultas en tiempo real. ¿No es justo ese tipo de descubrimiento lo que necesita el periodismo hoy? (openai.com)
Cómo cambió la rutina y la cultura en la redacción
La adopción no fue mágica: empezaron por preguntar a los periodistas cuál era su mayor dolor. La respuesta: cubrir las largas sesiones del parlamento. La solución fue construir "Parliament AI": reconocimiento de rostros de más de 90 parlamentarios, transcripción automática y resúmenes buscables. Cuando los reporteros vieron mejoras reales en su trabajo, la aceptación creció y se multiplicaron las iniciativas. (openai.com)
Hoy el equipo ya tiene más de veinte GPTs personalizados, incluido un "Newsroom Buddy" para brainstorming y chequeo del estilo. También desplegaron cientos de licencias empresariales para que toda la organización acceda a las herramientas y se formen internamente. Estos números muestran que no se trató de un piloto aislado, sino de una transformación a escala. (openai.com)
Riesgos, límites y buenas prácticas que aplicaron
-
Priorizar el servicio público por encima del brillo tecnológico. No todo lo que la IA puede hacer debe hacerse en la publicación.
-
Implementar procesos con
human-in-the-loop
: verificación humana obligatoria en piezas sensibles. -
Crear políticas internas y gobernanza antes de masificar su uso: CNA dedicó tiempo a redactar guías y a establecer controles transversales.
En palabras del propio equipo, la IA es una herramienta para cumplir la misión de periodismo de servicio público, no un fin en sí misma.
Lecciones prácticas para otras redacciones y equipos
-
Empieza por un problema real, no por la herramienta. Si la IA soluciona una tarea dolorosa, la adopción será natural.
-
Diseña reglas claras: qué sí, qué no y quién decide en casos de riesgo.
-
Forma a toda la organización: editores, periodistas y equipos de audiencia deben entrenarse juntos.
-
Mide resultados: velocidad, precisión y utilidad para la audiencia, no impresiones o volumen de contenido.
Mirando adelante
CNA propone pensar la IA como columna vertebral tecnológica que multiplica capacidades, pero que exige gobernanza y buenas prácticas. La invitación es simple y ambiciosa: no quedarse esperando, pero tampoco ser imprudente. ¿Listos para construir redacciones donde la IA potencia la calidad, no la sustituye? La experiencia de CNA muestra que eso es posible, con organización, reglas y foco en la utilidad pública.