Gen AI convierte ideas de neoyorquinos en arte urbano | Keryc
Imagina subir al metro, ver una pantalla, escanear un QR y que tu idea más loca para la ciudad cobre vida en video. Suena a película, pero es real: Google y OUTFRONT lanzan "Imagine If...", un proyecto que invita a Nueva York a co-crear arte urbano con modelos generativos y artistas locales.
Qué es "Imagine If..."
Es una iniciativa ciudadana y artística que recoge las visiones de residentes de los cinco boroughs y las transforma en piezas visuales que se muestran en miles de pantallas del sistema de transporte. ¿Rascacielos convertidos en granjas verticales? ¿Casas con neón en Brooklyn? Envías la idea, un artista la interpreta y modelos como Veo y Nano Banana ayudan a materializarla en video.
La colaboración es clave: la imaginación popular, la mano del artista y la potencia computacional de la IA.
Cómo funciona técnicamente
Spot y envía: ves la pantalla, escaneas un QR y envías un texto corto con tu visión.
Generación inicial: el texto viaja a los modelos generativos (Veo, Nano Banana) dentro de la experiencia de Gemini. Estos modelos transforman descripciones en arte visual, típicamente mediante arquitecturas multimodales que combinan comprensión de lenguaje y generación de imágenes o video.
Técnicamente, estos modelos suelen operar con dos retos centrales: coherencia temporal (que el video no salte de forma extraña entre frames) y fidelidad estilística (mantener el estilo que el artista o la comunidad espera). Para lograrlo se usan técnicas como:
modelos de texto a imagen/video que trabajan en espacios latentes y aplican procesos de refinamiento (por ejemplo, pasos iterativos tipo diffusion) para mejorar detalle y suavidad entre frames;
transferencia de estilo o fine-tuning guiado por el artista, para que la salida conserve una estética localizable (papel recortado, acrílico, doodles, etc.);
pipelines con 'human-in-the-loop': el artista selecciona y edita salidas automáticas antes de la exhibición pública.
En despliegue urbano hay decisiones prácticas: los resultados pueden generarse en la nube y luego pre-renderizarse para las pantallas por rendimiento y moderación, o generarse en tiempo cercano al instante si la infraestructura y la latencia lo permiten. La diferencia es calidad y control frente a inmediatez.
Los artistas: cómo se integra la creatividad humana
Cada borough tiene un artista residente que actúa como curador y co-creador. Más allá de aplicar filtros o presets, estos artistas usan las salidas generadas como material bruto: las combinan, recortan, reinterpreta n y las animan para que reflejen una visión artística coherente.
Ejemplos de integración práctica:
Lauren Camara (Bronx) podría usar el output para crear collages digitales basados en su técnica de papel recortado.
Subway Doodle (Brooklyn) puede introducir sus personajes icónicos en frames generados, manteniendo su identidad creativa.
Esto muestra un modelo de trabajo productivo: IA como aliado, no reemplazo, donde la creatividad humana guía la estética y el mensaje.
Consideraciones técnicas y éticas
¿Quién controla el contenido? ¿Qué pasa con datos personales o ideas ofensivas? En proyectos públicos así se implementan filtros y moderación previa a la exhibición. También importan la transparencia sobre cómo se usan los datos y las licencias de las imágenes generadas.
Desde el punto de vista técnico, hay trade-offs:
Calidad vs latencia: video de alta fidelidad requiere más tiempo de inferencia.
Coherencia temporal vs diversidad creativa: hacer que muchos frames sean coherentes reduce artefactos, pero puede limitar variaciones inesperadas que a veces son valiosas.
Privacidad: los prompts y las interacciones deben manejarse con cuidado para no exponer datos personales.
¿Por qué importa esto más allá de una exhibición?
Porque es un ejemplo concreto de cómo la IA generativa puede integrarse en espacios públicos y culturales: democratiza la creación, abre nuevas maneras de aproximarse al arte y plantea preguntas reales sobre autoría y gobernanza de la creatividad.
También es un laboratorio práctico para mejorar modelos multimodales en entornos reales: tráfico de usuarios, variedad de prompts y la necesidad de curación humana aceleran la mejora de herramientas que luego se usan en más contextos.
¿No estás en Nueva York?
No hay problema. Puedes probar Veo y Nano Banana desde la app Gemini hoy, experimentar y crear tu propia versión, aunque la exhibición física sea exclusiva de la ciudad por ahora.
En resumen: "Imagine If..." convierte la imaginación cotidiana en arte público con un flujo técnico que mezcla modelos generativos, curaduría artística y despliegue urbano. Es una muestra de cómo la IA puede ser una herramienta para la comunidad, con desafíos técnicos y éticos que vale la pena seguir de cerca.