Sora 2: OpenAI lanza generación de video con seguridad integrada | Keryc
Sora 2 y la app Sora llegan con una promesa clara: video por IA de última generación con seguridad pensada desde el inicio. ¿Suena bien? Sí, pero lo más importante es que la empresa plantea medidas concretas para que la creatividad no deje de lado la protección de personas y derechos.
Qué es Sora 2 y la app Sora
Sora 2 es el modelo detrás de nuevas capacidades de generación de video, y la app Sora es la interfaz donde la gente crea y comparte. No es solo más realismo y movimiento: es una apuesta por herramientas que permiten colaborar y producir contenido audiovisual con controles integrados.
¿Por qué esto cambia algo para ti? Porque ya no solo se trata de calidad, sino de responsabilidad en el producto desde el diseño.
Señales de procedencia y marca de agua
Una de las primeras defensas que presenta OpenAI es que todo video generado con Sora incorpora señales de procedencia, visibles e invisibles. Esto incluye metadatos en el estándar y marcas digitales internas.
C2PA
Además mantienen búsquedas inversas (imagen y audio) propias que ayudan a trazar videos hasta Sora con alta precisión, y muchos resultados llevan marcas de agua dinámicas que muestran el nombre del creador. En resumen: el sistema busca que el origen del contenido sea verificable, no una caja negra.
Fotos a video con personas: consentimiento y límites
Sora permite convertir fotos de familiares y amigos en videos, pero con requisitos estrictos. Antes de subir una imagen con personas, debes declarar que tienes el consentimiento de quienes aparecen y los derechos para usar ese material.
Las generaciones con personas están sujetas a guardrails más estrictos que otras funciones (aún más exigentes cuando hay niños o personas que parecen menores). Y cuando se comparten, esos videos siempre llevan marca de agua. OpenAI enfatiza que la protección y el consentimiento vienen primero.
Personajes y control de tu imagen
Para dar control sobre la propia apariencia y voz, existe la función de personajes (Sora Characters, antes llamada cameo). Un personaje captura tu similitud visual y vocal, pero solo tú decides quién puede usarlo.
Puedes revocar el acceso en cualquier momento. OpenAI bloquea representaciones de figuras públicas salvo cuando se usan a través del sistema de personajes. Además, cualquier video que incluya tu personaje es visible para ti, incluso si otra persona lo creó: podrás revisar, eliminar o reportar rápido.
Hay opciones para aplicar un conjunto aún más estricto de guardrails: limitar grandes cambios de apariencia, impedir escenas humillantes y mantener la identidad coherente. Es una capa de control pensada para proteger la dignidad y la reputación.
Protección para adolescentes
Sora incorpora protecciones adicionales para usuarios jóvenes. El feed está diseñado para ser apropiado para todas las edades y el contenido potencialmente dañino o inapropiado se filtra en cuentas de adolescentes.
Los adultos no pueden iniciar mensajes con perfiles de adolescentes y existen controles parentales (vía ChatGPT) para gestionar si los chicos pueden enviar o recibir mensajes, y para activar un feed no personalizado. Además, por defecto hay límites en el tiempo de navegación continua para cuentas teen.
Filtrado de contenido y guardrails en la generación
Para evitar daños antes de que ocurran, Sora aplica barreras en el momento de la creación: revisa prompts y salidas a lo largo de varios fotogramas y de la transcripción de audio para bloquear material sexual, propaganda violenta, autolesiones y otros contenidos peligrosos.
Han realizado red teaming para explorar riesgos y ajustaron políticas más estrictas que las usadas en generación de imágenes, dado el mayor realismo y la presencia de movimiento y sonido. Además del filtrado automatizado, hay revisión humana enfocada en los riesgos de mayor impacto.
Audio y derechos de autor
El audio complica la ecuación, pero Sora incorpora escaneos automáticos de transcripciones para detectar violaciones de políticas. También bloquea intentos de generar música que imite artistas vivos o obras existentes. Si un creador considera que su trabajo fue infringido, OpenAI acepta solicitudes de retiro y toma medidas.
Control del usuario y vías de recurso
Tú decides cuándo y cómo compartir tus videos. Puedes eliminar tu contenido publicado y siempre tener la opción de reportar videos, perfiles, mensajes privados, comentarios o personajes por abuso.
Bloquear cuentas impide que otros vean tu perfil, usen tu personaje o te contacten. En pocas palabras: hay herramientas claras para gestionar exposición y responder a violaciones.
Sora no promete perfección, pero sí un diseño donde la capacidad técnica y las medidas sociales y legales van de la mano. ¿Te parece suficiente? Eso depende de cómo evolucione la implementación y de la vigilancia continua de la comunidad y reguladores.