
Cuatro años antes de la aparición de ChatGPT, tres compañeros de máster de la Tisch School of the Arts, de la Universidad de Nueva York, se unieron para aplicar las redes neuronales a la creación de imágenes en vídeo. De ahí nació Runway, que fue la primera en lanzar una herramienta de generación de vídeo con inteligencia artificial (IA) a los circuitos comerciales. Lo hizo un año y medio antes que la primera versión de Sora, de OpenAI, y de Google Veo 2, llegadas casi a la par. Cristóbal Valenzuela (Santiago de Chile, 1989) es uno de los miembros de esta terna de fundadores y el CEO de Runway. En la Web Summit, celebrada en Lisboa, pronosticó una expansión radical del vídeo generado con IA. Pero si los modelos de generación de texto plantean interrogantes sobre sus horizontes, con los de generación de vídeo las dudas se multiplican. Más informaciónPregunta. Sus herramientas de generación de vídeo ya están presentes en la industria audiovisual, ¿para qué se utilizan? Respuesta. Hay muchos casos de usuarios que usan Runway para editar, modificar o generar escenas en la producción cinematográfica, sobre todo en proyectos que van a la gran pantalla, y también para procesos de postproducción. Si tienes una escena y quieres agregar un efecto o modificar algún elemento, eso lo puedes generar ahora con Runway y después llevarlo a tu programa de edición tradicional. P. ¿Y en otras áreas? R. El cine, para nosotros, ha sido la primera etapa. Muchas de esas técnicas para generar video están más pensadas para el cine, en primera instancia, pero ya las utilizan en otras industrias. Se usan en publicidad, marketing, diseño, en videojuegos. Hay muchos casos de uso en arquitectura también. P. ¿Como por ejemplo? R. La forma tradicional de crear un render de un edificio que se va a construir es modelarlo en un programa CAD (diseño asistido por ordenador), hacer un sistema de texturizado [se asignan materiales y texturas] y establecer movimientos de cámara para configurar el modelo 3D. Todo esto es muy complejo. En Estados Unidos, KPF [un estudio de arquitectura] ha usado nuestras herramientas para crear renders, simplificando drásticamente el proceso. Simplemente introduces tu imagen, le pides al modelo lo que quieres hacer y genera un video en 10 segundos. Y esto es muy rápido, muy fácil y mucho más barato que como lo hacían antes. P. Los creadores de la serie House of David, otro de sus clientes, también hablaba del ahorro de tiempo en la realización de una escena… R. Es un ejemplo del impacto económico y de tiempo que podemos generar. Se puede reducir de semanas a días o, incluso, de meses a días, lo que se tarda en hacer escenas de cine bastante complejas y costosas. Y el presupuesto también es mucho más reducido. Ellos inventaron un sistema específico para su proyecto que les permitía generar las imágenes y después proyectarlas en la pantalla. P. En un rodaje trabaja mucha gente para hacer las escenas. ¿Qué le diría a la gente que está preocupada por sus empleos? R. La verdad es que la tecnología siempre ha creado y modificado empleos. Hace tiempo teníamos personas en los ascensores que apretaban botones para subir y bajar de piso. P. No es lo mismo… R. Bueno, hay trabajos que van a cambiar y van a ser automatizados, pero al mismo tiempo hay muchos otros que se van a crear. Y ahí está la mayor oportunidad, con una mayor demanda de nuevos trabajos en nuevas áreas gracias a la IA. P. ¿Qué tipo de trabajos se crearían con el video generativo? R. Hacer una película hoy en día requiere contratar a gente que sepa usar una cámara, que sepa usar lentes, editar video. Si piensas en la IA como en una herramienta parecida a lo que es una cámara, entonces vas a tener que contratar a gente que sepa usar esta nueva herramienta, que sepa generar vídeos, editar los vídeos, que sepa modificarlos. P. A día de hoy, ¿cuál es el límite del vídeo generado con IA? R. Creo que la generación de contenido de larga duración. Tener 60 o 90 minutos con consistencia de personajes y de historia todavía no es posible. Aunque pasará pronto. Y creo que algo que va a pasar próximamente y que todavía no es posible será generar contenido en tiempo real. Por ejemplo, para pedir un tutorial personalizado [en vídeo] en cualquier momento y sobre cualquier tema. P. ¿Se pueden generar videojuegos manteniendo la consistencia en personajes y escenarios con vídeo generado con IA? R. Creo que hay dos partes en el área de los videojuegos. Una es el sistema de render, de generación de los píxeles. Creo que estamos muy cerca de poder generar píxeles en tiempo real. El otro componente sería la dinámica y el aspecto más determinístico del juego. Mantener el estado o la lógica del juego aún está por resolver, pero es simple cuestión de tiempo. P. ¿Cómo se diseña ahora el entorno de un videojuego? R. De manera muy básica, hay un equipo de diseño que crea todos los escenarios, toda la geometría y todo el ambiente. En definitiva, el mundo donde tiene lugar el juego. En un videojuego en primera persona, tipo Call of Duty, hay años de desarrollo donde cada uno de los edificios, cada uno de los elementos, ha sido colocado ahí por alguien. Como jugador, cada vez que te mueves en un escenario, lo que ves a la izquierda y a la derecha, está ahí porque ya fue diseñado. P. ¿Qué papel jugará la IA? R. En la versión generada con IA nada de eso existe. No hay ningún escenario, no hay ningún modelo 3D, no hay ningún mundo previamente creado. Cuando el jugador mueve su personaje a la izquierda, lo que verá nunca se ha visto antes, nadie nunca lo ha diseñado. El modelo de IA simplemente lo va a crear en tiempo real. P. ¿Y tendrá memoria el modelo de IA para mantener el mismo escenario cuando el jugador pase una hora después por ese mismo punto? R. En eso estamos trabajando ahora, en tener persistencia. Si he tirado una bomba en algún lugar, quiero volver y ver las consecuencias de esa acción de la manera en que lo dejé. P. Ha habido mucha controversia sobre la propiedad intelectual en el vídeo con IA. ¿Cómo entrenan sus herramientas? R. Hoy en día trabajamos con casi todos los estudios de Hollywood. Y gran parte de ese trabajo ha sido entender qué necesitan ellos proteger y cómo nosotros podemos ayudarlos a proteger eso que necesitan proteger. Tenemos algunos programas para licenciar contenido. P. ¿Cuánto falta para que Netflix o Amazon Prime permitan a los usuarios crear películas o series con IA y compartirlos, con un modelo de incentivos económicos similar al de YouTube? R. Creo que estamos a meses, creo que la tecnología ya permite hacer eso y es más un problema de logística y distribución, pero eso va a pasar de todas maneras. Tal vez no sé crearán películas 90 o 60 minutos, pero ya es posible que los usuarios creen contenido. Ahora la cuestión es cómo hacerlo de una manera más escalable y consistente, pero estoy muy seguro de que el próximo año lo vamos a empezar a ver.
Cristóbal Valenzuela, CEO de Runway: “Con IA puedes reducir de semanas a días lo que se tarda en hacer una escena de cine” | Tecnología
Shares:
