Las películas usan efectos visuales (VFX) para mejorar y visualizar lo imposible y crear escenas que no podrían capturarse con una filmación de acción en vivo por sí sola.

Los efectos visuales se renderizan digitalmente y las cargas de trabajo se han ejecutado tradicionalmente en las instalaciones. Grupos de creativos se sentaban a editar fotograma por fotograma mientras el zumbido de los servidores se escuchaba desde la habitación contigua.

Pero a medida que los efectos visuales se vuelven cada vez más detallados y computacionalmente exigentes, albergar un centro de datos local para cada proyecto ya no tiene sentido para el sector.

Ya sea que se trate de un proyecto particularmente complejo que necesita mucho más poder de cómputo que el que puede proporcionar la instalación en las instalaciones, o si se trata de una nueva tecnología que necesita que el cómputo esté en el set de filmación, la huella de TI de VFX se está diversificando de la nube a la Edge.

GettyImages-1306218631 (1).jpg
– Getty Images

El papel continuo de la informática en las instalaciones

“En cada producción cinematográfica, habrá muchas personas trabajando y siempre necesitarán acceso a un grupo central de almacenamiento para extraer contenido multimedia de modo que el trabajo permanezca sincronizado, y así ha sido desde que la gente descubrió cómo usar el almacenamiento en red para edición de video”, explicó Arvydas Gazarian, arquitecto de soluciones en Evolutions TV, una casa de posproducción con sede en Londres.

Por esta razón, una gran parte de la TI de Evolutions permanece en las instalaciones para garantizar que todos los editores puedan acceder a la versión correcta del metraje.

“Tenemos 9 petabytes de medios en 4 de nuestras ubicaciones. Hay al menos 1 petabyte en cada ubicación, con una distribución promedio de 200 TB por proyecto”, agregó Gazarian.

Pero más allá de eso, Evolutions recurrirá a un servicio tipo nube, llamado European Raid Arrays (ERA). ERA ofrece una estación de trabajo y un sistema de almacenamiento basados ​​en la nube diseñados específicamente para cargas de trabajo de medios, transmisión y posproducción. Aquí, Evolutions tiene alrededor de cuatro petabytes de almacenamiento y cerca de 130 estaciones de trabajo en un centro de datos, a las que las ubicaciones locales están conectadas a través de una línea de 40 gigabits.

GettyImages-1356584428 (1).jpg
– Getty Images

El papel de la nube

La industria de VFX es naturalmente 'puntiaguda', con aumentos repentinos y dramáticos en la demanda, explicó Gazarian. Se encargará un nuevo proyecto, y la computación necesaria se multiplicará repentinamente, y esto a veces traerá los requisitos fuera de lo que se puede alojar físicamente en las instalaciones.

Recurrir a un servicio de tipo nube para VFX es cada vez más común, y se hizo público en particular cuando Weta FX anunció que Avatar: The Way of Water se renderizó completamente en la nube de Amazon Web Services (AWS).

Weta FX promedió alrededor de 500 iteraciones por toma, cada una de las cuales contiene miles de fotogramas. La renderización de cada fotograma tomó 8000 horas de subprocesos o la potencia combinada de 3000 CPU virtuales en la nube durante una hora. En total, el equipo ejecutó 3300 millones de horas de subprocesos durante 14 meses en AWS.

Según la compañía, lograr esto en las instalaciones requeriría que la compañía obtenga el permiso de planificación del consejo local para expandir físicamente su centro de datos. El productor Jon Landau dijo: “La diferencia cuando fuimos a la nube fue realmente palpable. No hubiéramos terminado de no haber sido por el soporte que recibimos de AWS”.

Ahora no es inusual que las casas de posproducción tomen esta ruta y activen clústeres temporales en la nube para ayudar a administrar las cargas de trabajo. Pero estas cargas de trabajo continúan siendo más difíciles de manejar para las casas de posproducción.

Introducción de efectos visuales en la cámara

Cuando se trata de posproducción y VFX, el aumento de la potencia de la GPU y la mejor resolución simplemente dan como resultado simulaciones más creíbles, y con opciones disponibles como mover la carga de trabajo a la nube, es simplemente cuestión de estar dispuesto a invertir dinero en el problema.

Mientras tanto, la mayoría de las casas de VFX encontrarán que una solución de TI híbrida de computación local y en la nube hará el truco para una línea de tiempo de posproducción tradicional. Pero el sector se está alejando de lo 'tradicional'. Ya no se realizan todos los efectos visuales en posproducción.

El auge de los efectos visuales en la cámara hace que se necesite más procesamiento en tiempo real, o incluso antes de que comience la filmación real.

John Rowe, jefe de VFX en Boomsatsuma, una universidad dedicada a todo lo relacionado con la posproducción, explicó el concepto relativamente nuevo de efectos visuales en la cámara (ICVFX) a DCD.

Este enfoque de VFX cambia fundamentalmente la canalización. La simulación ya no se realiza en la publicación, se realiza incluso antes de que comience la filmación y utiliza el mismo tipo de servidores que vemos en los videojuegos que permiten la representación en tiempo real. En la mayoría de los casos, esto implica el uso de Unreal Engine de Epic Games.

Rowe había estado trabajando con los estudiantes ese día, creando una sesión en la que el telón de fondo simulado de un ataque de dinosaurio se desarrollaba detrás de los actores en tiempo real.

“Llevas tu entorno a un estudio y lo reproduces en una pantalla y luego pones a tus actores frente a él y los filmas”, explicó Rowe.

“La cámara tiene que estar sincronizada con el motor del juego y usa un procesador de video para hacer eso. Hay muchas computadoras y varias otras personas involucradas con esa técnica y todo tiene que encajar.

“La pantalla reproduce tu entorno a través de un motor de juego para que puedas mirar alrededor del entorno y mostrarlo en la pantalla, que luego sincronizas usando otra parte del mismo motor de juego para vincularlo a la cámara en la computadora. Entonces, cuando realmente mueves la cámara, la de la simulación se mueve al mismo tiempo, utilizando un sistema de seguimiento y sensores que se distribuyen por todo el estudio”.

Una de las empresas pioneras en el uso de ICVFX es Lux Machina. Lux Machina está detrás de los conocidos gráficos de películas como The Irishman y la serie de televisión The Mandalorian, entre otras.

A practical set piece from The Mandalorian in the StageCraft volume.   Image courtesy of industrial Light & Magic. .jpg
– Industrial Light & Magic

El mundo es un escenario

Los Prysm Stages de Lux Machina son básicamente mundos completamente nuevos, dijo a DCD David Gray, director gerente de Lux Machina Consulting.

“El escenario de Londres tiene 74 metros de pantalla alrededor, que tiene 26.000 píxeles de ancho por 2.800 píxeles de alto. Solo la pared tiene nueve veces la resolución de 4K, y eso no incluye el techo”.

No solo se trata de una cantidad de procesamiento incomprensible, sino que también debe procesarse en tiempo real, lo que significa que tiene que ocurrir en el sitio durante la producción.

“Por las resoluciones y datos con los que estamos lidiando en este momento. Simplemente no es factible [ejecutar en la nube] con ese tamaño de volumen LED. Por lo tanto, generalmente utilizamos una red troncal de 100 Gigas con una máquina de 25 Gigas para poder extraer los datos entre ellas”, explicó Gray.

Pero si bien es generación en tiempo real, no es creación de contenido en tiempo real. Todavía hay muchas horas que se dedican a la producción de gráficos de antemano. La iluminación, la generación de activos y sus texturas se realizan de forma preventiva. Según Gray, esto es, en muchos sentidos, más exigente que una canalización tradicional, ya que todo debe optimizarse. Entonces, ¿Por qué hacerlo?

El tiempo real es el momento perfecto

La razón es que los Prysm Stages son entornos totalmente controlables. Las imágenes se pueden optimizar y perfeccionar, y la iluminación se puede replicar perfectamente en un segundo. Los directores de cine se obsesionarán con el concepto de la 'hora dorada', ese breve período de tiempo cada día en el que la luz natural es tan hermosa que es casi etérea. Pero con un Prysm Stage, la 'hora dorada' puede convertirse en un día dorado, incluso en una semana dorada.

ICVFX cambia significativamente la programación del equipo de producción. Por ejemplo, en entornos de producción típicos, el equipo de iluminación no aparecerá hasta que la filmación final esté lista para comenzar. Con ICVFX, la iluminación puede estar disponible desde las primeras tomas de prueba, con un costo adicional mínimo.

“Con ICVFX, si falta talento 'humano', podemos usar Unreal Engine y producir iluminación cinematográfica con él”, dijo Junaid Baig, vicepresidente de Renderización e Investigación y Desarrollo de Lux Machina.

Este enfoque de efectos visuales frontales es nuevo en la industria y toma un tiempo para que aquellos que trabajan en él se familiaricen. Normalmente, miraría una toma y luego decidiría qué iluminación se necesita, pero ICVFX necesita que usted decida la iluminación incluso antes de ver a los actores en la sala. Para evitar esto, se mantienen conversaciones significativas antes de que comience la filmación para comprender realmente la visión del director.

Hay algunas cosas que ICVFX no puede lograr. Por ejemplo, una explosión.

“El Unreal Engine actualmente no puede hacer eso de una manera que se vea convincentemente bien”, dijo Baig, “Así que filmarías todo lo demás con ICVFX, y luego agregarías la explosión como una forma tradicional de VFX. De esa manera, solo necesitaría dos equipos: el equipo de ICVFX y la publicación. No necesitarías la iluminación o el equipo de construcción para que eso suceda físicamente”.

Para lograr ICVFX, Lux Machina usa, de media, 24 máquinas de renderizado con dos GPU cada una, en este caso, Nvidia RTX 6000, junto con varios cables de gran ancho de banda. Para que esto suceda en tiempo real y luego se vea reflejado en los escenarios LED, cuanto más cerca del Edge, mejor.

GettyImages-1355176914 (1).jpg
– Getty Images

“Los artistas de VFX no piensan en la velocidad, piensan en la calidad”, dijo Baig. “Tiene que hacerse en al menos 24 fotogramas por segundo. En una canalización de VFX tradicional, puede usar incluso texturas de 16K. Pero si intenta ejecutar eso a través de Unreal Engine, o cualquier renderizador basado en GPU, se bloqueará. Por lo que, ICVFX está constantemente equilibrando la calidad con la calidad de la computación perimetral”.

La potencia requerida para esto es significativa, pero solo se amplifica por los requisitos absolutos del escenario en sí. Según el sitio web de Prysm Stages, el espacio de producción del escenario abarca 715 metros cuadrados, todos los cuales están cubiertos por mosaicos LED que se utilizan para producir imágenes con una resolución de hasta 22 176 x 3168 píxeles en la pared trasera principal.

“Utiliza mucha energía y el edificio debe estar preparado para albergar esta enorme estructura. El calor es un gran problema y es necesario encontrar formas de distribuir el calor, y la sala de servidores genera mucho ruido”.

Debido a esto, Lux Machina almacena sus servidores en una habitación exterior aislada con muchos equipos de refrigeración. Para los rodajes que no se realicen en los propios escenarios de Lux, esta sala de servidores deberá crearse en el nuevo plató.

Ya sea que las empresas de VFX estén utilizando un centro de datos local, aumentando las cargas de trabajo en la nube o creando un centro de datos en el borde del set de filmación, lo que es consistente en todo el sector es que la potencia computacional necesaria para lograr los efectos deseados está aumentando, y no lo está haciendo gradualmente.

Las resoluciones están aumentando a tasas exponenciales. Las simulaciones son más largas "¿lo suficientemente buenas para contar la historia?" sino una simulación casi perfecta de la vida real, generada a partir de la tecnología actual menos que perfecta.

Ya sea que esto se haga en posproducción o preproducción, visualizar lo imposible se ha vuelto cada vez más virtual.