Lo Nuevo en Produccion Virtual Unreal Engine 5.4
Producción Virtual (VFX)
Procesos Múltiples para el Frustum Interno
Históricamente, el renderizado del frustum interno para una cámara ICVFX no podía usar mGPU debido a limitaciones tanto en la renderización de Unreal Engine/nDisplay como al hecho de que algunos recursos tendrían que compartirse con los otros viewports externos. Con la introducción del soporte SMPTE 2110, ahora podemos dedicar un nodo de renderizado nDisplay completo solo al frustum interno, abriendo la posibilidad de usar más hardware disponible en lo que se ve en la cámara (es decir, dos GPU en lugar de una). Los Procesos Múltiples para el Frustum Interno permiten la capacidad de renderizar el frustum interno con la más alta calidad.
A medida que las cámaras nuevas aumentan en resolución y los volúmenes aumentan en tamaño, esto permitirá que el sistema se adapte a las necesidades de estas producciones.
Estimación de Profundidad de Campo
La profundidad de campo es una parte integral del lenguaje cinematográfico y una herramienta crítica para los directores de fotografía para dirigir la atención del espectador. Sin embargo, al filmar una escena de VFX en cámara en un volumen LED, era imposible lograr una profundidad de campo verdaderamente precisa porque todo lo renderizado por nDisplay tendría la misma profundidad de campo, aunque técnicamente, algunos objetos en la escena están más lejos de la cámara que otros.
La Estimación de Profundidad de Campo resuelve esto aprovechando el hecho de que dentro de Unreal Engine, sabemos todo lo necesario para calcular la profundidad de campo «adecuada», es decir:
- Posición y orientación del volumen de la etapa en la escena de Unreal Engine.
- Posición de la cámara, apertura, distancia focal del lente y distancia focal utilizando LiveLink.
- Distancia entre todos los objetos dentro de la escena de Unreal Engine.
Produccion Virtual Unreal Engine 5.4 DOF
El resultado es una nueva capacidad de tener objetos en la escena de Unreal Engine desenfocados basado en un cálculo que toma en cuenta la información anterior, así como el desenfoque que la lente ya está aplicando basado en su combinación de apertura/lente del mundo real.
Conjunto de Herramientas de Exploración Virtual (Experimental)
Las nuevas herramientas de exploración virtual permiten a los creadores de contenido lineal ver, anotar y editar sus escenas en VR.
Hemos reestructurado completamente la experiencia de usuario (UX) para la exploración virtual para aprovechar el nuevo Marco Creativo XR. Las herramientas son más fáciles de usar y extenderlas es ahora significativamente más fácil para los desarrolladores.
Con estas herramientas, puedes:
- Ver y editar niveles en VR, en una sesión de editor multiusuario.
- Medir.
- Anotar.
- Capturar capturas de pantalla y colocar cámaras.
- Reproducir secuencias de nivel.
- Crear luces locales.
- Controlar luces ambientales.
Este conjunto de herramientas también tiene soporte para ejecutarse en una sesión PIE y empaquetarse en un ejecutable de tiempo de ejecución. Esto es lo mas nuevo en Produccion Virtual Unreal Engine 5.4
Marco Creativo XR
El Marco Creativo XR proporciona un marco de desarrollo para que los equipos creen herramientas XR en el editor (VR y MR en el casco), facilitando la creación de flujos de trabajo personalizados utilizando los últimos HMD y controladores compatibles con OpenXR.
El nuevo marco forma la base de un conjunto actualizado de herramientas de exploración de producción virtual. Estas herramientas sirven como un ejemplo de cómo desarrollar dentro del Marco Creativo XR.
Live Link VCam para Android
Camara Virtual Unreal Engine en Android
Live Link VCam, la aplicación complementaria para el sistema de cámara virtual en el editor, está llegando a Android. Los usuarios de Cámara Virtual con un dispositivo Android compatible con ARCore ahora pueden usar la Cámara Virtual completa en sus proyectos.
Cámara Virtual para Mac en Unreal Engine
La Cámara Virtual está llegando a Mac con soporte completo. Los usuarios ahora pueden aprovechar la transmisión de píxeles por software en x86/ARM y la aceleración de hardware en dispositivos Mac de la serie M basados en ARM.
Centro de LiveLink
En escenarios o configuraciones con múltiples instancias de UE ejecutándose en una sesión de edición multiusuario – ICVFX, Live Composite, Full CG mocap shoots, y estudios de transmisión – hay una necesidad de configurar fuentes de LiveLink por sesión de editor. A veces, la configuración requiere que cada sesión de editor tenga una configuración ligeramente diferente, por lo que el flujo de trabajo predeterminado de preajuste de LiveLink al cargar no es suficiente.
Para habilitar flujos de trabajo más complejos, creamos una aplicación externa (similar al servidor de Multi-User Slate) que monitorea sesiones de editor en ejecución, se conecta a las fuentes de LiveLink, las visualiza y las retransmite a cada sesión de editor. Las sesiones de editor ya no necesitan suscribirse a las fuentes de LiveLink; la aplicación le dice a cada instancia de UE qué fuentes de LiveLink recibir y cómo interpretarlas (preprocesadores, intercambios de ejes, modificación de roles).
El soporte inicial se dirige a los flujos de trabajo de LiveLink, con DMX, OSC y control de dispositivos en la hoja de ruta de desarrollo.
Ajuste del Frustum de la Cámara de Cine en nDisplay
Redimensiona dinámicamente los frustums de nDisplay para que se ajusten a las animaciones del FOV de la cámara activa. El ajuste del Frustum de la Cámara de Cine en nDisplay permite a los usuarios de nDisplay de todas las industrias mapear correctamente el contenido típico de Unreal Engine utilizando la Cámara de Cine a pantallas físicas de formas y configuraciones arbitrarias.
- Calcula una caja delimitadora alrededor de un conjunto de pantallas definidas.
- Proporciona un mecanismo para ajustar y escalar los frustums de nDisplay en el frustum de la cámara de cine de UE activa o seleccionada.
- Expone opciones como Llenar y Ajustar para manejar correctamente los desajustes de relación de aspecto.