Dans notre interview de Chris Edwards en partie consacrée à la série The Mandalorian, ce dernier expliquait que The Third Floor et ILM avaient travaillé étroitement avec Unreal Engine pour mettre en place le pipeline utilisé, et notamment le fameux affichage sur panneaux LED.
Dans un bref article, Jeff Farris d’Epic Games fait le bilan de cette expérience.
L’éditeur souligne que certains outils ont été développés, améliorés ou éprouvés dans le cadre du projet : les outils de collaboration multi-utilisateurs, le nDisplay System qui permet à un groupe de machines de rendre en temps réel des images massives de façon synchronisée, le système de compositing en direct qui a permis d’avoir des aperçus temps réel des séquences.
Epic Games évoque aussi le contrôle du mur de LEDs via un iPad, ou la possibilité d’enregistrer les données issues de prises de vue dans le Sequencer.
Toutes ces fonctionnalités, souligne Epic Games, sont soit déjà présentes dans Unreal Engine 4.24, soit arriveront dans la version 4.25. Comme nous l’expliquait Chris Edwards dans notre interview, Epic Games a bien compris que la production virtuelle représentait un marché intéressant. La guerre avec Unity se poursuit donc, pour le plus grand bien des utilisateurs qui se voient dotés d’outils toujours plus puissants.
On peut par conséquent s’attendre à voir de plus en plus de projets adopter le système de LEDs du Mandalorien, à petite ou grande échelle. Lors d’une la soirée de démonstration de motion capture chez Effigy, le 15 janvier dernier, des studios et techniciens français avaient d’ailleurs ouvertement indiqué leur intérêt pour cette approche.