
Pipeline Nuke vers Unreal Engine : Guide d'intégration complet 2026
En 2026, la frontière entre le rendu en temps réel et le compositing hors ligne s'est estompée. Notre ferme de rendu collabore avec des studios qui exigent une intégration transparente entre les puissantes capacités de rendu d'Unreal Engine et la suite de compositing de normes industrielles de Nuke. Ce guide vous accompagne dans la construction d'un pipeline prêt pour la production qui relie ces deux outils essentiels.
Pourquoi Nuke et Unreal Engine ensemble sont importants maintenant
L'explosion de la production virtuelle et des VFX en temps réel a rendu les workflows Nuke vers Unreal essentiels. Les studios qui tournent sur des volumes LED ont besoin d'un retour instantané, tandis que les pipelines VFX traditionnels exigent le contrôle au pixel près que Nuke offre. Lorsque vous les combinez, vous obtenez des mises à jour de viewport en temps réel dans Unreal qui alimentent directement l'environnement de compositing de Nuke, éliminant les goulots d'étranglement des délais d'attente de rendu et permettant une itération plus rapide.
Le support USD amélioré de Nuke 17.0 et le node UnrealReader natif rendent cette intégration plus serrée que jamais. Nous avons vu les temps de rendu réduits de 40 % dans certains workflows simplement en optimisant le flux des passes de rendu entre les deux applications.
Comprendre le flux de données dans le pipeline Nuke vers Unreal
Avant de plonger dans la configuration, comprenez ce qui bouge réellement entre ces outils. Unreal Engine rend plusieurs flux de données : des passes de beauté (RGB), de la cryptomatte pour la sélection d'objets/matériaux, des AOVs (variables de sortie arbitraires) comme les normales, la profondeur, l'occlusion ambiante, et plus. Nuke consomme tout cela via le node UnrealReader ou en lisant directement les séquences OpenEXR à partir du disque.
Pour une exploration plus approfondie des workflows OpenEXR et du compositing Cryptomatte – y compris la configuration des passes EXR multicouches pour Nuke – consultez notre guide EXR-IO et Cryptomatte.
La vraie magie se produit dans la couche USD. OpenUSD agit comme un format d'échange neutre – Unreal écrit des descriptions de scène USD, et le système 3D USD intégré de Nuke les lit pour les passes d'ombre, le relighting et les effets suivis par caméra. C'est bien plus propre que l'ancien workflow d'exportation d'Alembic, de traduction des caméras et de l'espoir que les transformations s'alignent.
La plupart des pipelines modernes conservent également une configuration OpenColorIO que les deux applications référencent, garantissant la cohérence des couleurs du rendu au composite final. Une inadéquation ici gâche des mois de travail.
Configuration d'UnrealReader dans NukeX
Le node UnrealReader est votre pont principal. Lancez Nuke, cliquez avec le bouton droit dans le graphique de nodes et recherchez UnrealReader. Vous verrez un node avec une icône distinctive – c'est votre connexion à un projet Unreal Engine actif ou récent.
Tout d'abord, assurez-vous qu'Unreal Engine 5.4 ou ultérieur est en cours d'exécution avec le plugin Pixel Streaming activé. UnrealReader communique via HTTP, donc les deux applications doivent être sur le même réseau ou avoir un redirection de port correctement configurée (port par défaut 30010). Testez la connectivité en appuyant sur le bouton « Connecter » dans l'interface UnrealReader.
Une fois connecté, vous verrez une liste des séquences de rendu disponibles dans votre projet UE. Sélectionnez la séquence que vous souhaitez extraire. Le node détecte automatiquement les passes de rendu disponibles – beauté, normales, ID d'objet, profondeur, rugosité, métallique et tous les AOVs personnalisés que votre scène Unreal produit.
Configurez la sélection des passes à l'aide des cases à cocher. Ne récupérez pas toutes les passes possibles sauf si vous en avez besoin ; chacune ajoute une surcharge de bande passante. Nous demandons généralement la beauté, la cryptomatte, la diffusion, la spéculation et l'émission comme base, puis ajoutons des passes personnalisées pour des plans spécifiques.
L'option « Synchroniser avec la chronologie » est cruciale pour les travaux de production virtuelle. Lorsqu'elle est activée, la tête de lecture de Nuke reste synchronisée avec la chronologie de la séquence Unreal, vous voyez donc les mises à jour de rendu en temps réel à mesure que votre scène s'anime. La latence dépend de la stabilité du réseau – attendez-vous à des délais de 1 à 3 images sur un LAN de production.
Passes de rendu et AOVs : ce qu'il faut demander et pourquoi
Toutes les passes de rendu ne sont pas créées égales. En demander trop écrase les performances ; en demander trop peu force des re-rendus frustrantes.
Passes essentielles : Beauté (diffusion + spéculation combinées), cryptomatte (pour la sélection par objet), éclairage direct et éclairage indirect. Ces quatre vous permettent de rééclaireur, de recolorer et d'isoler des éléments sans revenir à Unreal.
Facultatif mais précieux : Occlusion ambiante, normales, profondeur, rugosité et métallique. AO aide à ancrer les éléments. Les normales permettent les ajustements des détails de surface dans le contexte de Nuke. La profondeur est essentielle pour les ajustements de profondeur de champ et les effets de brouillard. La rugosité et le métallique supportent le relighting et les ajustements matériaux.
AOVs personnalisées : De nombreux pipelines produisent des ID d'objets/matériaux, des passes émissives, des passes d'ombre ou même des masques ID pour des accessoires spécifiques. Ceux-ci vivent dans la configuration du matériel post-traitement de votre scène Unreal. Travaillez avec votre TD pour définir les AOVs personnalisées que votre projet nécessite.
Dans Nuke, celles-ci arrivent en tant que canaux séparés dans une seule EXR ou en tant que séquences d'images séparées. Organisez-les à l'aide des nodes Shuffle ou de la ContactSheet pour prévisualiser ce que vous recevez. Un script simple dans votre menu Nuke peut créer automatiquement une galerie de passes – économise des heures.
Workflows USD et la couche du pipeline 3D
Le système 3D basé sur USD de Nuke 17.0 marque un changement fondamental. Au lieu de faire cuire la géométrie et les caméras dans Nuke via Alembic, vous pouvez maintenant directement référencer la scène USD exportée par Unreal Engine.
Dans votre projet Unreal, activez l'export USD dans les paramètres du projet. Lorsque vous rendez, Unreal écrit un fichier USD à côté de vos passes de rendu. Ce fichier contient la hiérarchie complète de la scène – caméras, lumières, géométrie – dans un format que Nuke comprend nativement.
Dans Nuke, ajoutez un node ReadGeo et pointez-le vers le fichier USD. Le visualiseur 3D affiche instantanément la géométrie rendue, et vous pouvez superposer des ajustements de couleur 2D par-dessus. Cela permet des workflows puissants : repositionnement des ombres, relighting des caméras via les lumières 3D de Nuke et fusion des ombres douces qui seraient impossibles avec des passes de rendu plates seules.
Pour la production virtuelle sur des volumes LED, la couche USD est critique. Vos données de caméra physique du système de suivi LED circulent dans Unreal, puis reviennent à Nuke via USD. Tout ajustement de caméra que vous effectuez dans Unreal met automatiquement à jour votre référence Nuke USD si vous utilisez la synchronisation en direct.
Nuke Stage : Compositing pour la production virtuelle
Nuke Stage est spécialement conçu pour le compositing en temps réel dans les environnements de production virtuelle. Contrairement à Nuke standard, Nuke Stage lit des composites complets en temps réel, synchronisés au timecode de lecture et déclenchés par des indices externes (comme la synchronisation du mur LED ou les marqueurs de production).
Configurez Nuke Stage sur une station de travail dédiée près de votre console de contrôle LED. Connectez-vous via un réseau à votre système de composition Nuke. Tandis que votre directeur de la photographie ajuste l'éclairage sur le plateau, votre opérateur Nuke Stage ajuste la couleur, ajoute des effets et renvoie un flux composite final au contrôleur LED en temps réel. Cette boucle de rétroaction était impossible il y a cinq ans.
La plupart des configurations de Nuke Stage utilisent le node UnrealReader pour extraire les données de beauté en direct et les données cryptomatte. L'opérateur crée ensuite une composition légère (gradation des couleurs, keying, effets minimaux) qui se lit à 24 ou 30fps sans mise en mémoire tampon. Le travail des effets lourds se fait hors ligne plus tard, mais le réalisateur les voit en direct sur le plateau.
Gestion des couleurs : ACES et OpenColorIO sur le pipeline
Les inadéquations de couleur entre Unreal et Nuke détruisent les composites. Nous avons vu des passes de beauté teintées en vert, des ombres surexposées et des décalages de teinte qui gaspillent des jours en retouche.
Nuke et Unreal supportent maintenant OpenColorIO nativement. Créez un seul fichier de configuration OCIO – généralement basé sur la norme ACES (Système d'codage des couleurs de l'Académie) – et pointez-le avec les deux applications. Cela garantit que chaque outil utilise la même conversion d'espace de couleur : espace de travail linéaire, ACEScc pour la gradation et Rec.709 ou DCI-P3 pour la sortie.
Dans Nuke, définissez l'espace de couleur de travail de votre projet dans Préférences > Couleur. Dans Unreal, accédez aux paramètres du projet > Moteur > Rendu > Gradation des couleurs et spécifiez la même configuration OCIO.
Pour la production virtuelle, ajoutez une petite étape d'étalonnage de moniteur. La sortie de couleur réelle de votre volume LED peut différer légèrement des couleurs simulées d'Unreal en raison des caractéristiques du phosphore LED physique. Photographiez une charte de couleurs, apportez-la dans Nuke et créez un simple ajustement LUT qui tient compte de la dérive. Appliquez cette LUT à vos passes de beauté tôt dans votre script de composition.
Exigences matérielles : débit GPU et contraintes en temps réel
Un pipeline Nuke vers Unreal de production est très gourmand en GPU. Vous n'exécutez pas seulement le compositing ; vous synchronisez la lecture en temps réel, lisez des images multican canal et poussez potentiellement vers plusieurs sorties.
Minimum : RTX 4070 avec 12GB VRAM, processeur Xeon, 64GB RAM système. Cela gère le compositing mono-séquence en résolution HD.
Recommandé : RTX 6000 Ada (48GB VRAM), Xeon Platinum, 128GB+ RAM. Cela supporte le compositing 4K, la lecture en direct et plusieurs threads de composition simultanés.
Pour la production virtuelle : Configurations dual-GPU (une pour la synchronisation UnrealReader, une pour la lecture Nuke) ou des machines dédiées pour chaque rôle. La bande passante réseau entre Unreal et Nuke doit dépasser 10Gbps.
La vitesse de stockage a de l'importance. Les passes de rendu consomment beaucoup de bande passante. Utilisez un RAID NVMe ou des SSDs Thunderbolt pour la lecture de séquences. Si vous tirez en direct d'UnrealReader, assurez-vous que votre tissu réseau a une faible latence (idéalement moins de 1ms).
Où le Cloud Rendering s'intègre dans votre pipeline
Pas tout le travail ne se fait sur votre ferme locale. De nombreux studios utilisent le Cloud Rendering pour les compositing Nuke lourds, surtout lorsqu'il s'agit de sources 8K ou d'effets de particules complexes.
Notre ferme chez Super Renders Farm supporte OpenEXR et les formats de passes de rendu propriétaires. Lorsque votre composition Nuke locale atteint les passes de qualité finale, exportez votre script (avec toutes les séquences de passes) vers le stockage cloud. Notre infrastructure de rendu traite la composition à une résolution ou une fréquence d'images bien supérieure à ce que votre station de travail pourrait réaliser localement.
Pour les workflows Nuke vers Unreal, le Cloud Rendering excelle dans ces scénarios :
Compositing d'effets lourds : Votre prise de mur LED a capturé la beauté et la cryptomatte. Le travail local Nuke a ajouté des keys, des rotoscopes et des effets suivis. Quand prêt pour la sortie finale, poussez le script vers notre ferme pour un rendu 4K 50fps.
Re-rendus par lot : Les notes du réalisateur demandaient des ajustements de couleur. Au lieu de re-rendre dans Unreal (heures), modifiez votre script Nuke et le Cloud Rendering génère la nouvelle sortie (minutes).
Rendu distribué pour roto complexe : Scènes longues avec travail de rotoscope image par image. Notre ferme distribue les images sur des clusters CPU, finissant en une fraction du temps.
Consultez notre guide Cloud Rendering visualisation de produits et VFX pour la configuration détaillée.
Construire votre premier pipeline de test
Commencez petit. Choisissez une séquence Unreal simple – par exemple un panoramique de caméra sur une nature morte. Activez l'export USD et configurez une sortie de passe de rendu basique : beauté, cryptomatte et normales.
Dans Nuke, connectez-vous à UnrealReader et tirez ces passes. Construisez une composition minimale : une simple gradation des couleurs, une clé cryptomatte pour isoler un objet et un ajustement des ombres en utilisant la passe normale. Lisez-la en synchronisation avec Unreal.
Une fois que cela fonctionne, superposez de la complexité : plus de passes personnalisées, relighting USD, synchronisation de production virtuelle. Documentez votre workflow dans un script de modèle – les projets futurs construiront beaucoup plus rapidement sur cette fondation.
FAQ
Question : Quelle est la différence entre UnrealReader et lire directement les séquences EXR ? A : UnrealReader se synchronise en direct avec Unreal en temps réel, permettant les workflows de production virtuelle et le retour instantané. Lire les séquences EXR nécessite qu'Unreal écrive d'abord les fichiers sur disque, ajoutant de la latence mais vous donnant de la flexibilité hors ligne. La plupart des pipelines utilisent les deux : UnrealReader pour le travail sur plateau, les séquences EXR pour le compositing hors ligne final.
Question : Puis-je utiliser Nuke Stage sur un GPU plus ancien ? A : Nuke Stage nécessite la lecture en temps réel, donc une RTX 3070 ou plus récente est le strict minimum. Les architectures plus anciennes manquent de la bande passante mémoire et de la vitesse d'encodage NVENC nécessaires pour les environnements de production. Nous avons testé RTX 4070 et versions ultérieures pour une lecture fiable de 24fps en 4K.
Question : Dois-je convertir mes rendus Unreal dans un format spécifique avant que Nuke les lise ? A : Non, Nuke comprend OpenEXR, EXR multicouches et les formats propriétaires directement via UnrealReader. Assurez-vous que vos paramètres de sortie Unreal spécifient une profondeur de couleur de 16 bits ou 32 bits pour la qualité de compositing. Évitez 8 bits sauf si vous prévisualisez uniquement.
Question : Comment gérer la cohérence de l'espace de couleur si mon studio utilise différentes versions d'OCIO ? A : Épinglez Nuke et Unreal à la même version d'OCIO – actuellement 2.2.1 est standard. Les incompatibilités de version causent des décalages de couleur subtils. Stockez votre configuration OCIO dans le contrôle de version à côté de vos fichiers de projet, donc chaque membre de l'équipe et chaque machine de ferme utilise les paramètres identiques.
Question : Que se passe-t-il si ma connexion Internet tombe au milieu du rendu en production virtuelle ? A : UnrealReader dispose d'un tampon de reconnexion intégré. Si la connexion tombe pendant moins de 30 secondes, la lecture reprend automatiquement. Au-delà de cela, Nuke Stage revient à la dernière séquence de frames en cache jusqu'à la reconnexion. Pour le travail en direct critique, utilisez des liaisons Internet doubles et testez le basculement pendant les répétitions.
Question : Puis-je exporter une composition Nuke terminée vers Unreal pour la lecture en temps réel ? A : Oui. Exportez votre sortie Nuke en tant que séquence d'images ou fichier vidéo, puis importez-la en tant que texture médias dans Unreal. Cela ferme la boucle : Unreal rend → Nuke compose → Unreal lit. Utile pour les révisions clients et le contenu corrigé en couleur final sur les murs LED.
Question : Comment le Cloud Rendering affecte-t-il le workflow de synchronisation Nuke-Unreal ? A : Le Cloud Rendering casse la synchronisation en temps réel (par conception – c'est asynchrone). Utilisez-le pour les travaux de sortie finale après avoir approuvé votre composition localement. Pour les décisions sur plateau, gardez le compositing local. Notre ferme traite les travaux cloud en parallèle, donc vous pouvez soumettre plusieurs variantes pour comparaison.
Nous avons implémenté ce pipeline sur des dizaines de productions, de la télévision épisodique aux VFX de cinéma, et les économies de temps sont importantes. Commencez avec notre guide de démarrage si vous êtes nouveau sur notre plateforme, et explorez notre ferme de rendu cloud GPU pour accélérer votre compositing Nuke.

