• Aucun résultat trouvé

I.1. Présentation de la synthèse d'images animées

I.1.2. Description des différentes étapes

I.1.2.1. La modélisation

La modélisation (modeling) consiste à créer une forme en trois dimensions ; L'interface du logiciel 3D met à disposition plusieurs fonctionnalités pour transformer des géométries simples (lignes, cubes, sphères, etc.) en géométries complexes (des objets, des corps humains, etc.). L'utilisateur peut se baser sur des références (photos, designs, sculptures) pour créer le modèle dans l'espace 3D du logiciel. On peut aussi obtenir le modèle 3D à partir d'un système d'acquisition, un scanner 3D, ou bien par photogrammétrie, c'est-à-dire à partir d'une série de photos15. Une modélisation aboutit donc à un volume virtuel.

I.1.2.2. Le dépliage des UV

Étape préparatoire à l'application des textures sur l'objet, le dépliage des coordonnées UV16 (UV unwrapping) correspond à une mise à plat optimale de la surface du modèle. Le but est de faire correspondre idéalement la texture-image 2D au volume 3D pour qu'il n'y ait aucune distorsion lors du plaquage de texture. Le dépliage d'UV n'est pas vraiment considéré comme une étape à part entière. On l'associe soit à la fin de la modélisation, soit au début de la fabrication des textures.

Les logiciels d'aujourd'hui spécialisés en modélisation (Pixologic Zbrush ou Luxology Modo) ou bien en texturation (Right Hemisphere Deep Paint 3D, Maxon Body Paint 3D) intègrent tous un module de fonctions pour déplier les UV. Mais d'autres logiciels sont pleinement consacrés à ce travail (Headus UVLayout, Ultimate Unwrap3d, Unfold).

I.1.2.3. La texturation : la fabrication des matériaux et des textures

Pour apporter matière et couleur au modèle 3D, on lui applique un matériau lors de l'étape de texturation. Ce matériau, plus communément appelé shader, est défini par un ensemble de paramètres : il faut notamment choisir un type de réflexion lumineuse parmi différents modèles d'illumination (Lambert, Phong,

15 DEBEVEC, Paul Ernest et al. Modeling and Rendering Architecture from Photographs : A Hybrid Geometry and Image-Based Approach. In Siggraph '96, 1996.

16 UV est une convention pour définir les coordonnées de la surface bidimensionnelle d'un objet 3D

Anisotropic, etc.). Comme le matériau dépend de la lumière, on règle ses paramètres (couleur, transparence, réflexion) selon un éclairage standard. C'est la phase technique de shading, le paramétrage du matériau. Ensuite, si cela est nécessaire, on s’emploie en texturing à fabriquer des textures picturales (des images conçues sous un logiciel 2D) qui seront utilisées pour régir l’un des paramètres du shader comme dans l'exemple ci-dessous.

Shader dont la couleur dépend d'une image (logiciel Softimage XSI)

Le camera mapping17 est une autre technique de texturation qui consiste à projeter des images sur des plaques en fonction d'une vue caméra. Cette méthode a l'avantage d'alléger le travail de dépliage d'UV (simple projection linéaire) et d'évincer l'étape d'éclairage : la lumière est déjà représentée dans la texture (le modèle d'illumination est dit '' constant '' c'est-à-dire sans paramètre de réflexion, réfraction, etc.). Toutefois, elle limite les mouvements de caméra puisque, semblablement au décor d'un théâtre, le changement de point de vue dévoile la tromperie. La planche 1 illustre la technique du camera mapping, employée sur le pilote du long-métrage Les champs de lumière, réalisé par Cédric Babouche à Def2Shoot.

« En utilisant la 3D, on va chercher à créer des lumières, des textures, une ambiance... finalement on "tâtonne" beaucoup, même avec beaucoup de recherches... alors qu'avec le camera mapping tu as ton dessin original, bien pensé dès le départ, dans lequel tu as les informations artistiques que tu désires. Cela permet de garder une patte d'auteur qu'il est parfois difficile de conserver en passant en full 3D... » (Cédric, réalisateur)

Avec le camera mapping, ce n'est donc pas la 3D qui crée l'image, mais plutôt l'image qui se décompose en 3D. Cédric ajoute qu'il aime la sensation d'entrer dans un dessin, effet qu'il véhicule grâce à cette technique.

I.1.2.4. L'actorisation et l'assignation

L'actorisation (Character setup - Rigging) et l'assignation (Skinning) sont deux étapes complémentaires permettant de transformer la '' sculpture virtuelle '' en '' marionnette '' animable. L'actorisation se divise en deux phases : tout d'abord, la création du squelette du personnage, c'est-à-dire l'assemblage des os virtuels formant l'armature qui régira les possibilités de l'animation. Puis le rigging, littéralement gréement18, qui consiste à établir des relations entre les différents os. Pour éviter que l'animateur anime chaque articulation, on met en place des manipulateurs simplifiant la tâche. L'objectif global est de paramétrer le squelette pour lui permettre de faire tous les mouvements prévus lors de l'animation (on parle plus généralement de l'étape de " setup "). Vient ensuite l'assignation, qui désigne l'attribution de l'enveloppe corporelle au squelette : la liaison entre la peau (le maillage géométrique modélisé) et l'ossature est régie par une image de pondération reliant les zones de la surface du modèle aux différentes parties de l'armature.

Le squelette d'un personnage

Pour les personnages plus complexes, on met éventuellement en place un système musculaire et adipeux, liant les os et influençant le déplacement de la peau. Comme ces systèmes alourdissent beaucoup le modèle, une méthode alternative consiste à utiliser le système musculaire uniquement pour créer des géométries d'interpolation (blendshapes).

I.1.2.5. L'habillage des personnages : vêtements et poils

Pour finaliser les personnages, il faut ajouter parfois des poils, des cheveux ou des vêtements qui réagissent dynamiquement lors de l'animation : effets de retard, collisions avec le corps, ou encore réaction à des forces physiques comme du vent. On procède donc à des simulations dynamiques pour régler le mouvement naturel de ces éléments. Cependant, un ajustement sera souvent nécessaire au plan par plan, en fonction des gestes des personnages.

I.1.2.6. Le layout

Avec le layout, on entre à proprement parlé dans la fabrication de la prise de vue animée, " scénarisée ". Nous reviendrons plus en détail sur l'importance de cette étape et le découpage scénaristique. Contentons-nous pour l'instant de définir le layout comme l'étape de composition de la scène (Set Dressing) – c'est-à-dire le regroupement des éléments modélisés, texturés et éventuellement prêts à être animés – et de positionnement de la caméra virtuelle. La caméra est animée et les personnages sont placés dans une succession de poses d'actions clés.

I.1.2.7. L'animation des personnages

L'animation des personnages (ou des objets) consiste à donner vie aux modèles 3D en animant les armatures virtuelles. Différentes techniques permettent d'aboutir à un tel résultat. Les plus courantes sont sans doute les techniques manuelles directement issues de l'animation traditionnelle : le pose to pose et le straight ahead. En animation traditionnelle19, le pose to pose consiste à dessiner les attitudes les plus importantes du personnage, les poses clés, puis les poses transitoires. C'est ensuite le travail de l'intervalliste de finaliser les poses

19 WILLIAMS, Richard. The Animator's Survival Kit. 2001.

intermédiaires. Le straight ahead, plus intuitif, consiste à se lancer dans l'animation sans pose principale. Richard Williams parle de la meilleure technique comme une combinaison des deux. Sur ordinateur, l'infographiste manipule les articulations du squelette et fige le modèle 3D dans des poses clés. Puis il règle l'interpolation mathématique proposée par le logiciel en ajustant des courbes représentatives du mouvement, et en ajoutant des clés intermédiaires sur certaines articulations.

Un autre procédé d'animation, demandant des compétences techniques plus pointues, est la programmation d'un comportement. Cela peut aller du simple script pour animer les pattes d'une araignée ou les roues d'une voiture, au développement de mouvements plus complexes, comme les algorithmes génétiques des créatures de Chu-Yin Chen20. Dans le logiciel 3D, les paramètres animables peuvent prendre la valeur d'une expression mathématique, qui peut intégrer des variables issues d'un son, d'un fichier texte, d'un périphérique externe (souris, tablette de mixage). Sur la série Bravo Gudule, la bouche était animée grâce à la succession de displacement maps21 régies par un fichier des dialogues convertis en phonèmes. L'animation d'une foule22 de personnages ou de créatures se gère aussi par des comportements : enchaîner différents cycles de marche, suivre un élément, éviter les collisions avec les autres individus ou des obstacles.

La capture de mouvement (Motion capture) est une technique d'acquisition des mouvements d'un acteur réel par un système de captation mécanique (exosquelette), magnétique, ou optique.

Système de captation optique de la société Synthétique

20 Voir à ce propos l'installation Quorum sensing de Chu-Yin Chen.

Pour le procédé optique, les acteurs sont recouverts de petits réflecteurs au niveau des articulations, et jouent dans un espace limité, entouré de caméras infrarouges.

Contrairement à l'animation manuelle, le mouvement est donc enregistré " sous tous les angles " et on peut effectuer le cadrage a posteriori. Aussi, la motion capture est fréquemment complétée d'un post-traitement manuel pour nettoyer les courbes d'animation ainsi récupérées. Pour citer quelques exemples, la capture de mouvement a été employée sur le film Renaissance pour obtenir un style d'animation très réaliste, et sur Kaena la prophétie pour l'animation des foules. Sur le film Monster House, la motion capture a été utilisée pour constituer une matière de base pour le travail d'animation manuelle.

De la même manière, la motion capture permet d'enregistrer les mouvements d'un visage pour retranscrire une animation faciale, ou les mouvements des mains à l'aide de gants. Le procédé reste tout de même coûteux.

I.1.2.8. Les effets spéciaux

Les effets spéciaux (SFX) regroupent toute une variété d'effets dynamiques comme l'eau, la fumée, le feu, la poussière, ou encore des explosions et des gravas. Il peut s'agir de systèmes de particules, de simulations de fluides, ou d'utilisation de moteur de physique pour gérer les interactions entre objets, possédant des propriétés de masse, de densité, de vitesse et de rotation initiale, de raideur, ou encore de friction, et influencés par des forces physiques externes (comme une gravitation, ou une turbulence). Toute cette physique est paramétrable, d'où la nécessité d'une simulation pour régler les mouvements et les collisions avec l'environnement.

Souvent, les effets sont gérés par milliers ou millions de particules. La façon la plus simple d'en prendre le contrôle réside alors dans l'utilisation de la programmation (par exemple, boucle for pour gérer la quantité, instruction if pour gérer différents cas). On affecte directement les valeurs des particules (à l'aide d'opérations mathématiques pour leur dire de changer d'orientation, ou de changer de forme).

La création des effets est donc techniquement assez pointue. Si les logiciels cherchent à simuler une dynamique de plus en plus réaliste, l'ambiguïté repose

parfois dans la nécessité de suivre ou d'interagir avec des animations stylisées de personnages, et donc des mouvements peu naturels : les gestes très rapides, les amplitudes volontairement exagérées, sont des difficultés récurrentes, car les effets réagissent de manière tout aussi brutale et inadaptée (de même pour la dynamique des vêtements et des cheveux). Enfin, gardons à l'esprit que la notion d'effets spéciaux peut prendre une dimension beaucoup plus large, et s'attaquer à une véritable variété de problèmes. C'est sans doute la définition du studio américain Dreamworks qui reste la plus appropriée : « Nous définissons les FX comme, “tout ce qui bouge qui n'est pas un personnage” »23

I.1.2.9. L'éclairage et le rendu

La phase d'éclairage (lighting) consiste au positionnement, au réglage et à l'animation de lampes virtuelles comparables aux projecteurs d'un tournage. Ce n'est pas une simple étape de mise en lumière, mais un moyen de poser une ambiance et de souligner l'action24. Comme l'éclairage est la dernière étape avant le calcul des images, on parle fréquemment de " phase de rendu ", car il faut concilier l'ensemble des paramètres régissant l'apparence lumineuse. On ajuste les matériaux, on règle les ombres, on paramètre la qualité du moteur de rendu, on décompose le calcul en différentes passes25 d'images (couleur, spéculaire, ombre, etc.) qui seront ensuite regroupées au compositing (planche 2).

D'année en année, l'accent a été mis sur la quête du réalisme et des techniques de plus en plus approfondies ont été développées pour respecter les propriétés physiques des matériaux (réaction à la lumière) et l'effet de diffusion de l'environnement sur les objets. Entre autres techniques, on utilise à présent des images à haute gamme dynamique comme environnements d'éclairage. Ces images, fabriquées à partir d'une combinaison de photos à différents niveaux d'exposition, contiennent une gamme de couleurs plus importante dans les hautes et les basses lumières (l'image est stockée dans un format flottant soit 96 bits/pixel ou 296 valeurs possibles de couleurs). Elles retranscrivent donc avec plus de précision l'environnement lumineux.

23 « We define FX as, “anything that moves that is not a character.” » . (source : Site de Dreamworks)

Le calcul des images est effectué par un programme, un moteur de rendu, qui analyse la scène 3D par lancer de rayons pour générer une image 2D. La performance du moteur de rendu et l'optimisation des scènes sont deux facteurs clés pour réduire le temps de calcul.

I.1.2.10. La composition des images

Le compositing26 correspond à l'assemblage des passes d'images calculées pour recomposer le plan et lui donner son aspect définitif. On sort donc du domaine de la synthèse 3D pour passer au traitement d'images 2D. Plusieurs interventions permettent d'améliorer ou de corriger le plan sans nécessiter une relance des calculs : retouches colorimétriques, étalonnage, retouche de l'éclairage, ajout d'effets 2D (textes, textures animées pour des effets de nuages, de pluies, motion blur pour une sensation de vitesse). C'est aussi la phase d'hybridation avec les autres médias (photos, images, pellicules numérisées, acquisitions vidéo ou autres).

26 On parle aussi en français d'" assemblage numérique " mais c'est le terme anglais qui est utilisé au quotidien.