Mise à jour des cinématiques de conversation Bonjour, je m‘appelle Chuck Jackman. Je dirige la motion capture et l’animation des cinématiques de conversation dans Guild Wars 2, et je suis là pour vous donner un petit aperçu du processus. Qu’est-ce qu’une cinématique de conversation exactement ? Merci de me poser la question. Si vous avez joué à la démo de GW2, vous avez vu des petites scénettes qui mettent en jeu des PNJ de l’histoire et votre personnage. Ce sont des cinématiques de conversation.
Jusqu’à présent, vous n’avez vu qu’une version de substitution pour ces cinématiques de conversation. Cela est dû au fait qu’à ArenaNet nous avons un processus de création très itératif, ce qui nous permet d’ajouter des couches de contenu au fur et à mesure qu’elles sont terminées. Cela nous permet de voir comment tout colle, de peaufiner des réglages et améliorer l’ensemble. Nous avons profité de cette approche pour les cinématiques de conversation pour que nos écrivains et designers puissent avoir un aperçu pour le rythme de l’histoire et des évènements alors que nous travaillions toujours sur ce que nous voulions accomplir visuellement. Cela nous a permis aussi de perfectionner nos outils et notre façon de faire.
Quand nous avons commencé le développement de GW2, nous voulions améliorer l’histoire par plus de scénettes qu’il n’y avait dans Guild Wars. Nous avons rapidement décidé que nous aurions trois niveaux de cinématiques dans le jeu. Niveau 1, ou “total cinématique”, serait pour les haut-faits, la destruction d’Ascalon, l’anéantissement d’un dragon, les moments les plus forts de l’histoire. Elles seront gérées par notre outil breveté, Cameo, et réalisées par la même équipe au talent incomparable qui gère les sublimes trailers que vous avez pu voir. Elles mettent en jeu un mélange d’images 2D et 3D ainsi que des animations.
Puis nous avons le Niveau 2. Ce sont les rouages de l’histoire, tous ses méandres, et la substantifique moelle de votre histoire personnelle. Elles ne sont pas pré-rendues et se mettent en place quand l’histoire a besoin de plus que l’action en jeu. Ce sont les cinématiques de conversation.
Enfin, les scènes prennent place dans le jeu sous forme d’un PNJ prononçant du texte, et servent plus souvent à donner des indications et des informations plutôt que donner du contenu à l’histoire. C’est donc le 3e et dernier niveau que nous appelons “scènes”.
Nous savions que nous avions des conversations plus vivantes dans GW2 que dans Guild Wars, mais nous voulions les rendre encore plus vivantes que dans les scènes provisoires qui étaient déjà intégrées. Ces versions de substitution consistaient globalement en deux personnes se tenant là avec un minimum d’animations apparemment aléatoires. Elles mettaient en jeu une synchronisation labiale très basique qui ressemblait plus à un bec de canard qu’à une bouche humaine. Cela était dû au fait que ces animations provisoires n’étaient rien d’autre qu’une animation automatique de mouvement labial et une réserve très limitée d’animations basiques d’inactivité ou de conversation. Cela, bien entendu, ne permettait pas aux personnages de convoyer l’émotion voulue de façon crédible ou réaliste. Il nous était impossible d’associer des gestes aux personnages pendant les moments clés du dialogue car ces animations étaient verrouillées.
Nous avions besoin d’une solution souple qui nous permettait de réutiliser et recycler les animations d’une réserve de contenus à travers une histoire très large sans que le tout sente le réchauffé. Nous nous sommes donc rassemblés avec des artistes techniques, des programmeurs, des designers et des écrivains, et nous avons déterminé ce que nous désirions obtenir et comment le réaliser. Après quelques expérimentations et quelques prototypes, nous avons choisi d’utiliser un principe de couches dans les animations des cinématiques de conversation, en utilisant la motion capture, des animations clé en main, des animations additives et un logiciel très costaud de synchronisation labiale.
Une fois tout cela mis en place, nous avons occulté le soleil et les étoiles, invoqué depuis lors le brouillard, le tonnerre et les éclairs, allumé des bougies rituelles, et transmis notre demande à l’équipe de programmation des outils. Eux, à leur tour, ont mis en œuvre leur magie noire la plus sinistre et extirpé le code nécessaire directement du cerveau des dieux anciens, le piégeant dans un ensemble d’outils fantastique, nous permettant d’accomplir tous nos plus pernicieuses …euh… cinématiques de conversation.
Ce nouvel outil nous a permis d’avoir des animations d’inaction continuelles selon l’état émotionnel du personnage, tout en nous laissant la possibilité d’y ajouter des mouvements et des expressions faciales. La souplesse des animations additives nous donne le moyen de créer de petites animations gestuelles qui peuvent s’ajouter à n’importe laquelle des animations d’inaction que nous utilisons. Par exemple, nous pouvons animer un haussement d’épaules, l’ajouter à une posture confiante, et l’animation se jouera correctement. Nous pouvons utiliser le même haussement d’épaules sur une posture énervée, et cela paraîtra tout aussi cohérent.
Nous avons eu la même approche de couches additives pour les visages. Cela nous permet d’avoir des “animations oisives” basées sur l’humeur ou l’émotion et y surajouter l’animation de synchronisation labiale. Nous pouvons alors déposer des animations faciales supplémentaires au moment opportun du dialogue. Par exemple, nous pouvons faire qu’un personnage ait l’air timide ou effrayé pendant qu’il parle. Puis un évènement leur fait peur et nous pouvons ajouter un tressaillement au visage, au corps, ou aux deux indépendamment juste au bon moment pour qu’ils réagissent à ce qu’il leur arrive dans la scène.
Donc voici un aperçu de comment nous montons une cinématique de conversation : après que le doublage final est terminé et que l’équipe audio y ait instillé sa magie, j’écoute les scènes quelques fois pour déterminer l’état émotionnel des personnages, et identifie les endroits où placer des gestuelles qui accentueraient le rythme du dialogue. J’amène alors ces notes dans notre salle de jeu de motion-capture avec le directeur de l’animation, Heron Prior, et l’autre gars de la motion capture, Igor …euh… je veux dire Andrew. Nous plaçons la victime de notre choix dans son équipement de motion capture et la faisons se plier et se contorsionner selon nos souhaits et lubies jusqu’à ce qu’elle réalise la performance qu’on attend d’elle ou qu’elle s’effondre en une masse de désespoir larmoyant.
Nous réalisons la motion capture sur place en utilisant une méthode légèrement différente de celle dont la plupart des gens ont l’habitude. Nous utilisons un système de motion capture sans camera appelé Xsens MVN, qui est une combinaison avec plein de capteurs d’inertie qui détectent chaque mouvement du corps et transmet ces informations à un ordinateur. Ce système nous laisse beaucoup de souplesse puisque nous pouvons l’utiliser au dehors plutôt qu’à l’intérieur d’un studio.
Une fois cette étape réalisée, moi ou un membre de l’équipe d’animation importe les données dans Motion Builder (NdT : “Constructeur de Mouvement”, nom du logiciel). Puis nous opérons un nettoyage extensif et prenons de nouvelles poses, et c’est au tour de Maya pour encore plus d’amour et de vernis. Cela devient la base “oisive”, ou le fondement de l’animation d’une émotion. Voyez cela comme le langage corporel ou la pose globale et les mouvements du corps. Une fois la couche oisive en place, nous y ajoutons les gestuelles – soit provenant de motion capture ou codées au clavier. Puis Heron et moi les regardons à nouveau et déterminons où, si jamais, nous devrions placer des gestuelles additionnelles. Nous les créons de façons traditionnelles en les codant directement.
Regardons un exemple de cinématique de conversation dans Guild Wars 2 :
Si vous regardez la vidéo de la cinématique entre la Prêtresse de Dwayna et le joueur vous pouvez en voir un exemple. Quand le joueur se gratte la tête, gestuelle de confusion au début est une gestuelle impliquant l’ensemble du corps mélangée avec une posture neutre. Les mouvements des mains de la Prêtresse de Dwayna pendant qu’elle parle au joueur sont de petites gestuelles ajoutées à l’animation oisive.
Pendant que l’équipe d’animation est occupée par son travail sur les expressions mouvements faciaux, la synchronisation labiale est générée en important les fichiers audio finaux et les textes des auteurs dans un programme appelé FaceFX (NdT : “effets de visage”). Ce programme conjugue la phonétique avec les animations créées par notre équipe. Quand les séquences sont disponibles, nous les ajoutons aux cinématiques de conversation optimisées, améliorées et ajustées tant qu’elles ne nous satisfont pas.
La synchronisation labiale n’est pas notre seul travail sur les visages. Nous réalisons aussi la gestuelle et les boucles faciales. Elles fonctionnent exactement comme les gestuelles et les animations oisives évoquées plus haut pour le corps, mais la grosse différence est que les boucles pour le visage peuvent être utilisées sur un grand panel d’animations “oisives” pour le corps, ce qui nous permet de faire transparaître des émotions subtiles ou extrêmes.
Par exemple, dans une scène avec un personnage enragé vous pourriez mettre une animation colérique pour le corps avec une des boucles colériques pour le visage. Si la scène nécessite un personnage sévère, nous ne disposons pas d’une animation « sévère » en soi, mais nous pourrions associer une animation de corps confiant, un front plissé, et une boucle faciale de colère pour illustrer cet état émotionnel.
Regardons une autre cinématique de conversation pour illustrer un peu plus ces améliorations :
Voilà, c’est à peu près tout. En y regardant à deux fois, ma brève synthèse de notre méthode n’était pas si brève que ça au final, mais j’espère que vous avez apprécié lire ce texte sur nos cinématiques de conversation autant que j’apprécie les réaliser. Portez-vous bien, et j’espère vous croiser en jeu !
SOURCE : http://gw2.luna-atra.fr