Catégories
Jeu vidéo

3D et jeu vidéo : quelques bases

Est-ce parce que le jeu vidéo était initialement destiné aux adolescents mâles que les gamers et les services de marketing mettent tant d’ardeur à entretenir le syndrome « kikitoudur » du « j’ai plus de puissance et de polygones affichés que la machine du voisin » ? C’est en tout l’un des arguments qui revenaient régulièrement à chaque lancement de console lorsque la 3D est apparue dans l’industrie du jeu. Avant de subir de nouveau ces laïus avec les prochaines machines, voici de quoi mieux comprendre la 3D et ses implications techniques.

Avant de commencer, rappelons qu’il y a autant de méthodes de travail pour produire des images en 3D que de styles de jeu, de studios et d’individus à l’égo plus ou moins bien placé. Il existe néanmoins des archétypes de pipelines de production éprouvés, qu’il faut toujours ajuster selon les besoins du projet et la taille du studio.

Franglais décrypté

Créer une image en 3D est un travail complexe dans lequel interviennent plusieurs métiers différents. Les personnages, par exemple, passent par plusieurs étapes. On commence par ébaucher leur allure générale : le concept artist réalise des croquis en 2D. Une fois le concept validé (par un directeur artistique qui est garant de la cohérence graphique de l’ensemble du jeu), ces données sont envoyées au character artist, qui se charge de les mettre en volume. C’est ce qu’on désigne aussi par les termes modélisation ou modeling. Cela peut être apparenté à de la sculpture. Une fois le modèle en 3D validé, on lui applique des textures (étape du texturing) et on règle les effets de matières à l’aide de shaders (étape du shading).

Ensuite vient la phase de rigging setup qui vise à créer un squelette et parfois même une partie d’un système musculaire pour permettre de mouvoir et déformer le personnage de manière convaincante. C’est le travail du character technical director. Après toutes ces étapes, vous avez enfin une poupée virtuelle à l’effigie du personnage conçu initialement par le concept artist.

Bien sûr, un mannequin ne sert à rien s’il ne bouge pas. Pour ce faire, il faut passer à l’étape de l’animation. Elle peut être générée soit en poses clefs (keyframing) par un animateur, soit avec un acteur par le biais de la capture de mouvement (motion capture, ou mocap). La plupart du temps, les services de communication mettent en avant la mocap car c’est bien plus impressionnant visuellement qu’un homme en t-shirt devant un moniteur bougeant un stylet sur sa tablette graphique…

Mocap et poudre aux yeux

Dans la mocap, un acteur-cascadeur revêt une combinaison sur laquelle sont posés des marqueurs aux différents points d’articulations et membres de celui qui le porte. Des caméras (trois au minimum) triangulent la position de ces marqueurs dans l’espace et un logiciel vient traduire ces informations de position et de mouvement dans l’espace virtuel d’un logiciel 3D.

Les services de communication en général insistent pour dire que c’est une méthode qui génère des données plus « réalistes » en sous-entendant que c’est un gage de qualité pour le rendu final du jeu. Pour la promotion de LA Noire, Rockstar avait lourdement insisté sur la mocap des visages et le rendu très photo-réaliste.

Accessoirement, si l’on peut embaucher une actrice ou des joueurs de football ou de basket-ball connus pour la mocap, les services de communication peuvent en faire les choux gras des magazines people, ce qui est toujours bon pour la visibilité du jeu. Mais la mocap n’est qu’une technique comme une autre qui ne présage en rien de la qualité réelle du jeu.

De plus, elle est utilisée pour un rendu d’animation bien précis. Si on l’emploie volontiers pour un Resident Evil car on a besoin d’animation dite « réaliste », elle ne sert à rien dans un jeu comme Rayman Legends. En pratique, dans l’industrie du jeu, les deux méthodes sont utilisées de façon complémentaire.

En dehors des personnages et des décors, les effets visuels ou FX regroupent un très large éventail d’éléments essentiels pour créer l’effet « waouh ! » indispensable à un jeu : rayon laser, giclée de sang, impact de balle, explosion, fumée ou poussière sont les basiques à fabriquer pour un infographiste FX… Sans eux, la plupart des jeux ressembleraient à une sitcom d’AB Productions.

Enfin, il faut ajouter à cette longue liste d’étapes celles qui concernent l’éclairage et le rendu, discipline proche de la direction photo. Selon la taille et la philosophie du studio, ces disciplines représentent autant de métiers que de personnes à les exercer.

Et les polygones alors ?

Le nombre de polygones sur un modèle en 3D a toujours son importance et plus on en utilise, plus on peut traiter finement les volumes généraux d’un objet. Or plus il y a de polygones à gérer, plus cela prend de la ressource (puissance du processeur, de la ram, de la carte graphique…). Comme ces ressources ne sont pas extensibles, le moteur du jeu en gère une partie pour privilégier l’affichage des polygones ou la finesse des textures.

Quant aux infographistes, on leur demande généralement de faire le plus avec le moins. C’est pour cette raison que la poitrine de Lara Croft dans Tomb Raiderétait initialement une grosse pyramide moche bleutée. Mais cela n’a pas empêché les joueurs de fantasmer dessus tandis qu’elle prenait du volume et gagnait en réalisme au fil des années.

Il est courant d’entendre dire qu’il faut « limiter le nombre de polygones (et la taille des textures) pour bénéficier de meilleures performances ». Bien qu’il s’agisse là d’un lieu commun, cette assertion mérite toutefois d’être nuancée car chaque type de jeu a un traitement des assetsgraphiques différent.

L’évolution esthétique de Lara Croft correspond aussi à celle de la puissance des machines affichant plus de polygones et une meilleure texture…

Il suffit de comparer SoulCalibur à World of WarCraft pour s’apercevoir que toutes les ressources sur le premier sont utilisées dans la création de personnages de très bonne définition en polygones et textures et dans des décors très léchés mais évoluant dans un environnement restreint ; alors que dans WoW, les environnements sont traités avec un grand souci de l’optimisation car ils sont immenses et le jeu doit pouvoir accueillir un nombre considérable de joueurs. Comme vous le constaterez, comparer le nombre de polygones des personnages de jeux différents est parfaitement ridicule.

En outre, depuis un peu moins d’une dizaine d’années, s’est répandu l’usage de ce qu’on appelle une « normal map », qui permet de faire figurer du volume là où il n’y en a pas et surtout de rendre ce pseudo-volume réactif aux mouvements d’une lumière dynamique. C’est au premier abord magique mais cette technique comporte certaines limitations. La normal map est un « trompe-l’œil dynamique » et comme tout trompe-l’œil qui se respecte, l’illusion opère dans une gamme d’angles de vue. Avec DirectX 11, on contourne le problème en utilisant une subdivision de polygones liée à la proximité de la camera couplée à un vector displacement qui permet de générer cette fois de vrais volumes. Bien que très gourmande en ressources, cette technique devrait se répandre dans les mois qui viennent.

Aliasing

Bien que les jeux soient en 3D, on peut avoir l’impression que l’image est « pixelisée », que les contours des objets ou des personnages ont un effet d’escalier. C’est ce qu’on appelle l’aliasing.

Rappelons qu’une image sur un écran peut être comparée à une mosaïque composée de pixels. Chaque pixel est un carreau de faïence qui change de couleur dynamiquement. En schématisant, plus on a de pixels à l’écran, plus la résolution est élevée, plus l’image est définie. Prenons par exemple les télévisions LCD actuelles. Leur résolution affiche au minimum un 720p (1 280 pixels x 720 pixels) et au maximum un 1080p (1 920 pixels x 1 080 pixels) : on peut compter les pixels en milliers pour le 720p et en millions pour le 1080p, ce qui est énorme ! Sur les consoles actuelles, on affiche le plus souvent du 720p, ce qui est considéré comme de la haute définition.

Ces jeux qui donnent ces effets d’images pixelisées ne bénéficient pas d’un bon anti-aliasing (AA) ou n’en ont pas. L’anti-aliasing permet d’interpoler un ensemble de pixels en teintant les pixels voisins afin d’adoucir les contours des objets. D’une certaine manière, l’AA réchauffe l’image en gommant l’aspect froid de l’effet escalier. C’est aussi un élément qui aide à l’immersion…

Lumières !

Outre la création des objets en 3D et leur animation, la plupart des moteurs de jeu et logiciels mettent en valeur la gestion de la lumière, composante essentielle au réalisme des univers créés. Depuis quelques années, les trailers et images destinés à la communication focalisent notre attention sur le nombre de lumières gérées avec notamment de multiples effets de pluie, de reflets et de poussières.

Il y a globalement deux façons de gérer les sources lumineuses. Soit elles sont précalculées et donc non dynamiques (on parle de lumières « bakées » comme dans l’Unreal Engine des américains Epic) ; soient elles sont gérées de façon dynamique. La technique de baking, aussi appelée lightmapping, permet d’atteindre une grande qualité d’éclairage sans trop utiliser de ressources. Au niveau des lumières dynamiques, on oppose souvent le deffered rendering au forward rendering. Le premier est une technique dynamique qui permet de prendre autant de ressources pour une lumière que pour cent. Il en résulte alors un éclairage plus vivant plus varié. Et les développeurs (les graphistes surtout) ont tendance à la préférer car il permet un meilleur contrôle de l’image.

Toujours au chapitre de l’éclairage, le CryEngine des allemands Crytek a fait parler pour son utilisation de la radiance (ou radiosité), qui fait partie des techniques de lumière indirecte. Celles-ci simulent les rebonds de la lumière sur les objets qu’elle éclaire. Par exemple, mettons une poubelle rouge près d’un mur blanc très ensoleillé, il en résulte que la couleur rouge de la poubelle irradie sur le mur blanc.  Ces techniques d’indirect illumination donnent des images d’un réalisme très convaincant. Avec quelques bons réglages, elles peuvent s’appliquer à des rendus plus fantaisistes. C’est un véritable plus esthétique, mais on a fait de magnifiques jeux sans. L’utilisation ou la non-utilisation de ce procédé peut se justifier sur sa seule consommation de ressources.

Cinématiques

En jeu vidéo, le plus important reste la 3D en temps réel puisque vous êtes là pour interagir avec le monde virtuel par la biais du personnage joueur. Mais dès le début, le média lorgne sur le cinéma, dont il emprunte des codes ou des poncifs. Les scènes entrecoupant les phases de jeu avaient tendance à être mieux animées et plus réussies d’un point de vue graphique que les moments de jeu. Dans un cas, tout est précalculé. Dans l’autre, tout est en temps réel. Mais ces transitions se font de plus en plus facilement parce que les développeurs ont créé de bons outils pour ça. Ils réalisent de plus en plus, et surtout de plus en plus facilement, des cinématiques avec le moteur du jeu.

MGS 4 de Konami en est l’exemple parfait. On ne trouve dans ce jeu pas une goutte de précalculé (sauf peut-être les pubs au début).  L’UDK a son « Matinée » qui sert à faire les cinématiques pour Gears of War.  Passion Pictures et Nvidia ont réalisé The Butterfly Effect, un véritable court métrage en rendu temps réel avec Unity. La transition phase de jeu et cinématique ne semble plus trop poser de problèmes.

Logiciels 3D

3dsmax ou « Max » comme on l’appelle dans le milieu était l’un des softwares les plus faciles à pirater et beaucoup de gens se sont donc formés dessus. C’est l’un des logiciels les plus employés en France. Mais son manque de stabilité fait que beaucoup se tournent vers Maya, beaucoup plus difficile d’accès et souvent considéré (par snobisme ?) comme un outil beaucoup plus pro.

Pour Street Fighter IV les personnage, décors et animations ont été réalisés avec Autodesk Softimage et Autodesk 3ds Max
Après avoir été réalisé en 3D, un rendu 2D a été employé pour l’esthétique spécifique au jeu

Le dernier logiciel 3D très prisé dans le jeu vidéo est Softimage, racheté voici quatre ans par Autodesk, la société déjà propriétaire de Max et Maya. Il est très utilisé dans les studios asiatiques comme Capcom, Konami, Platinum Games, Tecmo Koei, Team Ninja… Ces trois logiciels font les mêmes choses avec plus ou moins de facilité pour leur utilisateur et de stabilité. Ces trois principaux softsne sont pas obligatoires mais la famille à laquelle ils appartiennent, celle des packages 3D, est essentielle pour créer les assets qui habillent un jeu.

Article réalisé avec l’aide M. Gantois.

Qu'en pensez-vous ?