Titre : L’enthousiasme d’AMD, Intel, Microsoft et Nvidia pour les vecteurs coopératifs : un avenir prometteur pour les graphiques 3D, mais des résultats encore éloignés.

Lors de la Game Developer Conference à San Francisco, Microsoft a présenté les vecteurs coopératifs, une nouvelle API pour DirectX 12, permettant aux développeurs d’exploiter directement les cœurs de matrice des GPU. Bien qu’attendue, cette technologie nécessite encore du temps avant d’être pleinement intégrée dans les jeux. Des avancées ont été mentionnées par Nvidia et Intel, mais AMD a été moins prolifique. Nvidia semble mener la charge, avec une version préliminaire de l’API prévue pour bientôt.

Introduction à la Game Developer Conference

Lors de la Game Developer Conference (GDC) de cette année à San Francisco, Microsoft, accompagné des trois principaux fabricants de GPU, a ouvert une semaine de discussions sur les techniques graphiques avancées. Au programme, une présentation de la prochaine innovation : les vecteurs coopératifs. Bien que cette nouvelle fonctionnalité promette de révolutionner notre expérience de jeu, il faudra encore patienter avant d’en voir les effets concrets sur les titres que nous adorons. De plus, un fournisseur de GPU a récemment rejoint le groupe des cœurs de matrice, ajoutant à l’anticipation autour de cette technologie.

Comprendre les vecteurs coopératifs

Si vous vous interrogez sur la nature des vecteurs coopératifs, vous n’êtes pas le seul. Malgré leur annonce, Microsoft n’a pas réussi à clarifier ce concept, son fonctionnement et ses applications potentielles. Heureusement, Shawn Hargreaves, responsable du développement de DirectX chez Microsoft, a fourni un aperçu précieux de cette nouvelle fonctionnalité pour son API graphique. Bien qu’il soit un expert de Windows, il est important de noter que cette technologie sera également accessible via Vulkan.

Les vecteurs coopératifs désignent une API supplémentaire au sein de la famille DirectX 12, permettant aux développeurs d’exploiter directement les cœurs de matrice ou de tenseur d’un GPU, sans devoir se plier aux API spécifiques des fabricants. Par exemple, avec les cartes GeForce RTX de Nvidia, les cœurs Tensor prennent en charge de manière autonome tous les calculs FP16, mais cela nécessite habituellement l’utilisation d’outils comme CUDA pour les programmer. L’API DX12 CoopVec simplifie ce processus, car elle sera adoptée par AMD, Intel, Nvidia et même Qualcomm.

Il est possible de considérer CoopVec comme un ensemble d’instructions HLSL (High Level Shader Language) supplémentaires, optimisées pour les opérations matrice-vecteur que les cœurs de tenseur/matrice sont conçus pour accélérer. Toutefois, une manière plus pertinente de voir cette API est qu’elle vise à intégrer le concept de « petite IA » dans les shaders.

Des représentants d’AMD, Intel et Nvidia ont tous partagé leurs développements en lien avec CoopVec. Nvidia a déjà suscité l’intérêt avec des innovations telles que la compression de texture RTX et les matériaux neuronaux RTX. Hargreaves a qualifié ces développements de « fruits à portée de main » de ce qui peut être accompli avec CoopVec, tout en soulignant que nous sommes encore aux premiers stades de son potentiel. L’objectif est d’utiliser un petit réseau neuronal, stocké sur le GPU, pour réaliser des tâches qui seraient autrement trop coûteuses en termes de shaders ou de données.

Intel, quant à lui, a développé son propre algorithme de compression de texture neuronale, bien qu’il soit basé sur une technologie initiée par Ubisoft. Leur système, bien que différent de celui de Nvidia, poursuit un but similaire : diminuer l’empreinte mémoire et les besoins en bande passante pour des matériaux très détaillés. Par exemple, une surface métallique abîmée par la saleté nécessiterait plusieurs textures haute résolution, et la méthode classique de compression n’est pas toujours satisfaisante en termes de qualité visuelle et de taux de compression.

La compression neuronale se révèle particulièrement efficace pour les matériaux comportant de nombreuses couches, et tant Intel que Nvidia ont présenté des démonstrations illustrant des charges VRAM significatives. Cependant, il existe une légère pénalité de performance associée à cette technique, ce qui limite son utilisation pour la majorité des textures. Donc, si vous espériez que la compression de texture neuronale réduise le besoin en plusieurs Go de VRAM, cela pourrait être une déception.

Lors de la GDC, Intel a principalement mis en avant ce projet, tandis qu’AMD a également eu peu à dire. Joe Rozek, le représentant d’AMD, a abordé un sujet différent : le système d’éclairage neuronal utilisé dans la démo Toy Shop, qui a suscité un certain mécontentement chez certains spectateurs. Rozek a précisé que CoopVec n’est actuellement pris en charge que sur les nouvelles cartes graphiques Radeon RX 9070 avec architecture RNDA 4, bien qu’AMD explore la possibilité d’une compatibilité avec des modèles antérieurs.

Bien qu’il n’y ait pas eu de présence de Qualcomm à la GDC 2025, Microsoft a annoncé qu’il travaille sur la prise en charge de l’API pour ses puces Snapdragon X.

Malgré mon enthousiasme pour CoopVec, je ne peux m’empêcher de constater qu’il est en retard, en partie en raison du temps qu’AMD a mis à intégrer des unités de matrice discrètes dans ses GPU grand public. Je suis également surpris par le peu d’annonces d’AMD et d’Intel en comparaison avec Nvidia lors de cet événement.

Étant donné que les GPU Arc d’Intel sont déjà dotés de cœurs de matrice, on aurait pu s’attendre à davantage de révélations. Peut-être avons-nous simplement hâte de découvrir des avancées dans un avenir proche, et au moins, AMD a présenté une démonstration complète de rendu amélioré par l’IA.

Pour l’instant, Nvidia semble une fois de plus en tête de la course pour définir l’avenir du rendu en temps réel. Les développeurs pourront bientôt accéder à une version préliminaire de l’API CoopVec de Microsoft, mais la version complète ne sera pas disponible avant la fin de l’année, au plus tôt. Espérons que l’adoption de CoopVec dans les jeux sera plus rapide que celle de DirectStorage, n’est-ce pas ?