Cet article est disponible en:
Anglais
En parallèle de sa 13ème génération de processeurs, Intel a dévoilé les GPUs Intel Arc A770 et Intel Arc A750.
Cette arrivée d’Intel sur un marché dominé par NVIDIA et AMD change-t-elle la donne ? C’est ce que nous allons essayer de déterminer dans cet article.
La GeForce RTX 3060 en ligne de mire
En pratique, Intel a prévu trois produits : la Intel Arc A750, et la Arc A770. Cette dernière est le modèle le plus puissant et se décline en deux versions (8 et 16Go de mémoire).
Voici les caractéristiques techniques :
Intel Arc A770 | Intel Arc A750 | |
Xe Cores | 32 | 28 |
unités de raytracing | 32 | 28 |
XMX Engines (Xe Matrix Extensions Engines) | 512 | 448 |
Fréquence (MHz) | 2100 | 2050 |
Mémoire | 16/8 Go | 8 Go |
Interface mémoire | 256 bit | 256 bit |
Puissance totale (TBP) | 225 W | 225 W |
Prix annoncé HT | 349$ (version 16Go) | 289$ |
Intel propose quelques graphiques de performances. En résumé, le groupe martèle un message clair : ses produits auraient un meilleur ratio performances/prix qu’une RTX 3060 de NVIDIA.
Il conviendra évidemment d’attendre patiemment la sortie (le 12 octobre pour la A770), pour vérifier de façon indépendante ces chiffres.
XeSS, le DLSS vu par Intel
Les technologies d’upscaling étant devenues la norme ces dernières années (DLSS chez NVIDIA, FSR chez AMD), Intel lance sa propre technologie : XeSS.
L’idée, comme chez la concurrence, est d’effectuer le rendu de l’image à faible résolution puis d’utiliser des algorithmes pour augmenter cette résolution. Le résultat est une image finale générée bien plus rapidement, avec très peu de contreparties visuelles (dégradation minime voire invisible par rapport à du rendu natif).
Le XeSS est compatible avec les GPUs des concurrents NVIDIA et AMD, ce qui incitera potentiellement davantage les studios à l’adopter.
Et pour les usages créatifs professionnels ?
A ce stade, les cartes Intel font face à de gros obstacles pour convaincre les artistes et studios. NVIDIA bénéficie d’un support poussé sur les outils professionnels avec sa technologie CUDA, propose des drivers créatifs dédiés. Par ailleurs, les cartes Intel visent explicitement les RTX 3060, et donc pas le haut de gamme.
En revanche, il est assez clair qu’Intel s’intéresse à ce segment : Intel n’a pas manqué de mettre en avant que Blender 3.3 gère désormais les GPUs Arc, et propose même une vidéo de rendu sur une A770.
Autre preuve de cet intérêt pour le secteur créatif, Intel mettait en avant ARC cet été au SIGGRAPH, aux côtés d’autres technologies maison.
Reste donc à voir quels seront les plans d’Intel pour l’avenir. Plusieurs points seront essentiels si Intel souhaite s’étendre sur le secteur créatif :
- un bon lien avec les éditeurs pour que les outils 2D/3D gèrent correctement les Intel ARC et intègrent des optimisations ;
- des drivers de qualité, avec une bonne stabilité ;
- des prix agressifs pour convaincre les clients acquis à la concurrence de basculer, à la manière de ce que font les concurrents de Wacom sur le marché des tablettes, ou de ce qu’a fait AMD pour revenir dans la course côté processeurs ;
- enfin, monter en gamme sera indispensable à terme, afin de venir se frotter aux cartes les plus puissantes du marché.
La tâche s’annonce ardue, et seul l’avenir nous dira si Intel est capable de conquérir des parts de marché significatives du côté de la création. Nous aurons donc évidemment l’occasion de revenir sur le sujet.
4 commentaires
J’ai envie d’en prendre une juste pour le coté collectionneur puisque c’est un pan de l’histoire de la carte graphique.
Perso je suis plutôt intéressé par la Arc A310 comme objet de collection et accessoirement encodeur de vidéos AV1.
Comme on ne l’a pas évoquée ici, j’en profite pour donner quelques infos : la Arc 310 est une carte d’entrée de gamme, 100-120$HT, jusqu’à 4 écrans supportés, 4Go de mémoire, 6 cores Xe.
Je ferais bien quelques essais avec la A770 face à une 3060 en usage créatif, histoire de vérifier ce que donnent les perfs quand on passe du jeu aux outils pros.
En tous cas je suis curieux de voir ce que ça donnera en termes de ventes ; on aura notamment des données publiques via les stats régulières de Steam, pour le gaming.
D’après les derniers meetings des dev de Blender, on devrait voir venir des choses intéressantes des concurrents de Nvidia, après la 3.4 et jusqu’à la prochaine LTS 3.6.
Embree pour GPU, HIP raytracing, Vulkan Backend …
Mais je ne m’attend pas à ce que les benchmarks soient vraiment pertinents, d’ici là.
Chez Nvidia, le software qui va avec le hardware, est là. Pas chez les autres.
[USER=39803]@zeauro[/USER] oui, c’est sûr qu’à ce stade les benchs risquent d’être un peu décevants, même si ça resterait intéressant dans l’absolu (ça pourrait d’ailleurs donner un double bench, en comparant les perfs actuelles et celles que l’on aura dans qqes mois, avec les drivers qui progresseront, les outils comme Blender qui prendront mieux en compte ces GPUs).