Test : AORUS RTX 3080 XTREME 10G, ça consomme sévère !

    Conclusion : carte graphique AORUS RTX 3080 XTREME 10G

    Pour conclure le test sur cette carte graphique AORUS RTX 3080 XTREME, reprécisons un aspect primordial à bien prendre en compte : les cartes graphiques GeForce RTX 3080 sont faites pour jouer dans une définition UHD, soit 3840 x 2160 pixels. De plus, cette RTX 3080 XTREME de la division gaming de GIGABYTE représente le haut du panier des 3080. En effet, la fréquence du GPU a été boostée à 1905 MHz. Pour rappel la référence est à 1710 MHz. En termes d’architecture, NVIDIA frappe fort avec des performances par Watts améliorées par 1,9 fois comparativement à l’architecture précédente Turing. De plus, la nouvelle conception des SM permet une quantité de cœurs CUDA gargantuesque par rapport à la génération précédente. Pour rappel, nous passons de 4352 cœurs sur la RTX 2080 Ti à 8704 sur cette AORUS RTX 3080 XTREME. L’IPC des RT Cores nécessaires au Ray Tracing augmente de l’ordre de 1,7 fois et les Tensor Cores utiles à l’IA et notamment au DLSS augmentent de 2,7 fois.

    L’une des grandes forces des RTX 3080 réside dans leurs capacités à performer dans un usage applicatif : rendu 3D, calculs, etc. C’est un GPU qui s’alliera donc parfaitement avec un Threadripper par exemple pour une station de travail. Évidemment, si le moindre gain de FPS est important (en 2160p en tout cas) et que le budget n’est pas un problème, on peut très bien partir sur une RTX 3090 d’autant plus que ses 24 Go de VRAM permettent de voir plus loin sur les jeux 4K dans les prochaines années face à une RTX 3080 avec seulement 10 Go. Et ce, même si on sait maintenant qu’une nouvelle alternative va être présente prochainement avec une RTX 3080 Ti équipée de 20 Go de mémoire, ceci afin de concurrencer AMD et leur RX 6800 XT avec 16 Go de mémoire.

    Pour parler du design, on aimera ou on n’aimera pas. On retrouve des tons essentiellement noirs et un système de refroidissement à trois ventilateurs. Petite particularité : le ventilateur de gauche est plus petit avec 100 mm contre 115 mm pour les deux autres. Le RGB est très présent avec des éléments à gauche et à droite de la façade, plus une barre LED sur la tranche avec le logo AORUS sur la backplate. On n’oubliera pas non plus de mentionner l’écran LCD sur la tranche de la carte permettant d’afficher températures, textes personnalisés, GIF ou encore des images de son choix à condition de respecter la taille et le format.

    Pour parler de la technologie DLSS de NVIDIA, le jeu Deliver us the Moon, mais aussi maintenant Fortnite RTX nous montrent avec brio à quel point la technologie d’IA de NVIDIA a bien évolué depuis ses premiers jours. En effet, nous constatons non seulement un gain en performances, mais aussi une amélioration de la netteté de l’image lorsqu’on regarde bien. Un ensemble qui serait presque trop beau pour y croire si nous ne l’avions pas vu de nos propres yeux. Le DLSS reste le gros avantage dont bénéficie la marque au caméléon face aux dernières cartes graphiques AMD Radeon RX 6000 d’AMD qui jouissent aussi maintenant de la technologie Ray Tracing via l’API DXR, mais pas encore d’une technologie concurrente au DLSS aussi efficace. Notez aussi que l’on soit sur une carte mère avec un slot PCIe en 4.0 ou en 3.0, dans les faits cela ne changera en rien les performances. En effet, ni nos jeux ni nos applications de rendus 3D n’ont montré de réel gain à l’utilisation de cette norme. En conclusion, il n’est absolument pas nécessaire d’avoir une carte mère en PCIe 4.0 pour en profiter au maximum car elle ne sera pas bridée.

    Test AORUS RTX 3080 Xtreme

    Pour parler de la consommation moyenne (TGP) en jeux, on relève une moyenne allant de 345,1 Watts en 1080p à 366 Watts en 2160p à stock. C’est donc sans conteste la RTX 3080 qui consomme le plus parmi les quatre références que nous ayons testées jusque-là. De même, on est à peu de chose près à l’équivalent de la consommation de notre MSI RTX 3090 GAMING X TRIO et malheureusement, cela n’est pas à son avantage pour son rapport performances par Watts. Notez d’ailleurs que l’alimentation se fait en 3*8-pins et que pour finir, sous OCCT GPU 3D nous avons même relevé un pic de consommation à 397,9 Watts.

    Au niveau des températures, c’est à peu près le même scénario : c’est bien la RTX 3080 qui a présenté la plus haute température sur le GPU lors de notre stress test OCCT GPU 3D avec un pic de 69 °C. Même constat avec la caméra thermique au niveau de la backplate avec 67 °C relevés (et encore, ce point le plus chaud se situe sur un morceau de PCB non recouvert par la backplate en métal) et une température bien répartie sur l’ensemble de la plaque arrière.


    Pour parler des prix, on retrouve cette carte AORUS RTX 3080 XTREME chez LDLC au prix de 1099,96 euros (la 3090 est à 2049,95 euros). Cette référence fait donc partie des RTX 3080 les plus chères pour ne pas dire directement la plus couteuse. En revanche, comme pour bien d’autres cartes graphiques de cette génération, il est pour le moment très difficile de les trouver en stock.


    On décerne une médaille HC d’Or à cette carte graphique AORUS RTX 3080 XTREME, même si sa limitation en termes d’overclocking et sa grosse consommation électrique attristent quelque peu.

    Médaille d'or par HardwareCooking

    Pour

    • Performances en applicatif
    • Performances en jeux
    • Écran LCD
    • Architecture Ampere
    • Parfaite pour jouer en 4K

    Moins

    • Consommation élevée
    • Overclocking décevant

    Envie de voir plus de photos de cette AORUS RTX 3080 XTREME ? Retrouvez dans notre dernière page la galerie photo de cette carte graphique.

    Lire la suite


    2 Commentaires

    1. Bonjour pourquoi pas de test comparatif avec les séries 6000 amd car la nvidia nvidia nvidia ha non y a une rx 5700 5600 5500 des futurs test comparatif ?

    LAISSER UN COMMENTAIRE

    S'il vous plaît entrez votre commentaire!
    S'il vous plaît entrez votre nom ici

    Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.