[Rétro] Il y a 10 ans sortait presque la dernière carte bi-GPU grand public

    En 2012, NVIDIA commercialisait la dernière référence de carte graphique bi-GPU pour le grand public : la GeForce GTX 690, elle embarquait deux GPU GK104 et 4 Go de mémoire VRAM (2 Go par GPU). Mais depuis plus de 10 ans, ce genre de solutions multi-GPU a disparu, à quelques exceptions près puisqu’en 2014 est sorti l’AMD Radeon R9 295X2 ainsi que la NVIDIA GeForce Titan Z.

    Seulement 7 ans du début à la fin des cartes bi-GPU

    Techniquement, la première carte bi-GPU était la NVIDIA 7950 GX2 avec ses deux GPU G71 et son design en « sandwich » si singulier. Commercialisée en 2006, il s’agissait littéralement de deux 7950GT assemblées ensembles.

    Il existait des cartes avec plusieurs chipsets 3D comme la 3DFX Voodoo 5, mais il ne s’agissait pas de GPU.

    NVIDIA GeForce GTX 690
    NVIDIA GeForce GTX 690

    Du côté d’ATI (AMD maintenant), il faudra attendre la 3870×2 en 2008 pour voir le premier modèle bi-GPU chez les rouges.
    À partir de là, à chaque génération de cartes graphiques, que ce soit chez ATI/AMD ou chez NVIDIA, nous avons eu le droit à une carte bi-GPU (sauf exception comme les GTX 400 avec Fermi). Ceci jusqu’à la GeForce GTX 690 en 2012.
    En à peine 7 ans, la technologie des cartes bi-GPU fut abandonnée, du moins pour le grand public. Car AMD a proposé la Vega II Duo dédiée aux professionnels équipés de Mac Pro de 2019.

    NVIDIA GeForce 7950 GX2
    NVIDIA GeForce 7950 GX2

    Pourquoi créer des cartes bi-GPU ?

    Le but de la 7950 GX2 était de proposer une solution Multi-GPU sans avoir besoin d’une carte mère équipée de chipset NVIDIA compatible pour le SLI.
    Le fonctionnement des cartes bi-GPU est donc le même qu’un SLI ou Crossfire, la seule différence c’est que tout se passe en interne sur une seule et même carte utilisant un seul port PCIe.

    Pour la petite histoire, il était possible de faire un SLI avec deux 7950 GX2, ce qui donnait la toute première solution Quad-GPU.

    L’utilisation d’un seul port PCIe permet d’économiser sur la carte mère et de rendre plus accessible le Multi-GPU.

    température caméra thermique carte bi-GPU

    Les cartes Bi-GPU, la fausse bonne idée du Multi-GPU ?

    Il y a beaucoup de contraintes liées aux cartes bi-GPU. La première c’est le partage de la bande passante sur un seul port PCIe. Deuxièmement : les contraintes thermiques. En effet, deux GPU sur un seul PCB ça chauffe énormément et le manque de place fait qu’il est compliqué de refroidir correctement les GPU. Ce qui donne des températures de fonctionnement élevées et des cartes généralement très bruyantes. La chauffe entraîne aussi des cartes moins fiables.

    Un autre défaut est lié aux deux premiers. Généralement, les cartes bi-GPU étaient moins performantes que les SLI ou Crossfire équivalentes.

    Tout ceci mis bout à bout pourrait expliquer la fin de production de ce genre de cartes, il s’agissait finalement d’une fausse bonne idée pour proposer une solution multi-GPU plus abordable.


     

    6 Commentaires

    LAISSER UN COMMENTAIRE

    S'il vous plaît entrez votre commentaire!
    S'il vous plaît entrez votre nom ici

    Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.