Skip to main content

La Nvidia GeForce RTX 4090 serait en phase de test - pour une sortie en approche ?

Nvidia
(Crédit photo: Nvidia)

Les rumeurs autour de la Nvidia GeForce RTX 4090 se multiplient au fil des semaines, et la dernière en date laisse entendre que la Team Green commence à tester le futur GPU AD102 qui devrait alimenter la carte graphique GeForce RTX 4090.

Le GPU phare AD102, construit sur l'architecture Lovelace de Nvidia, sera utilisé pour supporter des cartes graphiques telles que la RTX 4090 et la RTX 4080. Selon Kopite7kimi, un leaker fiable sur Twitter, ces modèles disposeront d'une matrice de mémoire GDDR6X de 24 Gbps, et s'en tiendront à la convention de dénomination GeForce RTX série 40 au lieu d'être rebaptisées série 50, comme certains rapports l'ont précédemment suggéré.

Bien sûr, rien de tout cela n'a encore été confirmé par Nvidia, alors assurez-vous de prendre ces différentes spéculations avec prudence.

See more

Plus de puissance que nécessaire ?

Récemment, une photo du prétendu PCB (circuit imprimé) - exploité par le GPU AD102 - a fait surface. Et si l'on se fie à ces photos, il pourrait reposer sur un TDP de 600 W ou même de 800 ou 850 W. À titre de comparaison, la RTX 3090, déjà gourmande en énergie, affiche un TDP maximum de 350 W.

Cela pourrait constituer un sérieux problème à long terme pour les consommateurs intéressés. Non seulement le coût initial de la carte graphique s’avère élevé, mais les coûts énergétiques pour la faire fonctionner en permanence pourraient se révéler importants. 

Il y a ensuite le système de refroidissement nécessaire pour éviter toute surchauffe - il n'est pas bon marché compte tenu de la température que ces cartes graphiques peuvent atteindre. En outre, de nombreux acheteurs de ces modèles devront remplacer leur alimentation pour maintenir une telle charge. Soit un autre investissement coûteux.

Reste à déterminer si les performances gaming obtenues justifieront une telle facture, dans le cas contraire, les joueurs PC pourraient bien ne pas faire le grand saut vers la génération suivante de GPU Nvidia.

Contributing Writer at TechRadar. Loves sweets, JRPGs, and artbooks.