Nouvelle génération de carte graphique NVIDIA ?

Qu'apporte les nouveautés pour une config 4K/8K pour 2021

a marqué ce sujet comme résolu.

Bonjour,

J’ai suivi les annonces de la conférence NVIDIA qui casse le prix du marché des cartes graphiques (haut de gamme par 2) avec sa génération 3. Est-ce qu’on doit s’y intéresser de près pour une config 4K ou c’est trop tôt pour s’emballer ?

Dans le cas où je souhaite me prendre une config 4K pour 2021, à quel moment dois-je m’y prendre ? Fin 2020 ? J’attends janvier 2021 ?

Les cartes de la génération précédente étaient un peu justes pour la 4K (à l’exception peut-être de la 2080 Ti qui était vraiment hors de prix).

Pour moi il est surtout urgent d’attendre les premiers tests indépendants un peu sérieux, et les véritables baisses de prix et stocks de vieilles cartes avant de s’emballer.

Salut :)

Perso, je te dirais de prendre ta nouvelle config' quand tu auras le budget pour… et, ça tombe bien, les nouveaux GPU d’nVIDIA viennent de faire pas mal baisser les prix pour jouer en Ultra HD (3.840x2.160) @60Hz car une "simple" nVIDIA GeFORCE RTX 3070 à ~520€ devrait pouvoir suffire car elle serait plus performante que la nVIDIA GeFORCE RTX 2080 Ti.

Après, c’est ce que dit nVIDIA et, comme le dit SpaceFox, il serait préférable d’attendre de vrais tests indépendants avant de se précipité.

+0 -0

De mon point de vue, et de ce que j’ai eu l’occasion d’en constater :

  • Les vidéo en 4K (ou plus, on commence à nous vendre la 8K) n’ont aucun intérêt passé les quelques secondes d’effet « wahou ». D’ailleurs, l’immense majorité des salles de cinéma sont équipées en 2K.
  • Les jeux en 4K peuvent avoir un intérêt notamment parce qu’avec un écran 4K tu peux ne pas avoir de phénomène d’anti-aliasing (enfin si, mais les pixels sont assez petits pour que le phénomène ne soit plus gênant) ; ou pour de la finesse dans des interfaces assez chargées. Mais on est surtout dans des notions de confort plus que de différence vraiment flagrante.

PS : de mon point de vue, en résumé, dans l’immense majorité des cas, à 60+ FPS, mieux vaut jouer au même jeu en qualité haute/ultra en 1080p plutôt qu’en 4K mais seulement en qualité moyenne.

Heu… si, pour ce qui est des films, je suis plus ou moins du même avis que SpaceFox, en ce qui concerne les jeux, c’est une autre histoire car, en plus de ne plus nécessité d’AntiAliasing ou presque, ça améliore grandement la visibilité des choses se trouvant au loin et peut donc donner un avantage certains dans les jeux tels que Counter-Strike, Call of Duty & Cie : quelqu’un qui ne jouera qu’en Full HD (1.920x1.080) ne verra pas l’ennemi tout au fond de la map qui fait 3 pixels ou moins sur un écran en Ultra HD (3.840x2.160).

Et, dans tous les cas, comme on a laissé tomber les vieilles définitions de 1.024x768 et 1.280x1.024, ça va être la même chose avec le Full HD (1.920x1.080) et, à un p’tit peu plus "long terme", avec le Quad HD (2.560x1.440) car, avec la prochaine génération de consoles, la norme va devenir l’Ultra HD (3.840x2.160)… ce qu’amène les nouveaux GPU d’nVIDIA qui sont plus que près pour jouer sans problème dans une telle définition.

J’émets un sérieux doute sur la possibilité de repérer et viser, sur un écran 4K, un ennemi trop petit pour être vu sur un écran full HD. Même à niveau professionnel je ne suis pas du tout convaincu que ça apporte un avantage réel (encore moins que les fréquences > 60 FPS qui semblent avoir des effets mesurables chez certains pro).

Par contre je rejoint assez @CyberS@m sur le fait qu’à long terme, un écran 4K sera considéré comme la norme et qu’on jouera probablement sur ces définitions juste parce que ça sera le standard. Mais à la vitesse où ça va, ça n’est pas pour cette génération de PC, ni probablement pour la suivante : la full HD est largement la définition dominante, et est encore en hausse (65,48 % des moniteurs principaux sur Steam, contre 2,23 % pour la 4K – les joueurs en 1366x768 sont encore près de 10 %, soit plus que les gens en 2560x1440) (lien archive.org sur Juillet 2020 parce que les stats sont HS là tout de suite).

@SpaceFox : comment dire, il ne sera pas réellement visible (1 pixel sur du 3.840x2.160, c’est effectivement très p’tit) mais on verra tout de même quelque chose bouger au loin et sa permettra d’anticiper un peu mieux.

Après, jouer à plus de 60fps est effectivement le plus important… perso, au-delà de 120Hz et donc 120fps, j’ai quelques doutes sur la réelle utilitité/"visibilité" du truc.

Sinon, le passage à l’Ultra HD (3.840x2.160) en tant que standard ne sera effectivement pas pour cette génération car, si le prix de l’unité centrale à bien baisser grâce aux prix des nouveaux GPU d’nVIDIA (la nVIDIA GeFORCE RTX 3070 est annoncée pour ~520€ et remplace la nVIDIA GeFORCE RTX 2080 Ti qui est encore à plus de 1.000€), celui des écrans de 32" (en dessous, le pitch est trop p’tit ou il faudrait passer à 24") à cette définition est encore élevé et, pour le moment, il n’existe encore aucun modèle avec une fréquence de rafraichissement de 120Hz ou plus.

Concernant, le Quad HD (2.560x1.440), c’est une définition de transition (rapide du coup) entre le Full HD (1.920x1.080) et l’Ultra HD (3.840x2.160) quand jouer dans cette dernière définition était encore hors de portée… je préfère éviter de trop parler des écrans en 1.366x768 qui sont totalement dépassés et pour leur très grande majorité pas du tout adapté au jeu, ni trop pour quoique ce soit (dalle TN de 5ms).

perso, au-delà de 120Hz et donc 120fps, j’ai quelques doutes sur la réelle utilitité/"visibilité" du truc.

Les gens disaient pas pareil au passage 30->60Hz puis 60->120Hz ?

Eskimon

Ça s’est dit à cause de la légende urbaine que l’œil voit à 24 fps, mais clairement l’argument "on a vu le même genre d’argument utilisé à tort avant" ne peut pas marcher indéfininement sur un phénomène qui a forcément une saturation biologique comme la vision humaine.

concernant le nombre de FPS j’etait aussi dubitatif, 'on nous dit partout 60fps ca suffit a quoi ca sert plus ?' bah j’ai tester une fois un ecran 144Hz (ya un site genial pour comparer facilement c’est https://www.testufo.com/framerates-versus) ca compare les diverse fréquence possible (evidemment tu peux pas faire plus que ce que gere ton moniteur)

et même pour un non habitué du 144hz bah franchement c’est flagrant

sinon concernant la 4k et la 8k en jeu, je pense que c’est surtout par rapport a la taille de l’ecran il faut donc non pas ce fier a la taille et la quantité, mais a la densité de pixels et la distance par rapport a l’usage "normal"

avoir un ecran de 5" 32k c’est pas utile sauf si t’es a 5cm de l’écran,

je vois les ecrans de casque réalité augmenté, ou même en 2k t’arrives encore a voir les pixels (apres je sais pas si c’est pour un ou les 2 yeux

apres comme partout, il y a l’usage, un pro de la photo retouche a besoin d’ecran au couleurs et la qualité optimal.

Si, pour le moment, la nVIDIA GeFORCE RTX 3080 semble être le top pour jouer sans problème à la majorité des jeux actuels en Ultra HD (3.840x2.160) avec plus de 60fps de moyenne, elle est quand même à plus de 800€ et il serait donc préférable d’attendre la sortie (le 15 Octobre) de la nVIDIA GeFORCE RTX 3070 ainsi que la sortie (le 28 Octobre) des nouveaux GPU d’AMD avant de faire quoique ce soit.

Bonjour, as tu du nouveau?

Car avec mon CP actuelle (16Go ram/i7–3770/Radeon RX 580 Series), je ne peux jouer qu’en low à des jeux comme HITMAN 3, Star citizen je n’ai pas pu y jouer (je ne devais pas avoir assez de ram, j’en avais que 8GO, alors que 16GO était recommandé quand j’ai essayé). J’hésite à mettre 1600/2000 ou 2400€ sur une nouvelle config 2K ou 4K. Tu as une idée du budget nécessaire entre 2K ou 4K?

Hum… il va falloir être patient : d’après nVIDIA, les cartes graphiques basées sur leurs derniers GPU ne devraient pas être disponibles avant minimum fin Avril.

Sinon, compte presque 1.400€ pour une unité centrale permettant de jouer en Quad HD (2.560x1.440) avec ~60fps et pas loin de 2.000€ avec 120fps + 400€ d’écran et dans les 1.900€ pour une unité centrale permettant de jouer en Ultra HD (3.840x2.160) avec plus de 60fps + minimum 1.000€ pour l’écran.

Hum… il va falloir être patient : d’après nVIDIA, les cartes graphiques basées sur leurs derniers GPU ne devraient pas être disponibles avant minimum fin Avril.

CyberS@m

Ah donc ce n’est plus pour janvier finalement ? Il ne restera plus beaucoup d’épines sur le sapin quand ces cartes arriveront. :D

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte