J'ai acheté la carte ci-dessus à des fins professionnelles. J'ai été choqué de constater que ce n'est pas aussi bon que la série geforce pour les jeux. Compte tenu de ses spécifications, j'ai supposé que ce serait bien.
J'essaie d'utiliser la carte pour certains jeux, et bien que les graphismes semblent bien, les cinématiques du jeu bégayent mal.
J'ai eu un jeu avec les paramètres et les différents pilotes, mais je ne peux pas me débarrasser du bégaiement. Que puis-je faire pour atténuer les problèmes auxquels je suis confronté?
Les jeux en question sont:
Wolfenstein, l'ancien sang Wolfenstein New Order
Mon système:
Dell Precision T3610 16 Go DDR XEON 3.7 processeur 1 To HDD Nvidia Quadro 5600 FX
graphics
gaming
nvidia-quadro
Shaun le mouton
la source
la source
Réponses:
Je dois d'abord m'excuser car dans ma hâte de découvrir quelle était votre carte, j'ai manqué la nuance dans votre question qui disait (très clairement, maintenant je la regarde à nouveau):
Il semblerait que ce ne soit pas la puissance réelle de la carte avec laquelle vous rencontrez un problème, mais le décodeur vidéo qui y est intégré.
Il y a de fortes chances que toutes les cinématiques soient encodées en h.264, ce qui est très probable car cela offrirait la meilleure qualité visuelle avec le plus faible coût d'espace de stockage. Étant donné les cartes relativement récentes que la série Wolfenstein indique comme leur carte minimale recommandée (voir ci-dessous), il est tout à fait possible qu'ils s'attendent à pouvoir décharger complètement tout l'encodage H.264 sur la carte graphique, comme chaque carte après le G80 que la vôtre est basé sur a un pipeline de décodage complet pour h.264. Certes, toutes les cartes, car celles qu'elles recommandent (la GTX 460), pourraient décoder la vidéo entièrement sur la carte graphique.
Votre carte est cependant une maison de transition, elle a quelques capacités de décodage h.264 mais pas toutes. Le G80 qui alimente votre carte a été fabriqué avant la puce qui alimente le 8600 dans l'image ci-dessous. En termes de capacité de décodage vidéo si elle est équivalente à la série Geforce 7:
image borrowed from http://www.anandtech.com/show/2220
Votre puce G80 manque de plusieurs éléments clés pour permettre à votre système de décharger complètement la tâche de décodage h.264 très intensive vers le décodeur PureVideo des GPU .
Ce qui signifie que le jeu déchargera tout le décodage vidéo sur votre CPU ou, à tout le moins, une quantité substantielle de décodage. La quantité de décodage déchargée dépend du fait que les jeux utilisent leurs propres méthodes pour afficher la vidéo ou qu'ils transmettent la vidéo à Windows pour jouer.
Dans les deux cas, cela signifie que le processeur est en train de décoder quelque chose. Si le jeu lui-même retombait sur un décodeur logiciel intégré, il pourrait être mal optimisé pour les processeurs multicœurs. Je serais en fait surpris si votre CPU ne peut pas gérer le décodage h.264 en utilisant sa propre force brute.
Je ne sais pas exactement pourquoi ils bégayeraient, car ils devraient basculer vers le décodage complet du processeur et vous devriez avoir suffisamment de grognement pour pouvoir le faire, ma seule hypothèse serait qu'il essaie et échoue à utiliser correctement le décodeur vidéo sur le GPU car il attend une carte graphique plus performante.
Selon la façon dont le jeu affiche la vidéo (codecs internes vs externes), il peut ne pas être facile de la corriger.
La Quadro FX 5600 n'est pas une carte rapide pour la CAO ou les jeux, pas selon les normes d'aujourd'hui. C'est l'équivalent station de travail d'une Geforce GT 8800. Il s'agit de la carte qui a la même puce que la vôtre et elle est sortie en 2007. Cela devrait vous donner une idée de la raison pour laquelle votre carte est lente.
Alors que le 8800 n'est (n'était) pas particulièrement un slouch, il a été dépassé à plusieurs reprises par des cartes plus modernes dans une fourchette de prix similaire.
Les fournisseurs n'ont pas tendance à marquer leurs cartes de poste de travail de la même manière que les cartes de consommateur, cela crée une fausse impression de la vitesse à laquelle une carte de poste de travail sera comparée à une carte de consommateur.
Les jeux haut de gamme modernes attendent également plus de grognements d'une carte qu'auparavant. Votre carte prétend être d'environ 500 GFLOPS de performances, une carte haute génération de génération actuelle est d'environ 1500 à 3000 GFLOPS ou plus.
Pour ajouter un peu plus d'insulte à la blessure, j'ai consulté http://www.videocardbenchmark.net et j'ai trouvé votre carte dans les cartes "High Mid Range" avec un score de 695. Une carte de milieu de gamme de génération actuelle que je m'attendrais à voir être capable de jouer à des jeux confortablement sur facilement des scores de 4000+. Je recommanderais ce site à tous ceux qui ont une idée relativement rapide de la façon dont une carte fonctionnera à côté d'une autre pour les tâches de jeu.
Wolfenstein: The Old Blood recommande un minimum d'une GTX 560 pour qu'elle soit jouable. Pour en revenir à la liste sur Video Card Benchmark, la GTX 560 a un score de 3117 et a plus de 1000 GFLOPS de performances ainsi que de nombreuses fonctionnalités DirectX 11 comme le matériel Tesselation qui peut considérablement améliorer les détails du modèle avec un faible coût de performance. Cela signifie probablement que sur votre FX 5600 le jeu sera presque injouable sur tous les paramètres sauf les plus bas.
Wolfenstein: la nouvelle commande a des exigences minimales légèrement plus modestes, ne recommandant qu'une GTX 460 , mais celle-ci est encore plusieurs générations plus récente que votre carte et aura de nombreuses fonctionnalités d'amélioration des performances qui font défaut à votre carte actuelle.
Je suis désolé, mais votre carte est en dessous des spécifications minimales recommandées pour à peu près tous les jeux de génération actuelle.
Je serais intéressé de savoir où vous avez obtenu la carte et, si vous en avez payé un montant important, quelle serait sa politique de retour.
la source
Vous aviez tort de supposer que, juste parce que les spécifications du Quadro ressemblent à certaines cartes haut de gamme, ce serait bien pour le jeu car elles sont tout à fait le contraire.
Alors qu'une GeForce avec des spécifications similaires est destinée aux applications FPS élevées intenses telles que les jeux, le Quadro est beaucoup plus adapté à des choses telles que la conception graphique où la précision et les détails sont beaucoup plus importants que la vitesse.
En ce qui concerne le bégaiement, je commencerais par les paramètres les plus bas et monterais.
la source
C'est vrai, Quadro (et Tesla) ne sont pas les mêmes que les séries FX ou GTX. La GeForce 5600FX a peut-être fait le travail. C'est toujours le choix AGP par défaut pour les boîtiers AGP qui ne démarreront pas sans carte GPU. C'est bon pour les jeux c. 2003. Il est juste en dessous des exigences minimales de BF2. Mais vous avez le quadro qui est meilleur pour le lancer de rayons ou AutoCAD, par exemple.
Pour votre box, je recommanderais le GTX750Ti (SC). C'est une carte courte et ne consomme pas 75W, et ne nécessite pas de plomb supplémentaire. Il va juste s'insérer, le joint sans outil Dell le tiendra. C'est un des premiers exemples de Maxwell et il ne fait pas trop chaud. Il jouera BF3 sur une résolution modeste en haute voire ultra. Il jouera BF4 de manière acceptable. Il devrait toujours faire face à votre travail, mais soyez prêt au cas où il ne le ferait pas. Il existe des sites pour les comparer.
Mais si changer la carte n'est pas une option ...
Cinématique? Cela peut être un problème de codec. Je ne peux faire aucune recommandation. C'est un problème pour beaucoup de médias historiques. Aujourd'hui, Quicktime a de réels problèmes pour restituer du contenu extra-cd des années 90 (par exemple).
la source
Les cartes de jeu et les cartes de poste de travail sont optimisées pour différentes choses. Il y a de nombreuses années, j'ai vu un benchmark entre la carte de jeu leader et la carte de poste de travail leader qui faisait la différence: la carte de jeu excellait à pousser des millions de polygones simplement texturés à l'écran (pensez: Quake 3) où la carte de poste de travail obtenait peut-être un dixième de la fréquence d'images, tandis que la carte de poste de travail pouvait gérer d'énormes textures, des millions de sprites ponctuels ou des lignes anti-crénelage de précision avec lesquelles la carte de jeu avait du mal.
Avec la façon dont les cartes graphiques modernes peuvent être utilisées comme processeurs vectoriels massivement parallèles à usage général, je m'attends à ce que la différence ne fasse qu'augmenter.
la source