Pourquoi les jeux demandent-ils une résolution de l'écran au lieu de s'adapter automatiquement à la taille de la fenêtre?

32

Il me semble qu’il serait plus logique, réutilisable et convivial d’implémenter une interface utilisateur souple et réactive sur un écran 3D ou 2D, qui peut ensuite être exécutée avec n’importe quelle résolution d’écran.

Certains jeux modernes détectent automatiquement la résolution de l’écran et ajustent le jeu en conséquence, mais la possibilité de modifier la résolution reste dans les paramètres.

Pourquoi cette option est-elle là?

Je pense que c’est un moyen de fournir aux machines plus anciennes un moyen d’améliorer les performances en rendant moins de graphiques et en les étirant simplement à l’écran, mais il existe sûrement de meilleurs moyens d’améliorer les performances (choisir différentes qualités de texture et de modèle, par exemple). .

utilisateur44900
la source
1
En plus de ce qui est dit ici, je pense que certains jeux choisissent également l'une des résolutions les plus basses comme étant «sûre»: presque toutes les configurations matérielles le prendront en charge, de sorte que les jeux démarrent sans planter, puis l'utilisateur peut modifier la résolution dans le jeu. .
MicroVirus
@ MicroVirus I très secondement celui-ci, commencer par un mode sûr et susceptible de se lancer est un bon plan sur un pleform très variable.
Vality
4
" Il me semble qu'il serait plus logique, réutilisable et convivial d'implémenter une interface utilisateur souple et réactive sur un écran 3D ou 2D " - Cela vous semble, mais dans la pratique, il est souvent plus facile et moins coûteux de ne pas le faire.
Superbest
@Superbest: en guise de contre-argument, World of Warcraft est passé à une "interface logique à taille fixe" (ish). L'interface utilisateur a une hauteur de 768 "pixels dimensionnés" et une largeur appropriée: wowwiki.com/UI_coordinates (généralement 1024x768, 960x768 ou 1229x768)
Mooing Duck
Peut-être une mise en page UI réactive amende où un jeu ne nécessite pas d'actions élevées par minute. Je sais que certains joueurs de WarCraft et de StarCraft préfèrent une disposition fixe pour pouvoir exploiter leur mémoire musculaire.
Dim.

Réponses:

51

Cela permet à l'utilisateur de choisir la qualité du jeu par rapport à ses performances. Certains préfèrent des paramètres graphiques de meilleure qualité avec une résolution inférieure, d'autres l'inverse. Certains ordinateurs peuvent gérer des paramètres maximum sur tout, d'autres non.

Les appareils dotés d'un matériel homogène (PlayStation, Xbox, iPhone, etc.) ne proposent généralement pas de paramètres graphiques pour cette raison.

esquimau
la source
4
Il est à noter que les performances de certains jeux dépendent fortement de la résolution de l'écran. Essayez de réduire le nombre de rés de votre jeu s'il est sous-performant pour voir si c'est le cas.
user1306322
1
Il convient également de noter que la réduction de la résolution résoudra les goulots d'étranglement liés aux performances résultant d'un taux de remplissage GPU et d'un débit de shader inadéquats. La qualité des shader n’est pas toujours liée à la résolution, mais pour l’occlusion ambiante, l’anti-aliasing et autres détections de bords, c’est peut-être le cas!
Gusdor le
29

Il n'y a aucun moyen de détecter de manière totalement fiable la résolution d'écran correcte.

Une approche consiste simplement à laisser à la résolution du bureau de l'utilisateur. C’est ennuyeux, car je connais un certain nombre de personnes (certaines ayant une déficience visuelle) qui préfèrent utiliser leur ordinateur de bureau à une résolution plus basse pour agrandir l’image, tout en préférant les jeux à la résolution native où les petits textes et les détails sont plus rares et moins nombreux. critique.

Une autre approche consiste à consulter la liste des modes pris en charge par le moniteur. Ceci est également peu fiable: certains moniteurs ne fournissent pas de liste de mode ou ne le fournissent pas correctement. Certains offrent des résolutions plus élevées que la résolution native, qu’ils sont capables de réduire horriblement en échantillonnant tout en subissant un coup dur en performance ...

En un sens, votre question s’applique à tout réglage fourni par un jeu. "Pourquoi devrais-je demander à l'utilisateur quand je peux deviner ce qui est le mieux pour eux?" Pourquoi devrais-je leur demander des paramètres de qualité quand je peux détecter leur matériel? Pourquoi devrais-je poser des questions sur FOV si je sais à quoi ressemble le jeu? Pourquoi devrais-je laisser les utilisateurs tourner AA si leur ordinateur peut le gérer? Cette question plus générale met en évidence la vraie réponse, qui est double:

Vos suppositions sont parfois fausses , car vous ne disposerez pas toujours des informations matérielles correctes. Que se passe-t-il si la carte graphique d'un utilisateur présente un bogue, ce qui provoque le blocage de l'ordinateur à une certaine résolution et que vous ne les laissez pas le désactiver? Votre jeu leur est maintenant inutile. En outre, les utilisateurs aiment les choix . Peut-être que quelqu'un préfère le look flou de jouer à une résolution non native même si c'est "faux". Ils ont peut-être un moniteur CRT qui prend en charge de nombreuses résolutions et l'optimum n'est pas le plus élevé, ou ils obtiennent de meilleurs taux de rafraîchissement à un niveau inférieur.

En effet, vous ne pouvez pas juger avec précision de ce que l'utilisateur souhaite en fonction des informations fournies par l'ordinateur. Vous ne pouvez pas non plus déterminer avec précision ce qui fonctionnera le mieux . Il est préférable que ce soit l'utilisateur (qui connaît son propre ordinateur) qui décide.

(Notez que je ne traite que de PC ici. Les consoles sont une histoire différente, mais ont déjà été couvertes par d'autres.)

Vality
la source
17
+1; cela m'agace particulièrement dans les jeux qui ne me donnent pas un curseur gamma (ou du moins un réglage de la luminosité). Il est grand que vous avez trouvé un regard qui vous pensez rend votre jeu meilleur sur vos écrans, mais votre moniteur n'est pas mon moniteur, et je @% & $ ing environnements sombres de haine où je ne vois pas. Je me fiche de savoir si le noir sur noir est "le point" de votre niveau de furtivité, je veux voir ce que je fais.
Brian S
1
"Que se passe-t-il si la carte graphique d'un utilisateur est bloquée, provoquant un plantage de l'ordinateur à une certaine résolution et que vous ne les laisserez pas le désactiver" ah, le bon vieux temps avec D2 et le cri de bataille du barbare qui s'est toujours écrasé sur mon ordinateur :)
person27
Vous pouvez détecter de manière assez fiable la résolution native, la résolution du bureau est un bon indicateur. Pratiquement tout le monde l’utilise dans les ressources natives, et c’est au moins un bon point de départ. Toutefois, cela ne signifie pas que vous ne devriez pas offrir la possibilité de le changer. Pour mon projet actuel, le plein écran ne fonctionnera qu'en résolution native (de bureau), et si les gens veulent le réduire pour une raison quelconque, alors passez en mode fenêtré, sinon la taille de la cible restituée sera modifiée et la carte graphique sera étirée. il.
Programmdude
2
J'ai eu récemment une expérience de bêta-test d'un jeu que je ne nommerai pas car il n'est pas encore sorti. Au lieu de paramétrer correctement les graphiques, il détecte automatiquement la résolution de l'écran de l'utilisateur. Cela a rendu le jeu complètement injouable pour beaucoup de testeurs , et la solution suggérée par les développeurs consistait à modifier la résolution de l'écran ou la fréquence de rafraîchissement de l'écran , et même cela ne fonctionnait pas pour tout le monde. Heureusement, cette détection automatique n'est qu'une partie de la version bêta et le jeu final est censé avoir des options de résolution d'écran.
BoltClock
@BoltClock Je comprends tout à fait ce sentiment: mon propre moniteur (un assez haut de gamme Dell ultrasharp) affiche une liste fictive de modes, si le logiciel recherche uniquement le plus haut et l'affiche, je reçois des artefacts graphiques étranges ou ne s'affiche pas du tout. .
Vality le
7

Il existe un grand nombre de raisons pour permettre à l'utilisateur de contrôler les paramètres de son jeu.

  • BEAUCOUP de personnes ont 2 (ou plus) moniteurs ces jours-ci. L'utilisateur doit pouvoir déterminer sur lequel jouer.
  • Un utilisateur peut utiliser des milliers de périphériques différents et aucun moyen de déterminer de manière fiable quel paramètre serait optimal pour chacun d'entre eux.
  • Certains utilisateurs peuvent préférer des paramètres moins optimaux que "optimaux" pour des raisons allant de meilleures performances de jeu à une mauvaise vue (résolution inférieure = texte plus gros!).
  • Certains utilisateurs préfèrent peut-être jouer au jeu en mode fenêtré afin de pouvoir afficher leurs boîtes de discussion, leurs procédures en personne, leur lecteur de musique ou d'autres programmes en même temps que le jeu.

Cela dit, de nombreux jeux DOIVENT être détectés automatiquement, puis définissez les paramètres initiaux sur ce qui vous semble être le meilleur que votre machine puisse gérer.

aslum
la source
1
Excluant le mode fenêtré, y a-t-il des jeux qui vous permettent de choisir le moniteur sur lequel exécuter? Je suis multi-moniteur depuis un certain nombre d'années et je ne me souviens jamais d'un jeu en plein écran donnant la possibilité de fonctionner sur autre chose que mon affichage principal.
Dan Neely
Je ne me souviens pas de détails, mais au moins quelques jeux ont pris le contrôle de mon moniteur secondaire, et j'ai parfois eu des jeux qui modifiaient les paramètres de mon moniteur ... Si la résolution de mon moniteur est autre que le défaut ... bien il y a probablement une raison.
Aslum
2
J'ai vu pas mal de jeux avec cette option, généralement appelée "adaptateur vidéo" dans le menu. EVE Online en est un exemple.
Ben le
5

En effet, le coût et l’effet de la qualité de la texture, des détails géométriques et de la résolution de l’écran dépendent beaucoup du matériel.

La qualité de la texture n’a généralement pas beaucoup d’impact sur la vitesse du pipeline de rendu, mais seulement lorsqu’elle est lue à partir de la mémoire du processeur graphique. Lorsque toutes les textures ne rentrent pas dans la mémoire du processeur graphique, elles doivent être lues dans la RAM normale ou, pire encore, dans la mémoire cache du disque dur, ce qui nuit aux performances. Réduire la géométrie * et supprimer les effets coûteux ** n'aideront pas grand-chose. Mais lorsque la vitesse d'exécution du pipeline de rendu constitue le goulot d'étranglement, la réduction de la résolution de la texture n'aidera pas beaucoup non plus.

Les vertex shaders ne sont généralement pas affectés par la résolution de sortie. Le seul moyen de réduire la charge qui leur est imposée est de réduire la qualité et la quantité des modèles 3D de la scène.

Cependant, tous les pixel shaders continuent de s’adapter linéairement au nombre de pixels à l’écran. La réduction de la résolution de l'écran reste un outil important pour améliorer les performances. Avoir la moitié de la résolution horizontale et verticale signifie que vous n’avez que le quart des appels aux pixel shaders.

Contrairement aux anciens écrans à tube cathodique, les écrans LCD ou plasma modernes ont une résolution de pixels native. Lorsqu'ils sont alimentés avec un flux vidéo dans une résolution différente, ils doivent interpoler. Certains interpolent beaucoup mieux que d’autres, ce qui signifie que les utiliser avec une résolution plus basse ne réduit pas beaucoup la qualité de l’image, alors que d’autres moniteurs ont vraiment l’air mauvais s’ils ne sont pas exécutés sur leur solution native (le premier écran LCD que je possédais utilisait une interpolation au plus proche voisin, Ce qui semblait horrible . Avec mes écrans actuels, il est difficile de dire quand ils ne fonctionnent pas avec la résolution correcte).

Le moteur de jeu ne peut pas savoir comment le moniteur de l'utilisateur interpole, il est donc préférable de laisser le choix de réduire la texture et les détails de la géométrie ou de réduire la résolution de l'écran pour l'utilisateur.

*) OK, réduire la géométrie peut aider un peu, car les sommets consomment aussi de la mémoire GPU.

**) à moins que, bien sûr, omettre ces effets signifie que certaines textures ne sont plus nécessaires

Philipp
la source
1
Juste pour pinailler: les écrans cathodiques ont un «pas de pixels», ce qui signifie qu’ils ont réellement une résolution native. Les luminophores dans un tube cathodique ont un temps de décroissance, ce qui signifie qu’un tube cathodique a également un taux de rafraîchissement idéal.
Zan Lynx
@ZanLynx Mais pour autant que je sache, il n'a jamais été possible d'aligner parfaitement les lignes de balayage logiques avec les éléments de masque d'ombre physique des tubes cathodiques, comme avec un écran LCD.
Damian Yerrick
2

Les paramètres de résolution prédéfinis permettent non seulement de réagir avec les performances, mais il est également beaucoup plus difficile de créer une approche universelle, qui s'adapte à toutes sortes de résolutions, de ratios et de dpis.

Si vous ne créez que peu de résolutions différentes, vous vous inquiétez donc de choisir la meilleure recherche pour lui (en particulier lorsque son rapport résolution est inhabituel). Si vous créez un design universel, vous devez donner au jeu une apparence parfaite sur tous les appareils (cela pourrait être particulièrement difficile sur les mobiles de nos jours, surtout pas sur iOS, mais sur les autres plates-formes avec une grande variété d'appareils).

Kreys
la source
2

Raison supplémentaire: changement d'environnement.

1080 est maintenant standard, mais ne l'était pas il y a 5 ans. 4k entre dans l'image et combien de temps avant que 6k / 8k / 1080k (ou autre chose) entre dans l'image? Qu'en est-il des jeux sur un ordinateur de 8 ans qui culmine à 1280x720? 1024x768? 640x400?

Mon moniteur prend en charge 4k en natif, mais cela saturerait la bande passante requise et un maximum de 30 images par seconde. Permettez-moi de passer à 1080 (ou moins) afin que le jeu fonctionne à 60 images par seconde et que le texte / hud / etc ne soit pas microscopique.

(En plus: donnez-moi fenêtré / maximisé fenêtré aussi s'il vous plaît pour que je puisse me déplacer facilement lol)

WernerCD
la source
3
1080k ... C'est 1 million de fois le nombre de pixels d'un écran 1080p. Cela représente 2 000 milliards de pixels, nécessiterait au moins 8 To de mémoire VRAM et environ 4 000 térabit / s. J'aimerais vraiment voir un tel écran et la quantité d'énergie qu'il consommerait ...
Panda Pyjama
0

Je pense que c’est un moyen de fournir aux machines plus anciennes un moyen d’améliorer les performances en rendant moins de graphiques et en les étirant simplement à l’écran, mais il existe sûrement de meilleurs moyens d’améliorer les performances (choisir différentes qualités de texture et de modèle, par exemple). .

Ce n'est pas si simple. Un jeu peut être lent sur ma machine car il est bloqué sur le traitement de fragments (peut-être beaucoup d'effets de particules comme de la fumée). Réduire la qualité des modèles ne nécessiterait pas beaucoup de travail, pas plus que la qualité des textures. En revanche, une diminution de la résolution réduit considérablement la charge (un passage de 1920x1080 à 1366x768 réduit de moitié le nombre de pixels à traiter).

Et si mon écran est grand - comme un téléviseur (comme dans ma configuration actuelle - je prétends que mon PC est une plus grande xbox) -, alors, à une distance de visualisation donnée, une résolution plus grande ne me donne pas beaucoup. J'ai donc une bonne raison de baisser la résolution et peut-être même d'utiliser la puissance de traitement supplémentaire pour obtenir un éclairage ou des ombres plus détaillés.

Kos
la source