En utilisant une distribution gaussienne de points sur un plan d'image pour calculer une valeur de pixel, quel rayon / écart-type donnera le plus d'informations dans l'image finale? Un rayon trop grand donne une image floue, et un rayon trop petit néglige les informations plus petites qu'un pixel pour ne pas contribuer à l'image finale. Où est le compromis optimal? Y a-t-il une réponse unique à cette question ou existe-t-il des circonstances dans lesquelles elle peut varier?
Je pense à cela en relation avec le lancer de rayons, mais j'imagine que cela s'appliquera également à des choses comme la réduction de la taille d'une image. Là où les réponses seraient différentes, je m'intéresse à ce qui s'applique lors de l'échantillonnage d'un plan d'image continu, de sorte que les positions des pixels dans une image plus grande ne puissent pas être utilisées pour déterminer un rayon optimal.
Imaginez que l'on rend l'image d'un sol plat avec un motif en damier noir et blanc uniforme qui s'étend jusqu'à l'horizon; les dames sont suffisamment grandes pour être clairement visibles aux points proches de la caméra, mais pas suffisamment grandes pour pouvoir être distinguées près de l'horizon.
Près de l'horizon, le sol doit simplement apparaître comme gris uniforme. Près de la caméra, les dames doivent apparaître distinctes. Entre la caméra et l'horizon, l'apparence du sol doit en quelque sorte faire la transition entre ces deux extrêmes.
Si la scène est rendue un filtre spatial qui a une coupure très mouton, il y aura une certaine distance où le sol passe du damier au gris. Si l'on utilise un filtre moins profond, la transition sera beaucoup plus progressive, mais les choses proches de la distance de coupure d'origine seront moins nettes qu'elles ne l'auraient été autrement.
Si l'on devait ajouter un "mur" ou recadrer la scène pour cacher les parties éloignées du sol, de sorte qu'il n'était pas nécessaire d'avoir des parties du sol à carreaux floutées en gris, les meilleurs résultats seraient obtenus en utilisant le plus raide filtre, donnant l'image la plus nette. L'utilisation d'un filtre moins profond abandonnerait la netteté de l'image dans le but d'empêcher une transition désagréable qui ne serait pas visible de toute façon.
Déterminer le type de filtrage à utiliser nécessite donc de connaître le contenu en fréquence spatiale des informations à afficher. Si l'image ne contient rien d'intéressant qui pourrait s'approcher de Nyquist, l'utilisation d'un filtre raide produira les résultats les plus nets. Si, cependant, le contenu de l'image dépasse Nyquist, l'utilisation d'un filtre progressif évitera les "transitions" laides. Aucune approche unique ne sera optimale dans tous les cas.
la source
À mon avis et selon mon expérience, je ne pense pas qu'il existe une réponse univoque ... car, fondamentalement, dans la littérature, vous pouvez facilement trouver des exemples de filtres adaptatifs (c'est-à-dire de taille variable).
Je pense que la réponse réelle devrait être liée au contexte des applications (matériel ou logiciel, en temps réel ou non) et au type de scène que vous allez synthétiser (certaines scènes impliquent généralement différents types d'alias quand elles sont synthétisées (j'utilise ce terme général à dessein)). Fondamentalement, l'infographie est l'étude des algorithmes et de la structure des données pour la synthèse d'images, et une telle définition n'est strictement liée à aucun type d'application.
Bien sûr, un facteur important est même l'objectif à atteindre par un processus de filtrage (c'est-à-dire pas nécessaire un flou excessif pourrait être mauvais ...).
Si vous parlez de "agréable à voir", je pense que vous pourriez être d'accord avec moi quand je dis qu'il n'y a pas de mesure spécifique "d'image agréable".
la source