Prenons l'image A: une image de 2560 * 1920 pixels parfaitement mise au point. Tranchant comme un rasoir. C'est 5 Mpix.
Prenons l'image B: l'image A redimensionnée à 5120 * 3840. C'est maintenant un fichier de 20 Mpix, mais il n'y a pas de nouvelles données dans l'image, donc - en utilisant le bon sens - ce n'est encore qu'un fichier de 5 Mpix, juste "gonflé".
Théoriquement, on devrait être en mesure de réduire progressivement les dimensions de l'image B jusqu'à ce qu'une netteté raisonnable soit détectée (en la rapprochant le plus possible de l'image A, sans toutefois les comparer à ce stade), et donc de dériver le "vrai" nombre de mégapixels de l'image: le taille en dessous de laquelle l'imagerie commence à perdre ses détails.
Cette valeur pourrait facilement être utilisée pour déterminer l'utilité d'une photo - si je la prends légèrement floue, je peux toujours l'imprimer dans un format plus petit, et personne ne le remarquera. Ou, cela pourrait aider à évaluer la qualité de l'objectif ou du capteur - si un appareil photo 24 Mpix est incapable de capturer une image avec plus de "vrai" 8 Mpix, alors quelque chose ne va pas.
Donc, aller droit au but: existe-t-il un logiciel qui fait exactement cela? Ou suis-je voué à écrire le mien?
D'un commentaire du PO à l'une des réponses:
Je dois mesurer la quantité de détails que mon scanner de transparence positive obtient réellement avant de numériser une collection d'environ 2000 anciennes diapositives et de la considérer comme numérisée. Si je le mets à 19200 dpi optique ou quelque chose comme ça, et qu'il continue de produire des images avec des détails perdus, comme, disons, un appareil photo 5 Mpix, alors je saurai que c'est mauvais.
C'est le problème réel que la question veut résoudre. Tout ce qui précède concerne une solution perçue à ce problème fondamental.
la source
Réponses:
Une approche pourrait être de calculer la transformée de Fourier bidimensionnelle de l'image et d'essayer de décider de la fréquence spatiale au-dessus de laquelle la transformée (ou, par exemple, sa puissance) devient du bruit, c'est-à-dire non corrélée et petite. Je n'ai jamais rien essayé de tel, mais cela doit-il être lié d'une manière ou d'une autre à une définition rigoureuse de la résolution?
la source
Vous commencez en supposant que l'image B n'a plus de détails. Mais même une région complètement plate a des détails - c'est juste qu'elle est plate.
Un manque de détails ou de changement ne signifie pas un manque de données d'image valides ou de résolution.
Cela ne fonctionnera pas comme vous le pensez.
Les gens, d'après mon expérience, ne se soucient pas autant des détails dans une image que du contenu émotionnel et / ou informationnel. Ce que l'image leur fait ressentir ou ce que l'image leur dit ou les deux.
À moins qu'une image soit d'une netteté exceptionnellement faible, elle est généralement OK dans un certain but. Les seules personnes, selon mon expérience, qui se soucient de la mise au point parfaite sont les photographes et les rédacteurs en chef des médias (et les rédacteurs deviennent moins exigeants ces jours-ci).
J'ai eu une fois (techniquement) une mauvaise photo de la fille d'un parent qui avait un flou de mouvement, un tremblement de l'appareil photo, une mauvaise mise au point et un mauvais éclairage.
Il est accroché à leur mur de photos depuis plus d'une décennie. Aucune protestation de ma part ou offre de le tirer à nouveau n'a jamais fonctionné, BTW. Ils aiment cette photo.
La valeur d'une image n'est pas définie par sa netteté ou ses détails résolus, sauf dans des paramètres commerciaux très particuliers et même là, ce n'est pas la priorité. Aucun rédacteur en chef ne se souciera du peu de détails qu'il y a réellement dans, par exemple, ce cliché "exclusif" d'une célébrité en vacances ou, en fait, d'une victime du dernier scandale.
Ils ont des tableaux de résolution pour cela. Ce sont des modèles fixes bien définis et adaptés à l'analyse informatique. Jetez un coup d'œil sur le site Web de DxOMark.
Tester la résolution contre tout sauf une cible bien définie et connue avec précision est inutile.
Ce n'est pas parce qu'un capteur ne capture pas plus de détails qu'il n'y a rien de mal en dehors de vos attentes.
Les détails saisis dépendent de nombreux facteurs. D'abord l'existence du détail. Ensuite, les conditions de prise de vue, l'ouverture et les caractéristiques optiques de l'objectif. L'éclairage, la vitesse d'obturation, l'ISO et les caractéristiques de bruit. Limitations de diffraction.
La réalité est que le nombre de pixels a beaucoup moins à voir avec la quantité de détails que vous obtenez vraiment lors de la prise de vue que de nombreux autres facteurs qui limitent ce qui est possible ou pratique.
la source
Après quelques expériences, j'ai fini par faire une série d'images à échelle réduite, à l'échelle supérieure et par rapport à l'original. S'il y avait une différence maximale significative dans les valeurs de pixels, la qualité est considérée comme perdue. S'il y a peu de perte, cela signifie que la photo originale n'était pas géniale au départ. Je posterai un extrait PHP plus tard.
Malheureusement, les images qui sont floues directionnellement ou qui sont floues mais qui ont des artefacts nets du traitement finissent par être jugées nettes - et je ne pense pas qu'il y ait un moyen de contourner cela.
la source