Cette page compare les appareils photo Canon EOS 550D et Canon EOS 500D et mentionne
18,7 millions de pixels effectifs
pour 550D. Cependant, la meilleure résolution possible avec cet appareil photo est
5184 * 3456 = 17915904 ~ 17.9 million pixels
Que sont les pixels effectifs et pourquoi ce nombre est-il supérieur à 17,9 millions dans ce cas?
Réponses:
Une partie de ce que nous voyons ici est (je suis raisonnablement certain) rien de plus qu'une simple faute de frappe (ou quelque chose sur cet ordre) de la part de DPReview.com. Selon Canon , [PDF, page 225] le nombre de puits sur le capteur est "environ 18,00 mégapixels".
Ceux-ci sont ensuite réduits à environ 17,9 mégapixels lorsque les entrées du motif Bayer sont transformées en ce que la plupart d'entre nous considéreraient comme des pixels. La différence est assez simple: chaque puits du capteur ne détecte qu'une seule couleur de lumière, mais un pixel comme vous vous y attendez normalement dans la sortie (par exemple, un fichier JPEG ou TIFF) a trois couleurs pour chaque pixel. À première vue, il pourrait sembler que cela signifierait qu'un fichier ne compterait qu'environ un tiers d'autant de pixels qu'il y a de puits de capteur en entrée. De toute évidence, ce n'est pas le cas. Voici (une vue simplifiée de) comment les choses fonctionnent:
Chaque lettre représente un puits sur le capteur. Chaque case représente un pixel tricolore tel qu'il ira dans le fichier de sortie.
Dans la partie "intérieure" du capteur, chaque pixel de sortie dépend de l'entrée de quatre puits de capteur, mais chaque puits de capteur est utilisé comme entrée pour quatre pixels de sortie différents, de sorte que le nombre d'entrées et le nombre de sorties restent les mêmes.
Sur les bords, cependant, nous avons des puits de capteur qui ne contribuent qu'à deux pixels au lieu de quatre. Aux coins, chaque capteur ne contribue qu'à un pixel de sortie.
Cela signifie que le nombre total de pixels de sortie est inférieur au nombre de puits de capteur. Plus précisément, le résultat est plus petit d'une ligne et d'une colonne par rapport à l'entrée (par exemple, dans l'exemple, nous avons un capteur 8x3, mais des pixels de sortie 7x2).
la source
Je ne sais pas pourquoi le terme "efficace" est utilisé par DPReview, mais il y a plusieurs raisons à l'écart entre le nombre de photosites (pixels) sur la puce et la taille en pixels des images résultantes.
Certains capteurs de caméra ont une bande de pixels masqués de chaque côté. Ces pixels sont identiques à la majeure partie des pixels du capteur, sauf qu'ils ne reçoivent pas de lumière. Ils sont utilisés pour détecter les interférences et les soustraire du signal produit par les pixels photosensibles.
Deuxièmement, les [bons] algorithmes de dématriçage utilisent de nombreuses "opérations de voisinage", ce qui signifie que la valeur d'un pixel dépend quelque peu de la valeur de ses pixels voisins. Les pixels sur le bord extrême de l'image n'ont pas de voisins, donc contribuez à d'autres pixels mais n'ajoutez pas aux dimensions de l'image.
Il est également possible que l'appareil photo recadre le capteur pour d'autres raisons (par exemple, le cercle d'image de l'objectif ne couvre pas tout à fait le capteur), bien que je doute que ce soit le cas avec le 550D.
la source
Il y a deux raisons pour lesquelles les pixels effectifs sont inférieurs au nombre réel de pixels du capteur (éléments sensibles ou capteurs). Premièrement, les capteurs Bayer sont composés de "pixels" qui détectent une seule couleur de lumière. Habituellement, il existe des sensels rouges, verts et bleus, organisés en paires de rangées sous la forme de:
Un seul "pixel" que la plupart d'entre nous connaissent, le pixel de style RVB d'un écran d'ordinateur, est généré à partir d'un capteur Bayer en combinant quatre sensels, un quatuor RGBG:
Puisqu'une grille 2x2 de quatre capteurs RGBG est utilisée pour générer un seul pixel d'ordinateur RGB, il n'y a pas toujours suffisamment de pixels le long du bord d'un capteur pour créer un pixel complet. Une bordure "supplémentaire" de pixels est généralement présente sur les capteurs Bayer pour s'adapter à cela. Une bordure supplémentaire de pixels peut également être présente simplement pour compenser la conception complète d'un capteur, servir de pixels d'étalonnage et accueillir des composants extra-capteurs qui incluent généralement des filtres IR et UV, des filtres anti-aliasing, etc. qui peuvent obstruer un pleine quantité de lumière atteignant la périphérie extérieure du capteur.
Enfin, les capteurs Bayer doivent être "dématriçés" pour produire une image RVB normale de pixels d'ordinateur. Il existe différentes manières de démostrer un capteur Bayer, mais la plupart des algorithmes essaient de maximiser la quantité de pixels RVB qui peuvent être extraits en mélangeant les pixels RVB de chaque ensemble de chevauchements possibles de quatuors RGBG 2x2:
Pour un capteur avec un total de 36 capteurs monochromes, un grand total de 24 pixels RVB peut être extrait. Remarquez la nature chevauchante de l'algorithme de dématriçage en regardant le GIF animé ci-dessus. Notez également que lors des troisième et quatrième passes, les rangées supérieure et inférieure n'ont pas été utilisées. Cela montre comment les pixels de bordure d'un capteur ne peuvent pas toujours être utilisés lors du dématriçage d'un réseau de capteurs Bayer.
Quant à la page DPReview, je pense qu'ils peuvent avoir des informations erronées. Je pense que le nombre total de capteurs (pixels) sur le capteur Canon 550D Bayer est de 18,0mp, tandis que les pixels effectifs, ou le nombre de pixels d'ordinateur RVB qui peuvent être générés à partir de cette base 18mp, sont 5184x3456 ou 17915904 (17,9mp). La différence se résumerait à ces pixels de bordure qui ne peuvent pas tout à fait constituer un quatuor complet, et éventuellement à quelques pixels de bordure supplémentaires pour compenser la conception des filtres et du matériel de montage qui vont devant le capteur.
la source
Désolé de décevoir, mais aucune de ces explications n'est vraie. Sur chaque capteur, il y a une région en dehors de la zone d'imagerie qui contient également des photosites. Certains d'entre eux sont désactivés, certains sont complètement activés et certains sont utilisés à d'autres fins de surveillance. Ceux-ci sont utilisés pour régler les niveaux d'amplification et de balance des blancs, en tant que «jeu de contrôle» par rapport à ceux qui font l'imagerie réelle.
Si vous prenez les données du capteur RAW de l'une des caméras Powershot compatibles CHDK et utilisez dcraw pour les convertir, vous pouvez obtenir l'image complète du capteur, y compris ces régions 100% noir et 100% blanc.
Ce qui est intéressant cependant, c'est que la résolution de la taille d'image RAW intégrée est toujours supérieure aux résultats JPG intégrés. La raison en est que les méthodes d'interpolation plus simples et plus rapides utilisées à huis clos pour passer de RAW à JPG nécessitent des photosites RVB environnants pour déterminer la couleur finale de chaque pixel. Les photosites des bords et des coins n'ont pas ces références de couleurs environnantes sur tous les côtés pour le faire. Faire le processus plus tard, bien que sur un ordinateur avec un meilleur logiciel d'interpolation RAW, vous permettra de retrouver un peu plus de résolution de taille d'image que ce qui peut être obtenu à partir d'un JPG intégré.
ps Les critiques DPReview et les auteurs d'articles ne doivent jamais être considérés comme des évangiles par quiconque. J'ai trouvé tellement de trous dans leurs tests et d'exemples flagrants où les testeurs ne savaient même pas comment utiliser les caméras, que j'ai ignoré leurs conseils il y a de nombreuses années.
la source