Les capteurs Bayer utilisent un motif de pixels rouges, verts et bleus et fusionnent ceux-ci en une image couleur finale, avec un pixel pour chaque capteur de couleur unique . Cela pourrait se faire par un mélange "naïf" de capteurs voisins, mais j'ai entendu parler d'approches plus compliquées avec des noms comme AHD, HPHD et AMaZE.
Quelles sont ces autres approches et quels avantages apportent-elles? Ont-ils des faiblesses au-delà de la complexité du calcul?
J'imagine que l'approche utilisée pour le JPEG à huis clos est plus étroitement surveillée, mais il est clair que beaucoup de recherche et développement vont dans ce domaine. La puissance de traitement limitée disponible à huis clos force-t-elle des compromis dans ce domaine?
Réponses:
Il y a quelques mois, j'ai été surpris de constater que ma SDK de caméra de vision industrielle utilisait l '"interpolation" du plus proche voisin dans sa fonction de bayer intégrée. C'est le type le plus rapide, mais le pire, donnant des bords durs, surtout lorsque vous commencez à faire des calculs sur les canaux d'image pour la constance des couleurs ou l'invariance de la luminosité. J'ai trouvé cette revue d'algorithmes:
http://www.arl.army.mil/arlreports/2010/ARL-TR-5061.pdf
L'étape suivante consiste en des interpolations bilinéaires et bicubiques qui peuvent être calculées assez rapidement car elles ne représentent que des noyaux de convolution. Ceux-ci donnent des dents de scie colorées sur des bords inclinés - bilinéaires plus que bicubiques.
On peut le voir dans cet article, et avec des données de qualité quantifiées sur 5 algorithmes différents:
http://research.microsoft.com/en-us/um/people/lhe/papers/icassp04.demosaicing.pdf
C'est pourquoi ils ont fait des interpolations basées sur la direction des bords. Cependant, ceux-ci traitent le vert comme un «canal plus important» (car il a la meilleure résolution et représente la majeure partie de notre sensibilité visuelle et de la résolution de nos yeux). Et puis ils créent du bleu et du rouge en fonction du canal vert, d'une manière qui préserve la teinte. Cela rend à son tour le contenu haute fréquence du canal vert plus sujet aux erreurs. La complexité est plus élevée car ils doivent détecter ce qui se passe et nécessitent plusieurs passes. Le moiré et le maïs sont des artefacts courants de ces types d'interpolation.
Ici, ils montrent des exemples de adaptatif homogénéité dématriçage et versions bilinéaires avec et sans addons de préservation de la teinte et de préservation des bords:
http://math.auburn.edu/~kilgota/ahd_bayer.pdf
Ce document favorise l'AHD et ne montre pas la partie négative. Sur cette page, vous pouvez voir les différents artefacts de motif issus du dématriçage par homogénéité adaptative, du groupement de pixels à motifs et du nombre variable de dégradés (passez la souris sur les noms):
http://www.ruevski.com/rawhistogram/40D_Demosaicing/40D_DemosaicingArtifacts.html
En résumé, un certain nombre d'hypothèses sont utilisées dans ces algorithmes et les artefacts se produisent lorsque l'hypothèse n'est pas vérifiée:
la source
J'ai commencé à jouer un peu avec ça, et j'ai trouvé que l'approche naïve n'était pas si mauvaise. C'est simplement traiter chaque couleur séparément et interpoler pour obtenir l'intervalle entre les pixels. Le principal inconvénient est que si vous regardez des pixels à un endroit où le contraste est élevé, vous pouvez voir une petite frange de couleur. Autrement dit, si vous avez une zone gris clair attenante à une zone noire, vous verrez quelques pixels colorés à la frontière. Heureusement, ces moyennes se dégagent en général, mais si le bord est presque vertical ou presque horizontal, elles se répartissent en moyenne sur une basse fréquence. Le même effet peut être encore plus évident sur de fines lignes lumineuses qui sont presque verticales ou horizontales.
Voici un exemple. Cette photo a été prise délibérément comme test de tir:
Notez l'apparente bande de la ligne de garniture chromée. Pour mettre cela en perspective, voici le cadre complet:
J'ai pensé à une approche alternative mais jusqu'à présent, il y a toujours eu d'autres choses à faire en premier. Ce schéma chercherait à trouver uniquement la luminosité en premier. Ce serait le seul canal de données d'image si l'image était en noir et blanc. Chaque sensel y contribue, bien que les couleurs ne contribuent pas également. Une fois que l'intensité est déterminée, vous devez alors interpoler les couleurs comme dans la méthode naïve, mais utiliser le résultat uniquement pour définir les couleurs de manière à préserver l'intensité. L'intensité aurait une bande passante plus élevée, ou serait plus nette en termes photographiques que les informations de teinte. La télévision analogique a utilisé cette astuce pour réduire les besoins en bande passante d'une image couleur. Ils s'en sont sortis parce que le système visuel humain accorde plus d'importance à l'intensité qu'aux couleurs, en particulier au rouge.
Quoi qu'il en soit, ce ne sont que quelques réflexions. Comme je l'ai dit, je n'ai pas encore essayé ni travaillé sur les détails. Un jour.
la source
Je crois comprendre que les différentes versions de processus dans Lightroom (jusqu'à présent, nous avons 2003, 2010 et 2012) correspondent entre autres à différents algorithmes de dématriçage. Un autre logiciel intéressant est UFRaw qui offre ce qui suit (citation de la page Web):
Après avoir réglé la balance des blancs, UFRaw interpole le motif Bayer.
Cela pourrait fournir des éléments d'expérimentation. Soit dit en passant, UFRaw semble être Open source, ce qui vous permet de jeter un œil aux algorithmes eux-mêmes.
la source
En astrophotographie, ce sujet est étudié en profondeur, car lors de l'utilisation d'un capteur de couleur à un coup, il y a beaucoup de résolution perdue par le débayage. Sur le plan positif, l'utilisation d'un fichier RAW permet toujours d'accéder aux données d'origine et il peut être traité avant l'application de couleur. Ce sujet est étroitement lié au côté logiciel des choses.
En bref, si vous avez accès à de nombreuses images avec les mêmes données de sujet (ce qui est fait pour réduire le bruit du capteur), vous pouvez échanger une conversion d'une seule image avec AHD pour une approche bruine qui peut récupérer la résolution perdue. Le choix dépend du type de données source dont vous disposez. La plupart des photographes n'ont qu'une seule image à utiliser.
Certains logiciels que j'ai utilisés avec des choix pour les processus de débayonnage sont: Deep Sky Stacker et Pix Insight. Il y a d'autres aussi. Beaucoup sont basés sur DCRAW .
Voici le lien pour l'article sur la page Deep Sky Stacker où ils discutent de certaines des options: Choix de débayonnage
la source