Comme on le sait, la couleur d’un faisceau de lumière dépend de sa fréquence (ou longueur d’onde ). En outre, n'est-ce pas l'information qui est d'abord capturée par les appareils photo numériques? Alors, pourquoi utilisons-nous des formats tels que RVB (ou CMJN , HSV, etc.) pour représenter les couleurs numériquement?
47
Réponses:
Je pense qu'il y a des idées fausses dans les réponses précédentes, alors voici ce que je pense être vrai. Référence: Noboru Ohta et Alan R. Robertson, Colorimétrie: principes de base et applications (2005).
Une source de lumière n'a pas besoin d'avoir une seule fréquence. La lumière réfléchie, qui est la plupart de ce que nous voyons dans le monde, n'a pas besoin d'avoir une seule fréquence. Au lieu de cela, il a un spectre d’énergie, c’est-à-dire son contenu énergétique en fonction de la fréquence. Le spectre peut être mesuré par des instruments appelés spectrophotomètres.
Comme on l'a découvert au XIXe siècle, les humains voient dans de nombreux spectres différents la même couleur. Des expériences sont effectuées dans lesquelles de la lumière de deux spectres différents est générée au moyen de lampes et de filtres et les gens sont invités, sont-ils la même couleur? Avec de telles expériences, on vérifie que les gens ne voient pas le spectre, mais seulement ses intégrales avec certaines fonctions de pondération.
Les appareils photo numériques capturent la réponse à la lumière d'ensembles de photodiodes recouverts de différents filtres, et non le spectre plus complet que vous verriez avec un spectrophotomètre. Trois ou quatre types de filtres différents sont utilisés. Le résultat est stocké dans une sortie de fichier brute par l'appareil photo, bien que de nombreuses personnes soupçonnent que les fichiers bruts sont "cuits" dans une mesure plus ou moins grande par les fabricants d'appareils photo (les capteurs de l'appareil photo sont bien sûr très propriétaires). Les réponses physiologiques peuvent être approximées en appliquant une transformation matricielle aux données brutes.
Par commodité, plutôt que d’approximer les réponses physiologiques, d’autres types de triples de nombres sont utilisés pour nommer les couleurs, par exemple Lab, décrits dans https://en.wikipedia.org/wiki/Lab_color_space (mais notez un avertissement à la page). Il faut distinguer les triples capables d'exprimer toute la gamme des réponses physiologiques estimées des autres, comme RGB, qui ne le peuvent pas. Ces derniers sont utilisés car ils expriment les couleurs que les écrans d’ordinateur peuvent afficher. Ils sont le résultat de conversions à partir de triples tels que Lab ou de données brutes. CMJN est pour les imprimantes.
la source
L'objectif de l'ingénieur en imagerie a toujours été de capturer avec une caméra une image fidèle du monde extérieur et de présenter cette image de manière à ce que l'observateur voie fidèlement l'image de la vie. Cet objectif n'a jamais été atteint. En fait, les meilleures images faites aujourd'hui sont fragiles. Si cet objectif devait être atteint, vous auriez besoin de lunettes de soleil pour pouvoir visualiser confortablement l’image d’une vue ensoleillée.
Vous vous demandez pourquoi les caméras ne capturent pas toute la quantité d'énergie radiante qui a créé la réponse visuelle humaine. Pourquoi la caméra moderne ne capture-t-elle que trois segments étroits que nous appelons les couleurs de lumière primaires, à savoir le rouge, le vert et le bleu?
La réponse tombe dans la catégorie de la façon dont nous voyons, à savoir la réponse visuelle humaine. Au fil des ans, de nombreuses théories ont été proposées sur la façon dont les humains perçoivent les couleurs. Jusqu'ici, tous n'ont pas réussi à expliquer de manière satisfaisante chaque aspect de la façon dont nous percevons les couleurs. Les longueurs d'onde auxquelles nos yeux sont sensibles vont de 400 à 700 millimicrons. Ce n'est pas un hasard si l'atmosphère terrestre est transparente à cette gamme.
Lorsque nous regardons une source de lumière, nous ne pouvons distinguer aucune longueur d’onde particulière à moins qu’elle ne soit présentée seule. Lorsque nous examinons une source de lumière blanche, nous sommes incapables d’isoler et d’identifier une couleur spécifique. Notre combinaison œil / cerveau interprète la couleur de la lumière sans analyser ce qui constitue le mélange de fréquences. Profitant de cette expérience, les scientifiques ont prouvé expérimentalement qu’en ne mélangeant que trois couleurs dans des proportions variables, il était possible de produire presque toutes les couleurs. En d’autres termes, en présentant à l’œil humain, à des intensités variables, un mélange de rouge, de vert et de bleu, la plupart des couleurs du spectre peuvent être reproduites, pas exactement, mais de façon approximative. Ce fut l'œuvre de Thomas Young (britannique, 1773-1829) intitulé The Young Theory of Colour Vision.
S'appuyant sur la théorie de Young, James Clerk Maxwell (britannique de 1831 à 1879) montra au monde la première photographie couleur. En 1855, il utilise trois projecteurs et superpose les trois images projetées sur un seul écran. Chaque projecteur était équipé d’un filtre coloré. Les trois images étaient chacune l'une des trois couleurs primaires claires, à savoir le rouge, le vert et le bleu. Les images de film projetées ont été réalisées en prenant trois photos séparées sur trois morceaux de film noir et blanc, chacun exposé à travers un filtre des trois premiers éclairages.
Depuis ce jour en 1855, d'innombrables méthodes de fabrication et d'affichage d'images couleur ont été explorées. Les premières images animées en couleurs projetaient des images en couleurs faibles en utilisant seulement deux couleurs. Edwin Land (américain de 1909 à 1991), fondateur de Polaroid Corp., a expérimenté la création d’images couleur avec deux couleurs primaires. Cela reste une curiosité de laboratoire. Jusqu'à présent, les images couleur les plus fidèles sont réalisées à l'aide des couleurs primaires à trois couleurs. Cependant, un homme, Gabbriel Lippmann (français de 1845 à 1921) a réalisé de superbes images en couleurs capturant l’ensemble du spectre de la lumière. Il a mis au point une méthode utilisant un film noir et blanc avec un miroir. La lumière exposée a pénétré dans le film, a heurté le miroir et a été renvoyée dans le film. Ainsi, l'exposition a été effectuée via deux transits de la lumière d'exposition. L'image composée d'argent disposée avec un espacement égal à la longueur d'onde de la lumière d'exposition. Lors du visionnage, le film ne laissait passer que la lumière correspondant aux longueurs d'onde de la lumière exposée. On pouvait voir une image en couleur ne contenant aucun colorant de pigment. Unique et beau, le procédé Lippmann reste impraticable. Nos pellicules et appareils photo numériques ont recours à la méthode utilisée par Maxwell. Peut-être que si vous étudiez la vision humaine et la théorie des couleurs, vous serez peut-être celui qui fera progresser notre science et obtiendra la première image véritablement fidèle. Nos pellicules et appareils photo numériques ont recours à la méthode utilisée par Maxwell. Peut-être que si vous étudiez la vision humaine et la théorie des couleurs, vous serez peut-être celui qui fera progresser notre science et obtiendra la première image véritablement fidèle. Nos pellicules et appareils photo numériques ont recours à la méthode utilisée par Maxwell. Peut-être que si vous étudiez la vision humaine et la théorie des couleurs, vous serez peut-être celui qui fera progresser notre science et obtiendra la première image véritablement fidèle.
la source
Tu as dit,
Ce n'est pas correct. À eux seuls, les capteurs de la plupart des appareils photo numériques répondent à une large bande de fréquences de la lumière, bien au-delà de ce que les humains peuvent voir dans le spectre infrarouge et ultraviolet. Parce que les capteurs capturent un si large spectre de lumière, ils constituent de terribles discriminateurs des longueurs d'onde. En gros, les capteurs numériques apparaissent en noir et blanc .
Pour la plupart des capteurs de caméra¹, afin de capturer les couleurs, des filtres colorés sont placés devant le capteur, appelé matrice de filtres colorés (CFA). Le CFA transforme chaque pixel du capteur (parfois appelé capteur ) en un capteur de lumière principalement rouge, verte ou bleue. Si vous visualisiez les données de capteur brutes sous forme d'image en noir et blanc, elles sembleraient ternes, un peu comme une image de papier journal demi-ton en noir et blanc. En zoomant à fort grossissement, les pixels individuels de l'image auraient un aspect de damier.
Si vous interprétez les carrés individuels des données d'image brutes en rouge, vert ou bleu, le cas échéant, vous verrez une version tramée en couleur de l'image, similaire à un article de papier journal demi-tons.
Réseau de filtres couleur Bayer, par utilisateur Cburnett , Wikimedia Commons. CC BY-SA 3.0
Grâce à un processus appelé dématriçage, soit lors de l’enregistrement des données d’image dans l’appareil photo, soit lors d’un post-traitement sur un ordinateur, la matrice de données couleur est combinée de manière informatique pour créer une image couleur RVB à pleine résolution. Dans le processus de dématriçage, la valeur RVB de chaque pixel est calculée par un algorithme qui prend en compte non seulement la valeur du pixel, mais également les données des pixels voisins qui l’entourent.
Nous utilisons un modèle de couleur trichromique, car c'est ainsi que les humains perçoivent les couleurs. De l' article Wikipedia'a Trichromacy ,
Ainsi, nous construisons des caméras qui capturent ce que nous pouvons voir, d’une manière quelque peu similaire à celle que nous voyons . Par exemple, pour une photographie typique qui vise à capturer et à reproduire ce que nous voyons, capturer également des longueurs d'onde infrarouges et ultraviolettes n'a pas de sens.
Tous les capteurs n'utilisent pas de CFA. Le capteur Foveon X3 , utilisé par les reflex numériques Sigma et les caméras sans miroir, repose sur le fait que différentes longueurs d'onde de la lumière pénètrent dans le silicium à différentes profondeurs. Chaque pixel du capteur X3 est une pile de photodiodes à détection rouge, verte et bleue. Étant donné que chaque pixel est réellement un capteur RVB, aucun démontage n'est nécessaire pour les capteurs Foveon.
Le Leica M Monochrom est un appareil photo noir et blanc coûteux qui ne comporte pas de CFA sur le capteur. En l'absence de filtrage de la lumière entrante, l'appareil photo est plus sensible à la lumière (selon Leica, 100% ou 1 arrêt, plus sensible).
la source
La raison pour laquelle les appareils photo et les écrans fonctionnent en RVB est que nos rétines fonctionnent de cette façon .
Puisque nos yeux codent les couleurs avec ces composants (RVB), il est très pratique (bien que ce ne soit certainement pas le seul) d'encoder non seulement des longueurs d'onde pures (qui forment une combinaison plus ou moins déterminante de la réponse rétinienne pour chaque composant chromatique). , mais aussi des couleurs mélangées.
Le raisonnement serait "si une combinaison de couleurs ne peut être transmise au cerveau que par une combinaison de trois composants, je peux tromper le système visuel en ne présentant qu'une combinaison donnée de ces composants purs et isolés (via l'affichage RVB) et en laissant le visuel système les décoder comme si elles étaient la vraie chose.
Il est intéressant de noter que, puisque nous sommes des trichromates, la plupart des systèmes de couleur sont de nature tridimensionnelle (Lab, HSV, YCbCr, YUV, etc.), non pas à cause des propriétés physiques intrinsèques de la couleur , mais à cause de la manière même. notre système visuel fonctionne.
la source
Une tentative de répondre simplement:
Nous ne pouvons pratiquement pas capturer suffisamment d’informations pour stocker une ventilation complète, fréquence par fréquence, de toutes les différentes longueurs d’onde de la lumière présente, même à l’intérieur du spectre visible. Avec RVB, nous pouvons décrire la couleur d'un pixel en utilisant seulement trois chiffres. Si nous devions capturer tout le spectre de fréquences de la lumière, chaque pixel nécessiterait non pas 3 nombres, mais un graphique de données. La transmission et le stockage des données seraient immenses.
Ce n'est pas nécessaire pour nos yeux. Nos yeux ne voient pas seulement trois longueurs d'onde uniques, mais chacun de nos récepteurs "rouges", "verts" et "bleus" capturent des plages de lumière se recouvrant partiellement:
Le chevauchement permet à notre cerveau d'interpréter les forces relatives des signaux comme des couleurs variables entre les couleurs primaires, de sorte que notre système de vision est déjà assez performant pour se rapprocher d'une longueur d'onde réelle étant donné uniquement la force de signal relative des trois sources primaires. Un modèle de couleur RVB reproduit correctement ce même niveau d’information.
la source
Il y a deux raisons en interaction.
La raison (1) est que l'œil (généralement) reçoit plusieurs longueurs d'onde de lumière à partir de n'importe quel point [pour ainsi dire]. La lumière blanche, par exemple, est en fait [en règle générale] un mélange de nombreuses longueurs d'onde différentes; il n'y a pas de longueur d'onde "blanche". De même, le magenta (souvent appelé "rose" de nos jours (via "rose vif")) est un mélange de rouge et de bleu, mais sans vert (ce qui le rendrait blanc). De même encore, quelque chose qui semble vert pourrait avoir de la chaux et des composants cyan.
La raison (2), alors, est que RVB est la façon dont fonctionne l'œil humain - il a des capteurs rouges, verts et bleus.
Ainsi, en combinant (1) et (2): pour que le cerveau humain interprète les signaux lumineux de la même manière que les signaux originaux, ils doivent être codés dans ses termes.
Par exemple, si (à l'inverse) l'original était (ce qu'une personne percevrait comme) une lumière blanche, mais codée à l'aide, par exemple, de capteurs violets et rouges - rien que des deux -, la reproduction apparaîtrait à l'œil humain comme étant magenta. De la même manière, mais de manière plus subtile ou plus fine… une lumière blanche mélangeant toute une gamme de couleurs… si celle-ci était codée à l'aide de capteurs violets, jaunes et rouges… cette reproduction apparaîtrait à l'œil humain comme n'étant pas un blanc pur - sous forme (jaune) blanc cassé. Inversement, il apparaîtrait comme un blanc pur à un étranger imaginaire [et peut-être même à un animal réel] ayant les mêmes capteurs (violet, jaune et rouge) dans ses yeux.
De même, si l’original était blanc, c’est-à-dire un mélange de toute une gamme de couleurs, alors un œil humain le percevrait ne le coderait qu’en termes de rouge, vert et bleu… et une reproduction utilisant uniquement le rouge, le vert et le bleu (dans les mêmes proportions) apparaîtrait à la perception humaine comme un blanc pur - le point étant que l'information est perdue dans les deux cas, mais le résultat final semble parfait, car les pertes correspondent. Malheureusement, ils ne correspondront exactement que si les capteurs [RVB] de la caméra ont des courbes de sensibilité identiques à celles des capteurs [RVB] de l'œil humain [notant que chaque capteur est activé par une plage de couleurs] - si, par exemple, , une couleur de chaux a activé chacun des capteurs rouge, vert et bleu de la même quantité, dans les deux cas.
la source
tl; dr: Il est beaucoup plus facile de détecter la lumière sur trois grandes parties du spectre que d’analyser la fréquence avec précision. En outre, le détecteur plus simple signifie qu'il peut être plus petit. Et troisième raison: l'espace de couleur RVB imite les principes d'opération de l'œil humain.
Comme Max Planck l'a prouvé, chaque corps chaud émet des radiations à différentes fréquences. Il a prouvé et prouvé que l’énergie est rayonnée en rafales, appelées photons, pas de façon continue comme on le supposait auparavant. Et à partir de ce jour, la physique n’a jamais été la même. La seule exception à cette règle est le LASER / MASER idéal qui émet un rayonnement d'une seule fréquence et émet des décharges (barres au néon, ...) émettant un rayonnement à plusieurs fréquences isolées.
La distribution des intensités sur les fréquences est appelée spectre. De même, les détecteurs ont également leurs spectres, dans ce cas il s’agit de la distribution de la réponse du détecteur à un rayonnement d’intensité normalisée.
Comme il a déjà été noté, la lumière blanche est blanche parce que nos yeux sont appelés à évoluer pour voir la lumière du soleil, allant de l'infrarouge lointain à l'ultraviolet, en blanc. Les feuilles, par exemple, sont vertes car elles absorbent toutes les fréquences sauf la partie que nous considérons comme verte.
Bien sûr, il existe des détecteurs capables de rassembler les spectres et d'extraire les informations. Ils sont utilisés dans les techniques de spectroscopie d'émission optique et de diffraction des rayons X et de fluorescence, où la composition chimique ou la microstructure est évaluée à partir des spectres. Pour une photographie c'est exagéré; à l'exception de l'astrophotographie, où nous voulons évaluer la composition "chimique" mais les images sont "traduites" en fausses couleurs. Ces détecteurs sont précis et énormes ou petits mais inacurrés et vous avez besoin de beaucoup plus de puissance de calcul pour les analyser.
L'œil humain, ou tout autre œil, n'est pas le cas. Nous ne voyons pas la composition chimique ou les états de liaison de l'objet. Dans l'œil, il y a quatre "détecteurs" différents:
Si nous regardons Rainbow, CD ou DVD, nous verrons les couleurs passer du rouge au violet. Les faisceaux lumineux pour une partie donnée de l'arc-en-ciel ont principalement une fréquence perticullaire. Les rayons infrarouges sont invisibles à nos yeux et n’excitent aucune cellule de la rétine. En augmentant la fréquence, les faisceaux commencent à exciter uniquement les "cellules" rouges et la couleur apparaît en rouge. En augmentant la fréquence, les faisceaux excitent les "globules rouges" et un peu les "verts" et la couleur est vue en orange. Les faisceaux jaunes excitent un peu plus les "verts" ...
Les capteurs des caméras, CCD ou CMOS, sont excités par des faisceaux lumineux de toute fréquence. Pour prendre une photo, nos yeux verront la couleur reproduite à l'image d'un œil humain - nous utilisons, par exemple, le filtre de Bayes. Il se compose de trois filtres de couleur avec des spectres de transmission intentionnellement similaires aux types de cellules de notre rétine.
La lumière réfléchie par un papier jaune illuminé par le Soleil dégage pleinement les "rouges" (100%), les "verts" entièrement (100%) et légèrement les "bleus" (5%), de sorte que vous le voyez en jaune. Si vous prenez une photo, simillar, dites la même chose, l'excitation est recueillie par la caméra. Lorsque vous regardez l'image sur l'écran, celui-ci vous envoie 100 photons rouges, 100 photons verts et 5 photons bleus sur une très courte période. Les niveaux d'excitation de votre rétine seront similaires à ceux provoqués par l'observation directe et vous obtiendrez une photo en papier jaune.
Il y a un autre problème à résoudre si nous voulons reproduire les couleurs. En utilisant l’espace colorimétrique RVB, nous n’avons besoin que de trois types de sources lumineuses par pixel. Nous pouvons avoir trois filtres de couleur (les écrans LCD fonctionnent comme cela), nous pouvons avoir trois types de LED (les panneaux LED et OLED utilisent cela), nous pouvons avoir trois types de luminophores (CRT utilisé). Si vous souhaitez reproduire entièrement la couleur, vous aurez besoin d'une quantité infinie de filtres / sources par pixel. Si vous souhaitez utiliser simlify les informations couleur-fréquence, cela ne vous aidera pas non plus.
Vous pouvez également essayer de reproduire la couleur par sa température. Je suppose que vous ne pourrez reproduire que les couleurs rouge-orange-jaune-blanc et que vous devrez chauffer chaque pixel à une température de 3 000 K environ.
Et dans tous ces cas théoriques, vos yeux traduiront toujours la couleur réellement vraie en signaux RVB et la transmettront à votre cerveau.
Un autre problème à résoudre est comment stocker les données? L'image RVB 18 MPx conventionnelle comprend trois matrices de 5184x3456 cellules, chaque point ayant une taille de 8 bits. Cela signifie 51 Mio de fichier non compressé par image. Si nous voulons stocker le spectre complet pour chaque pixel, par exemple en résolution 8 bits, le résultat sera 5184x3456x256 übermatrix, ce qui donnera un fichier non compressé de 4 Gio. Cela signifie stocker des intensités de 256 fréquences différentes dans une plage de 430 à 770 THz, ce qui signifie une résolution de 1,3 THz par canal.
Totalement ne vaut pas l'effort si je peux dire ...
la source
La réponse courte: comme la longueur d’onde est une valeur unique et que l’ensemble de la gamme de couleurs que nous pouvons percevoir n’est pas représentable par une valeur unique, pas plus que les dimensions d’un solide rectangulaire ne peuvent être représentées par une seule mesure.
Pour poursuivre l'analogie, vous pouvez citer le volume du solide, mais il existe de nombreux solides différents avec le même volume.
RVB, CMJ, HLS, etc., utilisent tous trois "dimensions", car il en faut beaucoup pour décrire correctement les couleurs telles qu'elles sont perçues par les humains.
La longueur d'onde équivaut à la teinte dans le système HLS, mais il ne peut pas vous indiquer la luminosité ou la saturation.
Re "Aussi, n'est-ce pas ([longueur d'onde]) l'information qui est d'abord capturée par les appareils photo numériques?" non, ça ne l'est pas.
Comme d'autres l'ont noté, les appareils photo numériques capturent des intensités relatives de rouge, de vert et de bleu. (Et certains ont utilisé au moins une couleur supplémentaire pour offrir une meilleure discrimination dans la région critique du rouge au vert.) Mesurer directement la fréquence de la lumière entrante serait beaucoup plus difficile. Nous n'avons tout simplement pas de capteurs bon marché capables de le faire, et certainement pas de ceux que nous pouvons créer dans une grille de plusieurs millions. Et nous aurions toujours besoin d'un moyen pour la caméra de mesurer la luminosité et la saturation.
la source