Pourquoi utilisons-nous RVB au lieu de longueurs d'onde pour représenter les couleurs?

47

Comme on le sait, la couleur d’un faisceau de lumière dépend de sa fréquence (ou longueur d’onde ). En outre, n'est-ce pas l'information qui est d'abord capturée par les appareils photo numériques? Alors, pourquoi utilisons-nous des formats tels que RVB (ou CMJN , HSV, etc.) pour représenter les couleurs numériquement?

Karan Karan
la source
23
Avez-vous déjà comparé le prix d’un spectromètre pouvant mesurer chaque longueur d’onde de la lumière visible indépendamment du prix d’un colorimètre mesurant la lumière totale filtrée par trois couleurs différentes?
Michael C
6
Le mentionner parce qu'il n'a pas été mentionné dans d'autres réponses: nous n'utilisons pas uniquement le RVB pour représenter la couleur dans les systèmes informatiques. C'est la plus conventionnelle puisqu'elle correspond au comportement "natif" de la plupart des systèmes de capture et d'imagerie, mais il existe deux autres représentations couramment utilisées: HSV et YUV. Cela vaut également la peine de regarder les détails de la CIE: la couleur perçue par l’homme et la couleur spectrale ne sont pas les mêmes!
pjc50
4
@ pjc50 C'est une bonne information qui devrait être en réponse. On dirait que vous avez une réponse qui ne demande qu'à être créé. Envie de le créer?
scottbb
19
Votre question semble impliquer que n'importe quelle couleur peut être décrite par une seule fréquence / longueur d'onde. Cependant, ce n'est pas le cas: tous les gris (y compris le blanc) et de nombreuses couleurs telles que le rose ou le marron ne peuvent pas être décrits par une seule fréquence, ils sont nécessairement une combinaison de plusieurs.
Jcaron
14
Donc, ce serait un ensemble de tuples (longueur d'onde, intensité). Étant donné que nous, humains pauvres, "voyons" seulement trois de ces longueurs d'onde (approximation grossière), nous pouvons alors filtrer ce jeu pour qu'il ne corresponde qu'à des longueurs d'onde identiques. Oh, sacrément, nous finissons avec trois n-uplets (rouge, intensité), (vert, intensité), (bleu, intensité). Communément
appelé

Réponses:

11

Je pense qu'il y a des idées fausses dans les réponses précédentes, alors voici ce que je pense être vrai. Référence: Noboru Ohta et Alan R. Robertson, Colorimétrie: principes de base et applications (2005).

Une source de lumière n'a pas besoin d'avoir une seule fréquence. La lumière réfléchie, qui est la plupart de ce que nous voyons dans le monde, n'a pas besoin d'avoir une seule fréquence. Au lieu de cela, il a un spectre d’énergie, c’est-à-dire son contenu énergétique en fonction de la fréquence. Le spectre peut être mesuré par des instruments appelés spectrophotomètres.

Comme on l'a découvert au XIXe siècle, les humains voient dans de nombreux spectres différents la même couleur. Des expériences sont effectuées dans lesquelles de la lumière de deux spectres différents est générée au moyen de lampes et de filtres et les gens sont invités, sont-ils la même couleur? Avec de telles expériences, on vérifie que les gens ne voient pas le spectre, mais seulement ses intégrales avec certaines fonctions de pondération.

Les appareils photo numériques capturent la réponse à la lumière d'ensembles de photodiodes recouverts de différents filtres, et non le spectre plus complet que vous verriez avec un spectrophotomètre. Trois ou quatre types de filtres différents sont utilisés. Le résultat est stocké dans une sortie de fichier brute par l'appareil photo, bien que de nombreuses personnes soupçonnent que les fichiers bruts sont "cuits" dans une mesure plus ou moins grande par les fabricants d'appareils photo (les capteurs de l'appareil photo sont bien sûr très propriétaires). Les réponses physiologiques peuvent être approximées en appliquant une transformation matricielle aux données brutes.

Par commodité, plutôt que d’approximer les réponses physiologiques, d’autres types de triples de nombres sont utilisés pour nommer les couleurs, par exemple Lab, décrits dans https://en.wikipedia.org/wiki/Lab_color_space (mais notez un avertissement à la page). Il faut distinguer les triples capables d'exprimer toute la gamme des réponses physiologiques estimées des autres, comme RGB, qui ne le peuvent pas. Ces derniers sont utilisés car ils expriment les couleurs que les écrans d’ordinateur peuvent afficher. Ils sont le résultat de conversions à partir de triples tels que Lab ou de données brutes. CMJN est pour les imprimantes.

Client
la source
Réponse correcte et succincte! Une source de lumière n'a pas besoin d'avoir une seule fréquence.
Karan Karan
1
En outre, toutes les nuances de couleur ne peuvent pas être reproduites avec une source de lumière à une seule longueur d'onde! Envoyez vos apprentis dans un magasin d’électronique pour obtenir une DEL marron à la prochaine occasion :) et une source de lumière ajustable pas cher pour reproduire également votre image codée en longueur d'onde :)
rackandboneman
RVB n'est pas un terme unique qui pourrait ou ne pourrait pas décrire toute la gamme de couleurs. sRGB est le standard de facto et ne peut décrire toutes les valeurs de tristimulus perceptibles par l'homme - les couleurs - mais scRGB est une extension triviale de sRGB qui couvre l'ensemble des valeurs en autorisant des valeurs négatives pour les trois couleurs primaires. # ffff00 n'est pas une couleur pure, mais vous pouvez en obtenir une soustraction de bleu.
John Dvorak
@rack si nous abandonnons l'exigence "pas cher", un film mince à commande électrique pourrait être en mesure de réussir le tour. Je ne pense pas que la technologie existe encore, mais j'aimerais bien la voir terminée.
John Dvorak
sRVB est un espace colorimétrique beaucoup plus petit que ce qui peut être exprimé par des valeurs RVB sans les limites définies de sRVB. D'autres espaces colorimétriques sont également des formes RVB, mais peuvent exprimer un espace colorimétrique beaucoup plus grand, car les limites définies (à quoi correspondent les valeurs minimale et maximale de chaque canal) sont plus grandes.
Michael C
45

L'objectif de l'ingénieur en imagerie a toujours été de capturer avec une caméra une image fidèle du monde extérieur et de présenter cette image de manière à ce que l'observateur voie fidèlement l'image de la vie. Cet objectif n'a jamais été atteint. En fait, les meilleures images faites aujourd'hui sont fragiles. Si cet objectif devait être atteint, vous auriez besoin de lunettes de soleil pour pouvoir visualiser confortablement l’image d’une vue ensoleillée.

Vous vous demandez pourquoi les caméras ne capturent pas toute la quantité d'énergie radiante qui a créé la réponse visuelle humaine. Pourquoi la caméra moderne ne capture-t-elle que trois segments étroits que nous appelons les couleurs de lumière primaires, à savoir le rouge, le vert et le bleu?

La réponse tombe dans la catégorie de la façon dont nous voyons, à savoir la réponse visuelle humaine. Au fil des ans, de nombreuses théories ont été proposées sur la façon dont les humains perçoivent les couleurs. Jusqu'ici, tous n'ont pas réussi à expliquer de manière satisfaisante chaque aspect de la façon dont nous percevons les couleurs. Les longueurs d'onde auxquelles nos yeux sont sensibles vont de 400 à 700 millimicrons. Ce n'est pas un hasard si l'atmosphère terrestre est transparente à cette gamme.

Lorsque nous regardons une source de lumière, nous ne pouvons distinguer aucune longueur d’onde particulière à moins qu’elle ne soit présentée seule. Lorsque nous examinons une source de lumière blanche, nous sommes incapables d’isoler et d’identifier une couleur spécifique. Notre combinaison œil / cerveau interprète la couleur de la lumière sans analyser ce qui constitue le mélange de fréquences. Profitant de cette expérience, les scientifiques ont prouvé expérimentalement qu’en ne mélangeant que trois couleurs dans des proportions variables, il était possible de produire presque toutes les couleurs. En d’autres termes, en présentant à l’œil humain, à des intensités variables, un mélange de rouge, de vert et de bleu, la plupart des couleurs du spectre peuvent être reproduites, pas exactement, mais de façon approximative. Ce fut l'œuvre de Thomas Young (britannique, 1773-1829) intitulé The Young Theory of Colour Vision.

S'appuyant sur la théorie de Young, James Clerk Maxwell (britannique de 1831 à 1879) montra au monde la première photographie couleur. En 1855, il utilise trois projecteurs et superpose les trois images projetées sur un seul écran. Chaque projecteur était équipé d’un filtre coloré. Les trois images étaient chacune l'une des trois couleurs primaires claires, à savoir le rouge, le vert et le bleu. Les images de film projetées ont été réalisées en prenant trois photos séparées sur trois morceaux de film noir et blanc, chacun exposé à travers un filtre des trois premiers éclairages.

Depuis ce jour en 1855, d'innombrables méthodes de fabrication et d'affichage d'images couleur ont été explorées. Les premières images animées en couleurs projetaient des images en couleurs faibles en utilisant seulement deux couleurs. Edwin Land (américain de 1909 à 1991), fondateur de Polaroid Corp., a expérimenté la création d’images couleur avec deux couleurs primaires. Cela reste une curiosité de laboratoire. Jusqu'à présent, les images couleur les plus fidèles sont réalisées à l'aide des couleurs primaires à trois couleurs. Cependant, un homme, Gabbriel Lippmann (français de 1845 à 1921) a réalisé de superbes images en couleurs capturant l’ensemble du spectre de la lumière. Il a mis au point une méthode utilisant un film noir et blanc avec un miroir. La lumière exposée a pénétré dans le film, a heurté le miroir et a été renvoyée dans le film. Ainsi, l'exposition a été effectuée via deux transits de la lumière d'exposition. L'image composée d'argent disposée avec un espacement égal à la longueur d'onde de la lumière d'exposition. Lors du visionnage, le film ne laissait passer que la lumière correspondant aux longueurs d'onde de la lumière exposée. On pouvait voir une image en couleur ne contenant aucun colorant de pigment. Unique et beau, le procédé Lippmann reste impraticable. Nos pellicules et appareils photo numériques ont recours à la méthode utilisée par Maxwell. Peut-être que si vous étudiez la vision humaine et la théorie des couleurs, vous serez peut-être celui qui fera progresser notre science et obtiendra la première image véritablement fidèle. Nos pellicules et appareils photo numériques ont recours à la méthode utilisée par Maxwell. Peut-être que si vous étudiez la vision humaine et la théorie des couleurs, vous serez peut-être celui qui fera progresser notre science et obtiendra la première image véritablement fidèle. Nos pellicules et appareils photo numériques ont recours à la méthode utilisée par Maxwell. Peut-être que si vous étudiez la vision humaine et la théorie des couleurs, vous serez peut-être celui qui fera progresser notre science et obtiendra la première image véritablement fidèle.

Alan Marcus
la source
5
Les systèmes R, G et B ne sont pas trois couleurs étroites ou spécifiques, ils représentent chacun une plage spectrale relativement large et leurs proportions relatives permettent un mélange de couleurs additif.
Brandon Dube
5
@ BlueRaja - Danny Pflughoeft - La science médicale vient d’identifier de petits groupes d’êtres humains à quatre cônes. Les images en couleur peuvent être visualisées sur un téléviseur noir et blanc grâce à un clignotement rapide spécialisé de l’image. Les personnes daltoniennes peuvent retrouver la vision des couleurs en utilisant des lunettes de couleurs spéciales. La science progresse de jour en jour.
Alan Marcus
3
@AlanMarcus même le filtre vert a une bande passante de 125 nm, lorsque nous définissons visible comme étant 400-700, inclure UN TIERS du spectre pour votre "couleur spécifique étroite" n'est pas correct. Un tiers de la plage libre n'est pas une couleur spécifique définie de manière étroite.
Brandon Dube
6
@BrandonDube: C'est différent selon que vous capturez ou affichez une image. Lorsque vous capturez une image, chaque composant R, G, B doit avoir une large plage pour refléter la perception humaine. Lors de l'affichage d'une image, il est préférable que chaque composant soit une plage étroite afin d'obtenir une gamme plus étendue.
Dietrich Epp
2
"Unique et magnifique, le procédé Lippmann reste impraticable." - Expliquer pourquoi. Ou est-ce simplement parce que l'argent est cher?
aroth
35

Tu as dit,

Ce sont les informations qui sont d'abord capturées par les appareils photo numériques.

Ce n'est pas correct. À eux seuls, les capteurs de la plupart des appareils photo numériques répondent à une large bande de fréquences de la lumière, bien au-delà de ce que les humains peuvent voir dans le spectre infrarouge et ultraviolet. Parce que les capteurs capturent un si large spectre de lumière, ils constituent de terribles discriminateurs des longueurs d'onde. En gros, les capteurs numériques apparaissent en noir et blanc .

Pour la plupart des capteurs de caméra¹, afin de capturer les couleurs, des filtres colorés sont placés devant le capteur, appelé matrice de filtres colorés (CFA). Le CFA transforme chaque pixel du capteur (parfois appelé capteur ) en un capteur de lumière principalement rouge, verte ou bleue. Si vous visualisiez les données de capteur brutes sous forme d'image en noir et blanc, elles sembleraient ternes, un peu comme une image de papier journal demi-ton en noir et blanc. En zoomant à fort grossissement, les pixels individuels de l'image auraient un aspect de damier.

Si vous interprétez les carrés individuels des données d'image brutes en rouge, vert ou bleu, le cas échéant, vous verrez une version tramée en couleur de l'image, similaire à un article de papier journal demi-tons.

Baie de filtres de couleurs Bayer, de Wikimedia Commons
Réseau de filtres couleur Bayer, par utilisateur Cburnett , Wikimedia Commons. CC BY-SA 3.0

Grâce à un processus appelé dématriçage, soit lors de l’enregistrement des données d’image dans l’appareil photo, soit lors d’un post-traitement sur un ordinateur, la matrice de données couleur est combinée de manière informatique pour créer une image couleur RVB à pleine résolution. Dans le processus de dématriçage, la valeur RVB de chaque pixel est calculée par un algorithme qui prend en compte non seulement la valeur du pixel, mais également les données des pixels voisins qui l’entourent.

Alors, pourquoi utilisons-nous le format RVB pour représenter les couleurs numériquement?

Nous utilisons un modèle de couleur trichromique, car c'est ainsi que les humains perçoivent les couleurs. De l' article Wikipedia'a Trichromacy ,

La théorie des couleurs trichromatiques a débuté au 18ème siècle, lorsque Thomas Young a proposé que la vision des couleurs soit le résultat de trois cellules photoréceptrices différentes. Hermann von Helmholtz développa plus tard les idées de Young en utilisant des expériences de correspondance de couleurs qui montrèrent que les personnes ayant une vision normale avaient besoin de trois longueurs d'onde pour créer la gamme de couleurs normale.

Ainsi, nous construisons des caméras qui capturent ce que nous pouvons voir, d’une manière quelque peu similaire à celle que nous voyons . Par exemple, pour une photographie typique qui vise à capturer et à reproduire ce que nous voyons, capturer également des longueurs d'onde infrarouges et ultraviolettes n'a pas de sens.


  1. Tous les capteurs n'utilisent pas de CFA. Le capteur Foveon X3 , utilisé par les reflex numériques Sigma et les caméras sans miroir, repose sur le fait que différentes longueurs d'onde de la lumière pénètrent dans le silicium à différentes profondeurs. Chaque pixel du capteur X3 est une pile de photodiodes à détection rouge, verte et bleue. Étant donné que chaque pixel est réellement un capteur RVB, aucun démontage n'est nécessaire pour les capteurs Foveon.

    Le Leica M Monochrom est un appareil photo noir et blanc coûteux qui ne comporte pas de CFA sur le capteur. En l'absence de filtrage de la lumière entrante, l'appareil photo est plus sensible à la lumière (selon Leica, 100% ou 1 arrêt, plus sensible).

scottbb
la source
12

La raison pour laquelle les appareils photo et les écrans fonctionnent en RVB est que nos rétines fonctionnent de cette façon .

Puisque nos yeux codent les couleurs avec ces composants (RVB), il est très pratique (bien que ce ne soit certainement pas le seul) d'encoder non seulement des longueurs d'onde pures (qui forment une combinaison plus ou moins déterminante de la réponse rétinienne pour chaque composant chromatique). , mais aussi des couleurs mélangées.

Le raisonnement serait "si une combinaison de couleurs ne peut être transmise au cerveau que par une combinaison de trois composants, je peux tromper le système visuel en ne présentant qu'une combinaison donnée de ces composants purs et isolés (via l'affichage RVB) et en laissant le visuel système les décoder comme si elles étaient la vraie chose.

Il est intéressant de noter que, puisque nous sommes des trichromates, la plupart des systèmes de couleur sont de nature tridimensionnelle (Lab, HSV, YCbCr, YUV, etc.), non pas à cause des propriétés physiques intrinsèques de la couleur , mais à cause de la manière même. notre système visuel fonctionne.

Heltonbiker
la source
Bienvenue sur Photo.SE. Bonne réponse!
scottbb
12

Une tentative de répondre simplement:

  • Nous ne pouvons pratiquement pas capturer suffisamment d’informations pour stocker une ventilation complète, fréquence par fréquence, de toutes les différentes longueurs d’onde de la lumière présente, même à l’intérieur du spectre visible. Avec RVB, nous pouvons décrire la couleur d'un pixel en utilisant seulement trois chiffres. Si nous devions capturer tout le spectre de fréquences de la lumière, chaque pixel nécessiterait non pas 3 nombres, mais un graphique de données. La transmission et le stockage des données seraient immenses.

  • Ce n'est pas nécessaire pour nos yeux. Nos yeux ne voient pas seulement trois longueurs d'onde uniques, mais chacun de nos récepteurs "rouges", "verts" et "bleus" capturent des plages de lumière se recouvrant partiellement:

    Le chevauchement permet à notre cerveau d'interpréter les forces relatives des signaux comme des couleurs variables entre les couleurs primaires, de sorte que notre système de vision est déjà assez performant pour se rapprocher d'une longueur d'onde réelle étant donné uniquement la force de signal relative des trois sources primaires. Un modèle de couleur RVB reproduit correctement ce même niveau d’information.

thomasrutter
la source
3
+1 Mais vous pourriez insister suffisamment un peu. Je veux dire que vous obtenez beaucoup de couleurs avec un système tricromatic, mais pas toutes les couleurs possibles. Il convient également de noter qu'il existe des caméras avec plusieurs bandes de longueur d'onde et que les fichiers d'image qu'elles produisent sont énormes. En fait, nous avons de la chance que le stimulus tricromatique fonctionne s'il ne l'était pas afin que nous puissions être à Orobkems avec le stockage de médias
joojaa
En effet, bien que si la réponse des capteurs primaires à 3 capteurs corresponde au tableau de réponse des récepteurs de couleur à nos yeux , elle obtiendrait en théorie toujours une précision en termes de reproduction de tout ce que nous pouvons voir.
thomasrutter
Non, les courbes se chevauchent de manière à ce que certaines combinaisons de distribution de longueur d'onde envoient un signal unique. Cela ne peut pas être reproduit avec autre chose que cette combinaison exacte. Donc, malheureusement, une entrée tristimulus ne vous donnera jamais toute la portée visuelle humaine.
joojaa
"Cela ne peut pas être reproduit avec autre chose que cette combinaison exacte." - C'est un peu ce que je voulais dire. En théorie, si vos capteurs primaires étaient sensibles avec exactement les mêmes courbes, ils seraient alors égaux à 1: 1. Dites si vous avez une rétine humaine et que vous la mettez dans une caméra et capturez les signaux qui sortent de la rétine.
thomasrutter
2
@ChrisBecke a trouvé une explication à ce sujet: "L’érythropsine dans les cônes sensibles au rouge est sensible à deux gammes de longueurs d’onde. La gamme principale se situe entre 500 nm et 760 nm, avec un maximum à 600 nm. La plage mineure se situe entre 380 nm et 450 nm et culmine à 420 nm. Cela inclut le violet et un peu de bleu. La plage mineure est ce qui donne l'impression que les teintes forment un cercle au lieu d'une ligne droite. " Source: midimagic.sgc-hosting.com/huvision.htm
thomasrutter le
8

Il y a deux raisons en interaction.

La raison (1) est que l'œil (généralement) reçoit plusieurs longueurs d'onde de lumière à partir de n'importe quel point [pour ainsi dire]. La lumière blanche, par exemple, est en fait [en règle générale] un mélange de nombreuses longueurs d'onde différentes; il n'y a pas de longueur d'onde "blanche". De même, le magenta (souvent appelé "rose" de nos jours (via "rose vif")) est un mélange de rouge et de bleu, mais sans vert (ce qui le rendrait blanc). De même encore, quelque chose qui semble vert pourrait avoir de la chaux et des composants cyan.

La raison (2), alors, est que RVB est la façon dont fonctionne l'œil humain - il a des capteurs rouges, verts et bleus.

Ainsi, en combinant (1) et (2): pour que le cerveau humain interprète les signaux lumineux de la même manière que les signaux originaux, ils doivent être codés dans ses termes.

Par exemple, si (à l'inverse) l'original était (ce qu'une personne percevrait comme) une lumière blanche, mais codée à l'aide, par exemple, de capteurs violets et rouges - rien que des deux -, la reproduction apparaîtrait à l'œil humain comme étant magenta. De la même manière, mais de manière plus subtile ou plus fine… une lumière blanche mélangeant toute une gamme de couleurs… si celle-ci était codée à l'aide de capteurs violets, jaunes et rouges… cette reproduction apparaîtrait à l'œil humain comme n'étant pas un blanc pur - sous forme (jaune) blanc cassé. Inversement, il apparaîtrait comme un blanc pur à un étranger imaginaire [et peut-être même à un animal réel] ayant les mêmes capteurs (violet, jaune et rouge) dans ses yeux.

De même, si l’original était blanc, c’est-à-dire un mélange de toute une gamme de couleurs, alors un œil humain le percevrait ne le coderait qu’en termes de rouge, vert et bleu… et une reproduction utilisant uniquement le rouge, le vert et le bleu (dans les mêmes proportions) apparaîtrait à la perception humaine comme un blanc pur - le point étant que l'information est perdue dans les deux cas, mais le résultat final semble parfait, car les pertes correspondent. Malheureusement, ils ne correspondront exactement que si les capteurs [RVB] de la caméra ont des courbes de sensibilité identiques à celles des capteurs [RVB] de l'œil humain [notant que chaque capteur est activé par une plage de couleurs] - si, par exemple, , une couleur de chaux a activé chacun des capteurs rouge, vert et bleu de la même quantité, dans les deux cas.

Carsogrin
la source
Je crois qu'un mélange de lumière représentant chaque longueur d'onde - par exemple, par incréments nanométriques - dans la plage de la sensibilité humaine la plus sensible aurait une réponse plus forte entre le rouge et le vert qu'entre le bleu et le vert en raison de la sommation intégrale plus grande sous les courbes proches les longueurs d'onde jaunes que près des cyan: il semblerait jaunâtre.
can-ned_food
@ can-ned_food Vous oubliez que notre cerveau interprète les signaux des cônes de nos rétines en fonction de ce qu'il s'attend à voir. C’est ainsi que nous pouvons dire qu’un objet blanc est blanc sous une lumière solaire à spectre complet centré autour de 5500K et sous une lumière à spectre complet (mais pas aussi complet que la lumière du soleil) centrée sur 2700K, telle que la lumière d’une ampoule de tungstène. Ce n'est que lorsqu'une partie importante du spectre est absente que nous avons du mal à distinguer une chemise bleue claire d'une chemise blanche (dans ce cas, en l'absence de lumière rouge ou verte).
Michael C
@MichaelClark Hmm. Eh bien, même si notre vision reconnaît le profil de la réflexion du corps noir sur un objet parfaitement blanc (et pas seulement apparemment blanche pour un spectre incident), et perçoit donc toujours cet objet comme blanc, alors un tel spectre hypothétique «égalitaire» diffère du profil attendu de corps noir, ne serait-ce pas?
can-ned_food
@ can-ned_food Sous une lumière à spectre très limité, la réponse des cônes de nos rétines peut être identique pour deux objets différents avec des "couleurs" différentes lorsque vue sous un éclairage à spectre plus complet. C'est le problème avec un éclairage à spectre limité. Pour percevoir le «blanc», qui n'est pas une «couleur», mais plutôt une combinaison de toutes les couleurs, il faut une lumière à spectre suffisamment large pour créer une réponse dans les trois tailles de cônes de nos rétines. Ce n'est que si tel est le cas que notre cerveau , et non nos yeux , peut interpréter l'objet comme étant "blanc".
Michael C
@MichaelClark Oui - ou presque, une surface peut être perçue comme plus sombre que l'autre. En tout cas, je ne suis pas encore sûr d'avoir compris votre premier commentaire. Je devrai faire des recherches à ce sujet.
can-ned_food
4

tl; dr: Il est beaucoup plus facile de détecter la lumière sur trois grandes parties du spectre que d’analyser la fréquence avec précision. En outre, le détecteur plus simple signifie qu'il peut être plus petit. Et troisième raison: l'espace de couleur RVB imite les principes d'opération de l'œil humain.


Comme Max Planck l'a prouvé, chaque corps chaud émet des radiations à différentes fréquences. Il a prouvé et prouvé que l’énergie est rayonnée en rafales, appelées photons, pas de façon continue comme on le supposait auparavant. Et à partir de ce jour, la physique n’a jamais été la même. La seule exception à cette règle est le LASER / MASER idéal qui émet un rayonnement d'une seule fréquence et émet des décharges (barres au néon, ...) émettant un rayonnement à plusieurs fréquences isolées.

La distribution des intensités sur les fréquences est appelée spectre. De même, les détecteurs ont également leurs spectres, dans ce cas il s’agit de la distribution de la réponse du détecteur à un rayonnement d’intensité normalisée.

Comme il a déjà été noté, la lumière blanche est blanche parce que nos yeux sont appelés à évoluer pour voir la lumière du soleil, allant de l'infrarouge lointain à l'ultraviolet, en blanc. Les feuilles, par exemple, sont vertes car elles absorbent toutes les fréquences sauf la partie que nous considérons comme verte.

Bien sûr, il existe des détecteurs capables de rassembler les spectres et d'extraire les informations. Ils sont utilisés dans les techniques de spectroscopie d'émission optique et de diffraction des rayons X et de fluorescence, où la composition chimique ou la microstructure est évaluée à partir des spectres. Pour une photographie c'est exagéré; à l'exception de l'astrophotographie, où nous voulons évaluer la composition "chimique" mais les images sont "traduites" en fausses couleurs. Ces détecteurs sont précis et énormes ou petits mais inacurrés et vous avez besoin de beaucoup plus de puissance de calcul pour les analyser.

L'œil humain, ou tout autre œil, n'est pas le cas. Nous ne voyons pas la composition chimique ou les états de liaison de l'objet. Dans l'œil, il y a quatre "détecteurs" différents:

  • incolore: ce sont les plus sensibles et ils fonctionnent pour toutes les fréquences visibles. Sans eux, vous ne verriez rien la nuit.
  • les rouges: ce sont les plus sensibles dans la région des basses fréquences. C'est pourquoi les choses chaudes brillent d'abord en rouge.
  • verts: ce sont les plus sensibles dans les régions de fréquence plus élevée. C'est pourquoi les couleurs chaudes passent du rouge au jaune lorsqu'elles sont chauffées davantage.
  • blues: ce sont les plus sensibles dans les hautes fréquences. C'est pourquoi les objets chauffés brillent de blanc lorsqu'ils sont chauffés beaucoup plus. Si vous pouviez les chauffer de plus en plus, ils commenceraient à briller en bleu clair.

Si nous regardons Rainbow, CD ou DVD, nous verrons les couleurs passer du rouge au violet. Les faisceaux lumineux pour une partie donnée de l'arc-en-ciel ont principalement une fréquence perticullaire. Les rayons infrarouges sont invisibles à nos yeux et n’excitent aucune cellule de la rétine. En augmentant la fréquence, les faisceaux commencent à exciter uniquement les "cellules" rouges et la couleur apparaît en rouge. En augmentant la fréquence, les faisceaux excitent les "globules rouges" et un peu les "verts" et la couleur est vue en orange. Les faisceaux jaunes excitent un peu plus les "verts" ...

Les capteurs des caméras, CCD ou CMOS, sont excités par des faisceaux lumineux de toute fréquence. Pour prendre une photo, nos yeux verront la couleur reproduite à l'image d'un œil humain - nous utilisons, par exemple, le filtre de Bayes. Il se compose de trois filtres de couleur avec des spectres de transmission intentionnellement similaires aux types de cellules de notre rétine.

La lumière réfléchie par un papier jaune illuminé par le Soleil dégage pleinement les "rouges" (100%), les "verts" entièrement (100%) et légèrement les "bleus" (5%), de sorte que vous le voyez en jaune. Si vous prenez une photo, simillar, dites la même chose, l'excitation est recueillie par la caméra. Lorsque vous regardez l'image sur l'écran, celui-ci vous envoie 100 photons rouges, 100 photons verts et 5 photons bleus sur une très courte période. Les niveaux d'excitation de votre rétine seront similaires à ceux provoqués par l'observation directe et vous obtiendrez une photo en papier jaune.

Il y a un autre problème à résoudre si nous voulons reproduire les couleurs. En utilisant l’espace colorimétrique RVB, nous n’avons besoin que de trois types de sources lumineuses par pixel. Nous pouvons avoir trois filtres de couleur (les écrans LCD fonctionnent comme cela), nous pouvons avoir trois types de LED (les panneaux LED et OLED utilisent cela), nous pouvons avoir trois types de luminophores (CRT utilisé). Si vous souhaitez reproduire entièrement la couleur, vous aurez besoin d'une quantité infinie de filtres / sources par pixel. Si vous souhaitez utiliser simlify les informations couleur-fréquence, cela ne vous aidera pas non plus.

Vous pouvez également essayer de reproduire la couleur par sa température. Je suppose que vous ne pourrez reproduire que les couleurs rouge-orange-jaune-blanc et que vous devrez chauffer chaque pixel à une température de 3 000 K environ.

Et dans tous ces cas théoriques, vos yeux traduiront toujours la couleur réellement vraie en signaux RVB et la transmettront à votre cerveau.

Un autre problème à résoudre est comment stocker les données? L'image RVB 18 MPx conventionnelle comprend trois matrices de 5184x3456 cellules, chaque point ayant une taille de 8 bits. Cela signifie 51 Mio de fichier non compressé par image. Si nous voulons stocker le spectre complet pour chaque pixel, par exemple en résolution 8 bits, le résultat sera 5184x3456x256 übermatrix, ce qui donnera un fichier non compressé de 4 Gio. Cela signifie stocker des intensités de 256 fréquences différentes dans une plage de 430 à 770 THz, ce qui signifie une résolution de 1,3 THz par canal.

Totalement ne vaut pas l'effort si je peux dire ...

Crowley
la source
2
Vous pouvez aussi ne pas produire toutes les couleurs avec la température, comme une bonne partie de l' espace visible humain n'existe pas dans l'arc en ciel;)
joojaa
@ scottbb Merci pour la correction. Oui, j'ai pris des bits pour les octets et j'ai oublié de les diviser par 8.
Crowley
2

La réponse courte: comme la longueur d’onde est une valeur unique et que l’ensemble de la gamme de couleurs que nous pouvons percevoir n’est pas représentable par une valeur unique, pas plus que les dimensions d’un solide rectangulaire ne peuvent être représentées par une seule mesure.

Pour poursuivre l'analogie, vous pouvez citer le volume du solide, mais il existe de nombreux solides différents avec le même volume.

RVB, CMJ, HLS, etc., utilisent tous trois "dimensions", car il en faut beaucoup pour décrire correctement les couleurs telles qu'elles sont perçues par les humains.

La longueur d'onde équivaut à la teinte dans le système HLS, mais il ne peut pas vous indiquer la luminosité ou la saturation.

Re "Aussi, n'est-ce pas ([longueur d'onde]) l'information qui est d'abord capturée par les appareils photo numériques?" non, ça ne l'est pas.

Comme d'autres l'ont noté, les appareils photo numériques capturent des intensités relatives de rouge, de vert et de bleu. (Et certains ont utilisé au moins une couleur supplémentaire pour offrir une meilleure discrimination dans la région critique du rouge au vert.) Mesurer directement la fréquence de la lumière entrante serait beaucoup plus difficile. Nous n'avons tout simplement pas de capteurs bon marché capables de le faire, et certainement pas de ceux que nous pouvons créer dans une grille de plusieurs millions. Et nous aurions toujours besoin d'un moyen pour la caméra de mesurer la luminosité et la saturation.

Jamie Hanrahan
la source