Dans une autre réponse, l'utilisateur Ilmari écrit , dans le contexte de la prévention de la surexposition:
En général, je recommanderais également de toujours filmer en RAW, à la fois pour mieux capturer la gamme dynamique complète de votre appareil photo, et aussi pour éviter l'écrêtage numérique laid des zones surexposées. Pour ce dernier, cela permet de sous-exposer un peu vos prises de vue (disons, ...) puis de remonter l'exposition sur votre ordinateur, ...
Comment RAW empêche-t-il l'écrêtage des zones surexposées?
Réponses:
OK, ouais, j'étais un peu laconique quand j'ai écrit ça . Permettez-moi d'essayer de le déballer un peu.
Évidemment, le simple fait de passer du JPEG au RAW ne résoudra rien par lui-même. Ce que j'essayais de suggérer, quand j'ai écrit le paragraphe ci-dessus, c'est:
Sous-exposer délibérément vos photos suffisamment pour que les hautes lumières ne se coupent pas.
Prise de vue en RAW, qui a une plage dynamique plus élevée que JPEG, afin de conserver les détails de l'ombre pour l'étape suivante.
Corrigez la sous-exposition dans le post-traitement, en utilisant un algorithme qui simule des reflets "en forme de film" doux au lieu d'un écrêtage numérique dur. (Je crois que tout processeur RAW décent devrait avoir cette fonctionnalité intégrée; je sais que UFRaw le fait, et c'est un logiciel gratuit.)
Pourquoi se donner tant de mal, au lieu de simplement filmer JPEG directement avec une exposition par défaut? Eh bien, fondamentalement (en plus de toutes les autres raisons de tirer RAW ), pour que vous puissiez obtenir ceci:
au lieu de cela:
(Cliquez sur les images pour agrandir.)
Bien sûr, j'ai un peu triché en faisant ces deux exemples de paires d'images à partir des mêmes fichiers RAW - la seule différence est que j'ai utilisé le mode "surbrillances de type film doux" pour la première paire et le mode "découpage numérique dur" pour le deuxième paire, simulant ce que j'aurais obtenu si je les avais prises directement en JPEG avec une exposition plus longue.
Notez en particulier le ciel cyan caractéristique en haut à droite dans la version tronquée de la première image, la planéité non naturelle des reflets découpés et les distorsions de couleur générales qui les entourent. (Les images avec des éléments de fond blanc brillant, comme la neige ou les nuages, ont tendance à montrer cet effet de manière particulièrement visible, mais je n'ai pas trouvé de bons exemples sur cet ordinateur portable. Je peux essayer de chercher de meilleures illustrations plus tard.)
La raison de cette planéité et de cette distorsion des couleurs est que, contrairement à la courbe de réponse à la lumière saturée en douceur du film, les capteurs d'image numériques ont une réponse (approximativement) linéaire jusqu'à leur point de saturation, puis une coupure nette:
(En fait, la courbe de réponse du film dessinée ci-dessus est quelque peu trompeuse, en ce sens que le fait de transformer le film négatif en une image positive réelle introduit une autre couche de non-linéarité à l'extrémité inférieure de la courbe de réponse, résultant généralement en une courbe de réponse combinée quelque peu sigmoïde . au moins à la fin de la plage dynamique, les courbes ci-dessus ressemblent aux réponses lumineuses réelles des pellicules et des appareils photo numériques de manière générale.)
En particulier, en photographie couleur, chaque canal de couleur (rouge, vert et bleu) a sa propre courbe de réponse. Avec un capteur numérique, cela signifie que, lorsque la luminosité de la lumière entrante augmente, l'un des canaux R / G / B se coupe généralement avant les autres, déformant la couleur de ces pixels partiellement écrêtés.
De plus, la planéité de la courbe de réponse numérique au-dessus du point de saturation signifie que, alors que la surexposition du film comprime simplement les hautes lumières, tous les hautes lumières écrêtées dans une photo numérique (qu'elles soient RAW ou JPEG) ont tout simplement disparu, et aucun détail ne peut en être récupéré. Ainsi, la règle générale pour la photographie numérique est que, si vous n'êtes pas sûr de ce que sera l'exposition optimale (ou si vous savez que la scène que vous photographiez comprend des hautes lumières que vous ne voulez pas couper), il est toujours plus sûr se tromper sur le côté bas. Bien sûr, augmenter la luminosité d'une photo sous-exposée dans le post-traitement amplifiera également le bruit dans l'image - mais la sous-exposition un peu et la perte de certains détails d'ombre par rapport au bruit sont généralement meilleures que la surexposition et la perte complète des hautes lumières.
Bien sûr, rien de ce qui précède ne vous oblige à prendre des photos RAW - vous pouvez augmenter la luminosité des images JPEG, par exemple dans Photoshop tout aussi facilement. Mais par rapport à RAW, le format JPEG a deux problèmes ici:
JPEG utilise uniquement des couleurs 8 bits; c'est-à-dire que la plus petite différence entre deux niveaux de luminosité qu'il peut stocker est d'environ 1/256 de la différence entre le noir pur et le blanc pur. JPEG utilise en fait un codage couleur non linéaire, ce qui aide quelque peu, mais la plage dynamique efficace d'une image JPEG n'est toujours que d'environ 11 arrêts (contrairement aux 8 arrêts que l'on obtiendrait avec un codage linéaire). C'est suffisant pour afficher des images à l'écran, mais c'est encore moins que la plage dynamique effective des capteurs de caméra même bas de gamme, et cela ne laisse pas beaucoup de place pour régler l'exposition pour récupérer les détails des ombres.
En outre, JPEG utilise un schéma de compression avec perte conçu pour réduire la taille du fichier image en éliminant les détails que l'œil humain ne peut pas facilement voir. Hélas, cette compression a également tendance à éliminer les détails des ombres de manière assez agressive - augmentez trop la luminosité d'une image JPEG, et vous vous retrouverez probablement avec une image pleine de distorsions de couleurs et d'artefacts de compression en blocs.
Un fichier RAW, en comparaison, préserve la plage dynamique complète du capteur de votre appareil photo sans compression avec perte, vous permettant de post-traiter l'image dans toute la mesure du possible (dans ce cas, principalement limité par le bruit de fond du capteur).
la source
En bref, un fichier RAW stocke chaque pixel en utilisant plus de bits que le JPEG correspondant.
Pour comprendre comment cela aide, considérons un seul pixel (nous ignorerons la couleur, la même logique tient mais cela complique tout). Si vous disposez de 8 bits pour enregistrer l'amplitude (quantité de lumière qui atteint ce pixel), vous disposez de 256 niveaux, dont "pas de lumière du tout" (0).
Vous devez définir un niveau maximum, qui correspond à la valeur 255. La plage entre 0 et ce maximum est la plage dynamique qui peut être représentée dans l'image. Tout pixel qui reçoit plus de lumière que ce niveau est saturé et la valeur maximale de 255 est enregistrée. Cela provoque l'effet d'écrêtage, où les zones surexposées sont complètement blanches.
Si vous avez des bits supplémentaires, vous pouvez représenter plusieurs niveaux. Avec la même plage dynamique, vous obtiendrez des étapes plus fines entre elles, ou vous pouvez étendre la plage et permettre aux pixels avec une exposition supérieure (ou inférieure) d'être représentés quelque part dans la plage.
Un fichier RAW contient plus de bits par pixel que le JPEG correspondant (par exemple 14 pour Canon 5D, contre 8 pour JPEG). Cela lui permet de capturer plus de niveaux d'exposition. Les pixels qui seraient saturés dans une représentation 8 bits peuvent ne pas saturer une représentation 14 bits. Cela transforme les zones surexposées entièrement blanches en nuances de gris et permet de capturer certains détails.
Bien sûr, il est toujours possible de saturer une représentation à plus grande profondeur de bits, mais plus vous avez de bits, plus vous avez d'informations à travailler.
la source
Raw est idéal pour plusieurs autres raisons, mais bien sûr, Raw ne peut pas empêcher l'écrêtage des zones surexposées. Une fois que les données numériques dépassent 255, elles sont écrêtées, ce qui signifie qu'elles restent à 255, ne représentant plus la vraie couleur. Le numérique n'a tout simplement aucun moyen de conserver de plus grands nombres, la plus grande capacité est mise à l'échelle à 255. Il n'y a aucun moyen de récupérer les données écrêtées, à part un autre essai avec moins d'exposition.
L'exemple que vous montrez est une couleur blanche de lumière. Le blanc est spécial, ayant trois composants RVB presque égaux. Mais imaginez que la couleur (surexposée) était comme Red 500, Green 250, Blue 250, qui est une couleur rouge. Mais lorsqu'il est ramené à 255, il en ressort 255, 250, 250, une couleur entièrement différente, à propos du blanc maintenant. Le recul du post-traitement à environ la moitié est toujours 128, 125, 125, toujours PAS rouge.
Votre exemple lié n'était peut-être PAS blanc en premier lieu, mais il est sorti surexposé et écrêté à 255, 255, 255, qui est blanc. Il n'y a pas de récupération pour l'écrêtage.
la source