Comment les logiciels augmentent-ils l'exposition en post-traitement?

9

Quelqu'un connaît-il des algorithmes ou peut-il expliquer mathématiquement comment la luminosité (EV) est exécutée en post-traitement? Ajuste-t-il le niveau de luminosité / RBG / contraste pour chaque pixel? Est-ce lié à l'histogramme?

Quelles sont les particularités de la compensation d'exposition pour une image sous-exposée dans le post-traitement?

EDIT: Dans cette question ici, un lien a été publié. Il a des exemples de changement de l'EV et il se déplace vers la gauche / droite. Dans la réponse de Matt Grumm, il déclare que chaque pixel est "multiplié" (ce qui dans mon esprit indique que l'histogramme est déplacé vers le haut / bas).

Quelqu'un peut-il expliquer pourquoi c'est le cas? (Que EV change de gauche à droite)

BBking
la source
Voulez-vous limiter cette question à ces produits Adobe particuliers, ou êtes-vous intéressé par les ajustements d'exposition dans le post-traitement en général?
Veuillez lire mon profil
doublon possible de Que signifie éclaircir une image?
Itai
2
J'ai lu ceci deux fois et je trouve toujours que c'est une question assez déroutante. Pourriez-vous reformuler pour éliminer certaines des parties les plus discursives et vous concentrer clairement sur votre question centrale?
Mark Whitaker
@mattdm Ouais, en général. Itai un peu pas vraiment. :) Mark Whitaker fera l'affaire. (On m'a dit que je ne pouvais pas à plus d'une personne)
BBking
@Mark Whitaker Ai-je encore clarifié les choses?
BBking

Réponses:

6

Je sais que nous sommes tous ravis d'avoir des appareils photo numériques, mais le fait est que nous n'en avons pas . Nous avons des caméras analogiques qui ont un format de sortie numérique (et beaucoup de circuits numériques qui ne sont pas directement liés à l'image également).

Chaque fois qu'un signal analogique est converti en signal numérique, vous introduisez un bruit de quantification. Autrement dit, il est très peu probable que le signal entrant dans la conversion corresponde exactement à la valeur du nombre numérique qui sort à l'autre extrémité - pensez-y comme des erreurs de troncature ou d'arrondi.

Lorsque vous effectuez un post-traitement sur un fichier d'image numérique, le bruit de quantification ajouté par la caméra est "intégré". Peu importe la profondeur de bits avec laquelle vous travaillez en post, les données avec lesquelles vous travaillez ont à la fois les composantes de bruit analogique (enfin, quantique) (bruit thermique et de tir, distorsion de l'amplificateur, etc.) et le bruit de quantification de la sortie de la caméra. La qualité des données de base n'est pas parfaite, donc tout calcul effectué sur les données défectueuses entraînera une sortie défectueuse. GIGO , comme on dit.

À l'intérieur, d'autre part, vous avez la possibilité d'amplifier (ou d'atténuer) le signal analogique avant la quantification. Cela n'aide pas du tout avec le bruit dans le domaine analogique, mais cela réduit le bruit de quantification à un niveau de luminosité donné .

Disons que vous avez une valeur analogique de 4,4 whatchamacallits. Si vous photographiez en utilisant ISO 100, notre hypothétique appareil photo "numérique" convertira cela en une valeur numérique d'exactement 4. Si vous choisissez d'augmenter l'exposition apparente en post, vous êtes coincé à travailler avec le 4, qui est tronqué. Si vous augmentez l'ISO dans la caméra (de moins d'un point), ce 4,4 sera amplifié par des circuits analogiques avant d'être converti en numérique, et peut entraîner une valeur numérique 1 plus élevée que le traitement entièrement numérique calcule. Une différence d'un bit peut ne pas sembler beaucoup, mais lorsque vous commencez à accumuler toutes les erreurs en cours de traitement, un pixel donné peut être assez loin des valeurs qu'il devrait avoir. Voilà ce qu'est le bruit.

(Il y a aussi le fait que l'appareil photo "connaît" ses propres caractéristiques de réponse, et peut les prendre en compte dans le traitement. Lightroom, par exemple, ne fait pas de soustraction de bruit de capteur spécifique à l'appareil photo, basée sur l'ISO. Les appareils photo peuvent , mais pas tous le font .)


la source
Merci Stan. Oui, il y a tous les types de bruit sur une photo. Donc, si vous ajustez l'EV en PP, vous amplifiez également ce bruit. Tout comme l'ISO amplifie le bruit.
BBking
2
Augmenter l'ISO et l'EV amplifie le bruit, mais je pense que ce que Stan dit, c'est qu'il est préférable d'ajuster l'ISO vers le haut à la caméra que d'exposer l'exposition en post-traitement (parce que vous amplifiez essentiellement le signal avant que le bruit de quantification ne soit introduit dans le A / Étape D).
seanmc
4

Est-ce la formule que vous recherchez?

RGB[c] = max( RGB[c] * pow(2,EV), RGBmax )

Ce qui signifie essentiellement que pour chaque canal (de chaque pixel) des données RVB, multipliez-le par 2 ^ EV, puis coupez-le à la valeur maximale de vos données. Pour la couleur 8 bits, RGBmax sera de 255, pour la couleur 16 bits, ce sera 65535, etc.

EV est EV relatif donc EV + 2.0 multipliera (éclaircira) chaque pixel par un facteur de quatre et EV-2.0 divisera (assombrira) chaque pixel par un facteur de quatre.

La formule elle-même ne dépend pas de l'histogramme, mais si vous devez décider de la valeur d'exposition à utiliser pour ajuster de manière optimale l'image, une sorte de statistiques serait effectuée à partir de l'histogramme pour calculer EV.

Poulpe
la source
1
Je crois que les valeurs RVB représentent déjà la luminosité perçue, votre formule est donc incorrecte. Ce serait correct pour les valeurs mesurées par le capteur (qui est proche du linéaire, voir la réponse de Matt) mais pas pour les valeurs RVB déjà converties. (Essayez ce qui se passe si vous appliquez votre formule.)
Szabolcs
@Szabolcs, je pensais que l'OP demandait un algorithme pour faire une compensation EV en post-traitement, non? J'admets que la question n'est pas très claire pour moi, mais ils demandent des maths.
Octopus
Merci pour votre réponse! Avez-vous un lien pour ces formules afin que je puisse l'examiner de plus près?
BBking
1
@Octopus Oui, mais je voulais dire que votre formule est incorrecte si elle est appliquée aux valeurs RBG . Les valeurs RVB sont calculées à partir des données brutes du capteur en prenant le logarithme de la valeur brute (notre perception est approximativement logarithmique) puis en redimensionnant le résultat linéairement (ce qui correspond à la définition du point noir et du point blanc). (Plus quelques autres choses que Matt a mentionnées.) Ainsi, votre formule est correcte lorsqu'elle est appliquée aux valeurs de pixels bruts, mais elle est incorrecte pour les valeurs RVB. Si vous essayez réellement de réaliser la transformation sur une image dans la pratique, vous verrez ce que je veux dire.
Szabolcs
Prenez un fichier brut, extrayez les données à l'aide dcrawdu -4commutateur pour vous assurer qu'il ne fera pas la transformation du journal lui-même, puis essayez d'effectuer vous-même une conversion brute de base et appliquez une compensation d'exposition pendant le processus.
Szabolcs
3

NB: la question a été modifiée car la réponse de Stan à cette question aborde ce qui est effectivement une question différente:

Quelqu'un connaît-il des algorithmes ou peut-il expliquer mathématiquement comment la luminosité (EV) est exécutée en post-traitement? Ajuste-t-il le niveau de luminosité / RBG / contraste pour chaque pixel? Est-ce lié à l'histogramme?

Quelles sont les particularités de la compensation d'exposition pour une image sous-exposée dans le post-traitement?

Cela peut être aussi simple que de multiplier toutes les valeurs de pixels (par exemple la luminosité, le contraste n'est pas un terme qui s'applique à des pixels individuels) et d'appliquer un décalage. Si cela est fait après le dématriçage, vous multipliez simplement les valeurs rouge vert et bleu par le même facteur.

Le processus de compensation d'exposition est un peu plus complexe dans le contexte de la conversion RAW, car les capteurs de l'appareil photo sont des appareils intrinsèquement linéaires tandis que la plupart des convertisseurs RAW appliquent une courbe de tonalité non linéaire pour essayer d'émuler la courbe S contrastante que vous obtenez avec le film.

Ainsi, le meilleur moment pour effectuer une compensation d'exposition est avant que cela ne soit appliqué. Cela signifie essentiellement utiliser la fonction EC de votre convertisseur RAW, sans attendre jusqu'à ce que vous ayez exporté Photoshop car la courbe non linéaire aura presque certainement été appliquée d'ici là.

La situation est encore plus complexe car certains convertisseurs RAW * utilisaient des profils de couleurs "tordus", ce qui fait que la teinte / saturation est mappée à différentes valeurs en fonction de l'intensité. Ceci est fait pour produire des couleurs plus agréables au détriment de la précision et peut affecter les résultats de la compensation d'exposition.

Certains convertisseurs RAW offrent également des outils pour récupérer les hautes lumières et accentuer les ombres. Ceux-ci effectuent des ajustements locaux (c'est-à-dire qu'ils prennent en compte bien plus que les valeurs de pixels individuels). Si vous voulez connaître les détails de ces algorithmes, vous devrez probablement attendre et espérer qu'un développeur Lightroom apparaisse ici.

* Quand je dis "certains convertisseurs RAW", je parle essentiellement de Lightroom / ACR, car c'est le seul que j'ai étudié, d'autres convertisseurs RAW avancés font probablement de même.

Matt Grum
la source
D'après ce que vous savez, pouvez-vous démontrer comment la multiplication de la valeur RVB entraîne une luminosité plus élevée? Comme dans, une structure de pixels a-t-elle des valeurs de couleur et de luminosité? Autant que je sache, vous pouvez multiplier une valeur de pixel pour changer sa couleur aussi. J'aime la courbe en S. Je sais que je pose des questions spécifiquement sur un pixel individuel, mais je comprends mieux que cela concerne une image dans son ensemble. Je comprends que l'interpolation est également impliquée.
BBking
1
Les fichiers @BBking RAW ne contiennent que des valeurs d'intensité (luminosité), chaque pixel a un filtre de couleur afin que vous ayez alternativement des intensités rouge, verte et bleue. Comme les capteurs de caméra sont des appareils linéaires, la mise à l'échelle des valeurs enregistrées donne à peu près le même résultat que l'exposition plus longue du capteur. Après le dématriçage, les images peuvent être stockées dans un certain nombre de formats de couleurs, le plus courant étant RVB, où à chaque pixel la quantité de lumière rouge, verte et bleue est enregistrée. La multiplication de chacune de ces valeurs par le même facteur augmente la luminosité, la multiplication de chaque valeur par une quantité différente modifie la couleur.
Matt Grum
«Comme les capteurs de caméra sont des appareils linéaires» ... Pour être pédant, les capteurs de caméra sont «presque linéaires» comme ([vous l'avez déjà souligné]) ( photo.stackexchange.com/a/33986/6294 ). (Je pensais que cela valait la peine d'être mentionné, car le PO s'intéresse également à la formulation mathématique du problème). Un bon algorithme pourrait en théorie prendre en compte la réponse typique du capteur, même s'il ne fonctionne qu'avec des valeurs RVB.
Alberto
@Alberto oui c'est un bon point, j'aurais dû dire "approximativement linéaire" mais comme mon commentaire comptait déjà 598 caractères cela aurait pris plus de 600 et aurait nécessité de le scinder en deux commentaires;)
Matt Grum
3

Mathématiquement, la luminosité d'une matrice (image) est globalement affectée en agissant sur la valeur de la fonction CIE L * de la teinte du pixel. C'est une relation arithmétique. Additionnez, soustrayez, multipliez et divisez.

Encore une fois, mathématiquement, une matrice de transformation (numérique) est ajoutée à la matrice existante en pp. Celles-ci peuvent être faites sélectivement au sujet ou à la matrice globale (image).

Une bonne exposition et une mauvaise exposition sont des termes arbitraires, tant que la plage d'éclairement du sujet se situe dans la plage utile du capteur de l'appareil photo. La gamme de sujets peut être large ou étroite à l'extrême.

Remarque: l'histogramme est une aide visuelle qui représente la distribution relative des éclairements dans l'image. C'est linéaire. Cela n'a rien à voir avec l'exposition, la relation réciproque d'intensité et de temps, qui est toujours représentée logarithmiquement.

Stan
la source
2

Quelles sont les particularités de la compensation d'exposition pour une image sous-exposée en post-traitement?

Une simple augmentation de toutes les valeurs d'une image augmentera toutes les valeurs d'une quantité égale. Cette réponse "linéaire" est particulière aux images numériques.

Nous ne percevons pas les choses de cette façon et l'image résultante ne semblera pas naturelle.

L'image analogique (émulsion de film) est apparue plus naturelle car la réponse d'une émulsion photographique ressemble plus à la réponse du système visuel humain. Des références ont été faites à une courbe en forme de "S". Cette forme caractéristique de "S" est une réponse analogique.

Compenser la différence entre notre réponse visuelle humaine proportionnelle et la réponse numérique linéaire invite divers moyens pour harmoniser la différence esthétiquement.

Il doit exister un moyen efficace de compenser proportionnellement la différence. Voilà la technicité.

Stan
la source