Plusieurs des opérations que vous décrivez manipulent les données de l'image de telle sorte que les informations sont perdues ou transformées. Pour la plupart, je ne pense pas que cela importe avec la photographie traditionnelle (c'est-à-dire les tirages et autres), mais cela importe vraiment lorsque chaque pixel est considéré comme une mesure du nombre de photons.
Ce à quoi je pense quand je fais des opérations, c'est la propagation des erreurs. Une erreur peut exister au niveau du pixel unique, au niveau spatial et au niveau des couleurs.
Le bruit est une erreur de capteur à pixel unique pendant le processus de détection, introduite soit par des photons errants, des effets quantiques (la conversion d'un photon en un électron pour le comptage est un événement probabiliste au niveau quantique), et une conversion analogique-numérique. Si les opérations suivantes feront des choses telles que le contraste d'étirement (égalisation de l'histogramme) ou accentueront les régions plus sombres (lumière d'appoint), alors vous voudriez réduire le bruit avant de les faire.
Pour un exemple complètement réduit de ce que je veux dire, prenez une image sur fond sombre (photo avec le capuchon d'objectif en place). Le résultat est du bruit. Vous pouvez améliorer le contraste ou ce que vous voulez, mais c'est toujours du bruit. Un algorithme de réduction du bruit parfait devrait supprimer tout cela, de sorte qu'aucun contraste ne puisse être amélioré lors des étapes ultérieures.
L'erreur spatiale peut être introduite de plusieurs manières. Lorsque vous faites pivoter une image, vous introduisez des erreurs spatiales. Si vous pensez qu'il existe une «vraie» image (au sens idéal platonique), la caméra en enregistre une version numérique. Même lorsque vous utilisez un film - les grains / cristaux du film sont de taille finie, et un certain échantillonnage de la «vraie» image se produira. Lorsque vous faites pivoter une image numérique, vous introduisez des effets de crénelage. Les bords les plus nets seront légèrement émoussés (à moins que vous ne tourniez à 90 degrés, auquel cas l'échantillonnage de la grille tient toujours). Pour voir ce que je veux dire, prenez une image et faites-la pivoter par incréments de 1 degré. Le tranchant sera désormais (légèrement) flou à cause de l'échantillonnage nécessaire pour effectuer de petites rotations.
L'échantillonnage de Bayer n'est peut-être qu'une erreur d'échantillonnage spatial avec laquelle nous devons vivre. C'est l'un des gros tirages (peut-être le seul vrai tirage) du capteur Foveon. Chaque pixel a des mesures de la couleur à cet endroit, plutôt que d'obtenir les autres couleurs des pixels voisins. J'ai un dp2, et je dois dire que les couleurs sont assez étonnantes par rapport à mon d300. La convivialité, pas tellement.
Les artefacts de compression sont un autre exemple d'erreur spatiale. Compressez une image plusieurs fois (ouvrez un fichier jpg, enregistrez-le à un autre emplacement, fermez, rouvrez, rincez, répétez) et vous verrez ce que je veux dire ici, en particulier à 75% de compression.
Des erreurs d'espace colorimétrique sont introduites lorsque vous passez d'un espace colorimétrique à l'autre. Si vous prenez un png (sans perte) et le déplacez d'un espace colorimétrique à un autre, enregistrez-le. Revenez ensuite à l'espace colorimétrique d'origine, vous verrez quelques différences subtiles où les couleurs d'un espace ne correspondaient pas à l'autre.
Lorsque je traite des photos, ma commande est généralement la suivante:
- réduction de bruit
- amélioration du contraste, expositions, etc.
- rotations
- espace colorimétrique
- compression finale pour produire l'image.
Et je garde toujours le brut.
Comme toujours, cela dépend . De préférence, vous utiliseriez un éditeur non destructif, Lightroom en est un exemple. Dans ce cas, la commande ne fait pas beaucoup de différence.
D'un autre côté, si vous utilisez un éditeur qui effectue les modifications au fur et à mesure, chaque modification est permanente et vous aurez une certaine perte de qualité.
Dans ces situations, j'ai tendance à effectuer les plus petits changements en premier et à travailler jusqu'à des changements plus importants.
En suivant cet ordre, je dirais probablement:
Cela étant dit, les seules choses dont je m'inquiète sont les 2 dernières, redimensionner à la fin, puis après le redimensionnement, affiner .
la source
Je pense que dans la pratique, il y a très, très peu d'opérations où l'ordre fait une différence particulière. Il peut y en avoir où vous modifiez une plus petite quantité de données au total, mais les préoccupations concernant l'édition destructive sont largement exagérées. Je suis revenu en arrière et j'ai refait des photos très rarement pour quelques favoris en particulier; si j'ai fait ce que je perçois plus tard comme une erreur, je préfère faire des ajustements à l'avenir.
Je pense que plutôt que de penser en termes d'ordre, il est plus utile de penser en termes d'interaction des groupes d'opérations.
Ma copie d'archive se situe généralement après l'étape 3, mais parfois après l'étape 2 si 3 semble particulièrement expérimental ou extrême.
la source
(c'est plus un commentaire qu'une réponse). L'ordre fait la différence, que vous fassiez ou non un montage "non destructif".
Photoshop est tout aussi "non destructif" que n'importe quel autre éditeur selon la façon dont vous l'utilisez. Vous ne modifiez pas le fichier brut d'origine.
Le point principal est qu'il est plus facile de faire quelques modifications avant de passer des valeurs linéaires capturées par le capteur aux valeurs de réponse logarithmique utilisées pour conduire votre œil. C'est pourquoi une grande partie du traitement au cours des dernières années est passée au convertisseur brut: il vaut mieux le faire avant de le mapper à la réponse logarithmique de l'œil.
Le convertisseur brut est le meilleur endroit pour la plupart des changements de "développement" car il est avant l'application de la correction gamma. Essayez d'ajuster l'équilibre des couleurs avant et après la conversion brute pour avoir une idée de la différence. Bien sûr, je n'ai aucune idée de l'ordre dans lequel le convertisseur brut supprime les taches et la réduction du bruit (bien que je devine), mais ce n'est pas particulièrement pertinent: c'est une étape dans le traitement.
À l'époque, les gens s'inquiétaient de faire la plupart des travaux avec la profondeur de bits maximale, puis de convertir en sortie. Il n'y a rien de mal à ce principe, mais en pratique, vous devriez pouvoir faire tout ce dont vous avez besoin dans le convertisseur brut, c'est donc un point discutable.
Bien sûr, vous devez redimensionner puis affiner à cette taille, le point manqué par peut-être 95% des personnes qui affichent des images sur le Web.
Il en va différemment pour les impressions et la sortie Web. Pour la sortie Web, vous devez savoir comment votre moniteur est lié aux autres: est-il net ou non, et les couleurs sont-elles correctes? Une fois que vous savez, vous saurez combien d'affiner. Généralement, vous constaterez que les imprimantes sont beaucoup plus douces, vous aurez donc généralement besoin de sur-affiner votre écran pour que les impressions soient parfaitement visibles. La quantité de sur-netteté que vous devrez trouver par essais et erreurs, car les imprimantes varient. Étant donné que vous ne modifiez pas de manière destructive, vous pouvez affiner pour des périphériques de sortie spécifiques sans vous soucier de vos originaux.
la source