Quels paramètres de mon appareil photo reflex numérique émuleront la scène exactement comme je peux voir à travers mes yeux nus?
Je pense qu'il n'est pas possible d'obtenir le contraste et les couleurs exactement comme mes yeux peuvent voir, et cela peut varier d'une personne à l'autre. Donc, je suis plus intéressé par la distance focale de l'objectif. Si quelqu'un peut donner plus d'informations au-delà de la distance focale, je serai heureux de le savoir.
Par exemple, si je me tiens au bord de la mer et que je veux capturer le lever du soleil, quelle devrait être la distance focale pour que je puisse couvrir l'angle de vue que mes yeux peuvent voir, et donc la taille des objets sur la photo sera exactement comme mes yeux le perçoivent?
Mon appareil photo est un Canon EOS 1000D APS-C. J'ai un Sigma de 50 mm 1,8 et 70-300 mm. Peut-on y parvenir grâce à cet objectif d'équipement? Jusqu'à présent, je n'ai pas réalisé ou été satisfait de ce que je vois et de ce que j'obtiens.
Réponses:
Eh bien, je déteste vous le dire, mais vous ne pouvez pas exactement imiter vos yeux. Il y a plusieurs raisons, laissez-moi vous expliquer.
Malgré tout cela, permettez-moi de dire que cela dépend si vous souhaitez vous concentrer sur une zone spécifique ou sur une scène plus large autour. Si vous voulez la zone spécifique, vous devriez probablement faire environ 150 mm. Quant à un paysage spectaculaire, quelque chose de plus comme un 24 obtiendra tout votre champ de vision. Un nombre couramment cité est de 50 mm, ce qui vous permettra de voir la partie de la résolution la plus élevée de vos yeux, puis certains, mais pas le champ entier, et est généralement un bon compromis. (Tout cela suppose que vous avez un appareil photo plein cadre, si le vôtre est un capteur de récolte, veuillez le diviser par le facteur approprié)
la source
L'œil bouge
Je voudrais ajouter à la réponse de @Pearsonartphoto, que les yeux humains ne voient pas une scène immobile, au lieu de cela ils la scannent en continu, ajustant leur "ouverture" et se recentrant pendant qu'ils la scannent. Ainsi, grâce à ce processus de numérisation, nous pouvons percevoir :
Ce que nous «voyons» est donc le résultat du «post-traitement» d'un flux d'images, 30 à 70 images par seconde. Voir Mouvement oculaire .
La caméra est toujours
La caméra ne peut pas simuler ce que l'œil voit, car une grande partie de ce que l'œil voit est notre processus de voir et de penser la scène, et cela se produit en grande partie dans le cerveau, pas seulement dans l'œil.
Mais vous pouvez prendre des photos qui produisent une certaine impression souhaitée chez la personne qui les voit. Et c'est là que l'art commence , car il faut provoquer certains sentiments chez une autre personne au moyen d'un objet plat et coloré.
Techniques d'images multiples
PS Certaines techniques populaires de la photographie numérique tentent en fait de récupérer davantage d'images multiples séquentielles comme le fait la vision humaine. Ces techniques comprennent:
la source
Capturer une image exactement comme vos yeux la voient? Pas de problème, mais ce n'est pas tout à huis clos, vous devrez faire un peu de travail en post. Et ce n'est certainement pas ce que vous voulez vraiment.
Tout d'abord, vous aurez besoin d'un objectif fisheye circulaire qui se clipse mal avec lequel prendre la ou les photos. (Vous aurez en fait besoin de plusieurs images et d'un système de visualisation avec un suivi oculaire intégré qui peut retourner les images lorsque votre œil se déplace.) Personne ne fabrique un objectif qui fonctionne aussi mal que l'œil humain (au moins, personne ne fait un comme ça exprès et le propose à la vente comme objectif photographique), le reste devra donc se faire en post.
Tout d'abord, vous devrez couper l'image en haut. Exactement là où variera, mais c'est là que votre sourcil se met en travers. Ensuite, vous devrez exécuter un outil de recherche de bords - dans Photoshop, le filtre en relief Sketch-> Bas fera l'affaire. Mettez le résultat de cela sur un ensemble de calques séparé pour le multiplier - vous le fusionnerez plus tard, mais vous pouvez masquer le calque pour l'instant.
Ensuite, sélectionnez une section au milieu de l'image - environ un ou deux pour cent de l'image entière - affinez la sélection de vingt ou trente pixels, puis copiez cette sélection sur un calque séparé.
Exécutez maintenant un filtre de flou important sur l'image d'origine. Vous voulez pouvoir voir les couleurs, mais pas de vrai détail. Fusionnez la couche de bas-relief sur l'image floue. Fusionnez ensuite le calque que vous avez créé à partir de la sélection. Vous devriez maintenant avoir une image circulaire avec le haut coupé, des bords mal définis, aucun détail réel de l'image sur la majeure partie de l'image, mais avec les bords des éléments originaux qui appellent l'attention et une petite zone au milieu (environ dix pour cent de la largeur et de la hauteur) dans une mise au point relativement nette.
Tu n'as pas encore fini. Vous devez créer une sélection circulaire d'environ la moitié de la taille de la zone mise au point, juste en dessous et d'un côté, et chevauchant légèrement la zone de mise au point. Remplissez bien la sélection, puis remplissez-la de noir.
Créez un nouveau calque de superposition, remplissez-le de 50% de gris et ajoutez environ dix pour cent de bruit gaussien monochrome, puis donnez-lui un bon flou. Fusionnez cela.
Vous avez maintenant une image qui se rapproche de ce que vous voyez réellement avec l'œil fixe. Il est en réalité beaucoup moins déformé que ce que voit votre œil, mais l'ajout de toutes les petites circonvolutions qui se produisent en raison de l'épaisseur différente des fluides à la surface de l'œil à un moment donné est très difficile à réaliser pour cet exercice. .
Tout ce que vous pensez voir vient de votre cerveau, pas de votre œil. Ce point noir? Vous en avez un dans chaque œil et votre cerveau remplit les données manquantes. La vaste mer de détails? Couture panoramique dans le cortex visuel. Netteté de toute sorte? Moyennage de plusieurs "expositions". Nous avons également un système d'ouverture automatique et effectuons un "décalage ISO" à la volée en fonction de ce à quoi nous prêtons attention à un moment donné (notre plage dynamique statique n'est pas trop différente de ce que la caméra capture - nous faisons du HDR " en poste ").
Ce que vous voulez, c'est probablement capturer ce que votre esprit voit, pas ce que vos yeux voient, et c'est différent pour chaque image. C'est pourquoi ils fabriquent toutes ces lentilles différentes. Parfois, vous voulez montrer un vaste panorama parce que c'est ce que vous avez vu . Mais même avec un paysage immense, c'est peut-être juste un petit bosquet d'arbres qui a attiré votre attention. Un portrait peut être un gros plan serré, ou il peut impliquer tout l'environnement du gardien - encore une fois, tout dépend de ce que vous avez vu dans votre esprit, pas de ce que vous avez vu avec votre œil réel. La même chose vaut pour la profondeur de champ - étiez-vous en train de regarder la scène entière, ou simplement de prêter attention à un petit détail dans un contexte plus large?
En d'autres termes, ce n'est pas une question à laquelle on peut répondre directement. La réponse est, et sera toujours, "cela dépend". Expérience. Entraine toi. Apprenez à connaître vos outils et ce qu'ils font, et finalement vous saurez exactement ce que vous devez faire pour capturer non pas ce qui était réellement là, mais ce que vous avez vu. Ansel Adams l'a appelé prévisualisation , et il a passé beaucoup de temps à développer un système formel qui lui permettrait de capturer sur film ce qu'il voyait avec son esprit et son cœur, pas avec ses yeux.
la source
L'un des problèmes rencontrés pour essayer d'imiter la vue humaine sur une photo est le champ de vision .
La perspective que nous voyons, qui est une fonction de la distance focale relative, est à peu près la perspective d'un objectif de 50 mm sur un capteur plein format ou de 32 mm sur un capteur DX, mais le problème n'est pas la perspective, c'est le champ de vision. Pensez à l'image que vous voyez à 50 mm et étendez maintenant le champ de vision comme vous le feriez lorsque vous prenez un panorama.
Si vous preniez une photo "humaine", vous verriez presque 180 degrés horizontalement et environ 120 degrés verticalement, tout en conservant la perspective de la distance focale moyenne.
Prenez ce diagramme grossier de l'œil (vert) et un capteur SLR numérique (bleu). Vous remarquerez que la distance focale est exactement la même pour les deux médiums, 17 mm environ, mais l'angle auquel la rétine s'étend autour est beaucoup plus que celui du capteur.
Il voit un champ de vision plus grand, avec la même distance focale. C'est pourquoi un capteur DX équivaut à un champ de vision 1,6 fois plus petit que celui du capteur 35 mm, mais à la même distance focale, la perspective ne change pas. Il capture simplement une zone plus petite de la scène.
Les panoramas sont un moyen d'émuler le champ de vision de quelque chose comme l'œil humain tout en conservant une perspective plus plate et plus réaliste.
Le prochain problème est la plage dynamique . Une plage dynamique moyenne de capteurs numériques de taille SLR est d'environ 11 arrêts de lumière. Cela signifie qu'il peut enregistrer la différence entre 11 doublements d'intensité lumineuse. 1, 2, 4, 8, 16, 32, etc. Quelle est la précision d'une autre histoire. 14 bits est meilleur que 12 et 12 est meilleur que 8 bits, mais analogique est encore meilleur que numérique 14 bits.
Alors qu'un corps professionnel plein format capable de capturer jusqu'à et plus de 13 arrêts par bonne journée est considéré comme impressionnant par les normes modernes, il n'est même pas proche de l'œil humain.
L'œil humain est parfois capable de distinguer la différence entre environ 18 à 20 arrêts d'intensité, dans une mesure très grossière. Cela signifie que l'ombre noire que voit votre appareil photo peut être facilement vue en détail par l'œil humain, tout en voyant des détails clairs dans la scène . C'est là que la plage dynamique d'un capteur numérique diminue actuellement.
Il ne peut tout simplement pas distinguer des intensités lumineuses aussi différentes en même temps. Parfois, c'est tellement mauvais que vous devez exposer pour les reflets ou exposer pour les ombres et le sucer, même lorsque vos propres yeux peuvent voir les deux très bien.
Le HDR est un moyen d'émuler la plage dynamique de l'œil humain, mais il est toujours limité par les supports sur lesquels il est visualisé ainsi que la façon dont il est traité.
Un autre problème est que, même si c'est une promenade dans le parc pour nous, car notre cerveau est conçu pour voir de cette façon, seule la fovéa voit en détail. La vision périphérique est plutôt détaillée, et est principalement là pour voir le mouvement, ce qui peut nous aider à identifier que des choses se produisent autour de nous ou nous avertir du danger et déclencher la réponse de combat ou de fuite.
Si vous deviez simuler cela sur une photo, l'image aurait une petite zone de mise au point au centre et l'image deviendrait rapidement floue lorsque vous vous rapprochez des bords.
Il y a d'autres problèmes que je n'ai pas abordés ou que je ne connais pas moi-même, mais je pense qu'en fin de compte, une photographie n'est pas vraiment destinée à "imiter" l'expérience humaine, elle est destinée à capturer un moment, à créer une réponse ou une émotion, ou pour capturer des souvenirs, ou pour obtenir un gros chèque de paie d'un client :)
la source
Votre cerveau peut s'adapter aux signaux provenant des cellules de détection de lumière dans votre œil afin que vous puissiez avoir une gamme dynamique plus élevée de vos yeux que celle des cellules de votre caméra. Jusqu'à ce qu'il y ait des capteurs de caméra intelligents qui peuvent éteindre celui qu'ils ont suffisamment de lumière, vous aurez du mal à obtenir la portée dont vous avez besoin.
Je suggérerais de faire un HDR d'une scène, mais en ne poussant que légèrement la sous-exposition et la surexposition pour qu'elle semble toujours naturelle.
la source
Eh bien, pourquoi ne pas simplement mettre votre objectif 70-200 mm et zoomer jusqu'à ce que l'image sur votre écran LCD soit de la même taille que votre vue sans la caméra. La lentille lira alors la distance focale à laquelle vous vous trouvez. Ou utilisez simplement le viseur. Une étude approfondie de la vue réelle, de la vue LCD et du viseur vous y amènera, mais vous aurez besoin d'un trépied et d'au moins 10 minutes. Vous pouvez trouver que votre configuration n'excelle qu'à certaines distances. Les 3 vues correspondent de manière satisfaisante. À ce stade, vous pouvez envisager l'achat d'un objectif. Une autre chose après la correspondance d'échelle sera la correspondance tonale à votre œil. Les caméras craignent de voir l'ombre en général. Il semble judicieux d'ajouter un filtre d'assombrissement neutre et d'ajouter quelques arrêts pour compenser dans le but d'éclaircir les ombres tout en gardant les reflets apprivoisés. Cela pourrait conduire à ce que les faits saillants ne soient pas si "époustouflés" tandis que les ombres étaient complètement noires si l'exposition était simplement augmentée. Un filtre UV semble également important. Après cela, on peut ajuster les fonctionnalités de traitement à huis clos pour les ajuster et faire de ces paramètres par défaut. Je mentionne juste ici ce que j'essaierais. J'espère que cela t'aides.
la source