Je n'ai jamais compris pourquoi les caméras ont besoin d'un obturateur avec une vitesse spécifique et pourquoi cela ne peut pas être ajusté en post-traitement. Je pense que le capteur actuel fonctionne de manière intégrale: ils économisent la quantité de lumière qui les atteint pendant tout le temps où l'obturateur est ouvert. Mais pourquoi ne peuvent-ils pas travailler différemment?
Dans mon esprit, j'ai cette idée: régler la vitesse d'obturation pour qu'elle soit ouverte pendant longtemps, plus que celle dont vous avez besoin ... par exemple en plein jour réglez-la sur 1 seconde, appuyez sur votre bouton, l'obturateur s'ouvre et le capteur démarre à enregistrer, mais de manière différentielle: cela permettrait d'économiser la quantité de lumière qui l'atteindrait toutes les 0,001 seconde pendant 1 seconde. De cette façon, j'ai plus d'informations, en fait, j'ai 1000 images enregistrées en 1 seconde et en post-traitement, je peux choisir d'intégrer uniquement les dix premiers, pour simuler un tir avec 0,01 seconde, ou les cent premiers, pour simuler un tir avec un 0,1 deuxième exposition
En utilisant un traitement sophistiqué ou en sélectionnant manuellement les zones, je pouvais même décider d'utiliser une exposition différente pour différentes parties de l'image finale, par exemple une exposition de 0,1 seconde pour le sol et de 0,03 pour le ciel, en utilisant 100 images pour le ciel et 30 images pour le ciel.
Est-ce que ça fait du sens? Pourquoi les caméras ne fonctionnent-elles pas de cette façon?
la source
Réponses:
Le problème est la vitesse de lecture. Vous ne pouvez pas lire l'intégralité du capteur assez rapidement pour que cela fonctionne dans le cas général. Même si tu le pouvais. il y aurait également un effet néfaste sur la qualité de l'image car vous appliqueriez encore et encore du bruit de lecture.
Au moins avec les capteurs CMOS, vous pouvez lire à des emplacements aléatoires, mais avec les capteurs CCD, chaque ligne est décalée dans la suivante pour effectuer la lecture. C'est pourquoi lorsque les lumières sont trop lumineuses, vous obtenez des stries verticales dans l'aperçu des caméras utilisant des CCD.
Ensuite, il y a des raisons pour lesquelles les photographes choisissent une vitesse d'obturation : pour figer une tranche de temps. Les gens seraient presque toujours flous si vous n'arrêtiez pas assez vite l'obturateur.
la source
Je pense qu'ils pourraient fonctionner de cette façon, mais il y a deux gros problèmes:
Dans votre question initiale, vous avez utilisé un quart de seconde à titre d'exemple. Ce n'est en fait pas une vitesse d'obturation très longue, et c'est déjà 10 × où nous en sommes avec les caméras actuelles. Pour que cela soit vraiment significatif, nous aurions besoin de la technologie au point où le capteur est lu 10 à 100 fois plus rapidement que cela - ce qui aggrave considérablement les problèmes.
Le deuxième problème sera résolu par la loi de Moore dans une décennie ou deux, et le premier peut l'être aussi, car l'électronique devient plus petite et plus précise. Pour l'instant, ce n'est pas pratique.
L'Olympus OM-D E-M5 a en fait une fonction où il montre l'exposition "se développer" dans les expositions longues, mais cela évite les problèmes ci-dessus en nécessitant un minimum d'une demi-seconde entre les lectures: il n'est utile que pour les expositions longues.
Mais, à l'avenir, avec une meilleure électronique, toutes les caméras fonctionneront probablement de cette façon, et avec beaucoup plus de stockage disponible, elles pourraient tout aussi bien enregistrer en continu. Le bouton "obturateur" servirait simplement à marquer une partie du flux comme intéressante, pour un développement ultérieur. Et pendant que nous y sommes, abandonnez l'objectif et faites-en un appareil photo à 360 ° pour le champ lumineux; le cadrage, l'ouverture et la mise au point peuvent également être sélectionnés après coup, jetant complètement par la fenêtre les idées reçues sur les principes de base de l'appareil photo
la source
Comme beaucoup de gens l'ont mentionné, il y a l'aspect vitesse de lecture. Les circuits d'imagerie ne peuvent pas simplement "acquérir" instantanément les valeurs des pixels du capteur, ils doivent être lus ligne par ligne.
Ensuite, vous devez également réfléchir à la destination de ces valeurs de mise à jour des pixels. Même avec une certaine compression, en supposant une faible entropie des images ultérieures par rapport aux images précédentes, elles prendront beaucoup d'espace. Et aussi, les données qui ne sont pas très compressibles ralentiront l'ensemble du processus - puisque la compressibilité d'une nouvelle trame par rapport à l'ancienne ne peut pas être garantie, le système aurait encore besoin de suffisamment de bande passante pour couvrir le pire des cas sans se dégrader.
Enfin, (et c'est un peu ringard), l'effet de l'inégalité de Heisenberg, ou principe d'incertitude, doit être pris en compte. Pour chaque échantillon, nous avons un niveau d'incertitude sur la mesure. En prenant de très nombreux échantillons (chacun avec lequel nous avons apparemment un faible niveau de confiance, sinon nous pourrions simplement sélectionner une seule image du millier environ), nous obtenons une incertitude sur chacune de ces images, plutôt qu'une seule fois. Cela serait aggravé lors de la combinaison de plusieurs images, et maintenant l'incertitude maximale est multipliée par le nombre d'images avec lesquelles vous composez l'image finale. Dans le pire des cas, cela pourrait dégrader considérablement les images.
la source
Bien que votre idée soit intrigante, il existe plusieurs raisons pour lesquelles elle ne fonctionnerait pas.
Taille du fichier: pensez à la taille du fichier image résultant. Mon reflex 8mp donne des fichiers d'environ 3 Mo de taille. S'il prenait 100 images chaque fois que j'appuyais sur l'obturateur, j'aurais 300 Mo pris sur ma carte. Une carte se remplirait trop vite. De plus, ce ne sont que des chiffres pour mon appareil photo, qui a une résolution relativement faible. Pour les caméras professionnelles, la taille pourrait facilement doubler ou tripler. À Raw, la taille pourrait encore augmenter environ trois fois. En fin de compte, je pro tir Raw pourrait finir avec plus de 3 Go par tir.
Exposition: Parfois, un appareil photo doit exposer pendant plus de 1/100 sec. pour obtenir la bonne quantité de lumière. Si vous photographiez sous un éclairage trop faible, les images résultantes seraient sous-exposées et potentiellement inutilisables. Vous ne pouvez pas simplement combiner des images pour compenser cela, car vous ne pouvez pas trouver de données qui ne sont pas là.
Bruit: lorsque les capteurs chauffent, ils affichent un phénomène appelé bruit. Il s'agit de la moucheture de pixels de couleur aléatoire apparente sur certaines photos. Si le capteur fonctionnait constamment pendant une seconde à la fois, les niveaux de bruit augmenteraient rapidement, conduisant potentiellement à des images inutilisables.
Vitesse d'écriture des cartes: la vitesse à laquelle les informations peuvent être ajoutées aux cartes mémoire est limitée. C'est ce qu'on appelle leur vitesse d'écriture. Pour gérer des fichiers de cette taille, les cartes auraient besoin d'une vitesse d'écriture rapide. Ces cartes peuvent être extrêmement coûteuses.
Donc, pour récapituler, il s'agit d'une idée intéressante, mais qui comporte plusieurs obstacles importants.
J'espère que cela a aidé.
la source
Il convient de noter que depuis que cette question a été posée, cette idée a été quelque peu mise en œuvre dans (au moins certains) smartphones.
Comme les limites technologiques ne se sont pas beaucoup améliorées, elles se limitent bien sûr à de très longues expositions en très faible luminosité (par exemple, l'astrophotographie). Le fait que le logiciel empile plusieurs expositions de n secondes est visible s'il y a du mouvement dans le cadre (ils auront quelques légères discontinuités à la lecture).
L'empilement peut même être visualisé en temps réel sur l'écran car l'image «résultat» apparaît de plus en plus lumineuse.
la source
Il y a des caméras qui fonctionnent essentiellement de cette façon. Recherchez des caméras HDR (High Dynamic Range). Les moins chères fonctionnent en encadrant l'exposition, en prenant essentiellement deux ou quatre expositions différentes, puis en les combinant dans leur logiciel interne en une image unifiée. Vous pouvez réellement le faire avec n'importe quel appareil photo, en utilisant un logiciel externe .
Ma compréhension du fonctionnement des caméras HDR haut de gamme consiste à calculer de manière dynamique un temps d'exposition automatique distinct pour chaque pixel individuel, et à l'utiliser pour déterminer la luminosité réelle de la scène. Cela résout le problème d'avoir des tonnes et des tonnes de données pour chaque pixel, vous stockez simplement le temps d'exposition et les valeurs de couleur lorsqu'il franchit un certain seuil de luminosité. Évidemment, cela nécessite du matériel et des logiciels beaucoup plus complexes pour bien fonctionner.
la source
Il existe différents types de volets, mais les volets principaux sont des volets mécaniques et électroniques (le capteur est activé / désactivé).
La plupart des reflex numériques utilisent l'obturateur plan focal tandis que les caméras vidéo utilisent des obturateurs électroniques. Donc, même si cela ressemble à ce que vous voulez faire pour les intégrer, il existe d'autres façons d'y parvenir.
La raison principale d'un obturateur est l'exposition, un principe fondamental de la photographie.
Vous pourriez probablement configurer quelque chose pour votre exemple. Vous voudrez peut-être examiner le bracketing ou, si cela ne suffit pas, le partage de connexion.
0,01 = 1/100 et est une vitesse d'obturation fine. La plupart des caméras prennent en charge des vitesses allant jusqu'à 1/8 000 secondes.
Juste sur votre dernière partie:
Vous auriez encore besoin de réfléchir à l'exposition pour cette prise de vue, toutes les 0,01 seconde.
la source
Mis à part les points soulevés par tout le monde - qu'adviendra-t-il de l'exposition?
Par exemple, avec mon appareil photo conventionnel, une exposition d'une seconde est ce dont j'ai besoin pour une photo donnée. Cela signifie essentiellement 1 seconde de lumière enregistrée par le capteur en une seule fois.
Ok, passons à la suggestion que vous avez faite, la caméra enregistre 0,001 seconde de lumière 1000 fois. Toutes ces images sont sous-exposées et donc inutiles. Si je les empile, je n'ai pas la même image que mon appareil photo conventionnel car l'empilement ne corrige pas la sous-exposition. Pour obtenir quelque chose près d'une exposition correcte, j'aurais besoin d'une ouverture très large qui (même si vous pouviez trouver un objectif approprié) aurait d'autres problèmes - profondeur de champ, etc. Si vous voulez dire que le capteur serait suffisamment sensible pour capturer suffisamment la lumière en 0,001 seconde afin que l'image ne soit pas sous-exposée, nous aurions un grave problème de bruit. L'idée que vous mentionnez d'inclure / exclure des images pour obtenir une exposition différente est déjà gérée en PP avec le curseur d'exposition.
Vous pouvez essayer votre idée en prenant des photos avec un obturateur court (comme vous le suggérez), puis en les empilant dans un logiciel HDR ou un logiciel Startrail.
Les éléments de post-traitement que vous mentionnez concernant la prise de vue du sol et du ciel avec différentes expositions pour équilibrer l'image peuvent déjà être rectifiés en PP avec des contrôles d'ombre / surbrillance et / ou une tonalité partagée.
Pensez également à la photographie d'action comme le sport automobile où j'ai besoin d'un long obturateur pendant le panoramique pour donner une impression de vitesse et de mouvement. Si je dis 200 images avec un temps d'obturation très petit, je ne prendrai pas le flou et l'effet de la prise de vue ne fonctionnera pas.
la source