Pourquoi le capteur principal n'est-il pas utilisé à la place du capteur AF séparé pour mettre au point un reflex numérique?

9

De cette réponse, je comprends que le miroir reflex d'un reflex numérique ne réfléchit pas réellement toute la lumière, mais il transmet une certaine quantité au capteur AF.

Donc, si le miroir reflex peut passer la lumière, pourquoi ne pas utiliser le capteur principal (qui est directement derrière le miroir) pour la mise au point?

Remarque :
Dans un commentaire sous la réponse liée, il est noté que le capteur AF nécessite un objectif pour focaliser les faisceaux de lumière sur l'emplacement approprié du capteur car il est plus petit que le capteur principal (l'italique est ma propre hypothèse). Si le capteur principal était utilisé, cet objectif supplémentaire serait-il toujours nécessaire?

Saaru Lindestøkke
la source
En mode Live View, les reflex numériques utilisent le capteur principal pour la mise au point. C'est généralement un processus assez lent.
James Snell
1
J'en suis conscient, mais je me réfère à l'AF à détection de phase rapide, pour lequel normalement un capteur séparé est utilisé. Je devrais peut-être clarifier cela dans le titre.
Saaru Lindestøkke
1
Curieusement, je viens de le faire et le Sony A99 a DEUX capteurs de détection de phase et l'un fait partie du réseau de capteurs principal. Je n'ai vu aucun détail sur la raison, mais cela pourrait vous donner un point de départ.
James Snell
À proprement parler, le Sony A99 n'a pas le "Reflex" qui en ferait un DLS R , car il s'agit d'un design SLT. La raison pour laquelle il dispose de deux systèmes de détection de phase: 1) Le capteur indépendant est plus rapide et peut se concentrer en continu pendant l'enregistrement vidéo 2) Le capteur AF intégré au capteur d'imagerie fournit une couverture pour les cibles en mouvement lorsqu'elles sont entre les points de mise au point sur la mise au point indépendante tableau. Malgré tout, la revue DP et la plupart des autres disent que Sony ne peut pas suivre le taux de maintien du 5DIII pour le tournage d'action / sport, encore moins le D4 ou le 1D X.
Michael C

Réponses:

16

L'autofocus à détection de phase fonctionne en mesurant le déplacement horizontal entre les motifs de luminosité projetés sur le capteur AF. Pour mesurer le déplacement, des paires de réseaux unidimensionnels de pixels monochromes sont utilisés. Voici à quoi ressemble le capteur AF du Canon 5D mkIII:

Vous pouvez voir de nombreuses lignes de pixels différentes utilisées par différents collimateurs autofocus sélectionnables par l'utilisateur. En principe, vous pouvez utiliser des lignes de pixels sur le capteur d'image principal pour effectuer exactement le même travail.

Cette approche présente quelques avantages:

  • Vous ne rencontrez aucun problème si le capteur d'image principal et le capteur AF sont désalignés, car ils sont identiques.

  • Vous évitez la complexité des miroirs secondaires et le coût de la puce AF elle-même.

Il y a des inconvénients à utiliser le capteur principal.

Dans un commentaire sous la réponse liée, il est noté que le capteur AF nécessite un objectif pour focaliser les faisceaux de lumière sur l'emplacement approprié du capteur car il est plus petit que le capteur principal (l'italique est ma propre hypothèse)

Votre hypothèse n'est pas tout à fait juste. Cela n'a rien à voir avec un capteur AF plus petit, les "objectifs" AF sont en fait un objectif avec un profil en forme de "B" ondulé. Cet objectif concentre la lumière provenant de chaque côté de l'objectif sur différentes parties du capteur AF.

Vous auriez toujours besoin d'une sorte d'objectif pour faire ce travail lors de l'utilisation du capteur d'image principal, et il devrait s'éloigner lors de la prise de vue avec le miroir reflex, nécessitant une disposition mécanique compliquée dans l'appareil photo. C'est le principal inconvénient de cette approche, bien qu'il existe d'autres obstacles:

  • Les pixels du capteur d'image se trouvent derrière des matrices de filtres couleur qui réduisent la quantité de lumière qui les atteint jusqu'à deux tiers. Cela pourrait potentiellement réduire les performances par faible luminosité, mais cela vous permettrait d'effectuer la correspondance de mesure de phase en couleur pour moins de faux résultats (vous êtes moins susceptible de confondre un détail du premier plan avec un détail de l'arrière-plan par exemple La couleur peut également être utilisée pour faciliter le suivi).

  • La taille, l'espacement et la sensibilité des pixels seront différents entre les deux capteurs, donc faire les deux avec un capteur signifie que des compromis doivent être faits.

  • Le capteur principal devrait être allumé pendant des périodes beaucoup plus longues, ce qui entraînerait une plus grande consommation d'énergie des batteries. Comme le souligne Stan, l'obturateur devrait également être ouvert pendant la mise au point automatique, donc le fermer avant de réaliser l'exposition entraînerait un retard.

  • Enfin, la détection de phase AF est antérieure aux capteurs d'images numériques, de sorte que toute la technologie et les outils pour effectuer la AF à l'aide d'un capteur séparé existent déjà et sont bien développés.

Cependant les fabricants ont mis au point une méthode légèrement différente pour la phase AF à détection qui fait utiliser le capteur principal. Il a été développé pour les appareils photo sans miroir qui n'ont pas l'option d'un capteur AF dédié et qui ont traditionnellement utilisé la méthode de détection de contraste plus lente utilisant le capteur principal.

Au lieu d'une paire de lentilles AF sur le trajet de la lumière pour diriger la lumière de chaque côté de la lentille sur différentes parties du capteur AF, des paires de microlentilles régulières avec des moitiés alternées noircies peuvent être utilisées pour obtenir un effet similaire (pixels avec la gauche la moitié occultée recevra principalement la lumière du côté droit de l'objectif et vice versa).

Cela permet une approche AF hybride utilisant une combinaison de phase (pour se rapprocher de la bonne mise au point) et de détection de contraste (pour affiner le résultat).

Matt Grum
la source
très belle réponse!
Michael Nielsen
Pas complètement sûr, mais je pense que le masquage effectué au niveau des pixels est gênant et c'est pourquoi il y a des problèmes de précision avec une telle détection de phase sur capteur. Avec un capteur de détection de phase standard, vous pouvez mesurer la différence de phase avec un delta plus important. Cela peut être la raison pour laquelle certains capteurs sont sensibles jusqu'à une valeur d'ouverture maximale différente.
Itai
Très bonne réponse. Juste pour être sûr, les lentilles en forme de B sont là pour "diviser" l'image en deux de sorte que les deux phases puissent être analysées, non? (comme décrit dans cette réponse )
Saaru Lindestøkke
Je pense qu'un autre avantage, surtout historiquement (avec des conceptions modernes prenant en charge la vidéo HD, c'est moins important), c'est que les quelques dizaines de pixels sur un capteur AF peuvent être lus beaucoup plus rapidement que les millions sur le capteur principal, ce qui permet une boucle de rétroaction plus rapide .
Dan est en train de jouer par Firelight
1
Il y a aussi le petit problème de l'obturateur à régler en mécanique. L'utilisation du capteur d'image pour la mise au point tout en s'appuyant sur un obturateur mécanique à plan focal pour la durée d'exposition signifie que l'obturateur doit être fermé / armé entre l'acquisition de la mise au point et le début de l'enregistrement de l'image (comme le font la plupart des reflex numériques en mode de visée écran). Cela signifie un déclenchement de l'obturateur à deux vitesses même lorsque vous pouvez masquer le temps passé derrière le swing du miroir réflexe, ce qui signifie soit ralentir l'obturateur, soit perdre en fiabilité.
2

La vitesse

La vitesse est probablement la principale raison pour laquelle le capteur d'imagerie n'est pas utilisé pour la mise au point dans la plupart des reflex numériques. AF a été développé vers la fin de l'ère du film, donc l'utilisation du "capteur" (le film) pour la mise au point n'était pas une option. La plupart des systèmes AF à détection de phase étaient construits en "boucle ouverte" pour une vitesse supérieure à la précision. Ce n'est que récemment que les principaux fabricants d'appareils photo ont commencé à concevoir des systèmes objectif / corps qui utilisent une communication en boucle fermée entre le corps et l'objectif pendant la mise au point automatique à détection de phase. Cela a permis aux systèmes de détection de phase d'approcher, et dans certains cas d'égale, la précision de la détection de contraste AF. Bien que la détection de contraste AF utilisant le capteur principal s'améliore en vitesse, parce que c'est un processus à plusieurs étapes qui nécessite plusieurs cycles de "déplacement et mesure", il est toujours plus lent mais généralement il est également plus précis.

Bien qu'il puisse y avoir de rares exceptions, tous les reflex numériques que je connais utilisent toujours des volets mécaniques. Cela signifie que le capteur d'image principal est couvert pendant la mise au point et la mesure. Il y a eu quelques modèles sans miroir qui n'ont qu'un deuxième volet, mais techniquement, ce ne sont pas des reflex numériques.

Pour utiliser le capteur principal pour la détection de phase, AF nécessiterait que l'obturateur soit ouvert afin de faire la mise au point, le premier rideau se fermerait ensuite avant de s'ouvrir à nouveau pour exposer l'image, après quoi le second rideau se fermerait. Même lors de la prise de vue de plus de 8 images par seconde, les reflex numériques les plus avancés se concentrent entre chaque prise de vue (si les paramètres sélectionnés par l'utilisateur le précisent). Actuellement, les reflex numériques réinitialisent les deux rideaux en même temps pendant que le miroir se met en marche et la mise au point AF. Pour utiliser le capteur d'image pour effectuer la mise au point, le premier rideau devrait rester ouvert jusqu'à ce que le miroir soit retombé et que l'appareil photo ait verrouillé la mise au point, puis le reste de l'appareil devrait attendre que le premier rideau se ferme et l'énergie absorbée par le capteur pendant la mise au point effacé avant que le premier rideau ne puisse rouvrir pour commencer à exposer l'image. Cela ralentirait le processus global lorsque le point entier de la détection de phase AF est la vitesse. L'autofocus à détection de contraste utilisé pendant Live View qui utilise le capteur d'imagerie principal pour la mise au point, en revanche, est généralement plus précis mais plus lent.

Michael C
la source
1

Le capteur principal dans un reflex numérique a une fonction et une seule fonction, et c'est d'enregistrer une image et de le faire très très bien.
Compromettre cela en intégrant de l'électronique supplémentaire dégraderait la qualité et les performances, alors pourquoi le faire quand il y a des capteurs dédiés parfaitement disponibles?
De plus, les reflex numériques ont évolué à partir des reflex numériques de film où, bien sûr, aucun gadget électronique intégré au film ne pouvait être perverti à cette fin.

jwenting
la source
1

Les appareils spécialisés fonctionnent mieux et plus efficacement dans ce qu'ils font.

Les capteurs à mise au point automatique utilisés dans les reflex numériques sont hautement réglés pour effectuer la mise au point automatique rapidement et à des niveaux d'éclairage très faibles.

Si vous utilisiez le capteur principal pour effectuer la mise au point automatique, vous auriez deux options:

  • Mettez en œuvre l'autofocus Contrast-Detect qui est un énorme drain de puissance mais en fait plus précis que Phase-Detect. Cependant, Contrast-Detect nécessite un mouvement d'avant en arrière des éléments de mise au point par étapes très fines, ce qui n'est pas optimal pour les objectifs DSLR modernes.
  • Mettez en œuvre le détecteur de phase sur capteur, ce qui est possible mais beaucoup moins précis que l'utilisation d'un capteur dédié, car la partie d'imagerie du capteur limite ce que vous pouvez faire.

La réalité est que le miroir ne laisse passer la lumière que dans certaines zones et que la majeure partie est entièrement réfléchissante, ce qui vous donne une vue lumineuse.

Sony a des caméras SLT qui ont un véritable miroir semi-réfléchissant (30% / 70%) qui est leur solution pour fournir à la fois Live-View et Phase-Detect Autofocus en même temps. Cela leur permet d'utiliser un capteur de détection de phase dédié pour accélérer la mise au point automatique et éviter les mouvements de va-et-vient de l'objectif, ce qui est terrible pour la vidéo. Le capteur perd de la lumière pour l'atteindre, il doit donc être plus sensible pour produire la même ISO efficace, ce qui est un inconvénient en termes de qualité d'image. La lumière réfléchie vers le haut est trop faible pour faire un joli viseur optique, ils ont donc dû tenir dans un EVF.

Itai
la source
0

Autrement dit, la même raison pour laquelle vous ne conduisez pas un semi-camion pour travailler le matin (sauf si vous êtes un camionneur). Le capteur AF peut faire mieux son travail lorsqu'il n'a pas à rivaliser avec le capteur d'image pour la surface. Les capteurs sont de nature différente et bien qu'il existe certaines conceptions qui intègrent des capteurs AF au capteur d'imagerie, cela signifie que les zones du capteur d'imagerie ne capturent pas la lumière visible frappant ces zones aussi bien que possible.

Il existe des capteurs hybrides qui peuvent effectuer à la fois la mise au point automatique et la détection de la lumière pour l'image, mais ils ont tendance à ne faire aucun travail ainsi qu'un capteur dédié pour les deux. Ce n'est peut-être pas beaucoup, mais il suffit que si vous essayez d'obtenir le meilleur AF et les meilleures performances d'image que vous puissiez, des capteurs séparés font toujours un meilleur travail.

AJ Henderson
la source
1
Je ne vois pas pourquoi le capteur AF devrait rivaliser avec le capteur d'image pour la zone alors que les mêmes photosites peuvent être utilisés dans les deux cas. Les pixels AF à détection de phase sur le capteur principal (tels qu'utilisés par certains appareils photo sans miroir) capturent la lumière visible lors de la prise de vue et contribuent à l'image. La sensibilité réduite de ces pixels n'est pas perceptible car les pixels AF sont de quelques milliers par rapport à des dizaines de millions de pixels normaux.
Matt Grum
1
@MattGrum - Je n'ai jamais dit que c'était une détérioration majeure, juste une détérioration. Lorsque votre objectif est de capturer la meilleure image possible, ne pas avoir à faire ce compromis donne une qualité légèrement meilleure. Si je comprends bien, les pixels hybrides ne fonctionnent pas aussi bien que l'AF dédié. Ils sont à la hauteur de tous les métiers, mais c'est un compromis.
AJ Henderson
Vous avez dit que "les zones du capteur d'imagerie ne capturent pas la lumière visible frappant ces zones", ce qui est faux, ces pixels reçoivent la lumière, la convertissent pour se charger et contribuent à l'image. Ce n'est que 0,1% de pixels de toute façon, donc je serais étonné de voir la différence. Oui, ils ne sont pas aussi bons pour la mise au point automatique, mais vous n'avez pas la possibilité d'un capteur AF dédié dans un appareil photo sans miroir, c'est donc mieux que rien. Je serais plus susceptible d'acheter un sans miroir avec PDAF sur le capteur qu'un autre.
Matt Grum
@MattGrum - oui. J'avoue que je ne savais pas que les pixels hybrides capturaient des informations utiles. Je suppose que la filtration des couleurs est la raison pour laquelle elles se retrouvent avec une efficacité réduite ou y a-t-il d'autres problèmes? Ma compréhension est-elle correcte qu'un capteur PD dédié ne capture pas les informations utiles car je soupçonne qu'il manque le filtrage des couleurs nécessaire pour autre chose que la mesure?
AJ Henderson
0

Une raison possible qui n'a rien à voir avec la mise au point automatique est que le capteur d'image doit être débarrassé de toute charge avant de prendre une photo. L'utilisation du capteur d'image principal pour AF / composition, comme c'est le cas avec toutes les caméras LiveView (la plupart sans miroir), nécessite que le capteur soit éteint et déchargé avant la prise de l'image, sinon vous auriez un fantôme de la image en direct sur l'image prise.

C'est l'une des raisons du retard d'obturation sur les caméras en direct uniquement. Les reflex numériques ne dépendent pas de la visualisation en direct.

Et non, si vous utilisez le capteur principal pour la mise au point automatique, vous n'avez pas besoin d'avoir le chemin de lumière / objectif séparé pour le réseau AF séparé. Les appareils photo sans miroir sont beaucoup plus simples que les reflex numériques car il n'y a pas d'assemblage de boîte à miroir et pas besoin de réseaux de AF et de capteurs d'exposition et de chemins de lumière séparés.

Dans son article "Demise of the dSLR" , Ming Thein estime, d'après son expérience personnelle du démontage, que les caméras sans miroir ont 60 à 70% de pièces en moins que les reflex numériques.

inkista
la source