lytro.com décrit leur nouvelle caméra de champ lumineux comme étant capable de capturer l'intégralité du champ lumineux, plutôt qu'un seul plan de lumière, permettant ainsi un tout nouvel ensemble de possibilités de post-traitement, y compris le réglage de la mise au point et de la perspective.
Quel type de capteur pourrait "capturer chaque faisceau de lumière dans toutes les directions à chaque instant"? Comment une information de quantité essentiellement infinie serait-elle encodée et manipulée? Y aurait-il un objectif à l'avant dans un sens traditionnel?
Voici la thèse de l'inventeur: http://www.lytro.com/renng-thesis.pdf
Quelqu'un peut-il résumer cela pour ceux d'entre nous qui connaissent les technologies traditionnelles?
Réponses:
La manière la plus simple d'y penser est la suivante:
Imaginez qu'au lieu d'une caméra, vous disposiez d'une grille de 100 caméras dans une matrice 10x10. Lorsque vous tirez un coup, chacun tire en même temps. Ils auront chacun une vision légèrement différente de la chose que vous prenez en photo. Il existe des modèles mathématiques que vous pouvez utiliser pour trier le «reverse engineering» de l'image et la reconstruire de différentes manières. C'est de cela qu'il s'agit, sauf qu'au lieu de 100 caméras, vous en avez des milliers, et elles sont toutes formées par un ensemble d'objectifs juste au-dessus du plan du capteur. Ainsi, l'image qui sort du capteur de la caméra a un tas de cercles d'images partielles qui diffèrent légèrement de celles à côté d'eux. Ils utilisent ensuite les mathématiques pour réassembler une seule image à partir de ces images partielles.
la source
Voici ma coquille après avoir lu le papier très accessible de Ren Ng.
Dans un appareil photo numérique traditionnel, la lumière entrante est focalisée sur un plan, le capteur, qui mesure la luminosité à chaque cellule photosensible, pixel. Cela produit une image finale dans le sens où le raster de valeurs résultant peut être tracé comme une image cohérente.
Une caméra à champ lumineux ( Plénoptique ) utilise le même type de capteur, mais place un réseau de microlentilles devant le capteur. Cela devient le plan d'imagerie et définit la résolution en pixels des images post-traitées plutôt que le capteur dans son ensemble. Chaque microlentille capte les rayons lumineux pour les différentes directions, produisant une "image de sous-ouverture" qui est enregistrée sur un groupe de cellules sur le capteur. Un diagramme utile de l'article:
La photographie conventionnelle qui se serait formée peut être dérivée en additionnant le réseau d'images de sous-ouverture pour chaque pixel. Mais le fait est que les dérivations deviennent possibles grâce à l'utilisation de calculs de lancer de rayons. (Leonardo de Vinci serait envieux.) En particulier, la profondeur de champ peut être manipulée, découplant ainsi l'ouverture / la profondeur traditionnelle des manilles de champ. La correction d'aberration de l'objectif peut également être possible.
Le papier caractérise que le champ lumineux "total", et "toutes" les directions de la lumière, peuvent être capturés, alors qu'en réalité cela serait limité par le nombre de microlentilles, le capteur immobilier sous chacune d'elles, etc. sinon, si une résolution suffisante peut être jetée, on pourrait dire «pratiquement tout». Je suppose donc que les caméras Plénoptiques annonceraient le nombre de pixels ET le nombre de rayons.
la source