Attendre le moment exact pour prendre une photo peut être très difficile, surtout lorsque vous travaillez avec des enfants ou des animaux. J'ai lu quelque part (impossible de trouver la source) que chaque arrêt sur image d'une vidéo HD est essentiellement une photo haute résolution (est-ce même vrai?).
Quels sont les défis, les avantages et les inconvénients de la sélection de la meilleure image à partir d'une vidéo pour prendre des photos où le timing est crucial?
Réponses:
Le gros pro de ceci est, comme vous le dites, la possibilité de prendre de nombreuses photos en peu de temps, vous permettant de choisir la meilleure image.
Cependant, cette approche présente plusieurs inconvénients:
la source
Non, pas du tout vrai :( Voici pourquoi:
Tout d'abord, ce n'est pas une haute résolution. Même la vidéo 1080P ("Full HD"), que toutes les caméras ne peuvent pas faire, n'est que de 2 mégapixels. C'est une fraction de la résolution du capteur. La vidéo 720P fait 1 mégapixel.
Deuxièmement, la vidéo utilise un taux de compression beaucoup plus élevé que les images JPEG fixes, car la vidéo est gourmande en bande passante. Cela signifie que les images vidéo résultantes sont (généralement) plus compressées qu'une image fixe équivalente. De plus, dans la plupart des formats vidéo (y compris AVCHD, H.264 / AVC, divers formats MPEG / DivX, mais pas "Motion JPEG"), la plupart des images vidéo utilisent la "compression inter-images", ce qui signifie qu'elles ne sont pas stockées sous forme d'images dans leur propre mais en tant que données de transformation à appliquer à d'autres cadres récents ou à proximité.
En vidéo, une certaine quantité de flou de mouvement est souhaitable, mais dans les images fixes, vous n'en voudriez pas autant. 1/48 à 1/60 seconde est normal pour 24P et 30P afin d'avoir une sensation de flou de mouvement naturel (l'effet est appelé "angle d'obturation" après les anciennes caméras). Sinon, la motion peut sembler artificielle. Dans les images fixes, le gel des mouvements à l'aide d'une vitesse d'obturation de 1 / 250s ou plus semble correct et est souvent souhaitable.
Les capteurs numériques ne peuvent souvent pas fournir une image de si bonne qualité lorsqu'ils sont en mode «Live view», où il n'y a pas d'obturateur physique, mais à la place ils récupèrent en continu des images du capteur. Dans les CCD, cela se manifeste par des stries verticales; en CMOS, il y a d'autres problèmes (l'un étant l'ondulation pendant le mouvement de la caméra, connu sous le nom d '"effet d'obturateur roulant"). L'obturateur qui fonctionne lors de la prise d'images fixes permet au capteur d'utiliser un mode différent où il n'a pas à se réinitialiser si rapidement et il peut prendre une image de haute qualité avec moins de bruit.
La vidéo a souvent un filtrage supplémentaire appliqué comme le ferait encore, ce qui perd certains détails. L'un des plus importants est l'entrelacement, qui jette effectivement beaucoup de résolution verticale. Cependant, peu d'appareils photo avec fonction vidéo prendraient en charge l'entrelacement. Beaucoup de vidéos auront toujours un filtre anti-crénelage appliqué, ce qui adoucit l'image mais peut aider à la compression et à la réduction du moiré. Selon la caméra, la vidéo peut également avoir plus de netteté appliquée, bien que de nos jours avec la HD, cette pratique ne soit pas si répandue / nuisible.
À moins que vous n'ayez aucune autre méthode, je ne le recommanderais pas. En fait, je ne le recommanderais probablement pas, même si c'était votre seule option. Mais si vous avez continué, assurez-vous que vous pouvez faire du 1080P, réglez la vitesse d'obturation sur assez rapide comme si vous photographiez encore et utilisez le format Motion JPEG (pas AVC ou l'un des autres formats mentionnés ci-dessus). Et réalisez que vous obtenez essentiellement 2 mégapixels.
Edit: Depuis que j'ai écrit cette réponse il y a quelque temps, je ne suis plus convaincu que le mode Motion JPEG (si votre appareil photo le supporte même) est une bonne idée pour cela. Votre appareil photo aurait besoin d'un débit binaire beaucoup plus élevé pour la même qualité. Si vous pouviez utiliser une vidéo HD régulière (par exemple h.264 ou AVCHD, etc.) et trouver un moyen de trouver les images I, cela pourrait être mieux. Je ne pense toujours pas que ce soit une bonne idée dans l'ensemble. Les reflex numériques modernes prennent en charge des modes de prise de vue continue beaucoup plus rapides, y compris certains qui peuvent verrouiller le miroir ou réduire la résolution et prendre des photos plus rapidement, etc.
la source
Je vais utiliser mon propre appareil photo (Pentax K-5) comme exemple (largeur x hauteur):
Donc, je ne pense pas que ce soit une photo haute résolution. Cela dit, il est préférable de tirer sur n'importe quelle résolution que de ne pas l'avoir du tout. :)
la source
Jetez un œil aux caméras rouges , si c'est quelque chose que vous voulez vraiment essayer. Toute leur raison d'être est de tirer sur quelque chose comme 5x HD, et chacun serait encore un tir de 10 mégapixels.
Bien sûr, ils ne sont pas bon marché, donc ce serait peut-être une meilleure idée d'avoir un appareil photo capable de prendre, disons, 8 fps pendant quelques secondes et de peigner ces photos pour ce moment parfait. J'ai trouvé que 5-6 fps pendant 3 secondes est généralement plus que suffisant pour obtenir une bonne prise de vue, ou au moins, fournit le nombre maximum d'images que je veux regarder par rafale. Si vous passez à plein débit vidéo, c'est beaucoup de données à parcourir pour une seule photo.
la source
Cela aurait dû être un commentaire de l'article par @thomasrutter, mais je ne peux pas encore commenter (manque de réputation).
Votre puce sur MJPEG contre AVC n'est pas entièrement correcte. Il est vrai que MPEG-4 Part 10 (AVC /H.264) n'enregistre généralement pas chaque image comme une image I (image clé / image complète). Il n'y a rien dans la spécification qui l'interdit cependant, et certaines caméras n'enregistrent que des images I.
Ce que vous avez tort, ce sont les avantages de MJPEG sur H.264, et votre argument sur pourquoi. Je vais commencer par une courte explication sur la façon dont les images sont reconstruites à partir d'un H.264 (ou d'autres formats de codec vidéo). La vidéo sera codée en trois types différents de trames, les trames intra-codées (trames I), les trames codées prédictives (trames P) et les trames codées prédictives bidirectionnelles (trames B). Un cadre en I est une version compressée d'un cadre complet "brut". Il peut être reconstruit comme un JPEG (ou une seule image dans un flux MJPEG). Une trame P, d'autre part, fait référence aux trames I et P précédentes, et devra être reconstruite. Une trame B peut également faire référence aux trames I et P suivantes. C'est beaucoup plus d'informations à ce sujet sur Wikipedia.
La différence entre H.264 et MJPEG réside dans le fonctionnement de la compression et non dans sa qualité. Chaque image unique d'une vidéo numérique peut être complètement reconstruite, en utilisant les informations contenues dans le fichier / flux vidéo. H.264 donnera de meilleurs résultats que MJPEG, même lorsque vous exportez une image, au même débit binaire. Ceci est valable pour la plupart des débits (pas sûr des débits très bas). Il y a plus d'informations et plusieurs tests en ligne, et un bon point de départ est compression.ru .
Le seul inconvénient du H.264 est la complexité de calcul dans la reconstruction d'une seule trame. Le H.264 nécessite beaucoup plus de puissance de traitement que le MJPEG. Ce n'est cependant pas un problème sur les ordinateurs modernes.
la source