Cet article d'annonce daté du 11 janvier 2017 indique qu'il y aura une mise à niveau vers l'application FiLMiC Pro qui pourra accueillir ce que vous recherchez. Notez que la page Web du FiLMic Pro App Store indique que la dernière version est le 23/12/2016 - Je ne sais pas quand la mise à jour dont parle l'article sera disponible:
La prochaine mise à jour introduira un nouveau mode d'enregistrement qui permettra aux réalisateurs de filmer des vidéos avec un profil d'image plat contenant des arrêts supplémentaires de plage dynamique.
Consultez également le site Web de FiLMic - je n'ai trouvé aucun détail, mais j'ai été intéressé de lire qu'ils l'ont développé avec le langage Swift d' Apple .
Il est à noter qu'ils ont apparemment publié une version bêta pour les tests et la démonstration de la capture LOG. Comparez en particulier la zone sombre du tableau de bord dans le coin inférieur gauche de cet exemple de vidéo source par rapport au même métrage après le classement avec DaVinci Resolve de BlackMagic Design . Avis de non-responsabilité - ces vidéos sont extraites de l'article et la qualité de l'étalonnage des couleurs par rapport à la compression youtube et celle-ci est relative. De plus, à titre d'exemple de détails supplémentaires, la prise de vue de cette manière peut permettre, notez dans le troisième plan, les détails d'ombre du chapeau avant et après.
Vous n'avez probablement pas besoin de ces informations, mais voici un article récent qui fournit un aperçu décent de ce que signifie prendre des photos dans l'espace colorimétrique du journal ou enregistrer un «profil de couleur plat». En outre, quelques questions et réponses VideoSE relatives aux considérations de prise de vue.
Comment je comprends de cette question " Quel espace colorimétrique les appareils iOS sont utilisés? " IOS n'a qu'un seul espace colorimétrique accessible.
Selon cela , même les photos RAW d'iOS ne sont pas vraiment RAW.
la source
L'écran et la caméra de l'iPhone sont déjà dans des espaces colorimétriques logarithmiques. Je pense que vous posez des questions sur l'espace colorimétrique linéaire.
Je doute fort qu'Apple autorise un accès direct au matériel de l'appareil photo. Je n'ai vu aucune application qui en avait besoin.
Mais même si vous le pouviez, vous constateriez que la conversion en sRGB / BT.709 se fait dans le matériel de l'appareil photo, tout comme la compression. Et même si vous pouviez accéder au capteur brut, vous trouveriez les données bruyantes et peu maniables.
Donc non. Désolé.
Ajouté : voir: https://developer.apple.com/library/ios/documentation/AVFoundation/Reference/AVCaptureDevice_Class/index.html#//apple_ref/occ/cl/AVCaptureDevice
la source
L'enregistrement True Log n'est pas possible dans iOS jusqu'à la date. Il n'y a pas d'accès aux données brutes du capteur lorsqu'il s'agit de filmer une vidéo sur iOS. RAW n'est possible que lorsque vous cliquez sur une image, pas sur une vidéo. J'espère que l'iPhone a été assez rapide pour traiter 30 images RAW par seconde mais pour l'instant il ne peut pas en gérer plus de 3 par seconde. J'espère que iOS 12.0 offre aux développeurs un meilleur accès au capteur pour filmer de vraies vidéos LOG, c'est-à-dire lorsque les développeurs peuvent appliquer la courbe gamma de leur choix lors de la conversion A2D dans le filtre matriciel Bayer.
la source