Pourquoi l'espace colorimétrique xvYCC ne voit-il pas l'adoption de la photographie fixe?

23

Au cours des quinze dernières années, le sRGB a été la principale norme pour les écrans d'ordinateur (et pour l'impression grand public). Cela change maintenant, car les moniteurs à rétroéclairage LED à gamme plus large deviennent courants. Habituellement, les photographes les utilisent avec un espace colorimétrique comme aRGB, qui est semi-standard - mon appareil photo peut enregistrer des JPEG dans cet espace nativement, par exemple.

Mais il existe une nouvelle norme largement répandue dans l'industrie audiovisuelle pour remplacer le sRGB. Il s'agit de la CEI 61966-2-4 - xvYCC (ou "xvColor", à des fins de marketing). Cet espace colorimétrique a une gamme 1,8 × plus grande que sRGB, couvrant 90% de la gamme de couleurs de la vision humaine (au lieu des 50% sans intérêt couverts par notre dénominateur commun actuel). En savoir plus sur le site Web de Sony sur le xvYCC .

Le point important, cependant, est que ce n'est pas théorique. Cela fait partie de la norme HDMI 1.3, avec une spécification pour une profondeur de couleur de 10 à 16 bits par couleur ("Deep Color", c'est ce qu'on appelle). Contrairement à aRGB, qui est essentiellement un créneau professionnel, il existe un large soutien dans les équipements de consommation.

Voilà l'arrière-plan. La question est la suivante : étant donné que cela est largement contagieux, et que nous sommes tous susceptibles d'avoir l' ordinateur (et TV!) Matériel capable de supporter dans les prochaines années, pourquoi est - ce être vendu comme fondamentalement seulement une chose vidéo? Il semble que l'industrie de la caméra serait ravie de s'engager.

Sony est grand dans l'idée et a lancé il y a quatre ans des caméras vidéo qui la prennent en charge. La Playstation 3 le prend en charge, pour l'amour du ciel! Pourquoi ne pas le mettre également dans les reflex numériques Sony Alpha? Et Sony n'est pas le seul - Canon propose également des caméras vidéo.

Bien sûr, si vous filmez en RAW, la prise en charge intégrée n'est pas importante. Ce sont les gens du logiciel de conversion qui devraient monter à bord - pourquoi n'y a-t-il pas d'incitation à cela? Si je comprends bien, xvYCC est une extension de YCbCr, qui est déjà utilisée dans les fichiers JPEG . Mais en lisant la littérature, je trouve beaucoup de mentions sur les normes MPEG mises à jour, mais rien sur les images photographiques.

Pourquoi ne pouvons - nous pas avoir de belles choses?

mattdm
la source

Réponses:

11

xvYCC est un moyen particulièrement intelligent d'encoder les données de couleur: il abuse de la représentation YCC en utilisant des combinaisons de valeurs précédemment interdites pour représenter les couleurs en dehors de la gamme de l'espace RVB utilisé dans le schéma YCC. C'est-à-dire que certains tuples YCC décodent en couleurs avec des valeurs RG ou B négatives. Auparavant, ceux-ci étaient simplement illégaux; dans xvYCC, ceux-ci sont autorisés, et les écrans avec des gammes plus grandes que le système RVB sont les bienvenus pour les rendre du mieux qu'ils peuvent. C'est vraiment un hack intelligent, principalement compatible, pour obtenir une gamme supplémentaire sans beaucoup changer le format.

Est-il judicieux de l'utiliser en photographie fixe? Je ne le pense pas vraiment. Il n'y a pas vraiment besoin d'être compatible avec YCC, alors pourquoi ne pas utiliser un espace à large gamme comme ProPhoto RGB? Ou mieux encore, puisque l'utilisation d'une profondeur de bits supplémentaire n'est pas coûteuse pour les images fixes, pourquoi ne pas opter pour quelque chose comme CIELAB qui peut couvrir toute la gamme perceptible humaine? Vous avez suffisamment de bits pour que la capacité d'encoder toutes ces couleurs imaginaires ne vous coûte pas une quantité appréciable de résolution des couleurs.

Bien sûr, la question du support de la caméra est un peu hors de propos - si vous vous souciez vraiment de la couleur, vous devez extraire les valeurs brutes du détecteur de la caméra et commencer à partir de celles-ci. Et même si vous faites cela, vous serez toujours coincé dans la gamme perceptible de l'appareil photo. Et la précision de votre représentation des couleurs dépendra également de la façon dont les filtres de votre appareil photo se rapprochent de la réponse spectrale des cônes humains - faites-le mal et les couleurs identiques à l'œil seront différentes de votre appareil photo. Aucun encodage ne résoudra cela. En fait, cela s'est produit avec un appareil photo numérique bon marché que j'avais - dans ce cas, sa sensibilité infrarouge a rendu les braises violettes. Même si vous filtrez les infrarouges, les choses avec des spectres épineux comme les arcs-en-ciel et les lumières fluorescentes ou les minéraux (et peut-être certains colorants) vont montrer cet effet lorsque les spectres du continuum semblent corrects.

Anne
la source
20

Pour commencer simplement, la réponse est "Il est utilisé pour la photographie fixe!" J'expliquerai un peu plus dans un peu, et son utilisation est assez niche pour le moment.

Les racines de xvYCC

L'encodage xvYCC est, pour autant que je sache, une amélioration moderne de l'encodage YCC, ou dans sa forme longue, Y'CbCr (ou YCbCr, qui est légèrement différent.) L'encodage YCC fait partie d'une famille de luminance / chrominance les espaces colorimétriques, qui sont tous largement enracinés dans l' espace colorimétrique L a b * (`` Lab '' en abrégé) formulé par la CIE dans les années 1930. L'espace colorimétrique Lab est également un espace colorimétrique Luminance / Chrominance, dans lequel la luminance d'une couleur est codée dans la valeur L * , tandis que deux axes de chrominance d'une couleur sont codés dans les valeurs a * et b * . La valeur a * code une moitié de la chrominance le long de l' axe vert / magenta , tandis que la valeur b * code l'autre moitié de la chrominance le long du bleu / jauneaxe. Ces deux axes de couleur ont été choisis pour imiter et représenter les quatre sensibilités primaires de couleur de l'œil humain, qui se trouvent également le long d'une paire d'axes rouge / vert et bleu / jaune (bien que la vraie vue humaine implique une courbe rouge à double pic, avec le plus petit pic survenant au milieu de la courbe bleue, ce qui signifie en fait que l'œil humain est directement sensible au magenta, pas au rouge ... d'où l'axe vert / magenta dans Lab.)

L'encodage YUV

Y'CbCr est probablement le plus connu sous la forme d'un encodage vidéo YUV. L'encodage YUV a été spécialement conçu pour réduire la quantité d'espace nécessaire pour encoder la couleur pour la transmission vidéo, à l'époque où la bande passante était un produit plutôt rare. La transmission d'informations sur les couleurs sous forme de triplets RVB est un gaspillage, car les triplets R, G, B codent la couleur avec une bonne quantité de redondance: les trois composants incluent des informations de luminance ainsi que des informations de chrominance, et la luminance est pondérée sur les trois composants. YUV est une forme à faible bande passante de codage couleur de luminance / chrominance Y'CbCr qui n'a pas la redondance inutile du codage RVB. Le YUV peut consommer de 2/3 à 1/4 de la bande passante d'un signal RVB complet en fonction du format de sous-échantillonnage (et, en outre, il a stocké l'image détaillée dans le canal de luminance distinct Y, qui prend également en charge à la fois le noir et blanc comme signaux TV couleur avec un seul format d'encodage.) Il convient de noter clairement que YCC n'est pas vraiment un espace colorimétrique, c'est plutôt un moyen de coder les informations de couleur RVB. Je pense qu'un terme plus précis serait unmodèle de couleur qu'un espace colorimétrique, et le terme modèle de couleur peut être appliqué à la fois à RVB et à YUV.

D'après la référence liée dans la question d'origine, il apparaît que xvYCC est une forme améliorée de codage Y'CbCr qui stocke les informations de couleur de luminance / chrominance codées avec plus de bits que YUV. Au lieu d'encoder la luminance et la chrominance dans des ensembles entrelacés de 2 à 4 bits, xvYCC code la couleur dans des valeurs modernes de 10 bits.

Utilisation en photographie fixe

Curieusement, il existe une marque d'appareils photo reflex numériques qui utilise quelque chose de très similaire. Canon a ajouté un nouveau format RAW à ses appareils photo ces dernières années, appelé sRAW. Alors qu'une image RAW normale contient un vidage direct des données complètes du capteur, sRAW n'est en fait pas un véritable format d'image RAW. Le format sRAW ne contient pas de données de bayer, il contient du contenu Y'CbCr traité interpolé à partir des données de pixel RGBG de bayer sous-jacent. Semblable à l'époque de la télévision, sRAW vise à utiliser des informations de signal plus originales pour coder les données de luminance et de chrominance dans un format d'image de haute précision (14 bpc), mais peu encombrant. Une image sRAW peut avoir entre 40 et 60% de la taille d'une image RAW,

L'avantage de sRAW est que vous maintenez une grande précision des couleurs perçues par l'homme dans un format de fichier compact et que vous utilisez mieux les pixels RGBG sur le capteur bayer (plutôt que l'échantillonnage superposé qui produit un moiré de couleurs désagréable, sRAW effectue un échantillonnage de chrominance sans chevauchement et échantillonnage de luminance superposé / distribué.) L'inconvénient est qu'il ne s'agit pas d'un véritable format RAW, et les informations de couleur sont interpolées et sous-échantillonnées à partir du capteur à couche complète. Si vous n'avez pas besoin de la résolution RAW complète de l'appareil photo (c'est-à-dire que vous avez uniquement l'intention d'imprimer en 8x10 ou 11x16), alors le SRAW peut être un réel avantage, car il peut économiser beaucoup d'espace (jusqu'à 60% d'économies par rapport au RAW). ), il enregistre plus rapidement que le brut, offrant une fréquence d'images plus élevée, et utilise mieux les informations de couleur capturées par le capteur que le RAW pleine résolution.

jrista
la source
Très intéressant et instructif - merci! Mais je suis toujours surpris que cette utilisation de niche soit la seule chose à ce jour.
mattdm
1
Je suppose que, techniquement parlant, vous pourriez considérer JPEG comme un autre format d'image qui code les données d'une manière compatible YCC. Une partie des économies d'espace JPEG est due au fait qu'il code les données RVB dans un format de luminance / chrominance, sur lequel les données sont ensuite compressées via une compression de bloc avec perte. Bien que l'encodage spécifique xvYCC ne soit pas courant en photographie fixe, quand on y pense, l'encodage luminance / chrominance est en fait le format le plus répandu.
jrista
7

Vous avez des choses presque complètement en arrière. Ce n'est pas un cas où la photographie pourrait / devrait "rattraper" la vidéo - bien au contraire, il s'agit d'une vidéo ayant finalement rattrapé (à peu près) les capacités que le TIFF (par exemple) fournit quelques décennies il y a (ou presque).

Bien que vous n'ayez certainement pas vu beaucoup de TIFF 16 bits / canal il y a 20 ans, la capacité était déjà là, et 16 bits / canal (en TIFF et divers autres formats) est maintenant assez courant. En même temps, je me sens obligé de souligner que la plupart des gens semblent trouver 8 bits / canal tout à fait adéquats. Juste pour un exemple évident, JPEG2000 prend en charge 16 bits / canal et une meilleure compression que le JPEG d'origine - mais n'a nulle part près de l'utilisation des spécifications JPEG d'origine.

À peu près au même moment (en fait, un peu avant), xvYCC travaillait à rattraper (à peu près) les capacités de TIFF, le format de fichier openEXR était en cours de développement. Il prend en charge jusqu'à 32 bits / canal. Bien qu'il ne soit pas encore très utilisé, je m'attends à ce que ce soit un peu comme TIFF et qu'il finisse par être utilisé plus largement.

En ce qui concerne l'espace colorimétrique, il est vrai que le plus grand nombre de bits / pixel si xvYCC prend en charge une gamme plus large que sRGB. Encore une fois, cependant, ProPhotoRGB (pour un exemple) offre une gamme beaucoup plus large - et (en toute honnêteté), il est possible de se demander s'il est vraiment nécessaire d'avoir un espace colorimétrique plus grand que ProPhotoRGB ne le fournit déjà (environ 13% des couleurs que vous pouvez représentent dans ProPhotoRGB sont essentiellement imaginaires - ils vont au-delà de ce que la plupart des gens peuvent percevoir).

L'avantage de xvYCC est de réduire la quantité de données nécessaires / utilisées pour représenter un niveau de qualité donné. Pour la vidéo HD (en particulier), la réduction de la bande passante est extrêmement importante. Pour les appareils photo numériques, cependant, la bande passante est une préoccupation beaucoup plus petite - alors que ce serait certainement bien si (par exemple) je pouvais tenir deux fois plus d'images sur une taille particulière de carte CF, ce n'est pas un problème particulièrement grave. Relativement peu de gens utilisent la plus grande capacité de cartes CF disponible, et le coût des cartes CF n'est pas non plus une partie substantielle du budget d'un photographe typique.

Conclusion: en termes de capacités techniques, xvYCC fournit peu de choses qui ne sont pas déjà disponibles.

Edit: je devrais probablement ajouter un point de plus. Les écrans LCD ont commencé à remplacer les écrans CRT pour la plupart des moniteurs à l'époque où les appareils photo numériques sont devenus largement utilisés - mais les écrans LCD grand public commencent à peine à dépasser (ou même à approcher) la résolution couleur 8 bits / canal. Il était difficile de s'inquiéter beaucoup d'avoir 10 ou 12 bits / canal alors qu'un moniteur typique ne pouvait afficher qu'environ 6.

Il y a aussi le petit détail que beaucoup de gens s'en moquent. Pour eux, la qualité photographique relève d'un critère de réussite / échec. Tout ce que la plupart des gens demandent, c'est qu'une image soit raisonnablement reconnaissable. Je soupçonne que les gens commencent lentement à s'attendre à mieux, mais après des années de Walgreens (ou de quiconque) à transformer leur fille rousse en blonde (etc.), il faut du temps pour s'habituer à l'idée que la couleur peut être exacte du tout.

Edit: Il y a en fait une autre étape au-delà de JPEG 2000: JPEG XR . Cela prend en charge jusqu'à 32 bits / canal (virgule flottante) HDR. Il spécifie également un format de fichier qui peut inclure toutes les données de type EXIF ​​/ IPTC habituelles, le profil de couleur incorporé, etc. 11dans l' TRANSFER_CHARACTERISTICSélément de syntaxe, tableau A.9, au cas où quelqu'un s'en soucierait). Cela ne semble pas être largement utilisé (au moins pour le moment) mais prend directement en charge l'espace colorimétrique xvYCC pour les images fixes.

Jerry Coffin
la source
Merci; c'est certainement une façon de voir les choses. Je sais que ces formats de fichiers et ces espaces colorimétriques plus larges existent. Je suppose que ce qui m'intéresse vraiment, c'est pourquoi il y a une pression pour une plus grande profondeur de couleur dans le monde A / V, mais pas dans la photographie grand public.
mattdm
1
@mattdm: Je pense que la raison pour laquelle il y a un coup de pouce est qu'il n'était pas là avant. Une gamme étendue / une profondeur de couleur élevée est disponible pour la photographie fixe depuis au moins une décennie, et pour autant que je sache, les appareils photo numériques ont pris en charge Adobe RVB (qui a une gamme plus large que sRGB, bien qu'il ne supporte pas tout à fait 98% des la gamme Lab) pendant un certain nombre d'années. Le sRAW de Canon est disponible dans leurs reflex numériques d'entrée et de milieu de gamme depuis au moins quelques années. Je serais d'accord avec Jerry ... la vidéo est le domaine qui "rattrape".
jrista
4

Donc, pour répondre un peu à ma propre question après quelques recherches:

Bien qu'il soit xvYCC, pour des raisons qui me échappent encore vraiment (puisque l' encodage JPEG utilise un même schéma plus), il ne semble y avoir quelques initiatives encourageantes sur le « nous pouvons avoir de belles choses! » avant, car il semble qu'au moins Microsoft se soucie d'une gamme de couleurs plus large et d'une meilleure profondeur de bits en photographie fixe - au moins un peu.

Ils ont poussé, lentement mais sûrement, vers une nouvelle norme de format de fichier appelée JPEG XR (anciennement appelée Windows Media Photo, puis HD Photo). C'est une avancée intéressante par rapport au JPEG "traditionnel", offrant une meilleure compression avec la même qualité d'image et (au point de cette discussion) une prise en charge de la profondeur de bits plus élevée.

JPEG 2000 le fait aussi, mais cela a été largement un flop, peut-être à cause de problèmes avec les brevets couvrant la compression d'ondelettes qu'il utilise, ou peut-être autre chose. Le point important est le suivant: Microsoft fait la promotion de JPEG XR maintenant, en le présentant dans de nombreux logiciels, dont Internet Explorer 9 . Depuis 2009, il s'agit d'une véritable norme internationale officielle , et est couvert par la "promesse communautaire" de Microsoft de ne pas appliquer ses brevets de manière hostile contre les implémentations. C'est donc assez bon pour une utilisation future.

Et, avec cela, ils pousser l'idée de plus-bits par canal comme « couleur haute », ( ce qui est drôle pour moi, car dans mon esprit qui est toujours l'ancienne 16 bits LUCRATIF tous -channels mode carte vidéo). Dans le cadre de cela, ils ont un espace colorimétrique "intermédiaire" potentiellement ridiculement grand appelé scRGB - lisez un bon compte rendu détaillé ici - qui est pris en charge par JPEG XR, si vous le souhaitez. Il pourrait ne pas être particulièrement utile comme espace colorimétrique final , car la plupart de ses couleurs sont dans la zone "imaginaire" en dehors de la perception humaine . Mais de toute façon, le point est, Microsoft est l' intégration des normes de profondeur plus bits dans le système d'exploitation Windows, et la photographie estune partie de cela. D'un entretien CNET un peu vieux : "Je m'attends absolument à ce que le support scRGB dans les caméras accompagne JPEG XR."

Mais c'était en 2007. Quatre ans et demi plus tard, nous ne voyons toujours pas de caméras prenant en charge le JPEG XR, sans parler des espaces colorimétriques à grande gamme et à grande profondeur. Mais, peut-être que je suis juste impatient. Comme le notent les autres réponses ici, le matériel d'affichage qui prend en charge une large gamme vient de devenir disponible, la prise en charge dans le système d'exploitation le plus populaire au monde est assez récente et le premier navigateur Web à le prendre en charge a été publié ce mois-ci . Au fur et à mesure que cela se poursuivra et sera, espérons-le, finalement repris par Chrome et Firefox , les programmes de traitement d'image (y compris les convertisseurs RAW) gagneront en prise en charge, et la sortie directe réelle des caméras suivra.

Ou le tout échouera. Le temps nous le dira. :)

mattdm
la source
2
Une bonne caractéristique du JPEG XR est qu'il est bon marché sur le plan des calculs, il serait donc possible de l'implémenter pour le codage intégré par exemple. JPEG 2000 est coûteux. C'est certainement un facteur, bien que peut-être avec la marche en avant de la puissance de calcul pas si importante.
PeterT
3

Je vais ajouter quelques notes sur Jon's ...

  1. L'espace colorimétrique n'a de sens dans un contexte d'appareil photo que lorsque l'on parle de JPEG car, pour les images Raw, l'espace colorimétrique est un choix en phase de "développement". Certains appareils photo (Pentax semi-pros pour certains) permettent le choix de sRGB ou aRGB pour le développement JPEG, donc peut-être qu'ils peuvent en ajouter un troisième (ou quatrième pour ProPhoto). Là encore, pour la plupart des professionnels, ils tireront l'image dans l'espace colorimétrique souhaité pour le support de sortie souhaité.

  2. Le spectateur (et / ou l'appareil) doit également être conscient de l'espace colorimétrique et être capable de le gérer. Bien que les moniteurs à large gamme soient de plus en plus courants, ils sont très probablement encore une minorité massive et il faudra un certain temps pour rattraper le retard. Zut, je connais pas mal de gens qui ont encore de vieux moniteurs CRT connectés à des ordinateurs autrement décents.

John Cavan
la source
Je tiens à souligner à nouveau que xvYCC n'est pas un «espace colorimétrique», c'est vraiment, au mieux, un format de codage pour les informations de couleur RVB. Il prend en charge une gamme plus large non pas parce que c'est un espace colorimétrique, mais parce qu'il stocke des informations de couleur en utilisant plus de bits d'informations, et les stocke dans un format plus proche de la façon dont les humains perçoivent la luminance et la couleur.
jrista
@jrista, la norme CEI l'appelle spécifiquement "espace colorimétrique YCC à gamme étendue pour les applications vidéo - xvYCC", ce qui implique fortement qu'il s'agit en fait d'un espace colorimétrique. Après avoir lu sur YCC, je vois d'où vous venez et je ne veux pas payer une centaine de dollars pour lire la norme, je ne suis pas sûr, mais mon hypothèse actuelle est qu'il spécifie à la fois une manière étendue de spécifier des informations sur les couleurs en YCC et un espace colorimétrique RVB plus large.
mattdm
1
Je vais devoir approfondir la spécification. Je ne sais pas encore exactement ce que représente le xv, alors peut-être que cela fait référence à une sorte d'espace colorimétrique à large gamme. YCC cependant, même s'ils utilisent plus de bits, n'est certainement pas un "gamut", c'est juste un encoding. Ce serait comme dire que RVB est un espace colorimétrique ... ce n'est pas le cas, c'est juste un moyen d'encoder les données de couleur. A color spacedéfinit les valeurs de luminance et de chrominance de chaque couleur via un ensemble de mappages de couleurs primaires, une clé gamma, un point blanc et noir et quelques courbes.
jrista
1
Je suppose que "xv" est "valeur étendue", mais cela peut simplement signifier "soudns cool".
mattdm
1

L'espace colorimétrique xvYCC ne voit probablement pas de prise pour la photographie fixe car de nouvelles normes ont été développées qui sont une amélioration des anciennes normes, et aucun fabricant ne veut investir dans une norme qui pourrait se déprécier avant d'être remplacée par la `` prochaine plus grande chose '. Ils ont appris de VHS vs Beta.

Le format d'image haute efficacité (HEIF), MPEG-H partie 12, est un format de fichier qui spécifie un format structurel, à partir duquel des formats d'image spécifiques au codec peuvent être dérivés.

HEIF inclut également la spécification pour l'encapsulation d'images et de séquences d'images conformes au codage vidéo à haute efficacité (HEVC, ISO / IEC 23008-2 | Rec. UIT-T H.265 ou MPEG-H Partie 2).

Il est mentionné dans la vidéo de présentation d'Apple sur la WWDC 2017: https://youtu.be/oaqHdULqet0?t=58m49s .

L'iPhone 7 d'Apple et plus récent prend ce qui est photographié et l'enregistre au format JPEG ou HEIF. L'utilisation de HEIF peut fournir une solution parfaite de caméra à stockage à affichage - une infrastructure complète sans perte ni conversion d'entrée en sortie (lors de l'utilisation de HEIF non compressé).

Ce n'est pas qu'ils prennent entièrement en charge toutes les fonctionnalités (tout comme le MPEG est rarement "entièrement pris en charge") ou comme ce n'est pas assez facile pour quiconque de le faire, c'est juste qu'ils semblent être les premiers à proposer une solution complète pour les images (pour la vidéo nous avons un sous-ensemble de HEVC H.264, H.265 et récemment HikVision H.265 + depuis des années).

Si vous connaissez d'autres caméras prenant en charge HEIF, veuillez commenter ou modifier, merci.

Les caméras qui enregistrent des images et des vidéos à une plage dynamique particulièrement élevée (le capteur est supérieur à 16 bits par couleur) ne traitent souvent pas les données (créer un fichier compressé), mais émettent directement les données brutes, par exemple: http: // www .jai.com / fr / products / at-200ge - que la caméra génère 24 à 30 bits par pixel ou http://www.jai.com/en/products/at-140cl - que la caméra génère 24 à 36 bits par pixel .

Il est possible d'obtenir une caméra à espace colorimétrique CIE 1931 (et probablement d'autres espaces colorimétriques) si vous recherchez sans fin ou si vous êtes prêt à payer un fournisseur de caméras spécialisées pour faire exactement ce que vous voulez, vous serez probablement seul à écrire le logiciel convertir de votre espace colorimétrique à celui utilisé par d'autres programmes.

Voici un lien vers la caméra Condor3 CIE 1931 de Quest Innovations: http://www.quest-innovations.com/cameras/C3-CIE-285-USB .

Les caméras avec 3,4,5 ou 6 capteurs peuvent diviser le spectre en morceaux plus petits et fournir plus de bits par canal, résolvant plus précisément la couleur et l'intensité: http://www.optec.eu/en/telecamere_multicanale/telecamere_multicanale.asp .


Prisme pour une caméra 3 canaux 3CCD ou 3MOS

Prisme pour une caméra 4 canaux 4CCD ou 4MOS

Prisme pour une caméra 5 canaux 5CCD ou 5MOS


Les références:

https://developer.apple.com/videos/play/wwdc2017/503/

https://nokiatech.github.io/heif/technical.html

https://en.wikipedia.org/wiki/High_Efficiency_Image_File_Format

Rob
la source