Quelle technique de rééchantillonnage doit être utilisée lors de la projection de photos aériennes?

23

Je fais des projections de photos aériennes qui prennent beaucoup de temps, et je suis curieux - quelle technique de rééchantillonnage est la meilleure à utiliser sur les photos aériennes? Dans ArcMap, mes options sont NEAREST, BILINEAR, CUBIC et MAJORITY.

Le plus proche voisin et la majorité sont recommandés pour les données catégoriques, tandis que la convolution cubique et l'interpolation bilinéaire sont pour les données continues.

Je suis curieux de savoir s'il existe un algorithme couramment utilisé pour projeter des photos aériennes . Je viens de terminer la projection d'une image en utilisant le plus proche voisin et cela semble bien, mais une photo aérienne n'est pas des données catégoriques, donc je vais essayer Bilinear ensuite.

EDIT
Je ne pensais pas aux photos aériennes comme au même type de données continues que les DEM ou les données de précipitations, mais Whuber a souligné qu'elles sont continues et doivent être traitées comme telles. Merci encore.

Tanneur
la source
1
Vous pouvez également être intéressé par le fil étroitement lié à gis.stackexchange.com/questions/2587/… .
whuber
Quelqu'un pourrait-il, s'il vous plaît, fournir un article scientifique comparant les différentes méthodes de rééchantillonnage pour les données continues et catégoriques?
NikosGr

Réponses:

25

Les photos aériennes sont des données continues. Chaque pixel représente la réponse d'une région d'un capteur à la lumière qui lui est dirigée et comme cette lumière varie, la réponse varie en continu. Le résultat est généralement discrétisé (souvent en 255 ou 256) catégories, mais cela ne change pas la nature des données. Par conséquent, vous souhaitez interpoler plutôt que d'utiliser des algorithmes catégoriels comme le plus proche voisin ou la majorité. L'interpolation bilinéaire est généralement très bien; à un certain coût en temps d'exécution, la convolution cubique conservera un peu mieux le contraste local. Une petite quantité de flou supplémentaire est inévitable, mais c'est presque impossible à remarquer tant que l'image n'a pas subi de nombreuses transformations. Les erreurs commises avec le plus proche voisin sont bien pires en comparaison.

whuber
la source
7
C'est une excellente réponse. J'ajouterais qu'à l'occasion, la convolution cubique introduit des bandes inhabituelles; surtout si la photo a déjà été rééchantillonnée ou affinée. Je vais généralement avec une convolution cubique à moins que je ne voie ces distorsions, puis je passe à l'interpolation bilinéaire. La vraie question pour moi est toujours quel histogramme utiliser pour le rééchantillonnage des couleurs. Je préfère un histogramme linéaire min-max, mais parfois un histogramme basé sur 2 écarts-types met mieux en évidence les principales caractéristiques.
blord-castillo
5

Il me manque la "réputation" de commenter donc ...

Si une analyse radiométrique doit être effectuée sur les photos aériennes, elle doit être effectuée avant le rééchantillonnage / la projection. Sinon, vous introduirez presque certainement un biais involontaire dans le produit final. Selon le commentaire utile de blord-castillo ci-dessus.

Si les utilisations immédiates et finales des antennes sont pour l'attrait visuel ou la cartographie d'arrière-plan, j'opterais pour la méthode la plus rapide qui vous donne un produit utilisable.

  • Si la taille de la cellule de la nouvelle antenne est la même que celle d'origine, NEAREST fonctionne mieux à mon humble avis.

  • Si la taille des cellules de la nouvelle antenne est plus grande que l'original, alors BILINEAR fonctionne mieux.

  • Si (pour une raison folle) la taille des cellules de la nouvelle antenne est plus petite que l'original, alors je retournerais à l'utilisation de NEAREST.

Les autres options, CUBIC et MAJORITY, produiront des artefacts dans le produit rééchantillonné, prendront plus de temps à traiter et ne semblent pas s'appliquer à ce que vous essayez de faire.

Enfin, s'il est vrai que le processus d'échantillonnage de la lumière émanant / réfléchissant de la surface de la Terre est conceptuellement continu, il est également vrai que la surface de la Terre présente à la fois un phénomène continu et discret.

  • En général, l'activité humaine a tendance à produire des transitions discrètes et

  • Les caractéristiques «naturelles» varient souvent (mais pas toujours) en continu ou ont au moins des bords flous.

Ainsi, comme indiqué dans ma première partie ci-dessus, la façon dont vous manipulerez les antennes dépendra de la façon dont vous vous attendez à les utiliser.

user23715
la source
4

Je sais que cette question est assez ancienne, mais je voulais ajouter mes 2 cents, au cas où d'autres tomberaient sur ce fil en essayant de répondre à la même question ...

Les réponses précédentes sont correctes lorsque vous souhaitez vraiment rééchantillonner vos données, comme si vous agrégiez vos données d'une taille de pixel de 30 m à une taille de pixel de 90 m. Dans ce cas, vous essayez de créer une nouvelle valeur pour chaque pixel individuel, sur la base d'une collection de pixels proches. Donc oui, ici, pour les ensembles de données discrets, vous sélectionnez le plus proche voisin, tandis que pour les données continues, vous choisissez soit la convolution bilinéaire soit la convolution cubique.

Dans cette question cependant, le but n'est pas réellement de rééchantillonner les données, mais simplement de convertir les données existantes en une nouvelle projection - vous voulez les mêmes valeurs, juste dans une nouvelle projection. Dans ce cas, vous souhaitez utiliser le rééchantillonnage du voisin le plus proche pour les jeux de données discrets et continus, afin de maintenir l'intégrité de vos valeurs de données d'origine. Je sais que cette déclaration va à l'encontre de tout ce que vous lisez sur le «rééchantillonnage», mais pensez vraiment de manière critique à ce que vous voulez réaliser et à ce que vous faites pour les données. De plus, je ne fais pas cette recommandation sur un coup de tête ... J'ai passé 5 ans à travailler sur un doctorat spécialisé en SIG / Télédétection, ainsi que d'enseigner des cours de premier cycle en SIG / Télédétection.

Une autre note, l'affiche originale a posé des questions sur les valeurs nulles et / ou négatives ... Si ces valeurs sont de vraies valeurs de données (c'est-à-dire que l'altitude peut en fait être 0 ou -34,5), alors vous voulez inclure ces valeurs. Cependant, si la ou les valeurs en question ne sont pas de vraies données et sont plutôt utilisées pour représenter NoDATA (disons 0 ou -9999), vous devez masquer ces pixels de votre raster (supprimer) avant de rééchantillonner via une convolution bilinéaire ou cubique . Sinon, ces -9999 pixels seront inclus dans le calcul de rééchantillonnage, comme si ce pixel avait une altitude réelle de -9999 et vous vous retrouveriez avec des valeurs de données invalides. Comme exemple TRÈS simplifié en convolution cubique, si vos 4 valeurs de cellule les plus proches sont 4, 5, 16, -9999, y compris -9999, cela pourrait entraîner une nouvelle valeur de pixel de -9974, ce qui n'est pas des données valides.

Rachel M
la source