Je m'excuse d'avance si cette question est mal posée: je suis astronome, pas statisticien. Ma question vise spécifiquement à m'aider à déterminer si les processus gaussiens sont une technique appropriée pour mon problème.
À l'aide d'un télescope et d'un spectrographe alimenté par fibres, mon projet a pris le spectre optique d'une galaxie à de nombreux endroits. Le motif d'échantillonnage pour un seul pointage se trouve dans la première image, et est répété trois fois au total, avec différents décalages spatiaux, afin de combler les lacunes (deuxième image). Idéalement, je voudrais construire des estimations de certaines quantités sur une grille couvrant la galaxie.
Ma méthode naïve serait d'analyser séparément le spectre de chaque fibre, de sorte que j'avais estimations ponctuelles des quantités d'intérêt, puis de construire un processus gaussien pour estimer ces quantités partout. De même, je pourrais construire un processus gaussien pour les spectres eux-mêmes, puis analyser le GP sur ma grille de choix pour trouver les quantités qui m'intéressent. Cependant, je ne suis pas sûr que ce soit même une approche valable, car mes observations sont pas discrètes, mais plutôt coïncidentes.
Contrairement, par exemple, aux pédologues, qui pourraient échantillonner la saleté d'un endroit très discret, puis s'éloigner de 50 mètres et répéter, mes observations se chevauchent spatialement, donc j'intègre sur toute la lumière qu'une galaxie émet. Il n'est pas évident pour moi que je serais autorisé à négliger toute variation spatiale pouvant exister dans une mesure donnée. En d'autres termes, un processus gaussien est-il même valable lorsque les emplacements d'échantillonnage individuels ne sont pas petits? Puis-je intégrer un terme spatial supplémentaire pour tenir compte du "mélange" de la lumière dans une seule fibre?
Addendum: Traditionnellement, les spectres sont juste interpolés, rééchantillonnés sur une grille, puis analysés, ce qui me semble également extrêmement faux - mais si je vais pleuvoir sur les défilés de collègues, je veux au moins présenter une méthode alternative.
la source
Il y a un sujet en géostatistique appelé Exact Downscaling. L'objectif principal ici est d'estimer une propriété à une échelle plus petite que les observations. Ces observations peuvent également se chevaucher ou non (cela n'a pas vraiment d'importance). Veuillez consulter ce document: http://www.ccgalberta.com/ccgresources/report07/2005-101-exact_reproduction.pdf
Dans cet article, ils montrent une méthode pour réduire l'échelle des observations à l'aide de techniques géostatistiques. Ils montrent qu'en calculant correctement les covariances croisées entre différentes échelles de données (point vs bloc), l'estimation du krigeage est toujours valide; de telle sorte que la moyenne des valeurs estimées à plus petite échelle soit égale à des données d'entrée plus importantes. Fondamentalement, pour calculer les valeurs estimées dans n'importe quelle échelle, il vous suffit de calculer correctement la fonction de covariance entre les données d'entrée, les échelles cibles et les corrélations croisées. Au processus gaussien, l'hypothèse est que l'estimation se fait à la même échelle que les observations d'entrée.
Voici donc les étapes: 1- Calculez le variogramme expérimental à partir de vos données.
2- Ajustez le modèle de variogramme à votre variogam expérientiel. Vous devrez peut-être tenir compte de l'anisotropie directionnelle ici. Il s'agit de la fonction de covariance qui en GP est calculée par la méthode du maximum de vraisemblance.
3- Calculez toutes les covariances et les covariances croisées entre les données d'entrée et l'échelle cible. Il existe des reçus numériques pour cette étape. L'idée est qu'en discrétisant les blocs en points finis, vous pouvez calculer la covariance moyenne. Les données de chevauchement doivent être prises en compte ici.
4- effectuer le Krigeage et calculer les valeurs estimées.
GP est un sujet très lié à la géostatistique. Cependant, la géostatistique ne se limite pas aux processus gaussiens. Il existe de nombreuses autres méthodes pour estimer ou simuler un processus aléatoire.
la source