Écart type de plusieurs mesures avec incertitudes

13

J'ai deux 2 heures de données GPS avec un taux d'échantillonnage de 1 Hz (7200 mesures). Les données sont données sous la forme (X,Xσ,Y,Yσ,Z,Zσ) , où Nσ est l'incertitude de mesure.

Lorsque je prends la moyenne de toutes les mesures (par exemple, la valeur Z moyenne de ces deux heures), quel est son écart-type? Je peux bien sûr calculer l'écart type à partir des valeurs Z, mais je néglige ensuite le fait qu'il existe des incertitudes de mesure connues ...

Modifier: les données proviennent toutes de la même station et toutes les coordonnées sont réévaluées toutes les secondes. En raison des constellations de satellites, etc., chaque mesure présente une incertitude différente. Le but de mon analyse est de trouver le déplacement dû à un événement externe (ie un tremblement de terre). Je voudrais prendre la moyenne pour 7200 mesures (2h) avant le tremblement de terre et une autre moyenne pour 2h après le tremblement de terre, puis calculer la différence résultante (en hauteur par exemple). Afin de préciser l'écart type de cette différence, j'ai besoin de connaître l'écart type des deux moyennes.

conducteur de train
la source
3
Bonne question. Plus important encore, les données seront fortement corrélées positivement dans le temps: cela aura un effet plus profond sur la réponse que la variation des incertitudes de mesure.
whuber
Reprenant le commentaire de whuber et la réponse de Deathkill14, vous ne nous avez pas donné suffisamment d'informations pour répondre correctement. Il est important de savoir comment les erreurs de mesure de X,Oui,Z "fonctionnent". Par exemple, si l'erreur de mesure de X était positive à 3 secondes, elle est plus / moins susceptible d'être positive à 4 secondes --- c'est-à-dire qu'il existe une corrélation sérielle? Deuxièmement, si l'erreur dans X était positive à 3 secondes, est-il plus / moins probable que l'erreur dans Oui et / ou Z soit positive à 3 secondes? À 2 secondes? À 4 secondes?
Bill
Une question connexe, légèrement différente, est: dans quelle mesure l'erreur de mesure est-elle systématique? Supposons que j'ai dit "Oui, X été mesuré un peu haut sur ma pelouse. X est presque toujours mesuré un peu haut sur ma pelouse." Serait-ce une déclaration folle? Est -ce que le travail d'erreur de mesure manière telle qu'un endroit particulier pourrait être très souvent trop élevé , tandis qu'un autre endroit particulier pourrait être très souvent trop faible, etc » Ou est d' autant transitoire d'erreur?
projet de
@Bill: Il existe certainement une corrélation sérielle. Les erreurs de mesure sont à peu près constantes au cours des deux heures. Cependant, ils sont généralement plus importants que l'écart-type calculé à partir des données, ce qui m'a amené à cette question.
traindriver
Votre question ne précise toujours pas clairement l'existence d'une corrélation sérielle. Malheureusement, vous avez trois réponses soigneusement construites qui ne vous sont pas aussi utiles qu'elles auraient pu l'être.
Glen_b -Reinstate Monica

Réponses:

7

Je soupçonne que les réponses précédentes à cette question peuvent être un peu décalées. Il me semble que ce que l'affiche originale est vraiment demande ici pourrait être reformulée comme « étant donné une série de mesures de vecteur: avec i = 1 , 2 , 3 , . . . , 7200 et covariance de mesure : C i = ( X 2 σ , i 0 0 0 Y

θi=(XiYiZi)
i=1,2,3,...,7200comment calculer correctement la moyenne pondérée par la covariance pour cette série de mesures vectorielles, et ensuite, comment calculer correctement son écart-type? "La réponse à cette question peut être que l'on trouve dans de nombreux manuels spécialisés dans les statistiques des sciences physiques. Un exemple que j'aime particulièrement est Frederick James,"Statistical Methods in Experimental Physics"
Cje=(Xσ,je2000Ouiσ,je2000Zσ,je2)
, 2e édition, World Scientific, 2006, section 11.5.2, «Combiner des estimations indépendantes», p. 323-324. Un autre très bon texte, mais plus introductif, qui décrit le calcul de la moyenne pondérée par la variance pour les valeurs scalaires (par opposition aux quantités vectorielles complètes présentées ci-dessus) est Philip R. Bevington et D. Keith Robinson, «Data Reduction and Error Analysis for the Physical Sciences " , 3e édition, McGraw-Hill, 2003, Section 4.1.x," Pondération des données - Incertitudes non uniformes ". Parce que la question de l'affiche se trouvait avoir une diagonalisationmatrice de covariance dans ce cas (c'est-à-dire que tous les éléments hors diagonale sont nuls), le problème est en fait séparable en trois problèmes moyens pondérés scalaires individuels (c'est-à-dire X, Y, Z), donc l'analyse de Bevington et Robinson s'applique également ici aussi.

En général, lorsque je réponds aux questions de stackexchange.com, je ne trouve normalement pas utile de reconditionner de longues dérivations qui ont déjà été présentées auparavant dans de nombreux manuels - si vous voulez vraiment comprendre le matériel et comprendre pourquoi les réponses semblent comme ils le font, alors vous devriez vraiment aller lire les explications qui ont déjà été publiées par les auteurs du manuel. Dans cet esprit, je vais simplement passer directement à la reformulation des réponses que d'autres ont déjà fournies. D'après Frederick James, en fixant , la moyenne pondérée est: θ m e a n = ( N i = 1 CN=7200et la covariance de la moyenne pondérée est:Cmean=( N i=1C - 1 i )-1 Cette réponse est tout à fait général et sera valable quelle que soit la forme duCi, même pour les matrices de covariance de mesure non diagonales.

θmean=(i=1NCi1)1(i=1NCi1θi)
Cmean=(i=1NCi1)1
Cje

XjeYiZi

Xmean=i=1NXiXσ,i2i=1N1Xσ,i2
Xσ,mean2=1i=1N1Xσ,i2
Xσ,mean=1i=1N1Xσ,i2
and similarly for Ymean,Yσ,mean and Zmean,Zσ,mean. A brief wikipedia entry which also arrives at this same answer for the scalar-valued case is available here.
stachyra
la source
Maybe I was a bit unclear, so I have added some more info. I don't think that I need to weight my measurements.
traindriver
1
Yes you do. Consider an extreme case, just as a thought experiment: suppose you have only 2 GPS measurements, instead of 7200. Suppose furthermore that one of the GPS measurements has an uncertainty of +/- 5 feet, while the other has an uncertainty of +/- 5 miles. The uncertainty number literally tells you how potentially inaccurate the measurement is. That means the +/- 5 miles value is likely to be several miles off, at least. Do you really want to include this number in your average, in any meaningful way? Weighted averaging allows you to discount values that shouldn't be trusted as much.
stachyra
1
BTW, my answer has another thing going for it: in your original post, you mention that the reason you don't want to simply use the sample standard deviation, calculated directly from the Z values, is that in that case, you would, in your own words, "neglect the fact that there are known measurement uncertainties". My answer (well, really, the obscure textbook answer, which I'm simply sharing with you) uses the known measurement uncertainties, exactly as you asked for. It's just that it uses the information in more places (mean result as well as standard deviation) than you had been expecting.
stachyra
You convinced me.
traindriver
6

This should be easily solved using bayesian inference. You know the measurement properties of the individual points with respect to their true value and want to infer the population mean and SD that generated the true values. This is a hierarchical model.

Rephrasing the problem (Bayes basics)

Note that whereas orthodox statistics give you a single mean, in the bayesian framework you get a distribution of credible values of the mean. E.g. the observations (1, 2, 3) with SDs (2, 2, 3) could have been generated by the Maximum Likelihood Estimate of 2 but also by a mean of 2.1 or 1.8, though slightly less likely (given the data) than the MLE. So in addition to the SD, we also infer the mean.

Another conceptual difference is that you have to define your knowledge state before making the observations. We call this priors. You might know in advance that a certain area was scanned and in a certain height range. The complete absence of knowledge would be to have uniform(-90, 90) degrees as the prior in X and Y and maybe uniform(0, 10000) meters on height (above the ocean, below the highest point on earth). You have to define priors distributions for all parameters that you want to estimate, i.e. get posterior distributions for. This is true for the standard deviation as well.

Donc, reformulant votre problème, je suppose que vous voulez déduire des valeurs crédibles pour trois moyennes (X.mean, Y.mean, X.mean) et trois écarts types (X.sd, Y.sd, X.sd) qui pourraient avoir généré vos données.

Le modèle

En utilisant la syntaxe BUGS standard (utilisez WinBUGS, OpenBUGS, JAGS, stan ou d'autres packages pour exécuter cela), votre modèle ressemblerait à ceci:

  model {
    # Set priors on population parameters
    X.mean ~ dunif(-90, 90)
    Y.mean ~ dunif(-90, 90)
    Z.mean ~ dunif(0, 10000)
    X.sd ~ dunif(0, 10)  # use something with better properties, i.e. Jeffreys prior.
    Y.sd ~ dunif(0, 10)
    Z.sd ~ dunif(0, 100)

    # Loop through data (or: set up plates)
    # assuming observed(x, sd(x), y, sd(y) z, sd(z)) = d[i, 1:6]
    for(i in 1:n.obs) {
      # The true value was generated from population parameters
      X[i] ~ dnorm(X.mean, X.sd^-2)  #^-2 converts from SD to precision
      Y[i] ~ dnorm(Y.mean, Y.sd^-2)
      Z[i] ~ dnorm(Z.mean, Z.sd^-2)

      # The observation was generated from the true value and a known measurement error
      d[i, 1] ~ dnorm(X[i], d[i, 2]^-2)  #^-2 converts from SD to precision
      d[i, 3] ~ dnorm(Y[i], d[i, 4]^-2)
      d[i, 5] ~ dnorm(Z[i], d[i, 6]^-2)
    }
  }

Naturellement, vous surveillez les paramètres .mean et .sd et utilisez leurs éléments postérieurs pour l'inférence.

Simulation

J'ai simulé des données comme celle-ci:

# Simulate 500 data points
x = rnorm(500, -10, 5)  # mean -10, sd 5
y = rnorm(500, 20, 5)  # mean 20, sd 4
z = rnorm(500, 2000, 10)  # mean 2000, sd 10
d = cbind(x, 0.1, y, 0.1, z, 3)  # added constant measurement errors of 0.1 deg, 0.1 deg and 3 meters
n.obs = dim(d)[1]

Puis a exécuté le modèle en utilisant JAGS pour 2000 itérations après un burnin de 500 itérations. Voici le résultat pour X.sd.

postérieur pour X.sd

La plage bleue indique l'intervalle de densité postérieure ou crédible le plus élevé à 95% (où vous pensez que le paramètre est après avoir observé les données. Notez qu'un intervalle de confiance orthodoxe ne vous donne pas cela).

The red vertical line is the MLE estimate of the raw data. It is usually the case that the most likely parameter in Bayesian estimation is also the most likely (maximum likelihood) parameter in orthodox stats. But you should not care too much about the top of the posterior. The mean or median is better if you want to boil it down to a single number.

Notice that MLE/top is not at 5 because the data were randomly generated, not because of wrong stats.

Limitiations

This is a simple model which has several flaws currently.

  1. It doesn't handle the identity of -90 and 90 degrees. This can be done, however, by making some intermediate variable which shifts extreme values of estimated parameters into the (-90, 90) range.
  2. X, Y et Z sont actuellement modélisés comme indépendants bien qu'ils soient probablement corrélés et cela devrait être pris en compte pour tirer le meilleur parti des données. Cela dépend si l'appareil de mesure était en mouvement (la corrélation en série et la distribution conjointe de X, Y et Z vous donneront beaucoup d'informations) ou immobile (l'indépendance est ok). Je peux développer la réponse pour approcher cela, si demandé.

Je dois mentionner qu'il y a beaucoup de littérature sur les modèles spatiaux bayésiens que je ne connais pas.

Jonas Lindeløv
la source
Merci pour cette réponse. Il s'agit de données provenant d'une station fixe, mais cela signifie-t-il que les données sont indépendantes?
traindriver
@traindriver Vous devez fournir plus d'informations sur le problème d'inférence auquel vous êtes confronté afin que nous puissions vous aider. Vous pouvez développer votre question avec une section "mise à jour" spécifiant au moins (1) est-ce la même quantité qui est mesurée à plusieurs reprises? C'est à dire la même coordonnée. Ou une zone est-elle scannée ou ... (2) pourquoi voulez-vous en déduire la moyenne et le sd? S'il s'agit d'une zone, il se peut que vous souhaitiez utiliser SD comme une estimation de bosses ou quelque chose comme ça.
Jonas Lindeløv
J'ai ajouté quelques informations supplémentaires dans le message d'origine.
traindriver
3

J'introduis d'abord une notation et j'installe le problème en utilisant l'approche simple que vous avez mentionnée. Allez plus loin. j'utiliseraiz pour faire référence au vecteur Z que vous avez donné.

Considérez le modèle suivant, qui n'a pas l'erreur de mesure de mention explicite: Z¯=je=1nμZ+ϵjen, où Z¯ est la valeur moyenne estimée de z, et μZ est la vraie valeur moyenne de Z. Ici, ϵ est un vecteur des erreurs dans vos données, et vous vous attendez à ce que si votre échantillon est grand Z¯ va converger vers μZ. Si vous prenez simplement leZ valeurs et les moyenne, vous obtenez Z¯ et si vous calculez l'écart type d'échantillon que vous obtenez σ^, l'estimation de l'écart-type réel de la population σ. Que faire si vous souhaitez utiliser certaines connaissances sur l'erreur de mesure?

Tout d'abord, notons que nous pouvons reformuler le modèle initial comme suit: z=1β+ϵ, où 1 est un vecteur de uns, et β finira par être Z¯. Maintenant, cela ressemble vraiment à une régression, mais nous obtenons toujours une estimation deμZ. Si nous effectuons une régression comme celle-ci, nous obtiendrons également une estimation de l'erreur-type deϵ, ce qui est presque ce que nous voulons - ce n'est rien d'autre que l'erreur standard de z (mais nous voulons toujours tenir compte de l'erreur de mesure).

Nous pouvons augmenter notre modèle initial pour obtenir un modèle à effets mixtes. z=1β+Qu+ϵ, où u est un vecteur d'effets aléatoires, et Q est le régresseur relatif z à u. Comme pour tout effet aléatoire, vous devrez faire une hypothèse sur la distribution deu. Est-il exact queZσ est la distribution de l'erreur de mesure pour z? Si oui, cela peut être utilisé pour fournir la distribution des effets aléatoires. Généralement, un logiciel pour effectuer une modélisation de base des effets mixtes supposera que les effets aléatoires ont une distribution normale (avec une moyenne de 0 ...) et estimera la variance pour vous. Vous pouvez peut-être essayer ceci pour tester le concept. Si vous souhaitez utiliser vos informations préalables sur la distribution de l'erreur de mesure, un modèle bayésien d'effets mixtes s'impose. Vous pouvez utiliser R2OpenBUGS.

Après avoir estimé ce modèle, l'erreur standard que vous obtenez pour les résidus ϵest l'erreur standard qui vous intéresse. Intuitivement, la composante des effets aléatoires du modèle absorbe une partie de la variation que vous pouvez expliquer parce que vous savez qu'il y a une erreur de mesure. Cela vous permet d’obtenir une estimation plus pertinente de la variation deϵ

Voir cet article pour une discussion plus approfondie sur cette approche des effets aléatoires pour tenir compte des erreurs de mesure. Votre situation est similaire à celle présentée par les auteurs pour et son erreur de mesure version corrompue W. L'exemple de la section 4 peut donner un aperçu de votre situation.

Comme mentionné par whuber, vous souhaiterez peut-être tenir compte de l'autocorrélation dans vos données. L'utilisation d'effets aléatoires ne résoudra pas ce problème.

Deathkill14
la source