Distributions autres que la normale où la moyenne et la variance sont indépendantes

32

Je me demandais s'il existe des distributions autres que la normale où la moyenne et la variance sont indépendantes l'une de l'autre (ou, en d'autres termes, où la variance n'est pas une fonction de la moyenne).

Wolfgang
la source
1
Je ne suis pas sûr d'avoir bien compris la question. Demandez-vous s'il existe des distributions autres que la normale qui sont complètement spécifiées par la moyenne et la variance? Dans un certain sens, la variance est une fonction de la moyenne, tout comme une mesure de la dispersion autour de la moyenne, mais je suppose que ce n’est pas ce que vous avez en tête.
vous voulez dire que la moyenne de l'échantillon et la variance de l'échantillon sont indépendants. Bonne question ! peut-être que projeter une variable aléatoire gaussienne gardera son indépendance? X¯=1ni=1nXi1ni=1n(XiX¯)2
robin girard
4
Srikant a raison. Si la question porte sur la "moyenne et la variance de l'échantillon", la réponse est "non". Si la question porte sur la moyenne et la variance de la population, la réponse est oui. David donne de bons exemples ci-dessous.
1
Juste pour clarifier, ce que je voulais dire est ceci. Pour la distribution normale, la moyenne μ et la variance σ2 caractérisent pleinement la distribution et σ2 n'est pas une fonction de μ . Ce n'est pas le cas pour beaucoup d'autres distributions. Par exemple, pour la distribution binomiale, nous avons la moyenne π et la variance nπ(1π) , de sorte que la variance est fonction de la moyenne. D'autres exemples sont la distribution gamma avec les paramètres θ (scale) et κ (shape), où la moyenne est μ=κθ et la variance est κtheta2 , la variance est donc réellement μθ.
Wolfgang
7
Pensez donc à modifier votre question, car la réponse que vous avez cochée comme réponse préférée ne répond pas à la question telle quelle (et l’autre le fait). Actuellement, vous utilisez le mot "indépendant" de manière idiosyncratique. Votre exemple avec Gamma montre ceci: on pourrait simplement reparamétrer Gamma en termes de moyenne (mu) et de variance (sigma), car on peut récupérer thêta = sigma / mu et kappa = mu ^ 2 / sigma. En d' autres termes, fonctionnelle « l' indépendance » des paramètres est généralement dénuée de sens (sauf pour les familles à un seul paramètre).
whuber

Réponses:

11

Remarque: veuillez lire la réponse de @G. Jay Kerns, et consultez Carlin et Lewis, 1996 ou votre référence de probabilité préférée pour vous familiariser avec le calcul de la moyenne et de la variance en tant que valeur attendue et deuxième instant d'une variable aléatoire.

Une analyse rapide de l'annexe A de Carlin et Lewis (1996) fournit les distributions suivantes qui sont similaires à cet égard à la normale, en ce sens que les mêmes paramètres de distribution ne sont pas utilisés dans les calculs de la moyenne et de la variance. Comme l'a souligné @robin, lors du calcul des estimations de paramètres à partir d'un échantillon, la moyenne de l'échantillon est nécessaire pour calculer sigma.

Multivarié Normal

E(X)=μ
Var(X)=Σ

t et multivariée t:

E(X)=μ
Var(X)=νσ2/(ν2)

Double exponentielle:

E(X)=μ
Var(X)=2σ2

Cauchy: Avec certaines réserves, on pourrait soutenir que la moyenne et la variance de Cauchy ne sont pas dépendantes.

E(X) et n'existent pasVar(X)

Référence

Carlin, Bradley P. et Thomas A. Louis. 1996. Bayes et Bayes empiriques Methods for Data Analysis, 2e éd. Chapman and Hall / CRC, New York

David LeBauer
la source
7
Quelle que soit la famille d'emplacement, la moyenne et la variance seront fonctionnellement indépendantes de cette manière!
whuber
1
David, la double exponentielle est un excellent exemple. Merci! Je n'ai pas pensé à celui-là. La distribution t est également un bon exemple, mais E (X) = 0 et Var (X) = v / (v-2)? Ou bien Carlin et al. (1996) définissent une version généralisée de la distribution t qui est décalée dans sa moyenne et mise à l'échelle par sigma ^ 2?
Wolfgang
Vous avez raison, la distribution t semble être fréquemment caractérisée par une moyenne = 0 et une variance = 1, mais le pdf général de t fourni par Carlin et Louis inclut explicitement à la fois sigma et mu; le paramètre nu explique la différence entre la normale et le t.
David LeBauer
27

En fait, la réponse est "non". L’indépendance de la moyenne de l’échantillon et la variance caractérisent la distribution normale. Eugene Lukacs l'a montré dans "Une caractérisation de la distribution normale", The Annals of Mathematical Statistics, vol. 13, n ° 1 (mars 1942), p. 91-93.

Je ne le savais pas, mais Feller, "Introduction à la théorie de la probabilité et à ses applications, volume II" (1966, p. 86) dit que RC Geary l'a également prouvé.


la source
3
@onestop Je suppose que c'est un artefact malheureux de mon âge. Ce n'est pas un euphémisme de dire que les livres de Feller ont révolutionné la façon dont la probabilité était faite - dans le monde entier. Une grande partie de notre notation moderne lui est due. Pendant des décennies, ses livres ont été les livres de probabilités à étudier. Peut-être qu'ils devraient encore l'être. BTW: J'ai ajouté le titre pour ceux qui n'ont pas entendu parler de ses livres.
1
J'ai la question sur la caractérisation des autres funy ... stats.stackexchange.com/questions/4364/…
robin girard
2
Jay, merci pour la référence au document de Lukacs, qui montre bien que les distributions d'échantillonnage de la moyenne et de la variance de l'échantillon ne sont indépendantes que pour la distribution normale. En ce qui concerne le deuxième moment central, il existe des distributions où ce n’est pas une fonction du premier moment (David a donné de beaux exemples).
Wolfgang
1
Geary, RC (1936), «La distribution du ratio d'étudiant pour les échantillons non normaux», Journal de la Société royale de statistique, Suppl. 3, 178-184.
vqv