La variable aléatoire prenant des valeurs dans est une variable aléatoire discrète. Sa distribution est entièrement décrite par les probabilités
p i = P ( X = i ) avec i ∈ { 0 , 1 } n . Les probabilités p i et p i j que vous donnez sont des sommes de p i pour certains indices i .{0,1}npi=P(X=i)i∈{0,1}npipijpii
Il semble maintenant que vous souhaitiez décrire en utilisant uniquement p i et p i j . Ce n'est pas possible sans supposer certaines propriétés sur p i . Pour voir que essayer de tirer fonction caractéristique de X . Si nous prenons n = 3, nous obtenonspipipijpiXn=3
Il n'est pas possible de réorganiser cette expression pour quep i
Eei(t1X1+t2X2+t3X3)=p000+p100eit1+p010eit2+p001eit3+p110ei(t1+t2)+p101ei(t1+t3)+p011ei(t2+t3)+p111ei(t1+t2+t3)
pi dissapear. For the gaussian random variable the characteristic function depends only on mean and covariance parameters. Characteristic functions uniquely define distributions, so this is why Gaussian can be described uniquely by using only mean and covariance. As we see for random variable
X this is not the case.
I don't know what the resulting distribution is called, or if it even has a name, but it strikes me the obvious way to set this up is to think of the model you'd use to model a 2×2×2×…×2 table using a log-linear (Poisson regression) model. As you know the 1st-order interactions only, it's then natural to assume that all higher-order interactions are zero.
Using the questioner's notation, this gives the model:
la source