Pourquoi une fonction de distribution cumulative (CDF) définit-elle uniquement une distribution?

17

On m'a toujours dit qu'un CDF est unique mais qu'un PDF / PMF n'est pas unique, pourquoi? Pouvez-vous donner un exemple où un PDF / PMF n'est pas unique?

DKangeyan
la source
6
Concernant l'unicité, vous voudrez peut-être réfléchir à la différence entre le PDF d'une distribution uniforme sur et une distribution uniforme sur son intérieur, ( 0 , 1 ) . Un autre exercice amusant - qui aborde la question de savoir si un PDF existe même - consiste à penser à quoi ressemblerait le PDF d'une distribution sur les nombres rationnels. Par exemple, soit Pr ( j 2 - i ) = 2 1 - 2 i chaque fois que 0 < j 2 - i < i [0,1](0,1)Pr(j2i)=212i ,0<j2i<1 , et j est impair. i1j
whuber
2
Toutes les distributions n'ont même pas de PDF ou de PMF, tandis que regarder le CDF donne une vue unificatrice des choses. Les variables continues ont des CDF d'aspect lisse, les variables discrètes ont un "escalier" et certains CDF sont mélangés.
Silverfish
6
@Silverfish: ... et certains ne sont rien de ce qui précède! :-)
Cardinal
3
Pour aborder le titre (peut-être un peu vaguement), le CDF définit une distribution parce que le CDF (ou de manière équivalente juste DF / «fonction de distribution»; le «C» agit uniquement pour clarifier que c'est l'objet dont nous parlons) est ce que le terme «distribution» fait littéralement référence à; le "D" est l'indice sur cette partie. Le fait qu'il soit unique découle du "F" - les fonctions sont à valeur unique, donc si deux fonctions de distribution sont identiques, l'objet qu'elles définissent est le même; si les DF différaient quelque part, la chose dont ils sont définis serait différente à ces points. Est-ce de la tautologie? Je pense que c'est.
Glen_b -Reinstate Monica
4
@Glen_b C'est tautologique uniquement à l'intuition entraînée. Une fonction de distribution ne donne que des probabilités de la forme F ( x ) = Pr { ω ΩF alors que ladistributionentièrespécifie les probabilités de la forme Pr ( { ω ΩF(x)=Pr{ωΩ|X(ω)x} pourensembles arbitraires mesurables BR . Vous devez montrer que F détermine la distribution. Comme le fait remarquer NicholasB, il s'agit d'étendre une pré-mesure à partir d'un demi-anneau (d'intervalles semi-ouverts), μ ( ( a , b ] ) = F ( b ) - F ( a ) , à la pleine Lebesgue sigma-field et montrant son caractère uniquePr({ωΩ|X(ω)B}BRFμ((a,b])=F(b)F(a)
whuber

Réponses:

13

Rappelons-nous certaines choses. Soit soit un espace de probabilité , Ω est notre ensemble échantillon, A est notre σ -alg'ebre, et P est une fonction de probabilité définie sur A . Une variable aléatoire est une fonction mesurable X : Ω R c'est-à-dire X - 1 ( S ) A pour tout sous-ensemble mesurable de Lebesgue dans R(Ω,A,P)ΩAσPAX:ΩRX1(S)AR. Si vous n'êtes pas familier avec ce concept, tout ce que je dirai par la suite n'aura aucun sens.

Chaque fois que nous avons une variable aléatoire, , elle induit une mesure de probabilité X ' sur R par la poussée catégorique. En d'autres termes, X ( S ) = P ( X - 1 ( S ) ) . Il est trivial de vérifier que X ' est une mesure de probabilité sur R . Nous appelons X ' la répartition de X .X:ΩRXRX(S)=P(X1(S))XRXX

Maintenant lié à ce concept est quelque chose appelé la fonction de distribution d'une variable de fonction. Étant donné une variable aléatoire nous définissons F ( x ) = P ( X x ) . Les fonctions de distribution F : R[ 0 , 1 ] ont les propriétés suivantes:X:ΩRF(x)=P(Xx)F:R[0,1]

  1. estcontinu à droite.F

  2. est non décroissantF

  3. et F ( - ) = 0 .F()=1F()=0

Les variables clairement aléatoires qui sont égales ont la même distribution et la même fonction de distribution.

Inverser le processus et obtenir une mesure avec la fonction de distribution donnée est assez technique. Disons que l'on vous donne une fonction de distribution . Définissez μ ( a , b ] = F ( b ) - F ( a ) . Vous devez montrer que μ est une mesure sur la semi-algèbre des intervalles de ( a , b ] . Ensuite, vous pouvez appliquer le théorème d'extension de Carathéodory d'étendre μ à une mesure de probabilité sur R .F(x)μ(a,b]=F(b)F(a)μ(a,b]μR

Nicolas Bourbaki
la source
4
This is a good start to an answer, but may be unintentionally obscuring the matter at hand a bit. The main issue seems to be showing that two measures with the same distribution function are, in fact, equal. This requires nothing more than Dynkin's π-λ theorem and the fact that sets of the form (,b] form a π-system that generates the Borel σ-algebra. Then the nonuniqueness of a density (assuming it exists!) can be addressed and contrasted with the above.
cardinal
3
(One additional minor quibble: Random variables are usually defined in terms of Borel sets rather than Lebesgue sets.) I think with some minor edits this answer will become quite clear. :-)
cardinal
@cardinal I think of analysis first, probability second. Therefore, this may explain why I prefer to think of Lebesgue sets. In either case it does not affect what was said.
Nicolas Bourbaki
4

To answer the request for an example of two densities with the same integral (i.e. have the same distribution function) consider these functions defined on the real numbers:

 f(x) = 1 ; when x is odd integer
 f(x) = exp(-x^2)  ; elsewhere

and then;

 f2(x) = 1  ; when x is even integer
 f2(x) = exp(-x^2) ;  elsewhere

They are not equal at all x, but are both densities for the same distribution, hence densities are not uniquely determined by the (cumulative) distribution. When densities with a real domain are different only on a countable set of x values, then the integrals will be the same. Mathematical analysis is not really for the faint of heart or the determinately concrete mind.

DWin
la source
0

I disagree with the statement, "the probability distribution function does not uniquely determine a probability measure", that you say in your opening question. It does uniquely determine it.

Let f1,f2:R[0,) be two probability mass functions. If,

Ef1=Ef2
For any measurable set E then f1=f2 almost everywhere. This uniquely determines the pdf (because in analysis we do not care if they disagree on a set of measure zero).

We can rewrite the above integral into,

Eg=0
Where g=f1f2 is an integrable function.

Define E={xR | g0}, so Eg=0. We use the well-known theorem that if an integral of a non-negative function is zero then the function is zero almost everywhere. In particular, g=0 a.e. on E. So f1=f2 a.e. on E. Now repeat the argument in the other direction with F={xR | g0}. We will get that f1=f2 a.e on F. Thus, f1=f2 a.e. on EF=R.

Nicolas Bourbaki
la source