En statistiques, indépendant et aléatoire décrivent-ils les mêmes caractéristiques? Quelle est la différence entre eux? Nous rencontrons souvent la description comme «deux variables aléatoires indépendantes» ou «échantillonnage aléatoire». Je me demande quelle est la différence exacte entre eux. Quelqu'un peut-il expliquer cela et donner des exemples? par exemple un processus non indépendant mais aléatoire?
distributions
sampling
randomness
tiantianchen
la source
la source
Réponses:
Je vais essayer de l'expliquer en termes non techniques: une variable aléatoire décrit le résultat d'une expérience; vous ne pouvez pas savoir à l'avance quel sera le résultat exact mais vous avez quelques informations: vous savez quels résultats sont possibles et vous connaissez, pour chaque résultat, sa probabilité.
Par exemple, si vous lancez une bonne pièce, vous ne savez pas à l'avance si vous obtiendrez la tête ou la queue, mais vous savez que ce sont les résultats possibles et vous savez que chacun a 50% de chances de se produire.
Pour expliquer l'indépendance, vous devez lancer deux pièces justes. Après avoir lancé la première pièce, vous savez que pour le deuxième lancer, les probabilités de tête sont toujours de 50% et pour la queue également. Si le premier lancer n'a aucune influence sur les probabilités du second, les deux lancers sont indépendants. Si le premier tirage au sort a une influence sur les probabilités du deuxième tirage au sort, ils dépendent.
Un exemple de lancers dépendants est lorsque vous collez les deux pièces ensemble.
la source
Aléatoire se rapporte à la variable aléatoire , et indépendant se rapporte à l'indépendance probabiliste. Par indépendance, nous voulons dire que l'observation d'une variable ne nous dit rien sur l'autre, ou en termes plus formels, si et Y sont deux variables aléatoires, alors nous disons qu'elles sont indépendantes siX Oui
en outre
et leur covariance est nulle. La variable aléatoire dépend de X si elle peut être écrite en fonction de XOui X X
Donc dans ce cas est aléatoire et dépend de X .Oui X
Appeler le processus "non indépendant" est assez trompeur - indépendamment de quoi? Je suppose que vous vouliez dire qu'il existe des variables aléatoires indépendantes et distribuées de manière identique (vérifiez ici ou ici ) qui proviennent d'un processus. Par indépendants, nous voudrions dire ici qu'ils sont indépendants les uns des autres. Il existe des processus produisant des variables aléatoires dépendantes, par exempleX1, … , Xk
où est un bruit aléatoire. Évidemment, dans ce cas, X i dépend de X i - 1 , mais il est également aléatoire.ε Xi Xi−1
la source
Les variables sont utilisées dans tous les domaines des mathématiques. Les définitions de l'indépendance et du caractère aléatoire d'une variable sont appliquées unilatéralement à toutes les formes de mathématiques, pas seulement aux statistiques.
Par exemple, les axes X et Y en géométrie euclidienne bidimensionnelle représentent des variables indépendantes, cependant, leurs valeurs ne sont pas (généralement) attribuées au hasard.
Deux variables données peuvent être aléatoires ou indépendantes (l'une de l'autre), ou les deux, ou aucune. Les statistiques ont tendance à se concentrer sur le caractère aléatoire (plus correctement, sur la probabilité), et le fait que deux variables soient ou non indépendantes peut avoir de nombreuses implications pour les probabilités de résultats donnés observés.
Vous avez tendance à voir ces deux propriétés (indépendance et caractère aléatoire) décrites ensemble lorsque vous étudiez les statistiques, car les deux sont importantes à connaître et peuvent influencer la réponse à la question posée. Cependant, ces propriétés ne sont pas synonymes et, dans d'autres domaines des mathématiques, elles ne se produisent pas nécessairement ensemble.
la source
La notion d'indépendance est relative, alors que vous pouvez être aléatoire par vous-même. Dans votre exemple, vous avez "deux variables aléatoires indépendantes" et n'avez pas besoin de parler de plusieurs "échantillonnage aléatoire".
Supposons que vous lanciez plusieurs fois un dé parfait. Les résultats sont a priori aléatoires. Connaissant le passé, vous ne pouvez pas prédire le nombre suivant 4. Supposons que je génère une séquence de l'autre côté du dé: 6 → 1 , 3 → 4 . Je reçois 1 , 2 , 4 , 2 , 3 … . Il est aussi aléatoire que le premier. Vous ne pouvez pas deviner ce qui vient après 3 . Mais les deux séquences sont complètement dépendantes.6,5,3,5,4… 6→1 3→4 1,2,4,2,3… 3
Si l'on jette deux dés en parallèle (sans interaction entre eux), leurs séquences respectives seront aléatoires et indépendantes.
la source
Lorsque vous avez une paire de valeurs lorsque la première est générée de manière aléatoire et que la seconde dépend de la première. par exemple la taille et le poids d'un homme. Il y a une corrélation entre eux. Mais ils sont tous les deux aléatoires.
la source
L'exemple de pièce de monnaie est une excellente illustration d'une variable aléatoire et indépendante, une bonne bonne façon de penser à une variable aléatoire mais dépendante serait la prochaine carte tirée d'un sabot de sept cartes à jouer, la probabilité de tout résultat numérique spécifique change en fonction des cartes précédemment distribuées, mais jusqu'à ce qu'une seule valeur de carte reste dans la chaussure, la valeur de la carte à venir restera aléatoire.
la source
David Bohm dans son ouvrage Causality and Chance in Modern Physics (Londres: Routledge, 1957/1984) décrit la causalité, le hasard, le hasard et l'indépendance:
"Dans la nature, rien ne reste constant. Tout est dans un état perpétuel de transformation, de mouvement et de changement. Cependant, nous découvrons que rien ne surgit simplement de rien sans avoir d'antécédents qui existaient auparavant. De même, rien ne disparaît jamais sans laisser de trace, dans le sens qu'il ne donne lieu à rien d'existant plus tard ... tout vient d'autres choses et donne naissance à d'autres choses. Ce principe n'est pas encore une déclaration de l'existence de la causalité dans la nature. Pour en venir à la causalité, l'étape suivante consiste alors à noter que, lorsque nous étudions des processus se déroulant dans un large éventail de conditions, nous découvrons qu'à l'intérieur de toute la complexité du changement et de la transformation, il existe des relationsqui restent effectivement constants. .... À ce stade, cependant, nous rencontrons un nouveau problème. Car la nécessité d'une loi causale n'est jamais absolue. Ainsi, nous voyons que l'on ne doit concevoir la loi de la nature comme nécessaire que si l'on fait abstraction des contingences , représentant des facteurs essentiellement indépendants qui peuvent exister en dehors du champ des choses qui peuvent être traitées par les lois considérées, et qui ne suivent pas nécessairement de tout ce qui peut être spécifié dans le cadre de ces lois. De telles éventualités conduisent au hasard . "(Pp.1-2)
"La tendance des contingences situées à l'extérieur d'un contexte donné à fluctuer indépendamment des événements à l'intérieur de ce contexte s'est révélée si répandue que l'on peut l'énoncer comme un principe, à savoir le principe de l'aléatoire. Par hasard, nous voulons dire simplement que cette indépendance conduit à la fluctuation de ces contingences d'une manière très compliquée sur un large éventail de possibilités, mais de telle manière que les moyennes statistiques aient un comportement régulier et approximativement prévisible. " (p.22)
la source