Je suis un débutant dans les statistiques et j'ai trouvé ça .
En statistique, θ, la lettre grecque minuscule «thêta», est le nom habituel d'un (vecteur de) paramètre (s) d'une certaine distribution de probabilité générale. Un problème courant est de trouver la ou les valeurs de thêta. Notez qu'il n'y a aucune signification à nommer un paramètre de cette façon. Autant l'appeler autrement. En fait, de nombreuses distributions ont des paramètres qui reçoivent généralement d'autres noms. Par exemple, il est courant de nommer la moyenne et l'écart de la distribution normale μ (lire: «mu») et l'écart σ («sigma»), respectivement.
Mais je ne sais toujours pas ce que cela signifie en anglais simple?
terminology
Kamilski81
la source
la source
Réponses:
Ce n'est pas une convention, mais assez souvent représente l'ensemble des paramètres d'une distribution.θ
C'était tout pour un anglais simple, montrons plutôt des exemples.
Exemple 1. Vous voulez étudier le lancer d'une punaise à l'ancienne (celles avec un grand fond circulaire). Vous supposez que la probabilité qu'elle tombe point vers le bas est une valeur inconnue que vous appelez . Vous pouvez appeler une variable aléatoire X et dire que X = 1 lorsque la punaise tombe vers le bas et X = 0 quand elle tombe vers le haut. Vous écririez le modèleθ X X=1 X=0
et vous seriez intéressé à estimer (ici, la proabilité que la punaise tombe pointe vers le bas).θ
Exemple 2. Vous souhaitez étudier la désintégration d'un atome radioactif. Sur la base de la littérature, vous savez que la quantité de radioactivité diminue de façon exponentielle, vous décidez donc de modéliser le temps de désintégration avec une distribution exponentielle. Si est le moment de la désintégration, le modèle estt
Ici est une densité de probabilité, ce qui signifie que la probabilité que l'atome se désintègre dans l'intervalle de temps ( t , t + d t ) est f ( t ) d t . Encore une fois, vous serez intéressé par l'estimation de θ (ici, le taux de désintégration).f(t) (t,t+dt) f(t)dt θ
Exemple 3. Vous souhaitez étudier la précision d'un instrument de pesée. Sur la base de la littérature, vous savez que les mesures sont gaussiennes, vous décidez donc de modéliser la pesée d'un objet standard de 1 kg comme
Ici est la mesure donnée par l'échelle, f ( x ) est la densité de probabilité, et les paramètres sont μ et σ , donc θ = ( μ , σ ) . Le paramètre μ est le poids cible (l'échelle est biaisée si μ ≠ 1 ), et σ est l'écart type de la mesure à chaque fois que vous pesez l'objet. Encore une fois, vous serez intéressé par l'estimation de θ (ici, le biais et l'imprécision de l'échelle).x f(x) μ σ θ=(μ,σ) μ μ≠1 σ θ
la source
La référence à dépend du modèle avec lequel vous travaillez. Par exemple, dans la régression des moindres carrés ordinaires, vous modélisez une variable dépendante (généralement appelée Y) comme une combinaison linéaire d'une ou plusieurs variables indépendantes (généralement appelées X), obtenant quelque chose commeθ
où p est le nombre de variables indépendantes. Les paramètres à estimer ici sont les et θ est un nom pour tous les β s . Mais θ est plus général peut s'appliquer à tous les paramètres que nous voulons estimer.βs θ βs θ
la source
En anglais simple:
La distribution statistique est une fonction mathématique qui vous indique quelle est la probabilité de différentes valeurs de votre variable aléatoire X qui a la distribution f , c'est-à-dire que f ( x ) génère une probabilité de x . Il existe différentes une telle fonction , mais pour l' envisager maintenant f comme une sorte de fonction « générale ».f X f f(x) x f
Cependant, pour que soit universel , c'est-à-dire qu'il soit possible d'appliquer à différentes données (qui partagent des propriétés similaires), il a besoin de paramètres qui changent de forme pour s'adapter à des données différentes. Un exemple simple d'un tel paramètre est μ dans la distribution normale qui indique où est le centre (moyenne) de cette distribution et il peut donc décrire des variables aléatoires avec des valeurs moyennes différentes. La distribution normale a un autre paramètre σ et d'autres distributions ont également au moins un de ces paramètres. Les paramètres sont souvent appelés θ , où pour une distribution normale, θ est un raccourci pour μ et σf μ σ θ θ μ σ (c'est-à-dire est un vecteur des deux valeurs).
Pourquoi est-il important? Les distributions statistiques sont utilisées pour approximer les distributions empiriques des données. Supposons que vous ayez un ensemble de données sur l'âge d'un groupe de personnes et qu'elles aient en moyenne 50 ans et que vous souhaitez approximer la distribution de leur âge en utilisant une distribution normale. Si la distribution normale ne permettait pas différentes valeurs de μ (par exemple, avait une valeur fixe de ce paramètre, disons μ = 0 ), alors elle serait inutile pour ces données. Cependant, comme μ n'est pas fixe, la distribution normale pourrait utiliser différentes valeurs de μ , μ = 50 étant l'une d'entre elles. Ceci est un exemple simple, mais il existe des cas plus compliqués où les valeurs deθ μ μ=0 μ μ μ=50 θ θ
la source