Quelqu'un pourrait-il m'expliquer de manière détaillée sur l'estimation du maximum de vraisemblance (MLE) en termes simples? J'aimerais connaître le concept sous-jacent avant de passer à la dérivation ou à l'équation
une méthode d'estimation des paramètres d'un modèle statistique en choisissant la valeur du paramètre qui optimise la probabilité d'observer l'échantillon donné.
Quelqu'un pourrait-il m'expliquer de manière détaillée sur l'estimation du maximum de vraisemblance (MLE) en termes simples? J'aimerais connaître le concept sous-jacent avant de passer à la dérivation ou à l'équation
J'ai lu dans le résumé de cet article que: "La procédure de maximum de vraisemblance (ML) de Hartley aud Rao est modifiée en adaptant une transformation de Patterson et Thompson qui partage la vraisemblance en normalisant la normalité en deux parties, l’une étant exempte d’effets fixes. Maximiser...
Pour une étude de simulation , je dois générer des variables aléatoires qui montrent une corrélation prefined (population) à une variable existante .YYY J'ai examiné les Rpackages copulaet ceux CDVinequi peuvent produire des distributions multivariées aléatoires avec une structure de dépendance...
Les estimateurs de maximum de vraisemblance (MLE) sont asymptotiquement efficaces; nous constatons le résultat pratique dans la mesure où elles donnent souvent de meilleurs résultats que les estimations fondées sur la méthode des moments (MoM) (lorsqu'elles diffèrent), même pour des échantillons de...
Je vois que ces termes sont utilisés et que je continue à les mélanger. Existe-t-il une explication simple des différences entre
Il existe plusieurs discussions sur ce site pour des recommandations de livres sur les statistiques d’introduction et l’apprentissage automatique, mais je cherche un texte sur les statistiques avancées, comprenant, par ordre de priorité: maximum de vraisemblance, modèles linéaires généralisés,...
Ok, c'est une question assez fondamentale, mais je suis un peu confus. Dans ma thèse j'écris: Les erreurs types peuvent être trouvées en calculant l'inverse de la racine carrée des éléments diagonaux de la matrice (observée) de Fisher Information:
Veuillez m'expliquer la différence entre l'estimation bayésienne et l'estimation du maximum de
Cette question me laisse perplexe depuis longtemps. Je comprends l'utilisation de 'log' pour maximiser la probabilité, je ne pose donc pas la question de 'log'. Ma question est la suivante: puisque maximiser la probabilité de log équivaut à minimiser la "probabilité de log négative" (NLL), pourquoi...
Je me demande si cela fait une différence d'interprétation si seules les variables dépendantes, indépendantes et dépendantes, ou uniquement les variables indépendantes sont transformées par un journal. Considérons le cas de log(DV) = Intercept + B1*IV + Error Je peux interpréter l'IV comme...
Je suis curieux de connaître la nature de . Quelqu'un peut-il dire quelque chose d'intuitif sur "Que dit propos des données?" Σ - 1Σ−1Σ−1\Sigma^{-1}Σ−1Σ−1\Sigma^{-1} Modifier: Merci pour les réponses Après avoir suivi d'excellents cours, j'aimerais ajouter quelques points: C'est une mesure...
L'exemple de Stein montre que l'estimation du maximum de vraisemblance de variables normalement distribuées avec les moyennes et les variances est inadmissible (sous une fonction de perte au carré) si et si . Pour une preuve plus nette, voir le premier chapitre de Inférence à grande échelle:...
Cette question me hante depuis plus d'un mois. Le numéro de février 2015 d' Amstat News contient un article du professeur Berkeley, Mark van der Laan, qui réprimande les gens pour l'utilisation de modèles inexacts. Il déclare qu'en utilisant des modèles, la statistique est alors un art plutôt...
Quelle est la principale différence entre l'estimation du maximum de vraisemblance (EVM) et l'estimation par la méthode des moindres carrés (EVC)? Pourquoi ne pouvons-nous pas utiliser MLE pour prédire les valeurs dans la régression linéaire et inversement?yyy Toute aide sur ce sujet sera...
Dériver numériquement les MLE de GLMM est difficile et, dans la pratique, je sais que nous ne devrions pas utiliser l'optimisation de la force brute (par exemple, en utilisant optimune méthode simple). Mais pour mon propre but éducatif, je veux l'essayer pour m'assurer de bien comprendre le modèle...
J'ai lu cette page: http://neuralnetworksanddeeplearning.com/chap3.html et il a dit que la couche de sortie sigmoïde avec entropie croisée est assez similaire à la couche de sortie softmax avec log-vraisemblance. que se passe-t-il si j'utilise sigmoïde avec log-vraisemblance ou softmax avec...
Supposons que nous ayons une variable aléatoire . Si était le vrai paramètre, la fonction de vraisemblance devrait être maximisée et la dérivée égale à zéro. C'est le principe de base de l'estimateur du maximum de vraisemblance.X∼f(x|θ)X∼f(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 Si je comprends bien,...
Je vais expliquer mon problème avec un exemple. Supposons que vous souhaitiez prédire le revenu d'un individu en fonction de certains attributs: {âge, sexe, pays, région, ville}. Vous avez un ensemble de données de formation comme ça train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3),...
J'ai entendu parler de la probabilité empirique d'Owen, mais jusqu'à récemment, je n'y ai pas prêté attention avant de l'avoir trouvé dans un document d'intérêt ( Mengersen et al. 2012 ). Dans mes efforts pour le comprendre, j'ai glané que la probabilité des données observées est représentée comme...
Considérons échantillons indépendants obtenus à partir d'une variable aléatoire qui est supposée suivre une distribution tronquée (par exemple une distribution normale tronquée ) de valeurs minimales et maximales connues (finies) et mais de paramètres inconnus et . Si suivait une distribution non...