Je suis nouveau dans le Machine Learning et j'essaie de l'apprendre par moi-même. Récemment, je lisais quelques notes de cours et j'avais une question de base.
La diapositive 13 indique que "l'estimation du moindre carré est identique à l'estimation du maximum de vraisemblance dans un modèle gaussien". Il semble que ce soit quelque chose de simple, mais je ne peux pas voir cela. Quelqu'un peut-il expliquer ce qui se passe ici? Je suis intéressé à voir les mathématiques.
J'essaierai plus tard de voir également le point de vue probabiliste de la régression Ridge et Lasso, donc s'il y a des suggestions qui m'aideront, cela sera très apprécié également.
Réponses:
Dans le modèle
où , la probabilité logicielle de pour un échantillon de sujets est (jusqu'à une constante additive)ϵ ∼ N( 0 , σ2) Oui| X n
vu en fonction de seulement , le maximiseur est exactement ce qui minimiseβ
cela rend-il l'équivalence claire?
la source
n/2 log(2 *pi)