Je suis nouveau dans la conversion de formules en formulaire matriciel. Mais cela est nécessaire pour un code d'apprentissage automatique efficace. Je veux donc comprendre la "bonne" façon, pas les trucs de cow-boy que je fais.
D'accord, j'essaie de convertir la somme pondérée des carrés de la forme ci-dessous en forme matricielle. Je vois souvent la forme matricielle comme équivalente à celle ci-dessous, et aucune explication n'est donnée sur la façon dont elle est dérivée.
où est le poids de chaque erreur d'échantillon . De plus, , , , , . est la valeur prédite, résultat de la multiplication d'un vecteur poids par un vecteur caractéristique.
Voici ce que je pense et je suis créatif. Alors n'hésitez pas à aller jusqu'au bout si je continue sur une tangente.
Soit un vecteur colonne de fonctions qui représente l'erreur non quadratique. On peut représenter sur as
Le résultat du vecteur multiplié par le vecteur est une matrice (scalaire).
Soit un vecteur de poids qui pèse chaque erreur d'échantillon. Comme nous devons peser les erreurs au carré, nous devons incorporer dans la formule avant d'obtenir le scalaire. Puisque nous voulons que le premier reste un vecteur , nous définissons comme une matrice diagonale avec les termes diagonaux provenant de . Nous avons maintenant:
Nous pouvons simplifier ceci en
Maintenant, nous développons . Nous avions multiplié par , nous donnant où X est maintenant une matrice et est un vecteur de colonne . Soit y le vecteur de colonne représentant les étiquettes . Maintenant . Nous substituons cela dans la formule , nous donnant la somme finale pondérée des carrés sous forme de matrice:
Tout d'abord, cela a-t-il un sens? Deuxièmement, et surtout, est-ce vraiment ainsi que vous êtes censé le faire?
Merci
Réponses:
Je vais tenter une réponse à cette question: tout ce que vous avez présenté est correct.
Ce que vous avez essentiellement dérivé est le théorème de Gauss-Markov: l'estimateur des moindres carrés pondérés est le meilleur estimateur linéaire sans biais pour les données pondérées. Cet estimateur minimise la somme des carrés pondérés (votre premier affichage) et est donné par: . Ici est la matrice de conception avec la première colonne définie sur le vecteur de uns (c'est le terme d'interception).β^WLS=(XTWX)(XTWY) X 1 n×1
Ce résultat s'applique à une matrice de covariance arbitraire. Cependant, les données indépendantes pondérées sont représentées avec un vecteur de poids le long de la diagonale de la matrice de poids. (votre notation a comme coefficient de régression et comme poids, donc pour éviter toute confusion, la matrice de conception serait et .w u X=[x],W=diag(u), β=[w]
La preuve du théorème de Gauss Markov est par contradiction. Voyez ici . Cela signifie que nous ne dérivons pas analytiquement un tel estimateur directement de la fonction de perte. Vous avez peut-être vu une telle approche utilisée pour dériver des équations d'estimation de régression linéaire et logistique.
la source