La régularisation L2 est équivalente au Prior Gaussien

56

Je continue à lire ceci et intuitivement je peux le voir, mais comment passer de la régularisation L2 à dire qu’il s’agit d’un Prior gaussien analytiquement? Il en va de même pour dire que L1 est équivalent à un précédent laplacien.

Toute autre référence serait géniale.

Anonyme
la source

Réponses:

54

Imaginons que vous souhaitiez déduire un paramètre partir de certaines paires entrée-sortie observées . Supposons que les sorties sont linéairement liées aux entrées via et que les données sont corrompues par du bruit :β(x1,y1),(xN,yN)βϵ

yn=βxn+ϵ,

où est le bruit gaussien avec une moyenne de et une variance . Cela donne lieu à une probabilité gaussienne:ϵ0σ2

n=1NN(yn|βxn,σ2).

Régularisons le paramètre en imposant le précédent gaussien où est un scalaire strictement positif. Par conséquent, en combinant la vraisemblance et le préalable, nous avons simplement:βN(β|0,λ1),λ

n=1NN(yn|βxn,σ2)N(β|0,λ1).

Prenons le logarithme de l'expression ci-dessus. En abandonnant certaines constantes, nous obtenons:

n=1N1σ2(ynβxn)2λβ2+const.

Si nous maximisons l'expression ci-dessus en ce qui concerne , nous obtenons la soi-disant estimation a posteriori maximale de , ou estimation MAP pour résumer. Dans cette expression, on comprend pourquoi le prieur gaussien peut être interprété comme un terme de régularisation L2.βββ


De même, la relation entre la norme L1 et le précédent de Laplace peut être comprise de la même manière. Prenez au lieu d'un prieur Gaussien, un prieur Laplace associez-le à votre probabilité et prenez le logarithme.

Une bonne référence (peut-être un peu avancée) détaillant les deux questions est le document "Économies adaptatives pour un apprentissage supervisé", qui ne semble pas facile à trouver en ligne. Vous pouvez également consulter la section "Économies adaptatives avec Jeffreys Prior" . Une autre bonne référence est "Sur le classement bayésien avec les a priori de Laplace" .

Ngiann
la source
1
Dans un D dimensioncas de régression linéaire, peut betaet sigmaavoir des solutions explicites? Je lis PRML et trouve l'équation (1.67) à la page 30 et je ne sais pas comment le résoudre. Dans le maximum de vraisemblance, nous résolvons betapuis sigmaen réglant le gradient à zéro. En moindres carrés régularisés, puisque le paramètre de reqularisation lambdaest connu, nous le résolvons betadirectement. Mais si nous résolvons directement le MAP, ce qui est de l'ordre de résoudre beta, sigma? Peuvent-ils avoir une solution explicite ou devons-nous utiliser un processus itératif?
stackunderflow
Il vous manque un "carré" sur le dans la dernière équation, c’est-à-dire ? λ β 2λβλβ2
brian.keng
@AdamO Limite le nombre de valeurs que les coefficients peuvent prendre. Si le prior est compris entre 1-10 par exemple, il y a 0 probabilité pour que le coefficient prenne toute autre valeur, c'est-à-dire [-inf à 1] et [10, + inf].
imsrgadich
1
Dans ce cas, est connu. Est-ce que ça marche quand est inconnu? Pour la régression linéaire bayésienne, un a priori gamma inverse pourrait être utilisé pour former un conjugué avant la variance. Mais je ne suis pas sûr que l'algèbre équivaudrait à la même expression. σ 2σ2σ2
AdamO
11

Pour un modèle linéaire avec une probabilité normale normale à plusieurs variables et à plusieurs variables, vous vous retrouvez avec une distribution postérieure normale à plusieurs variables dans laquelle la moyenne du modèle postérieur (et du modèle a posteriori maximum) correspond exactement à ce que vous obtiendriez avec une régularisation de Tikhonov ( moindres carrés avec un paramètre de régularisation approprié. L2

Il convient de noter qu’il existe une différence plus fondamentale en ce que le postérieur bayésien est une distribution de probabilité, tandis que la solution des moindres carrés régularisée de Tikhonov est une estimation ponctuelle spécifique.

Ceci est discuté dans de nombreux manuels sur les méthodes bayésiennes pour les problèmes inverses, voir par exemple:

http://www.amazon.com/Inverse-Problem-Methods-Parameter-Estimation/dp/0898715725/

http://www.amazon.com/Parameter-Estimation-Inverse-Problems-Second/dp/0123850487/

De même, si vous avez une probabilité antérieure laplacienne et une probabilité normale multivariée, le maximum de la distribution postérieure se produit à un point que vous pourriez obtenir en résolvant un problème des moindres carrés régularisé par . L1

Brian Borchers
la source
9

Tout d'abord, notez que la médiane minimise la norme L1 (voir ici ou ici pour en savoir plus sur la L1 et la L2)

median(x)=argminsi|xis|1

tandis que la moyenne minimise la L2

mean(x)=argminsi|xis|2

Maintenant, rappelons que le paramètre distributions normales peut être estimé à l'aide de la moyenne de l'échantillon , tandis que l' estimateur MLE pour le paramètre distribution Laplace est la médiane. Donc, utiliser la distribution normale équivaut à l'optimisation de la norme L2 et utiliser la distribution de Laplace, utiliser l'optimisation de la L1. En pratique, vous pouvez penser que la médiane est moins sensible aux valeurs aberrantes que les valeurs moyennes, et qu'il en est de même en utilisant une distribution de Laplace à queue plus épaisse, votre modèle est moins exposé aux valeurs aberrantes que la distribution en mode Normal.μμ


Hurley, WJ (2009) Une approche inductive pour calculer le MLE pour la distribution double exponentielle . Journal des méthodes statistiques appliquées modernes: 8 (2), article 25.

Tim
la source
Ce n’est peut-être pas la réponse la plus rigoureuse mathématiquement donnée ici, mais c’est certainement la solution la plus simple et la plus intuitive à comprendre pour un débutant en régularisation de L1 / L2.
SQLServerSteve
8

Pour un problème de régression avec variables (sans interception), vous utilisez MLS commek

minβ(yXβ)(yXβ)

En régression régularisée avec pénalité que vous faitesLp

minβ(yXβ)(yXβ)+λi=1k|βi|p

Nous pouvons faire de manière équivalente (notez les changements de signe)

maxβ(yXβ)(yXβ)λi=1k|βi|p

Ceci est directement lié au principe bayésien de

posteriorlikelihood×prior

ou équivalent (dans des conditions de régularité)

log(posterior)log(likelihood)+log(penalty)

Désormais, il n’est pas difficile de voir quelle répartition familiale exponentielle correspond à quel type de pénalité.

Georg M. Goerg
la source
3

Pour mettre l'équivalence plus précisément:

Optimiser les poids du modèle pour minimiser une fonction de perte d'erreur au carré avec la régularisation de L2 équivaut à rechercher les poids les plus probables avec une distribution a posteriori évaluée à l'aide de la règle de Bayes, avec un poids gaussien indépendant de moyenne nulle auparavant.

Preuve:

La fonction de perte décrite ci-dessus serait donnée par

L=[n=1N(y(n)fw(x(n)))2]Originallossfunction+λi=1Kwi2L2loss

Notez que la distribution pour un gaussien multivarié est

N(x;μ,Σ)=1(2π)D/2|Σ|1/2exp(12(xμ)Σ1(xμ))

En utilisant la règle de Bayes, nous avons cela

p(w|D)=p(D|w)p(w)p(D)p(D|w)p(w)[nNN(y(n);fw(x(n)),σy2)]N(w;0,σw2I)nNN(y(n);fw(x(n)),σy2)i=1KN(wi;0,σw2)

Où nous sommes en mesure de scinder le Guassian multidimensionnel en un produit, car la covariance est un multiple de la matrice identité.

Prendre la probabilité de journal négative

log[p(w|D)]=n=1Nlog[N(y(n);fw(x(n)),σy2)]i=1Klog[N(wi;0,σw2)]+const.=12σy2n=1N(y(n)fw(x(n)))2+12σw2i=1Kwi2+const.

Nous pouvons bien sûr abandonner la constante et la multiplier par n’importe quel montant sans affecter fondamentalement la fonction de perte. (constante ne fait rien, la multiplication adapte efficacement le taux d'apprentissage. N'affectera pas l'emplacement des minima) Ainsi, nous pouvons voir que la probabilité logarithmique négative de la distribution postérieure est une fonction de perte équivalente à la fonction de perte d'erreur quadratique régularisée L2.

Cette équivelance est générale et vaut pour toute fonction paramétrée de pondération - pas seulement la régression linéaire comme cela semble être impliqué ci-dessus.

nickelnine37
la source
1

Il convient de souligner deux caractéristiques de la modélisation bayésienne lorsqu’on discute de l’équivalence de certaines estimations du maximum de vraisemblance pénalisées et de procédures bayésiennes.

  1. Dans le cadre bayésien, le prior est sélectionné en fonction des spécificités du problème et n'est pas motivé par la rapidité de calcul. Par conséquent, les Bayésiens utilisent une variété de priors, y compris le désormais célèbre fer à cheval, pour les problèmes de prédicteurs épars, et n'ont pas besoin de s'appuyer autant sur des priors équivalents aux pénalités de L1 ou de L2.
  2. Avec une approche bayésienne complète, vous avez accès à toutes les procédures inférentielles lorsque vous avez terminé. Par exemple, vous pouvez quantifier les preuves de coefficients de régression élevés et obtenir des intervalles crédibles pour les coefficients de régression et les valeurs prédites globales. Dans le cadre fréquentiste, une fois que vous avez choisi la pénalisation, vous perdez toute la machine inférentielle.
Frank Harrell
la source