Qu'est-ce que la «régression à rang réduit»?

22

J'ai lu Les éléments de l'apprentissage statistique et je ne pouvais pas comprendre en quoi consiste la section 3.7 «Réduction et sélection des résultats multiples». Il parle de RRR (régression à rang réduit), et je peux seulement comprendre que la prémisse concerne un modèle linéaire multivarié généralisé où les coefficients sont inconnus (et doivent être estimés) mais sont connus pour ne pas avoir un rang complet. C'est la seule chose que je comprends.

Le reste des mathématiques me dépasse. Cela n'aide même pas que les auteurs disent «on peut montrer» et laisse les choses comme un exercice.

Quelqu'un peut-il s'il vous plaît aider à expliquer ce qui se passe ici, intuitivement? Ce chapitre est-il censé discuter de nouvelles méthodes? ou quoi?

cgo
la source
1
Il semble donner des méthodes de régression qui capitalisent sur des modèles à résultats multiples dans le contexte du retrait et de la sélection des variables. Il n'y a pas un seul résultat Y, mais plus d'un résultat Y. Supposons que vous ayez 5 résultats Y, alors cette section traite des méthodes pour regrouper l'estimation des méthodes, au lieu de simplement construire 5 modèles distincts.
spdrnl
1
Mes quelques centimes: l'hypothèse d'une matrice de bas rang simplifie les choses. Heureusement, cette hypothèse est valable pour de nombreuses sources de données réelles.
Vladislavs Dovgalecs
1
Il semble que cette hypothèse concerne les restrictions sur la solution. Cet article explique pourquoi statprob.com/encyclopedia/…
Vladislavs Dovgalecs

Réponses:

42

1. Qu'est-ce que la régression à rang réduit (RRR)?

Considérons la régression linéaire multiple multivariée, c'est-à-dire la régression avec variables indépendantes et q variables dépendantes. Soit X et Y des ensembles de données de prédicteur centré ( n × p ) et de réponse ( n × q ). La régression habituelle des moindres carrés ordinaires (OLS) peut alors être formulée comme minimisant la fonction de coût suivante:pqXOuin×pn×q

L=Oui-XB2,

où est une matrice de poids de régression. Sa solution est donnée par et il est facile de voir que cela équivaut à faire régressions OLS distinctes, une pour chaque variable dépendante.Bp×q

B^OLS=(XX)-1XOui,
q

Régression rang réduit introduit une contrainte de rang sur , à savoir devrait être réduite au minimum avec , où est le maximum autorisé de rang . L rang ( B ) r r BBLrang(B)rrB

2. Comment obtenir la solution RRR?

Il s'avère que RRR peut être casté comme un problème de vecteur propre. En effet, en utilisant le fait que OLS est essentiellement une projection orthogonale sur l'espace de colonne de , nous pouvons réécrire commeLe premier terme ne dépend pas de et le deuxième terme peut être minimisé par SVD / PCA des valeurs ajustées . L L = Y - X B O L S2 + X B O L S - X B 2 . B Y = X B O L SXL

L=Oui-XB^OLS2+XB^OLS-XB2.
BOui^=XB^OLS

Plus précisément, si sont les premiers axes principaux de , alors r Y B R R R = B O L S U r U r .UrrOui^

B^RRR=B^OLSUrUr.

3. À quoi sert RRR?

Il peut y avoir deux raisons d'utiliser RRR.

Tout d'abord, on peut l'utiliser à des fins de régularisation. De même à la régression de crête (RR), Lasso, etc., RRR introduit une pénalité "retrait" sur . Le rang optimal peut être trouvé par validation croisée. D'après mon expérience, RRR surpasse facilement l'OLS mais a tendance à perdre contre RR. Cependant, RRR + RR peuvent fonctionner (légèrement) mieux que RR seul. rBr

Deuxièmement, on peut l'utiliser comme méthode de réduction de dimensionnalité / d'exploration de données. Si nous avons un tas de variables prédictives et un tas de variables dépendantes, alors RRR construira des "facteurs latents" dans l'espace des prédicteurs qui feront le meilleur travail pour expliquer la variance des DV. On peut alors essayer d'interpréter ces facteurs latents, de les tracer, etc. Pour autant que je sache, cela se fait couramment en écologie où RRR est connu sous le nom d' analyse de redondance et est un exemple de ce qu'ils appellent des méthodes d'ordination ( voir la réponse de @ GavinSimpson ici ).

4. Relation avec d'autres méthodes de réduction de la dimensionnalité

RRR est étroitement lié à d'autres méthodes de réduction de la dimensionnalité, telles que l'ACC et le PLS. Je l'ai couvert un peu dans ma réponse à Quel est le lien entre les moindres carrés partiels, la régression à rang réduit et la régression à composantes principales?

si et sont des ensembles de données de prédicteur centré ( ) et de réponse ( ) et si nous recherchons la première paire d'axes, pour et pour , alors ces méthodes maximisent les quantités suivantes:Y n × p n × q wR p X vR q YXOuin×pn×qwRpXvRqOui

PCUNE:Var(Xw)RRR:Var(Xw)Corr2(Xw,Ouiv)Var(Ouiv)PLS:Var(Xw)Corr2(Xw,Ouiv)Var(Ouiv)=Cov2(Xw,Ouiv)CCUNE:Var(Xw)Corr2(Xw,Ouiv)

Voir ici pour plus de détails.

Voir Torre, 2009, A Least-Squares Framework for Component Analysis pour un traitement détaillé de la façon dont la plupart des méthodes multivariées linéaires courantes (par exemple PCA, CCA, LDA, - mais pas PLS!) Peuvent être considérées comme RRR.

5. Pourquoi cette section dans Hastie et al. si confus?

Hastie et al. utilisez le terme RRR pour désigner une chose légèrement différente! Au lieu d'utiliser la fonction de perte ils utilisent comme on peut le voir dans leur formule 3.68. Ceci introduit un facteur de blanchiment dans la fonction de perte, blanchissant essentiellement les variables dépendantes. Si vous regardez la comparaison entre CCA et RRR ci-dessus, vous remarquerez que si est blanchi, la différence disparaît. Alors, ce que Hastie et al. appeler RRR est en fait CCA déguisé (et en effet, voir leur 3.69).

L=Oui-XB2,
L=(Oui-XB)(OuiOui)-1/22,
OuiOui

Rien de tout cela n'est correctement expliqué dans cette section, d'où la confusion.


Voir ma réponse au tutoriel amical ou à l'introduction à la régression à rang réduit pour une lecture plus approfondie.

amibe dit réintégrer Monica
la source
Ceci est une explication détaillée très bien écrite. Merci j'apprécie.
cgo
@amoeba Fantastic answer. Puis-je suggérer quelques retouches pour le rendre plus accessible? Sur la dernière ligne de la première entrée, pouvez-vous préciser ce que est, par exemple, le rang de la matrice du modèle si tel est le cas. Deuxièmement, sur l'équation de définition sous la deuxième entrée, vous introduisez , qui est les coefficients de population, et donc un paramètre inconnu. Pouvez-vous nous en dire un peu plus? rB
Antoni Parellada
1
(1) C'est une régression multivariée , @Antoni, c'est-à-dire que est une matrice, et est aussi une matrice, pas un vecteur. (2) Ici est juste un paramètre de la fonction de perte . L'objectif est de trouver réduction au minimum . OuiBBLBL
amibe dit Réintégrer Monica
1
À propos de la sélection du rang optimal dans RRRR, notez que les degrés de liberté peuvent être calculés explicitement en fonction de : , où est la dimension d'entrée et est la dimension de sortie. On peut alors utiliser la validation croisée généralisée (GCV) pour sélectionner le meilleur : minimiser . r ^ df ( r ) = p q - ( p - r ) ( q - r ) + "un petit terme de correction" p q r Y - Y RRRR ( r ) 2 Frorrdf^(r)=pq-(p-r)(q-r)+"un petit terme de correction"pqrOui-Oui^RRRR(r)Fro2(nq-df^(r))2
dohmatob
3

La régression de rang réduit est un modèle où il n'y a pas un seul résultat Y, mais plusieurs résultats Y. Bien sûr, vous pouvez simplement ajuster une régression linéaire multivariée distincte pour chaque réponse, mais cela semble inefficace lorsque la relation fonctionnelle entre les prédicteurs et chaque réponse est clairement similaire. Voir cet exercice kaggle pour une situation où je crois que cela vaut évidemment.

https://www.kaggle.com/c/bike-sharing-demand/data

Il existe plusieurs techniques connexes pour aborder ce problème qui construisent des «facteurs» ou des «composants» à partir des variables X qui sont ensuite utilisées pour prédire les Y. Cette page de documentation de SAS a aidé à clarifier les différences pour moi. La régression de rang réduit semble concerner l'extraction de composants qui tiennent compte au maximum de la variation entre les réponses, contrairement aux moindres carrés partiels qui extrait les composants qui tiennent au maximum la variation entre les réponses et les prédicteurs.

https://support.sas.com/documentation/cdl/en/statug/63347/HTML/default/viewer.htm#statug_pls_sect014.htm

Iggy25
la source
+1. C'est correct. J'ai discuté de cette page de documentation SAS et en particulier de leur figure dans ma réponse à stats.stackexchange.com/questions/206587.
amibe dit Réintégrer Monica