En utilisant un biplot de valeurs obtenues par l'analyse des composantes principales, il est possible d'explorer les variables explicatives qui composent chaque composante principale. Est-ce également possible avec l'analyse discriminante linéaire?
Les exemples fournis utilisent les données suivantes: "Les données de l'iris d'Edgar Anderson" ( http://en.wikipedia.org/wiki/Iris_flower_data_set ). Voici les données de l' iris :
id SLength SWidth PLength PWidth species
1 5.1 3.5 1.4 .2 setosa
2 4.9 3.0 1.4 .2 setosa
3 4.7 3.2 1.3 .2 setosa
4 4.6 3.1 1.5 .2 setosa
5 5.0 3.6 1.4 .2 setosa
6 5.4 3.9 1.7 .4 setosa
7 4.6 3.4 1.4 .3 setosa
8 5.0 3.4 1.5 .2 setosa
9 4.4 2.9 1.4 .2 setosa
10 4.9 3.1 1.5 .1 setosa
11 5.4 3.7 1.5 .2 setosa
12 4.8 3.4 1.6 .2 setosa
13 4.8 3.0 1.4 .1 setosa
14 4.3 3.0 1.1 .1 setosa
15 5.8 4.0 1.2 .2 setosa
16 5.7 4.4 1.5 .4 setosa
17 5.4 3.9 1.3 .4 setosa
18 5.1 3.5 1.4 .3 setosa
19 5.7 3.8 1.7 .3 setosa
20 5.1 3.8 1.5 .3 setosa
21 5.4 3.4 1.7 .2 setosa
22 5.1 3.7 1.5 .4 setosa
23 4.6 3.6 1.0 .2 setosa
24 5.1 3.3 1.7 .5 setosa
25 4.8 3.4 1.9 .2 setosa
26 5.0 3.0 1.6 .2 setosa
27 5.0 3.4 1.6 .4 setosa
28 5.2 3.5 1.5 .2 setosa
29 5.2 3.4 1.4 .2 setosa
30 4.7 3.2 1.6 .2 setosa
31 4.8 3.1 1.6 .2 setosa
32 5.4 3.4 1.5 .4 setosa
33 5.2 4.1 1.5 .1 setosa
34 5.5 4.2 1.4 .2 setosa
35 4.9 3.1 1.5 .2 setosa
36 5.0 3.2 1.2 .2 setosa
37 5.5 3.5 1.3 .2 setosa
38 4.9 3.6 1.4 .1 setosa
39 4.4 3.0 1.3 .2 setosa
40 5.1 3.4 1.5 .2 setosa
41 5.0 3.5 1.3 .3 setosa
42 4.5 2.3 1.3 .3 setosa
43 4.4 3.2 1.3 .2 setosa
44 5.0 3.5 1.6 .6 setosa
45 5.1 3.8 1.9 .4 setosa
46 4.8 3.0 1.4 .3 setosa
47 5.1 3.8 1.6 .2 setosa
48 4.6 3.2 1.4 .2 setosa
49 5.3 3.7 1.5 .2 setosa
50 5.0 3.3 1.4 .2 setosa
51 7.0 3.2 4.7 1.4 versicolor
52 6.4 3.2 4.5 1.5 versicolor
53 6.9 3.1 4.9 1.5 versicolor
54 5.5 2.3 4.0 1.3 versicolor
55 6.5 2.8 4.6 1.5 versicolor
56 5.7 2.8 4.5 1.3 versicolor
57 6.3 3.3 4.7 1.6 versicolor
58 4.9 2.4 3.3 1.0 versicolor
59 6.6 2.9 4.6 1.3 versicolor
60 5.2 2.7 3.9 1.4 versicolor
61 5.0 2.0 3.5 1.0 versicolor
62 5.9 3.0 4.2 1.5 versicolor
63 6.0 2.2 4.0 1.0 versicolor
64 6.1 2.9 4.7 1.4 versicolor
65 5.6 2.9 3.6 1.3 versicolor
66 6.7 3.1 4.4 1.4 versicolor
67 5.6 3.0 4.5 1.5 versicolor
68 5.8 2.7 4.1 1.0 versicolor
69 6.2 2.2 4.5 1.5 versicolor
70 5.6 2.5 3.9 1.1 versicolor
71 5.9 3.2 4.8 1.8 versicolor
72 6.1 2.8 4.0 1.3 versicolor
73 6.3 2.5 4.9 1.5 versicolor
74 6.1 2.8 4.7 1.2 versicolor
75 6.4 2.9 4.3 1.3 versicolor
76 6.6 3.0 4.4 1.4 versicolor
77 6.8 2.8 4.8 1.4 versicolor
78 6.7 3.0 5.0 1.7 versicolor
79 6.0 2.9 4.5 1.5 versicolor
80 5.7 2.6 3.5 1.0 versicolor
81 5.5 2.4 3.8 1.1 versicolor
82 5.5 2.4 3.7 1.0 versicolor
83 5.8 2.7 3.9 1.2 versicolor
84 6.0 2.7 5.1 1.6 versicolor
85 5.4 3.0 4.5 1.5 versicolor
86 6.0 3.4 4.5 1.6 versicolor
87 6.7 3.1 4.7 1.5 versicolor
88 6.3 2.3 4.4 1.3 versicolor
89 5.6 3.0 4.1 1.3 versicolor
90 5.5 2.5 4.0 1.3 versicolor
91 5.5 2.6 4.4 1.2 versicolor
92 6.1 3.0 4.6 1.4 versicolor
93 5.8 2.6 4.0 1.2 versicolor
94 5.0 2.3 3.3 1.0 versicolor
95 5.6 2.7 4.2 1.3 versicolor
96 5.7 3.0 4.2 1.2 versicolor
97 5.7 2.9 4.2 1.3 versicolor
98 6.2 2.9 4.3 1.3 versicolor
99 5.1 2.5 3.0 1.1 versicolor
100 5.7 2.8 4.1 1.3 versicolor
101 6.3 3.3 6.0 2.5 virginica
102 5.8 2.7 5.1 1.9 virginica
103 7.1 3.0 5.9 2.1 virginica
104 6.3 2.9 5.6 1.8 virginica
105 6.5 3.0 5.8 2.2 virginica
106 7.6 3.0 6.6 2.1 virginica
107 4.9 2.5 4.5 1.7 virginica
108 7.3 2.9 6.3 1.8 virginica
109 6.7 2.5 5.8 1.8 virginica
110 7.2 3.6 6.1 2.5 virginica
111 6.5 3.2 5.1 2.0 virginica
112 6.4 2.7 5.3 1.9 virginica
113 6.8 3.0 5.5 2.1 virginica
114 5.7 2.5 5.0 2.0 virginica
115 5.8 2.8 5.1 2.4 virginica
116 6.4 3.2 5.3 2.3 virginica
117 6.5 3.0 5.5 1.8 virginica
118 7.7 3.8 6.7 2.2 virginica
119 7.7 2.6 6.9 2.3 virginica
120 6.0 2.2 5.0 1.5 virginica
121 6.9 3.2 5.7 2.3 virginica
122 5.6 2.8 4.9 2.0 virginica
123 7.7 2.8 6.7 2.0 virginica
124 6.3 2.7 4.9 1.8 virginica
125 6.7 3.3 5.7 2.1 virginica
126 7.2 3.2 6.0 1.8 virginica
127 6.2 2.8 4.8 1.8 virginica
128 6.1 3.0 4.9 1.8 virginica
129 6.4 2.8 5.6 2.1 virginica
130 7.2 3.0 5.8 1.6 virginica
131 7.4 2.8 6.1 1.9 virginica
132 7.9 3.8 6.4 2.0 virginica
133 6.4 2.8 5.6 2.2 virginica
134 6.3 2.8 5.1 1.5 virginica
135 6.1 2.6 5.6 1.4 virginica
136 7.7 3.0 6.1 2.3 virginica
137 6.3 3.4 5.6 2.4 virginica
138 6.4 3.1 5.5 1.8 virginica
139 6.0 3.0 4.8 1.8 virginica
140 6.9 3.1 5.4 2.1 virginica
141 6.7 3.1 5.6 2.4 virginica
142 6.9 3.1 5.1 2.3 virginica
143 5.8 2.7 5.1 1.9 virginica
144 6.8 3.2 5.9 2.3 virginica
145 6.7 3.3 5.7 2.5 virginica
146 6.7 3.0 5.2 2.3 virginica
147 6.3 2.5 5.0 1.9 virginica
148 6.5 3.0 5.2 2.0 virginica
149 6.2 3.4 5.4 2.3 virginica
150 5.9 3.0 5.1 1.8 virginica
Exemple de biplot PCA utilisant l'ensemble de données iris dans R (code ci-dessous):
Cette figure indique que la longueur et la largeur des pétales sont importantes pour déterminer le score PC1 et pour distinguer les groupes d'espèces. setosa a des pétales plus petits et des sépales plus larges.
Apparemment, des conclusions similaires peuvent être tirées du traçage des résultats d'analyse discriminante linéaire, bien que je ne sois pas certain de ce que présente le tracé LDA, d'où la question. L'axe sont les deux premiers discriminants linéaires (LD1 99% et LD2 1% de trace). Les coordonnées des vecteurs rouges sont des "Coefficients de discriminants linéaires" également appelés "scaling" (lda.fit $ scaling: une matrice qui transforme les observations en fonctions discriminantes, normalisées de telle sorte qu'au sein des groupes la matrice de covariance soit sphérique). "mise à l'échelle" est calculé comme diag(1/f1, , p)
et f1 is sqrt(diag(var(x - group.means[g, ])))
. Les données peuvent être projetées sur les discriminants linéaires (en utilisant predict.lda) (code ci-dessous, comme démontré https://stackoverflow.com/a/17240647/742447). Les données et les variables prédictives sont tracées ensemble afin que les espèces soient définies par une augmentation du nombre de variables prédictives visibles (comme cela est fait pour les biplots PCA habituels et le biplot PCA ci-dessus).
À partir de cette parcelle, la largeur du sépale, la largeur du pétale et la longueur du pétale contribuent toutes à un niveau similaire à LD1. Comme prévu, la setosa apparaît avec des pétales plus petits et des sépales plus larges.
Il n'y a aucun moyen intégré de tracer de tels biplots de LDA dans R et peu de discussions sur ce site en ligne, ce qui me rend méfiant de cette approche.
Ce graphique LDA (voir le code ci-dessous) fournit-il une interprétation statistiquement valide des scores de mise à l'échelle des variables prédictives?
Code pour PCA:
require(grid)
iris.pca <- prcomp(iris[,-5])
PC <- iris.pca
x="PC1"
y="PC2"
PCdata <- data.frame(obsnames=iris[,5], PC$x)
datapc <- data.frame(varnames=rownames(PC$rotation), PC$rotation)
mult <- min(
(max(PCdata[,y]) - min(PCdata[,y])/(max(datapc[,y])-min(datapc[,y]))),
(max(PCdata[,x]) - min(PCdata[,x])/(max(datapc[,x])-min(datapc[,x])))
)
datapc <- transform(datapc,
v1 = 1.6 * mult * (get(x)),
v2 = 1.6 * mult * (get(y))
)
datapc$length <- with(datapc, sqrt(v1^2+v2^2))
datapc <- datapc[order(-datapc$length),]
p <- qplot(data=data.frame(iris.pca$x),
main="PCA",
x=PC1,
y=PC2,
shape=iris$Species)
#p <- p + stat_ellipse(aes(group=iris$Species))
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + geom_text(data=datapc,
aes(x=v1, y=v2,
label=varnames,
shape=NULL,
linetype=NULL,
alpha=length),
size = 3, vjust=0.5,
hjust=0, color="red")
p <- p + geom_segment(data=datapc,
aes(x=0, y=0, xend=v1,
yend=v2, shape=NULL,
linetype=NULL,
alpha=length),
arrow=arrow(length=unit(0.2,"cm")),
alpha=0.5, color="red")
p <- p + coord_flip()
print(p)
Code pour LDA
#Perform LDA analysis
iris.lda <- lda(as.factor(Species)~.,
data=iris)
#Project data on linear discriminants
iris.lda.values <- predict(iris.lda, iris[,-5])
#Extract scaling for each predictor and
data.lda <- data.frame(varnames=rownames(coef(iris.lda)), coef(iris.lda))
#coef(iris.lda) is equivalent to iris.lda$scaling
data.lda$length <- with(data.lda, sqrt(LD1^2+LD2^2))
scale.para <- 0.75
#Plot the results
p <- qplot(data=data.frame(iris.lda.values$x),
main="LDA",
x=LD1,
y=LD2,
shape=iris$Species)#+stat_ellipse()
p <- p + geom_hline(aes(0), size=.2) + geom_vline(aes(0), size=.2)
p <- p + theme(legend.position="none")
p <- p + geom_text(data=data.lda,
aes(x=LD1*scale.para, y=LD2*scale.para,
label=varnames,
shape=NULL, linetype=NULL,
alpha=length),
size = 3, vjust=0.5,
hjust=0, color="red")
p <- p + geom_segment(data=data.lda,
aes(x=0, y=0,
xend=LD1*scale.para, yend=LD2*scale.para,
shape=NULL, linetype=NULL,
alpha=length),
arrow=arrow(length=unit(0.2,"cm")),
color="red")
p <- p + coord_flip()
print(p)
Les résultats de la LDA sont les suivants
lda(as.factor(Species) ~ ., data = iris)
Prior probabilities of groups:
setosa versicolor virginica
0.3333333 0.3333333 0.3333333
Group means:
Sepal.Length Sepal.Width Petal.Length Petal.Width
setosa 5.006 3.428 1.462 0.246
versicolor 5.936 2.770 4.260 1.326
virginica 6.588 2.974 5.552 2.026
Coefficients of linear discriminants:
LD1 LD2
Sepal.Length 0.8293776 0.02410215
Sepal.Width 1.5344731 2.16452123
Petal.Length -2.2012117 -0.93192121
Petal.Width -2.8104603 2.83918785
Proportion of trace:
LD1 LD2
0.9912 0.0088
la source
discriminant predictor variable scaling scores
? - le terme me semble peu commun et étrange.predictor variable scaling scores
. Peut-être des "scores discriminants"? Quoi qu'il en soit, j'ai ajouté une réponse qui pourrait vous intéresser.Réponses:
Analyses des composants principaux et sorties d'analyse discriminante linéaire ; données d'iris .
Je ne dessinerai pas de biplots car les biplots peuvent être dessinés avec différentes normalisations et peuvent donc avoir un aspect différent. Comme je ne suis pas
R
utilisateur, j'ai du mal à retrouver comment vous avez produit vos tracés, à les répéter. Au lieu de cela, je ferai PCA et LDA et afficherai les résultats, d'une manière similaire à cela (vous voudrez peut-être lire). Les deux analyses effectuées dans SPSS.Composantes principales des données sur l'iris :
Il est important de souligner que ce sont les charges, et non les vecteurs propres, par lesquels nous interprétons généralement les principaux composants (ou facteurs dans l'analyse factorielle) - si nous devons interpréter. Les charges sont les coefficients de régression des variables de modélisation par des composants normalisés . En même temps, comme les composants ne sont pas intercorrélés, ce sont les covariances entre ces composants et les variables. Les charges normalisées (rééchelonnées), comme les corrélations, ne peuvent pas dépasser 1 et sont plus pratiques à interpréter car l'effet des variances inégales des variables est supprimé.
Ce sont les chargements, et non les vecteurs propres, qui sont généralement affichés sur un biplot côte à côte avec les scores des composants; ces derniers sont souvent affichés normalisés en colonne.
Discriminants linéaires des données de l' iris :
À propos des calculs lors de l'extraction des discriminants dans LDA, veuillez consulter ici . Nous interprétons les discriminants généralement par des coefficients discriminants ou des coefficients discriminants standardisés (ces derniers sont plus pratiques car la variance différentielle des variables est supprimée). C'est comme dans PCA. Mais, notez: les coefficients sont ici les coefficients de régression de la modélisation des discriminants par variables , et non l'inverse, comme c'était le cas dans l'ACP. Les variables n'étant pas non corrélées, les coefficients ne peuvent pas être considérés comme des covariances entre variables et discriminants.
Pourtant, nous avons à la place une autre matrice qui peut servir de source alternative d'interprétation des discriminants - des corrélations regroupées au sein du groupe entre les discriminants et les variables. Parce que les discriminants ne sont pas corrélés, comme les PC, cette matrice est dans un sens analogue aux chargements standardisés de PCA.
En tout, alors que dans PCA nous avons la seule matrice - les chargements - pour aider à interpréter les latentes, dans LDA nous avons deux matrices alternatives pour cela. Si vous devez tracer (biplot ou autre), vous devez décider de tracer des coefficients ou des corrélations.
Et, bien sûr, inutile de rappeler que dans l'ACP des données d'iris, les composants ne "savent" pas qu'il existe 3 classes; on ne peut pas s'attendre à ce qu'ils discriminent les classes. Les discriminants "savent" qu'il y a des classes et c'est leur travail naturel qui est de discriminer.
la source
Loadings are the coefficients to predict...
aussi bien que ici :[Footnote: The components' values...]
. Les chargements sont des coefficients pour calculer des variables à partir de composants normalisés et orthogonaux, en vertu de quels chargements sont les covariances entre celles-ci et celles-ci.Ma compréhension est que des biplots d'analyses discriminantes linéaires peuvent être effectués, ils sont en fait implémentés dans les packages R ggbiplot et ggord et une autre fonction pour le faire est publiée dans ce thread StackOverflow .
Le livre "Biplots in practice" de M. Greenacre comporte également un chapitre (chapitre 11, voir pdf ) et à la figure 11.5, il montre un biplot d'une analyse discriminante linéaire de l'ensemble de données iris:
la source
Je sais que cela a été demandé il y a plus d'un an, et ttnphns a donné une excellente et approfondie réponse, mais j'ai pensé ajouter quelques commentaires pour ceux (comme moi) qui sont intéressés par PCA et LDA pour leur utilité en matière écologique. sciences, mais ont une formation statistique limitée (pas des statisticiens).
Les PC dans PCA sont des combinaisons linéaires de variables originales qui expliquent de manière séquentielle au maximum la variance totale dans l'ensemble de données multidimensionnel. Vous aurez autant de PC que de variables d'origine. Le pourcentage de la variance expliquée par les PC est donné par les valeurs propres de la matrice de similitude utilisée, et le coefficient pour chaque variable d'origine sur chaque nouveau PC est donné par les vecteurs propres. L'APC n'a aucune hypothèse sur les groupes. PCA est très bon pour voir comment plusieurs variables changent de valeur dans vos données (dans un biplot, par exemple). L'interprétation d'une PCA repose fortement sur le biplot.
LDA est différent pour une raison très importante - il crée de nouvelles variables (LD) en maximisant la variance entre les groupes. Ce sont toujours des combinaisons linéaires de variables d'origine, mais plutôt que d'expliquer autant de variance que possible avec chaque LD séquentiel, elles sont plutôt dessinées pour maximiser la DIFFÉRENCE entre les groupes le long de cette nouvelle variable. Plutôt qu'une matrice de similarité, LDA (et MANOVA) utilise une matrice de comparaison entre et au sein des groupes somme des carrés et des produits croisés. Les vecteurs propres de cette matrice - les coefficients qui étaient initialement concernés par le PO - décrivent dans quelle mesure les variables d'origine contribuent à la formation des nouveaux LD.
Pour ces raisons, les vecteurs propres de la PCA vous donneront une meilleure idée de la façon dont une variable change de valeur dans votre nuage de données et de l'importance de la variance totale de votre ensemble de données que la LDA. Cependant, le LDA, en particulier en combinaison avec une MANOVA, vous donnera un test statistique de différence dans les centroïdes multivariés de vos groupes, et une estimation de l'erreur dans l'allocation des points à leurs groupes respectifs (dans un sens, la taille de l'effet multivarié). Dans une LDA, même si une variable change de façon linéaire (et significative) d'un groupe à l'autre, son coefficient sur une LD peut ne pas indiquer l '"échelle" de cet effet et dépend entièrement des autres variables incluses dans l'analyse.
J'espère que c'était clair. Merci pour votre temps. Voir une image ci-dessous ...
la source