1. Arthur CHARPENTIER - Analyse des donn´ees
Analyse des donn´ees (5)
L’Analyse Discriminante, ou Scoring
Arthur Charpentier
http ://perso.univ-rennes1.fr/arthur.charpentier/
blog.univ-rennes1.fr/arthur.charpentier/
Master 2, Universit´e Rennes 1
1
2. Arthur CHARPENTIER - Analyse des donn´ees
L’analyse discriminante
On cherche ici `a discriminer entre deux ou plusieurs classes, d´efinies par les
modalit´es d’une variable Y , qualitative, `a partir d’un certain nombre de variables
explicatives X1, · · · , Xk (appel´ees pr´edicteurs), suppos´es quantitatifs.
Les classes sont ici d´efinies a priori (via la variable Y ). Deux types de
discrimination sont men´ees en pratique
• `a but descriptif : on cherche quelles sont les variables explicative (Xj) qui
discriminent le mieux
• `a but predictif : on cherche `a affecter un individu dans une classe, `a partir de
ses variables explicatives. On parle alors de scoring
On va alors chercher les variables explicatives les plus discriminantes vis vis des
classes dtermines.
On pourra alors dterminer quel groupe appartient un individu partir de ses
caractristiques.
Par rapport aux techniques de classification on intervient ici a posteriori : Y est
la classe (que l’on cherche `a expliquer).
2
3. Arthur CHARPENTIER - Analyse des donn´ees
Exemple introductif : infarctus du myocarde
Consid´erons la base suivantes, extraite de Saporta (1990), concernant des
victimes d’infarctus du myocarde, qui ont ´et´e mesur´es `a leur admission, avec la
f´equence cardiaque (FRCAR), un indcex cardiaque(INCAR), index systolique
(INSYS), pression diastolique (PRDIA), pression art´erielle pulmonaire (PAPUL),
pression venticulaire (PVENT) et r´esistance pulmonaire (REPUL).
> (MYOCARDE=read.table("http://perso.univ-rennes1.fr/arthur.charpentier/
+ saporta.csv",head=TRUE,sep=";"))
FRCAR INCAR INSYS PRDIA PAPUL PVENT REPUL PRONO
1 90 1.71 19.0 16 19.5 16.0 912 SURVIE
2 90 1.68 18.7 24 31.0 14.0 1476 DECES
3 120 1.40 11.7 23 29.0 8.0 1657 DECES
4 82 1.79 21.8 14 17.5 10.0 782 SURVIE
5 80 1.58 19.7 21 28.0 18.5 1418 DECES
6 80 1.13 14.1 18 23.5 9.0 1664 DECES
7 94 2.04 21.7 23 27.0 10.0 1059 SURVIE
8 80 1.19 14.9 16 21.0 16.5 1412 SURVIE
9 78 2.16 27.7 15 20.5 11.5 759 SURVIE
10 100 2.28 22.8 16 23.0 4.0 807 SURVIE
3
4. Arthur CHARPENTIER - Analyse des donn´ees
11 90 2.79 31.0 16 25.0 8.0 717 SURVIE
12 86 2.70 31.4 15 23.0 9.5 681 SURVIE
13 80 2.61 32.6 8 15.0 1.0 460 SURVIE
On essaye de comprendre qui va survivre `a l’infarctus, et qui va d´ec´eder.
On peut faire un peu de statistique descriptive sur les deux sous-groupes.
> apply(MYOCARDE[MYOCARDE$PRONO=="DECES",1:7],2,mean)
FRCAR INCAR INSYS PRDIA PAPUL PVENT REPUL
91.551724 1.397931 15.531034 21.448276 28.431034 11.844828 1738.689655
> apply(MYOCARDE[MYOCARDE$PRONO=="SURVIE",1:7],2,mean)
FRCAR INCAR INSYS PRDIA PAPUL PVENT REPUL
87.690476 2.318333 27.202381 15.976190 22.202381 8.642857 817.214286
> apply(MYOCARDE[MYOCARDE$PRONO=="DECES",1:7],2,sd)
FRCAR INCAR INSYS PRDIA PAPUL PVENT REPUL
15.2844136 0.3808954 4.4162932 5.0750525 7.1009609 4.4843049 616.3684023
> apply(MYOCARDE[MYOCARDE$PRONO=="SURVIE",1:7],2,sd)
FRCAR INCAR INSYS PRDIA PAPUL PVENT REPUL
14.589485 0.574388 8.484433 5.125204 6.574210 4.219996 313.039508
4
12. Arthur CHARPENTIER - Analyse des donn´ees
PRONOSTIC DECES SURVIE
SURVIE 14 34
DECES 15 8
Yi = 0 Yi = 1
Yi = 0 vrai n´egatif faux n´egatif
Yi = 1 faux positif vrai positif
Parmi les mesures de performance de la pr´ediction,
P(Y = 1|Y = 1) est appel´e pr´ecision
P(Y = 1|Y = 1) est appel´e taux de vrais positifs
P(Y = 1|Y = 0) est appel´e taux de faux positifs
On peut ´eventuellement repr´esenter le taux de vrais positifs en fonction du taux
de faux positifs.
Comme on essaye d’expliquer Y (un pronostic binaire) par plusieurs variables
continues, on pourrait utiliser une r´egression logistique, ou probit.
12
15. Arthur CHARPENTIER - Analyse des donn´ees
13 1 0.999 0.999
14 1 0.999 0.999
15 1 0.988 0.992
Plus le score est proche de 0, plus on devrait se prononcer pour un d´ec`es, plus il
est proche de 1, plus on devrait ˆetre confiant dans une survie.
De mani`ere “naturelle”, on peut fixer ce seuil `a 50% : si Y < .5 on pronostique
Y = 0, et si Y = 1 si Y > .5.
On obtient alors les classements suivants, avec le mˆeme tableau pour les mod`eles
probit et logit
Yi = 0 Yi = 1
Yi = 0 vrai n´egatif faux n´egatif
Yi = 1 faux positif vrai positif
Yi = 0 Yi = 1
Yi = 0 25 3
Yi = 1 4 39
Mais le seuil de 50% a ´et´e fix´e artibtrairement. En prenant des seuils `a 30% ou
70%, on peut changer les r´esultats,
15
16. Arthur CHARPENTIER - Analyse des donn´ees
Yi = 0 Yi = 1
Yi = 0 22 2
Yi = 1 7 40
Yi = 0 Yi = 1
Yi = 0 26 9
Yi = 1 3 33
Dans un cas, on diminue le nombre de faux n´egatif, en augmentant le nombre de
faux positif, et l’inverser pour l’autre choix.
On a alors un trade off sur le choix du seuil : on ne peut pas bien d´etecter tout le
monde ! Ce probl`eme apparaissait ´egalement sur l’ACP, lorsque l’on coupait la
r´egion en 2.
16
21. Arthur CHARPENTIER - Analyse des donn´ees
On cherche une analyse discriminante s´eparant au mieux ldes k classes,
Z1 = α0 +
p
j=1
αjXj
> lda(QUALITE~.,data=BORDEAUX)
Call:
lda(QUALITE ~ . + 1, data = BORDEAUX)
Prior probabilities of groups:
1 2 3
0.3235294 0.3235294 0.3529412
Group means:
TEMPERAT SOLEIL CHALEUR PLUIE
1 3306.364 1363.636 28.54545 305.0000
2 3140.909 1262.909 16.45455 339.6364
3 3037.333 1126.417 12.08333 430.3333
Coefficients of linear discriminants:
LD1 LD2
21
22. Arthur CHARPENTIER - Analyse des donn´ees
TEMPERAT 0.008566046 -4.625059e-05
SOLEIL 0.006773869 -5.329293e-03
CHALEUR -0.027054492 1.276362e-01
PLUIE -0.005865665 6.174556e-03
Proportion of trace:
LD1 LD2
0.9595 0.0405
On peut aussi centrer et r´eduire les variables,
X1 =
temperature − 3157.88
√
7668.456
, · · · , X4 =
pluie − 360
√
5758.039
.
> (M=apply(BORDEAUX,2,mean))
TEMPERAT SOLEIL CHALEUR PLUIE QUALITE
3157.882353 1247.323529 18.823529 360.441176 2.029412
> (S=apply(BORDEAUX,2,sd))
TEMPERAT SOLEIL CHALEUR PLUIE QUALITE
141.1843336 126.6229719 10.0165638 91.4016084 0.8343131
> BORDEAUX.CR=(BORDEAUX-matrix(rep(M,each=34),34,5))/matrix(rep(S,each=34),34,5)
22
23. Arthur CHARPENTIER - Analyse des donn´ees
> (LD=lda(QUALITE~.,data=BORDEAUX.CR))
Call:
lda(QUALITE ~ ., data = BORDEAUX.CR)
Prior probabilities of groups:
-1.23384339005595 -0.0352526682873127 1.16333805348132
0.3235294 0.3235294 0.3529412
Group means:
TEMPERAT SOLEIL CHALEUR PLUIE
-1.23384339005595 1.0516838 0.9185761 0.9705849 -0.6065667
-0.0352526682873127 -0.1202206 0.1230864 -0.2365067 -0.2276198
1.16333805348132 -0.8538413 -0.9548573 -0.6729050 0.7646710
Coefficients of linear discriminants:
LD1 LD2
TEMPERAT 1.2093914 -0.006529859
SOLEIL 0.8577274 -0.674810955
CHALEUR -0.2709930 1.278475787
PLUIE -0.5361312 0.564364371
23
24. Arthur CHARPENTIER - Analyse des donn´ees
Proportion of trace:
LD1 LD2
0.9595 0.0405
> PLD=predict(LD)$x
> boxplot(PLD~BORDEAUX$QUALITE)
On peut aussi utiliser la seconde variable disciminante, centr´ee, mais non corr´el´ee
`a Z1,
Z2 = β0 +
p
j=1
βjXj
On obtient les deux box-plot suivants
24
34. Arthur CHARPENTIER - Analyse des donn´ees
Les tests
La statistique la plus classique est le taux de bien class´es, i.e. P(Y = Y ).
Notons que le tableau de classement (ou matrice de confusion) est un tableau de
contingence, et on peut tester le charactere significatif de la pr´ediction par un
test du χ2
.
Le test du Lambda de Wilks permet de tester si les vecteurs des moyennes pour
les diffrentes groupes sont gaux ou non (ce test peut tre compris comme un
quivalent multidimensionnel du test de Fisher).
Le test du V de Rao mesure la distance entre les centre des groupes, et la
moyenne globale.
En fait ces tests ne sont possibles qu’`a condition d’avoir des vecteurs Gaussiens,
avec en plus une hypoth`ese d´egalit´e des matrices de variance-covariance dans
chaque groupe.
34
35. Arthur CHARPENTIER - Analyse des donn´ees
On peut utiliser un test de Kullback pour faire ce test, en notant que
k
i=1
ni − 1
2
log
det D
det Di
∼ χ2
sous H0,
o`u D est la matrice de variance covariance intra-groupe, Di est la matrice de
variance-covariance pour le groupe i, et ni d´esigne le nombre d’observations dans
le groupe i.
35
36. Arthur CHARPENTIER - Analyse des donn´ees
Un peu de formalisation
Pour commencer, supposons que Y prenne 2 modalit´es, not´ees 0 et 1. On suppose
que les m variables Xj sont continues.
Soient X0 = (X
Y =0
1 , · · · , X
Y =0
m ), X1 = (X
Y =1
1 , · · · , X
Y =1
m ),
V0 = [cov(X
Y =0
i , X
Y =0
j )] et V1 = [cov(X
Y =1
i , X
Y =1
j )].
On pose ´egalement X = (X1, · · · , Xm) et V = [cov(Xi, Xj)] (sur l’ensemble de
la population).
On note enfin ω0 et ω1 les poids de chacune des classes.
On appelle matrice de variance intercalsse la matrice de variance B des 2 centre
de gravit´es,
B =
1
k=0
ωk(Xk − X )(Xk − X ) ,
36
37. Arthur CHARPENTIER - Analyse des donn´ees
et W la matrice de variance interclasse W, moyenne des matrices Vk, i.e.
W =
1
k=0
ωkVk.
Notons que W est g´en´erallement inversible, alor que B ne l’est pas. La formule de
d´ecomposition de la variance donne
V = W + B
(la variance totale est la somme de la moyenne des variances et de la variance des
moyennes).
On supposera les variables centr´ees, i.e. X = 0, i.e.
B =
1
k=0
ωkXkXk et W =
1
k=0
ωkVk, o`u ωk =
nk
n
.
On consid`ere le tableau compos´e de la variable Y , ou plus g´en´eralement du
tableau disjonctif associ´e, not´e A, et du tableau X des variables explicatives.
37
38. Arthur CHARPENTIER - Analyse des donn´ees
Notons que les 2 centres de gravit´es X0 et X1 sont mes lignes de la matrice
(A DA)−1
(A DX) o`u D est la matrice est la matrice des poids individuels.
38
42. Arthur CHARPENTIER - Analyse des donn´ees
On cherche un axe ayant un bon pouvoir disciminant (entre les groupes), comme
l’axe dans le second cas.
En particulier, en projetant les centres de gravit´es des nuages, il faut que la
dispersion soit maximale.
La matrice d’inertie du nuage de X0 et X1 est MBM (o`u M est une m´etrique de
Rm
), et l’inertie du nuage project´e selon un axe a est alors a MBMa (si
a M = 1). On cherche alors `a maximiser a MBMa.
On souhaite aussi `a ce que le nuage soit regroup´e autour du centre de gravit´e (n
projection), que qui revient `a minimiser a MWMa
En utilisant V = B + W, on obtient que
a MV Ma = a MBMa + a MWMa
On peut alors prendre comme crit`ere `a maximiser est le rapport de l’inertie
interclasse `a l’inertie totale,
max
a{a MBMa
a MV Ma }.
42
43. Arthur CHARPENTIER - Analyse des donn´ees
Ce maximum est atteint si a est vecteur propre de (MV M)−1
MBM, associ´e `a la
plus grande valeur propre.
On fait alors l’ACP du nuage des centres de gravit´e, avec la m´etrique V −1
.
43
44. Arthur CHARPENTIER - Analyse des donn´ees
Analyse de la variance ?
Une autre interpr´etation peut se faire en terme d’analyse de la variance.
A la base, l’analyse de la variance (ANOVA `a un facteur) se fait de la mani`ere
suivante : on dispose de k groupes. On dispose d’observations {X1,i, · · · , Xni,i}
pour le groupe i. En supposant Xj,i ∼ N(µi, σ2
), i.i.d. On cherche `a tester
H0 : µ1 = · · · = µi = · · · = µk (= µ).
L’id´ee de l’analyse de la variance est d’utiliser un test de Fisher, en notant que
F =
S2
E
k − 1
·
n − k
S2
R
∼ F(k − 1, n − k),
o`u S2
=
1
n i,j
(Xj,i − X)2
= S2
E + S2
R,
S2
E =
1
n i
ni(Xi − X)2
et S2
R =
1
n i,j
(Xi,j − Xi)2
.
(d´ecomposition de la variance, entre variance inter S2
E et variance intra S2
R).
44
45. Arthur CHARPENTIER - Analyse des donn´ees
Mais ici, comme nous disposons que p variables explicatives, on cherche la
combinaison lin´eaire qui maximise une statistique de type Fisher. On cherche u
qui maximise
F =
u Bu
u Wu
.
La solution est de chercher le vecteur propre associ´e `a la plus valeur propre de
W−1
B (qui correspondent aux vecteurs propres de V −1
B).
Notons que la m´etrique associ´ee `a W−1
est parfois appel´ee m´etrique de
Mahalanobis.
45
46. Arthur CHARPENTIER - Analyse des donn´ees
Analyse de la variance avec 2 groupes
Comme k − 1 = 1, on recherche une unique variable discriminante.
Cet axe discriminant est alors la droite passant par les deux centres de gravit´e,
X0 et X1. Alors
u = V −1
(X0 − X1) ou W−1
(X0 − X1)
W−1
(X0 − X1) est appel´e fonction de Fisher. En fait, afin de normaliser, on
consid`ere plutˆot
n0 + n1 − 2
n1 + n2
W−1
Fisher en effet, cherchait la combinaison lin´eaire des variables explicatives telles
que le carr´e de la statistique de test prenne une valeur maximale, i.e.
max
u
(Y 0 − Y 1)
n0S2
0 + n1S2
1
n0 + n1 − 2
1
n0
+
1
n1
o`u Y = Xu.
46
47. Arthur CHARPENTIER - Analyse des donn´ees
Si l’on pose Σ =
n0 + n1
n0 + n1 − 2
W, on voit que la fonction de Fisher s’´ecrit
max
(u (X0 − X1))2
u Σu
,
c’est `a dire que u doit ˆetre proportionnel `a Σ(X0 − X1).
47
48. Arthur CHARPENTIER - Analyse des donn´ees
Interpr´etation en terme de r´egression
Notons que si l’on r´egresse brutalement Y sur X1, · · · , Xp, l’estimateur par
moindre carr´es s’´ecrit
β = (X X)−1
X Y = V −1
(X0 − X1).
Sur l’exemple pr´ec´dant,
> base
y x1 x2
[1,] 0 -0.06842752 1.0664922282
[2,] 0 -0.01273235 -1.8565790136
[3,] 0 -2.24507861 -2.3625561698
[4,] 0 0.62173134 -1.3233327477
[5,] 0 -1.06797642 -0.4757008868
[6,] 0 0.51384396 -0.0561551010
[...]
[395,] 1 1.95266073 2.2221802298
[396,] 1 3.32203741 0.6882211866
48
49. Arthur CHARPENTIER - Analyse des donn´ees
[397,] 1 1.35032036 0.7791709815
[398,] 1 1.30084249 2.1642225218
[399,] 1 2.61357210 1.9169049693
[400,] 1 0.31456394 -0.4377148839
> (r=lm(y~x1+x2,data=base))
Call:
lm(formula = y ~ x1 + x2)
Coefficients:
(Intercept) x1 x2
0.3736 0.1370 0.1209
> -coef(r)[2]/coef(r)[3]
x1
-1.133024
L’axe de discrimination sera alors de pente −1.13, et la constante refl`etera la
performance de la discrimination. Le plus classique ´etant (comme ici n1 = n0)
> (.5-coef(r)[1])/coef(r)[3]
49
51. Arthur CHARPENTIER - Analyse des donn´ees
R`egle d’affectation
Une fois d´etermin´e la direction de l’axe de discrimination, il reste `a choisir o`u
positionner cet axe.
Une r`egle naturelle consiste `a calculer la distance de l’observation aux centres de
gravit´es, puis `a affecter en prenant la distance la plus faible. Mais il faut encore
choisir la distance `a retenir... La m´etrique la plus usuelle est celle de
Mahalanobis, i.e. W−1
.
51
52. Arthur CHARPENTIER - Analyse des donn´ees
M´ethode de scoring, approche bay´esienne
On cherche ici `a affecter un individu `a l’une des classes, compte tenu de ses
modalit´es x. On l’affecte `a la classe k pour laquelle la probabilit´e
P(Y = y|X = x) est maximale.
52
53. Arthur CHARPENTIER - Analyse des donn´ees
M´ethode de scoring, exemple Gaussien
Supposons que X|Y = y suive une loi Gaussienne, N(µy, Σy), i.e.
f(x|Y = y) =
1
(2π)k det Σy
exp −
1
2
(x − µy) Σ−1
y (x − µy) .
Le crit`ere que l’on cherche `a maximiser est alors pyf(x|Y = y), ou son
logarithme, i.e.
(x − µy) Σ−1
y (x − µy) − 2 log py + log det Σy.
On parle alors de r`egle d’affectation quadratique.
Si l’on suppose les matrices de variance-covariance Σy constante, on obtient une
r`egle d’affectation lin´eaire.
53
56. Arthur CHARPENTIER - Analyse des donn´ees
Exemple Gaussien, interpr´etation
si les probabilit´es py sont ´gales, alors on affecte l’individu `a la classe pour laquelle
la distance entre x et le centre de gravit´e du nuage est minimale.
Si l’on a deux groupes, on affecte x `a la classe 0 si
x Σ−1
(µ0 − µ1) >
1
2
(µ0 − µ1) Σ−1
(µ0 − µ1) + log
p1
p0
.
On parlera de m´ethodes param´etriques de classification. Notons qu’il est possible
d’utiliser des m´ethodes de type k-plus proches voisins, o`u on recherche les k
voisins les plus proches de x, et x sera affect´e `a la classe majoritaire parmi ses
voisins.
56
58. Arthur CHARPENTIER - Analyse des donn´ees
L’utilisation des r´egressions
Ici, on cherche un mod`ele qui pourrait estimer Y en fonction d’une - ou plusieurs
- variables explicatives X. Y prend ici souvent deux valeurs 0 et 1, et sera
mod´elis´ee par la variable latente Y , continue entre 0 et 1.
On interpr`etera alors Y = 0.1 comme “il y a 10% de chances que Y = 1”.
On introduit alors le rapport des chances, “odds” ou “cote”,
p1 =
P(Y = 1)
1 − P(Y = 1)
E.g. si P(Y = 1) = 90%, alors p1 = 0.9/0.1 = 9 : on a 9 fois plus de chance
d’observer Y = 1 que Y = 0.
On passe de ce rapport de chance (d´efini sur R+
) `a une variable d´efinie sur R
(pour utiliser un mod`ele lin´eaire) en prenant le logarithme : on d´efini la
transformation logit
logit(p) = log
p
1 − p
, d’inverse logit−1
(y) =
exp(y)
1 + exp(y)
.
58
59. Arthur CHARPENTIER - Analyse des donn´ees
La r´egression logistique
On suppose ici que X|Y = y suive une loi Gaussienne, N(µy, Σy). Aussi,
X|Y = 0 a pour densit´e φ0 et X|Y = 1 a pour densit´e φ1.
Comme les probabilit´es a posteriori sont une fonction logistique du score, on a
log
φ1(x)
φ0(x)
= β x
On en d´eduit que
P(Y = 1|X = x) =
p1φ1(x)
p1φ1(x) + p0φ0(x)
=
p1φ1(x)
p0φ0(x)
1 +
p1φ1(x)
p0φ0(x)
et donc
P(Y = 1|X = x) =
exp(β x + log(p1/p0))
1 + exp(β x + log(p1/p0))
,
59
60. Arthur CHARPENTIER - Analyse des donn´ees
et de mani`ere symm´trique
P(Y = 0|X = x) =
1
1 + exp(β x + log(p1/p0))
.
La vraisemblance de β est alors
β|x =
i
φ0(xi)
i
φ1(xi)
or, d’apr`es la formule de Bayes,
φ0(x) =
P(Y = 0|X = x)[p0φ0(x) + p1φ1(x)]
p0
et donc
β|x =
1
pn0
0 pn1
1 i
P(Y = 0|X = xi)
i
P(Y = 1|X = xi)
i
[f(xi)]
o`u f(xi) = p0φ0(x) + p1φ1(x). Cette fonction ´etant inconnue, on utilise une
60
61. Arthur CHARPENTIER - Analyse des donn´ees
m´ethode de maximum de vraisemblance conditionnelle,
max
β
exp(β x + log(p1/p0))
1 + exp(β x + log(p1/p0))
1
1 + exp(β x + log(p1/p0))
qui n’admet pas de solution explicite.
On utilise une r`egle d’affectation simple : on affecte au groupe 1 si
β x + log
p1
p0
> 0.
61
63. Arthur CHARPENTIER - Analyse des donn´ees
Cas multinomial ordonn´e
Dans le cas des notations des vins de Bordeaux, on peut condi´erer les donn´ees
comme ´etant ordonn´ees. La variable Y prend les valeurs 1, 2 et 3.
On peut alors cr´eer deux variables dichotomiques
Y1 =
0 si Y = 1
1 si Y = 2, 3
et Y2 =
0 si Y = 1, 2
1 si Y = 3
de telle sorte que Y = 1 + Y1 + Y2. On fait alors deux r´egressions, que l’on va
sommer
> BORDEAUX$y1=BORDEAUX$QUALITE>1
> BORDEAUX$y2=BORDEAUX$QUALITE>2
> r1 <- glm(y1~TEMPERAT+SOLEIL+CHALEUR+PLUIE, data=BORDEAUX, family=binomial)
> r2 <- glm(y2~TEMPERAT+SOLEIL+CHALEUR+PLUIE, data=BORDEAUX, family=binomial)
> BORDEAUX$y1p <- predict(r1, type=’response’)
> BORDEAUX$y2p <- predict(r2, type=’response’)
> BORDEAUX$yP=1+BORDEAUX$y1p+BORDEAUX$y2p
> BORDEAUX
63
67. Arthur CHARPENTIER - Analyse des donn´ees
Analyse discriminante et ACP
Il est possible de voir l’analyse discriminante comme un cas particulier d’ACP
avec la m´etrique de Mahalanobis.
Soit X la matrice des donn´ees quantitatives, n × k. On dispose d’une variable Y
prenant m modalit´es (le plus simple ´etant 2). On note alors G la matrice des
barycentres des classes, i.e. m × k.
67
68. Arthur CHARPENTIER - Analyse des donn´ees
L’analyse discriminante avec R
Sous R, la library(ade4) propose la fonction discrim. Sinon library(MASS) propose la
fonction lda.
Sinon, les r´egressions probit et logit sont des cas particulier de la fonction glm,
avec
glm( ... , family=binomial(link = "logit")
glm( ... , family=binomial(link = "probit")
68