HAL Id: hal-00893884
https://hal.archives-ouvertes.fr/hal-00893884
Submitted on 1 Jan 1991
HAL is a multi-disciplinary open access
archive for the deposit and dissemination of
sci-entific research documents, whether they are
pub-lished or not. The documents may come from
teaching and research institutions in France or
abroad, or from public or private research centers.
L’archive ouverte pluridisciplinaire HAL, est
destinée au dépôt et à la diffusion de documents
scientifiques de niveau recherche, publiés ou non,
émanant des établissements d’enseignement et de
recherche français ou étrangers, des laboratoires
publics ou privés.
Approches statistiques de l’évaluation génétique des
reproducteurs pour des caractères binaires à seuils
Jl Foulley, E Manfredi
To cite this version:
Article
original
Approches statistiques
de l’évaluation
génétique
des
reproducteurs
pour
des caractères
binaires à seuils
JL
Foulley,
E
Manfredi
Institut national de la recherche
agronomique,
station degénétique quantitative
et
appliquée, équipe
degénétique statistique,
78352Jouy-en-Josas cedex,
France(Reçu
le 7 novembre 1990;accepté
le 29 mai1991)
Résumé - Cet article
présente
3 méthodesstatistiques
d’estimation desparamètres
deposition
et dedispersion
relatifs au modèle à seuilsapplicable
à des caractères à variationphénotypique
binaire en structure de modèle mixte des facteurs de variation. Ces méthodesconcernent :
l’approche
linéaire deGrizzle,
Starmer et Koch(1969)
et son extensionbayésienne
au modèlemixte; l’approche
du modèle linéairegénéralisé
et de laquasi-vraisemblance de
Gilmour,
Anderson et Rae(1985-87)
et enfin la méthodebayésienne
du modeconjoint
aposteriori
(MAP)
de Gianola etFoulley
(1983).
Différents aspectscomparatifs
de ces 3 méthodes sont abordés en discussion.évaluation des reproducteurs / variables discrètes
/
caractères à seuils/
théorieasymptotique
/
modèle linéaire généralisé/
quasi vraisemblance/
inférencebayé-sienne
/
modèle mixteSummary - Statistical approaches to genetic evaluation for threshold binary traits
This article describes 3 statistical methods
of inference
about location anddispersion
parameters
of
the threshold modelapplied
tobinary
traits under a mixed model structureof
variation. These methods are :1),
the linearapproach of Grizzle,
Starmer and Koch(1969)
and itsBayesian
extension to a mixedmodel;
l),
thequasi-likelihood approach
to the
generalized
linear model asproposed by
Gilmour et al(1985-1987),
and3),
theBayesian
method(joint
mode aposteriori-MAP) of Gianola
andFoulley
(1983).
Di,!j"erent
aspects
of comparison
among theseprocedures
are discussed.genetic evaluation
/
discrete variables/
threshold traits/
asymptotic theory/
generalized linear model
/
quasi-likelihood/
Bayesian inference/
mixed modelPOSITION DU
PROBLÈME
paramètres
dedispersion.
Ces méthodesstatistiques
sejustifient pleinement
dans le cadre du modèle linéairegaussien.
Dans le cas de variables
discrètes, l’application
directe ouaprès aménagement
du BLUP pose de sérieuses difficultésconceptuelles
liées à ladépendance
entre lafréquence
et la variance descaractéristiques
discrètes étudiées(Gianola,
1982;
Foulley, 1987;
Im etal, 1987;
Foulley
etal,
1990a).
Quant
auxalgorithmes
de calcul duREML,
l’application
de ceux-ci aux variables discrètes nerépond
qu’à
des motifsd’opportunité
calculatoire. Pourplus
derigueur,
on en est réduit à des estimateursquadratiques
tels que ceuxproposés
ou discutés notamment par Robertson et Lerner(1949),
Landis et Koch(1977),
Lavergne
(1984)
etFreycon
(1989)
pour un modèle à un seul facteur aléatoire ou par Beitler et Landis(1985)
etFoulley
(1987)
pour un modèle mixte à 2 facteurs. Dans le mêmeesprit
del’analyse
de variancefigurent
les méthodes inférentielles deTaguchi
qui
sont très usitées dans l’industrie mais peu connues en sélection etqui
s’avèrent en tout état de cause trèscritiquables
d’unpoint
de vuethéorique
(Hamada
etWu,
1990).
Parailleurs,
l’analyse
des données(Tukey,
1962; Benzecri,
1973),
fournit toute une gamme d’outils intéressants pour le traitementstatistique
des donnéescatégorielles,
qui
sontparticulièrement adaptés
à uneapproche statistique descriptive
etexploratoire
maisqui
se révèlentplus
difficiles àexploiter
dans uneoptique
inférentielle comme c’est le cas engénétique
et sélection.
Le modèle «béta-binomial» des données ou son
pendant
«Dirichlet-multinomial» »pour
plusieurs catégories,
offre un cadreconceptuel plus rigoureux
et intéressant vis-à-vis de l’inférencestatistique;
il autorise enparticulier
ledéveloppement
d’estimateurs du maximum de vraisemblance(Williams,
1975)
oubayésiens
(Im,
1982;
Foulley
etIm,
1989)
qui
sont étroitementapparentés
au BLUP(Quaas
et VanVleck, 1980;
Foulley
etal,
1990a).
Malheureusement,
ce modèle n’est pasgénéralisable
à une situationplus
complexe
que celle d’un modèle aléatoire à un seul facteur(Im, 1982).
L’analyse génétique
de tels caractères n’a eu de cesse depréoccuper
les chercheursdepuis
lesorigines
de lagénétique.
L’expression
discrète desphénotypes
inclinena-turellement à une
approche
factorielle du déterminismegénétique
avec,toutefois,
de sérieuses difficultés
d’ajustement
du modèle aux observations(Manfredi, 1990)
à moins d’un recours à desconcepts
ad hoc tels que celui depénétrance
etd’expressi-vité variable par
exemple.
Demême,
l’étude de la transmission du caractère d’unegénération
à la suivante nepeut
plus s’appréhender
simplement
comme enprésence
d’un caractèrecontinu,
par lestechniques
classiques
derégression
et de corréla-tion. Il faut alorsanalyser
des tables decontingence
par des indices d’associationspécifiques
de telles structures(Haberman,
1982;
Kendall etStuart,
1961).
L’idée d’unesusceptibilité
normalesous-jacente
àl’expression
du caractère s’est faitjour
et s’estdéveloppée
peu à peu dansl’esprit
des chercheurs pourpallier
toutes ces difficultés. Pearson(1900, 1904)
apparaît
comme unpionnier
dans
cedomaine;
fort de sa maîtrise de la distributionmultinormale,
il introduit leconcept
de corrélationtétrachorique
entre variables discrètes pourquantifier
les ressemblances entreapparentés
en termeclassique
de corrélation(Fraser, 1980).
Wright
(1943a,b)
introduit le modèle à seuils pour rendrecompte
de l’écart à desLe formalisme du modèle à seuils est en fait très
simple,
notamment pour un caractère tout-ou-rien comme lerappelle
ledéveloppement
suivant.Désignons
par x la variable aléatoire relative au
phénotype sous-jacent
d’un individu d’unepopulation
donnée;
on suppose que x est distribuée sur une échelle continuesous-jacente
munie d’un seuil T, suivant une loi normale-
),
2
JL
0
,
N(
de moyenne p et de varianceu
2
;
dans cesconditions,
laprobabilité qu’un
individu tiré au hasard dans lapopulation présente
un desphénotypes
tout-ou-rien(y
= 1 parexemple)
+oc
est donnée par ! =
J
f+! T (2!r)-l!2exp !-(t -
JL
)2 /20-
2
]dt;
après
lechangement
de variable t* _(t -
!,)/!,
cetteprobabilité s’exprime
àpartir
de la fonction derépartition
4l(.)
de la loi normale par 7r =4) [(IL - T
)/o-]
avec pourargument,
l’écart standardisé de la moyenne de lapopulation
au seuil.La non linéarité de la relation entre
expressions
binaire etsous-jacente
se manifesteégalement
au niveau des valeursgénétiques
définies sur ces 2 échelles. Eneffet,
si l’on suppose un déterminismegénétique
sous-jacent
purement
additif,
on
peut
écrirex =
JL
+ a + e où a ,...,
N(0,o-!)
et e -N(O, ué)
désignent
les effetsgénétiques
et de milieurespectivement ;
la valeurgénétique
sur l’échelle binaire(g)
correspond
par définition auphénotype
moyen des individusayant
tous la même valeurgénétique
(sous-jacente)
soit g
=Pr(x >_
7
-
1
,u,
a).
Si l’onplace l’origine
auseuil
(
T
=0),
g s’exprime
par g =
<I>[(
JL
+a)/o
’e]
-
Onpeut
alors calculer aisément les moments de cette variablealéatoire,
cequi
permet
d’expliciter
les relations entreparamètres génétiques
sur les 2 échelles. Cette variable a pourespérance
!r =
E(g) =
<I>[JL/(O-! +0-;)1/2]
et
pour variance
Q9
=
4l2 (À, À
i
h2) - <I>2(¡i)
(Foulley et
Im,
1989) où ji
= JL/( o-! +0-;)1/2, h2
=o-!/ (o-! +0-;)
est l’héritabilité du caractère sur l’échellesous-jacente
et4l
2
(a,
(3;
p)
est la fonction derépartition
de la loi binormale réduited’arguments a, 0
et de corrélation p.L’expression
classique
!9
=h2cfJ2(¡i)
donnée par Robertson(1950)
etDempster
et Lerner(1950)
où0(.)
est la densité de la loi normaleréduite, correspond
en fait à uneapproximation
aupremier
ordre de la formuleprécédente
auvoisinage
deh
2
= 0(Foulley
etIm,
1989).
L’utilisationde la formule de
Robertson, Dempster
et Lerner a été discutée notamment par Van Vleck(1972),
Razungles
(1977)
et Hill et Smith(1977).
D’un
point
de vuegénétique, l’hypothèse
de normalité sur un continuumsous-jacent
s’accorde bien avec celle d’un déterminismepolygénique classiquement
adoptée
dans l’étude des caractèresquantitatifs. L’analyse génétique
des caractères discrets à seuilss’intègre
donc naturellement dans le cadre habituel de lagénétique
quantitative
et de ses concepts. Il en résulte une cohérence del’analyse,
enparticulier
dans l’étude d’unmélange
de caractères discrets et continus(Foulley
etal,
1983;
Siminianer etSchaeffer,
1990)
et dans celle de caractères à hérédité mixteimpliquant
ungène
majeur
et despolygènes
(Lalouel
et al1983; Foulley
et
Elsen, 1988;
Eisen et LeRoy,
1990).
Le caractère attractif de ce modèle s’est concrétisé par de nombreusesapplications
dans divers secteurs tels que parexemple
les suivants :- sensibilité
aux maladies et anomalies
congénitales
chez l’homme(Falconer,
1965;
Curnow etSmith,
1975)
comme chez l’animal(cf par
exemple
Sellier etOllivier,
1982 pour lesyndrome
dit «despattes
écartées» chez leporc);
- déterminisme
génétique
et environnemental du sexe(cf Bulmer
etBull,
1982 et Bull etal,
1982 pour uneapplication
chez certainspoissons
et latortue) ;
-
caractéristiques
dereproduction
etd’adaptation
en zootechnie telles que la fertilité(H
d
schele
etal,
1987),
les difficultés devêlage
des bovins(Meijering,
1984, 1986;
Djemali
etal, 1987; Quaas
etal,
1988;
Hagger
etHoffer, 1990;
Manfredi etal,
1991a,
1991b),
la taille deportée
et la survie des agneaux(Petersson
etDanell,
1985;
Bodin etElsen,
1989),
Lagémellité
des bovins(Manfredi
etal, 1990,
1991c;
Ron etal,
1990),
lamorphologie
despieds
(Gilmour
etal,
1987)
et laqualité
de la laine(Thompson
etal,
1985)
chez le mouton.D’un
point
de vuestatistique,
le modèle à seuils est un casparticulier
de la théorie des modèles linéairesgénéralisés
(Nelder
etWedderburn,
1972 ;
McCullagh
etNelder,
1989)
puisque
dans sondéveloppement
leplus simple
d’une variablebinaire,
ils’explicite
grâce
à unefonction,
de lien« probit
$&dquo;!(7r).
De cefait,
le modèle à seuils pourra être abordé dans un cadrestatistique
très riche(Ducrocq,
1990)
qui
ouvre sur desapplications
dépassant
largement
le domaine de lagénétique
humaine et de la sélection animale pour s’étendre parexemple
à laneurophysiologie
et laséismologie
(Brillinger,
1985),
à la théorie dessondages
(Grosbas,
1987),
à lapsychologie,
aux sciences sociales(Hammerle, 1990)
et à l’économétrie(Maddala,
1983;
Judge
etal,
1985).
Les modèles utilisés en sélection animale sont
classiquement
des modèles mixtes des facteurs de variation(Henderson, 1984)
impliquant
d’unepart
des effets fixes relatifs à des facteurs environnementaux(année,
saison,
élevage,
type
deconduite)
et de niveaugénétique
despopulations
(effet «groupe»)
et, d’autrepart,
des effets aléatoirescorrespondant
aux individus candidats à la sélection et retenus(effet
«père»
ou «animal» parexemple).
Deplus,
à des fins desélection,
l’inférencestatistique
porte
à la fois sur l’estimation de certains effets fixes et sur laprédiction
d’effets aléatoires. Il y a là uneoriginalité
qui
n’a pastoujours
étéprise
encompte
par lastatistique
générale
etqui
a motivé un intérêt et desdéveloppements
statistiques
de lapart
desgénéticiens quantitatifs.
Aussi cette revue a-t-elle pour but de faire le
point
sur lesprincipales
méthodes d’estimationstatistique
desparamètres
deposition
et dedispersion
intéressant le sélectionneur dans le cadre du modèle à seuils et d’une structure mixte des facteurs de variation.À
cettefin,
nous considérerons successivement :l’approche
linéaire deGrizzle,
Starmer et Koch(1969)
et son extensionbayésienne
au modèlemixte;
celle du modèle linéairegénéralisé
et de laquasi-vraisemblance
telleque définie
par Gilmour et al(1985)
etenfin, l’approche bayésienne
du modeconjoint
aposteriori
(MAP)
développée
notamment par Gianola etFoulley
(1983).
Pour des raisons de
simplicité d’exposition,
nous limiterons cetteprésentation
au modèle à seuils relatif à des
réponses dichotomiques
dit «thresholddichotomy
distribution» dans la
terminologie
dugénéticien Wright
(1968)
ou«probit
normalbinomial distribution» dans celle du statisticien Williams
(1988).
Les facilités ou,MÉTHODE
DEGRIZZLE,
STARMER ET KOCH ET EXTENSION AUMODÈLE
MIXTE(GSK-FI)
Estimation des
paramètres
deposition
Estimation des
paramètres
en modèle à effets fixesSi 7ri, pj et n!
désignent
laprobabilité,
lafréquence
deréponse
/! Bpj
=
(&dquo;1 Yi 1)
/
n
j
=y!+/n!! et
le nombre d’observations pour lasous-popula-r=1 /
tion j
=l, 2, ... , J,
la méthode deGrizzle,
Starmer et Koch(1969)
est basée sur ledéveloppement
limité suivant d’une fonctionquelconque
g des observations(fonction
« logit
» ou« probit
» parexemple
dans le cas de variablesbinaires)
En posant un modèle linéaire sur
g(!r! ),
soitg(
7r
j)
=x’
où P
est le vecteur des effets fixes etx’
estla j
e
ligne
de la matrice d’incidence X=
(x
l
, x
2
, ... ,
xj, ... ,Xj )l
des effetsp,
l’expression
[la]
s’écrit sous la formeou, en notation matricielle
complète
avec
Soit V =
Var(p)
la matrice de covariance des observations(ici
lafréquence
parclasse).
En modèle à effets
fixes,
on a :et, en
posant
où
Q
*
=
Q(p)
est un estimateurasymptotiquement
sans biais deQ.
De
[4],
découle l’estimateur(dit
«minimum gx
2
»)
de fi
minimisantsoit
et le test de
l’hypothèse
H
o
:
k’p
= m àpartir
de lastatistique :
distribuée
asymptotiquement
sousH
o
comme unx2!k!.
L’estimateur e
défini en[5b]
estasymptotiquement
sans biais etasymptotiquement
normal(encore désigné
par BAN : «Best
Asymptotic
Normal»).
Dans le cas du modèle àseuils,
la transformationg(.)
est la fonction inverse de la fonction derépartition
de la loi normaleappelée
habituellement« probit
ouquelquefois
«normit»» (Kotz
etJonhson,
1985)
soit :
-d’où
où
0
est la densité de la loi normale réduite. La matrice despondérations
Q
*
-’
de[5ab]
s’écrit donccompte
tenu desexpressions
[2b]
et(3a),
Extension au modèle mixte
Au
vecteur p
des effetsfixes,
on substitue un vecteurcomportant
unvecteur p
d’effets fixes et un vecteur u d’effets aléatoires(valeurs
génétiques
notamment).
Le résultatprécédent
[4]
s’applique
à la distribution conditionnelle deg(plO),
soitoù T =
(X, Z)
rassemble la matrice d’incidence X deseffets p
et celle Z des effets u.la distribution a
posteriori
de 8 résultant de[10]
et[11]
est donc aussi normaleoù
0,
espérance
etC,
variance aposteriori
sont données parDans le cas du modèle mixte considéré en
[9]
et[10]
E-
1
a pour limiteet
[13]
se réduit àL’expression
[15b]
revient à écrire leséquations
BLUP sur les données g ={<1>-1 (pj)}
enprenant
pour matrice de covariance résiduelleQ
*
= Diag (pj
(1 - p
j
)/n
J
4>2 [<1>
-1 (p
j
)]}
1
Ce raisonnement
bayésien
formulé parFoulley
et Im(1989)
conduit à unegénéralisation
de la méthode de Grizzle et al(1969)
au modèle mixte. Une telle extension avait étésuggérée
pour leslogits
par Gianola(1980a)
enutilisant,
nonpas une
approche bayésienne
commeici,
mais desarguments
asymptotiques
sur les solutions du modèle mixte.Une des difficultés avec cette méthode réside dans le traitement des cellules
j,
pourlesquelles
lafréquence
de laréponse
est extrême(p
j
= 0 ou1).
Dans ce cas,l’élément
diagonal
deQ
*
-’
tend vers 0puisque
!2/p(1 -
p)
tend vers 0quand
p tend vers 0 ou 1. Deplus
g(p)
tend versplus
ou moins l’infini. Pour évitercela,
onpeut
suggérer
deremplacer
lesfréquences
pj pour les valeurs extrêmespar
(y
j+
+1/2)/(n!
+1) (Mc
Cullagh
etNelder,
1989)
ou par(y
j+
+1)/(n!
+2).
Une autreapproche
detype
«bayésien
empirique»
consiste dans le calcul d’un estimateurpy
de cetype
de cellulesremplaçant
la’ fréquence,
basé sur les cellules oùp! !
0 et 1 etqu’on
utilisera dans g etQ
*
dusystème
(15b!.
Judge
et al(1985)
suggèrent
un estimateur des moindres carrés nonpondérés, basé,
soit sur un modèlelinéaire,
soit sur un modèle «normit» desprobabilités.
Estimation desparamètres
dedispersion
Considérons le vecteur u des effets aléatoires en
[9]
distribué suivant une loi normaleN(O, S.)
etdésignons
par Yu le vecteur desparamètres
dontdépend
la matrice de covarianceEu.
Parexemple,
dans le cas d’un modèle à un seul facteur aléatoire tel lepère,
£
u
s’écritAu2
où A est une matriceégale
à 2 fois la matrice deparenté
(selon Malécot)
entre lespères
et Yu =0&dquo;;,
est laFoulley
et al(1987a,
1989a)
ont montré que le maximum de vraisemblancemarginale
(REML
dans le cas de normalité desobservations)
pouvait
être obtenu parl’algorithme
itératif suivant(de
l’itération r à r +1) :
où
E
1r
]
(.)
indique
uneespérance prise
parrapport
à la distribution deu!y,
y
j
l
donc conditionnement au vecteur des données y etr
u
représente l’espace paramétrique
du vecteur Yu,Nous considérerons un modèle
type comportant
un vecteur u =(u!, u[ , ... , u!,
1
ufl
,)’
formé de K sous-vecteurs Ukindépendants
et de dimensions différentes tels que uk -N(0,
A!.o-! )
oùA!
est une matrice(q
k
xq
k
)
connue,définie-positive
et
0
-
21.
est la composante de variance relative au ke facteur aléatoire. Pour une telle structure, la densité de u s’écrit :Il découle de
[17]
que la maximisation en[16]
revient à résoudre les Kéquations
suivantes :
-où
E1r)(.)
indique
uneespérance prise
parrapport
à la distribution deu
k[
y, y
§1
avec y(§’
1
- { 2[1&dquo;]} .
:&=1,2,...,!
Or,
compte-tenu
de[18],
Cette fonction admet pour dérivée :
(—1/2(7! )[! —
Ee(u!.A!.!u!.)/o’!
et
est maximum par rapport à(T!k
pour(T!k
= Ee(u!.A!!u!)/!,
d’oùl’algorithme
itératif :On a vu en
[12]
que la distribution de UkIy,
!,u était normale avec uneespérance
et variance données en
[13], [14]
et[15b].
L’algorithme
présenté
en[20]
peut doncs’expliciter
en :où
Ce raisonnement est très
général
et peut être étendu aisément au cas de 2 vecteurscorrélés Uk et ul de même
dimension q
k
= qi =q tels
L’algorithme
àappliquer
pour obtenir le maximum de vraisemblancemarginale
de (Tu&dquo;, est unesimple
extension de(21a ! (cf démonstration
dansFoulley
etal,
1987a)
et s’écrit :où
û! ,
û
i
ont la même définitionqu’en
[21b]
etCe
type
de situation se rencontre parexemple
en sélection animale avec le modèle« père
(s),
grand-père
maternel(t) ».
On a alors :où A est une matrice
égale
à 2 fois la matrice deparenté
(selon Malécot)
entre lesmâles;
!s, at,
usi sont lescomposantes
de variance et de covariance«père»
et« grand-père
maternel» interprétables
en termes de variances et covariances d’effetsgénétiques
directs et maternels. On rencontreégalement
cetteparamétrisation
dans une structure de modèle multicaractèresimpliquant
des variances et covariancesgénétiques
entre caractères.Cet
algorithme
correspond précisément
àl’algorithme
EM(initiales
de«
Expecta-tion-Maximization », cf Dempster
etal,
1977)
appliqué
à l’estimation descom-posantes de la variance et de la covariance. On
peut,
selon les mêmesprincipes
(Foulley
etal,
1989ab),
développer
unalgorithme
au second ordre detype
Newton-Raphson
ne faisant aussi intervenir que les éléments deséquations
d’Henderson[15b]
(cf Annexe A).
MÉTHODE
DE LAQUASI-VRAISEMBLANCE
ETMODÈLE
LINÉAIRE GÉNÉRALISÉ
(GAR)
L’approche
du modèle linéairegénéralisé
(Me Cullagh
etNelder,
1989)
pourl’analyse
de données tout ou rien a été utilisée dans le cadre du modèle mixtepar
plusieurs
auteurs dont Williams(1982),
Gilmour et al(1985),
Zeger
etLiang
(1986)
Zeger
et al(1988).
Des revuescritiques
de cetype
d’application
du modèle linéairegénéralisé
ont étéégalement
effectées parThompson
(1990),
Knuiman et Laird(1990)
etDucrocq
(1990).
Nous nous restreindrons ici à laprésentation
de la méthode deGilmour,
Anderson et Rae(1985) (en abrégé
«GAR»)
tellequ’elle
futproposée
par ces auteurspuis
réexaminée parFoulley
(1987),
H5schele et Gianola(1989)
etFoulley
et al(1990a).
Estimation des
paramètres
deposition
Conformément à la théorie du modèle linéaire
généralisé
(Mc
Cullagh
etNelder,
par une fonction de lien
(normit
dans le modèle àseuil)
qui
rend le«prédicteur»
linéaire vis-à-vis des variablesexplicatives.
On écritdonc,
sachant u :où p
et u -N(0,o!)
sont des vecteurs d’effets fixes et aléatoires comme précédem-ment.La formulation donnée en
[23]
est une extension au modèle mixte de la versionoriginale
restreinte audépart
aux seuls effets fixés. Estimation des effets fixesSi la distribution conditionnelle des
réponses
binaires(
Yjr
=0,1) sachant p
et uest bien un processus de
Bernouilli,
Yjr
1 fi, u &dquo;&dquo;
B(1,
11
&dquo;j),
la distributionmarginale
desy
j
, 1 P
(après
intégration
deu)
n’estplus
accessiblesimplement
euégard
aux corrélations induites par le vecteur u. On a alors affaire à un processus à variationextrabinomiale ou, de
façon plus
générale
et selon laterminologie anglo-saxonne
(Williams, 1988),
à un modèle«surdispersé».
Dans une tellesituation,
il s’avère commode d’avoir recours à la théorie de laquasi-vraisemblance
(Wedderburn,
1974)
pour estimer les effets fixes. La mise enapplication
de cette théorie estparticulièrement simple puisqu’elle
nerequiert
que lesexpressions
del’espérance
(IL)
et de la variance(matrice V)
des observations(y)
en fonction des variablesexplicatives
(fi).
Si l’on définit par commodité les observations comme les
fréquences
deréponses
nj Jobservées dans la
classe j :
pj =(L y!T)
/nj
=yj
+
/nj,
on a :_-1
En utilisant la formule de Curnow
(1984),
cetteespérance
s’exprime
alors par3
j
=${x’p/[l
+ojj1/2}
avec
u§
=Z! FyZ! .
Engénéral,
les modèles utilisés en sélection animaleconduisent,
en l’absence deconsanguinité,
à des varianceshomogènes
(‘dj, !! _
(T
2
).
Ainsi,
parexemple,
dans un modèlecomportant
le seulfacteur aléatoire
père
(s),
on a(T
2
=(T;,
variance entrepères.
Dèslors,
il estcommode de
changer
laparamétrisation
sur les effetsfixés,
enposant :
d’où la formulation
simple
suivante,
identique
à laprésentation
classique
du modèlegénéralisé
à effetspurement
fixés :où
<1>
2
(a,
b; ,
r)
est la fonction derépartition
de la loi binormale réduite de corrélationr et
d’arguments
a, b. et t =fI
2
/(1
+fI2).
Dansl’exemple
du seul facteur aléatoire«père!=!/(l+!)=/!/4.
La fonction de
quasi-vraisemblance
LQ3; p)
est définie parl’équation
différen-tielle : oùV<
j
x
j
>
=Var(p)
est la matrice de covariance desfréquences
observées dont leséléments sont donnés en
!26a,b!.
La maximisation de
L(f};p)
parrapport p
s’effectue par résolution d’unalgo-rithme itératif de second ordre
(scores
parexemple)
qui
s’écrit,
de l’itération r àl’itération r + 1 : -
-où
W
[j
>< j,
est une matrice depondération
définie par!!! x 1!
est une variable de travail telle queD
[JxJ]
est une matricediagonale
de[29a,b]
définie par D=Diag{87rj/8r¡j}
soit,
compte-tenu
de[25a]
En
fait,
Gilmour et al(1985)
ne résolvent pas lesystème
!28!.
Ilsproposent
uneapproximation
des éléments de V basée sur undéveloppement
limité de(P
2
(a,
b;
r)
auvoisinage
de r =0, qui
s’écrit(a,
2
4)
b; r)
=
=
4l(a)4l(b)
+r</l(a)</l(b)
(Tallis, 1962)
d’où,
l’écriture suivante des éléments de v :avec
On retrouve aussi
[32b]
en faisant sur u le mêmechangement
de variableû =
u/(1
+0
-
2
)
1/2
que celui fait
sur?
en!24).
L’inverse de W en[28]
s’écrit alors :ou encore, en
posant
On reconnaît en
[33b]
la formeclassique
d’une matrice de covariance d’observa-tions de modèle linéairequi permet
à Gilmour ei al(1985)
de résoudre defaçon
approchée
lesystème
[28]
en b
àpartir
deséquations
du modèle mixted’Henderson,
ici : ..
ou, en posant
où E=
!0
0
est un casparticulier
de!15a).
10 G-11
En
!34ab),
la variable detravail !
définie en[29b]
peut
aussi se mettre sous laforme :
-où
Prédiction des variables aléatoires
Il est difficile de trouver une
justification
à cette méthode deprédiction
des u(Knuimann
etLaird,
1990)
hormis celle decalquer
laprocédure
dusystème
deséquations
du modèle mixte d’Henderson. Estimation desparamètres
dedispersion
Pour une structure
comportant
un vecteur u formé de K sous-vecteursU
k
indépen-dants tels que
ù
k
-
N[0,A!o!
]
avec, compte-tenu duchangement
d’échelle eny.
[24]
et[34a]
!? _
(J!)(1
+(J2).
Gilmour et ad(1985)
arguent
de l’utilisation deuk A.
u
E(u!AklUd
pourjustifier
un estimateur de(
J
&dquo;l.-
obtenu
par une formule itérative de typeEM,
similaire à!22aJ,
où
Îik
etC
uu
,
kk
sontrespectivement
la solution enÎ
ik
et le bloc relatif à ce mêmevecteur dans l’inverse de la matrice des coefficients du
système
[34a].
Une autre
approche préconisée
notamment par Knuimann et Laird(1990)
réside dans l’estimation descomposantes
de la variance par le maximum de vraisemblance. La vraisemblanceL(13, o-! ,
o,2- , .... u2- ... , !2 ;
p)
nécessitel’intégration
desÛ,
_ &dquo;1
M
2 Uk!., u h
soit :
,
Thompson
(1990)
préconise
uneapproximation
de cetteintégrale
par une qua-drature de Gauss. Dans un cadresimilaire,
mais avec des variables discrètes dePoisson,
Im etFoulley
(1990)
proposent une méthodeapprochée
de maximisation de[37]
qui
évitel’intégration explicite
des il.MÉTHODE
DU MODE CONJOINT A POSTERIORI -MAP(GF-HM)
Cette méthode a étédéveloppée
àl’origine
par Gianola etFoulley
(1983).
Des résultatsidentiques
ont été obtenus simultanément par Harville et Mee(1984),
ces derniers utilisant toutefois un raisonnementclassique
de modèle mixte. Elle seradésignée
enabrégé
par les initiales « GF-H1VI ». Desprocédures
similaires ont étédéveloppées
par Stiratelli et al(1984)
ainsi que par Zellner et Rossi(1984)
avecpour ce dernier une fonction de lien
logistique.
Le modèle est le même au
départ
que celuiprésenté
en[1b]
et en[23]
à la différenceprès
que d’unpoint
de vuebayésien,
une distinction entre effets fixés et aléatoires n’a pas lieu d’être. On écrit donc :L’intérêt des
techniques bayésiennes
en sélection animale a été mis en avant aucours des deux dernières décennies par
plusieurs
auteurs dontRônningen
(1971),
Estimation des
paramètres
deposition
L’inférence sur 0 en
statistique
bayésienne
passe par l’obtention de la distribution aposteriori, qui
s’écritcompte-tenu
du théorème deBayes :
L’expression
[39]
est leproduit
de la distribution apriori
de0,
p(Olœ,E)
sachant leshyperparamètres
(œ,E)
par la distribution conditionnelle des données(ici
y ={
YH
})
sachant 0 ou vraisemblance en 0. Sachant0,
les données YH sontindépendantes
entre elles et ont une distribution binomialeB(n!, !r!)
deparamètres
n!(effectif
de la classej)
et 7rj. La vraisemblance s’écrit donc :Le choix du modèle à seuils de
Wright
conduit à supposer que les distributionsmarginale
et conditionnelle sachant 0[z
jr
[0 -
N(t’.0;
1)]
de la variablephénotypi-que xj, associée à la reobservation de la
population j
sont normales sur une échellesous-jacente.
Cettehypothèse implique
donc le choix d’une distribution apriori
de 0qui
soit aussinormale,
d’oùet
Gianola et
Foulley
(1983)
ontproposé
comme estimateurponctuel
de 0 le mode aposteriori
(MAP)
de[42].
Celui-cipeut
s’obtenir par résolution d’unsystème
itératif du second ordre tel que :où
avec
On sera amené à
appréhender
la distribution aposteriori
par sa formeasymptotique
normale(Berger,
1985;
Fouley,
1987) :
où
0
*
est la solution MAP de[43]
etSi l’on s’intéresse à une structure de modèle mixte avec des effets
fixes p
et aléatoires u -N(0, E! ),
celle-ci pourra être traitée comme un casbayésien
dégénéré
enfaisant,
dans les formules[43), [44]
et[45ab] :
Un autre
algorithme
du MAPqui
mériteattention,
a étéproposé
par Mee(1982)
et Zhao(1987)
en utilisant le raisonnement del’algorithme
EM(Dempster
etal,
1977).
Supposons qu’on
puisse
observer les variables continuessous-jacentes
x =lx
j
}
}
( j
indice d’une cellule élémentaire d’effectifunité).
Dans le modèle àseuils,
on a les distributions suivantes :où r
représente
la variancephénotypique
résiduelle sur lasous-jacente
sachant le vecteur deparamètres
0. Pour un modèle binaireunivariate,
r est la matricela;.
L’espérance
de la distribution conditionnelle de x, soit T9 a la mêmesignification
qu’en
(38J ;
de même la distribution en[48b]
estidentique
à celle en(41J,
d’où Dans l’EMgénéralisé
applicable
au mode aposteriori
(Dempster
etal,
1977),
on considère la fonction :où y =
fy
jl
est
le vecteur des données binaires observées.En
[50a],
tout se passe comme si l’ensemble« complet
des données(selon
laterminologie
deDempster
etal,
1977)
serestreignait
aux seules variablessous-jacentes
xpuisque
l’information
en x contient celle sur les données binaires y, autrement dit :L(O;
x, y,r,ot,s)
=L(O;
x,
r,a,E)
En
fait,
dans laphase E,
onremplace
E(x!y,8)
par :puis,
dans laphase M,
on maximise[50b]
parrapport
à 9 soit :d’où le
système
itétatifL’écriture en
[52]
offre une bonne illustration de lafaçon
dontprocède
l’algorithme
EM. Si x étaitobservable,
lesystème
en 0 serait lesystème
linéaireclassique
deséquations généralisées
du modèle mixte(T’r-
1
T
+E-’)Ô
=T’r-
l
x
+E-
l
a
.
Comme x n’est pas
observable,
tout se passe en[52]
comme si on leremplaçait
dans cesystème
par sonespérance
conditionnelle x* sachant les données discrètes observées y et la valeur duparamètre
inconnu 0 à l’itérationprécédente.
Dans le cas d’un modèle binaire
univariate,
l’égalité
r =Iu
/
entraîne
uneimportante
simplification
en[52].
Commepour j #
j’,
p(.r_,[!’,8)
=p(.
Ej[
8),
z
j et yj, étant conditionnellement
indépendants
sachant0,
les élémentsx!
de x*correspondent
à x!
=E(!!,8)
cequi
s’écrit aussi(Im
etGianola,
1988) :
et, on montre aisément que :
Les
expressions
en[54ab]
correspondent
aux scores normaux tels queprésentés
par Gianola et
Foulley
(1983). Compte-tenu
del’expression
de v
j
en[45a]
appliquée
au cas d’une cellule élémentaire nj =
1,
ilapparaît
que x*
peut
se mettre aussi sous la formexi
=t’O
+ vj. Si deplus,
comme[47],
on pose9’ - (!’,
u’);
S
-1
--->
s-
=
1
0
():E!l
i
; E&dquo;!a —!
0 lesystème
[52]
se réduit alors àavec
La matrice des coefficients est
identique
à celle deséquations
du modèle mixted’Henderson ;
les itérations ne modifient que le second membre. Cetalgorithme
rappelle
lasuggestion
faite par Aisbett(1983)
visant àsimplifier
les calculs.premier
ordre comme le montre bien l’écriture de[55a]
pour0 = 0
*
,
valeur deconvergence
soit
Cette dernière
expression
[56]
représente
la condition d’annulation de la dérivéepremière
dulogarithme
de la densité aposteriori
définie en[42]
pour un apriori
uniforme sur lacomposante p (cf Gianola
etFoulley,
1983).
S’agissant
d’unalgorithme
depremier ordre,
il faut donc s’attendre à ce que cetalgorithme
convergeplus
lentement quel’algorithme
des scores donné en(43).
Estimation desparamètres
dedispersion
Partant d’une distribution normale a
priori
des u telle que u -N[0,Et;(Y!)],
lesrésultats
généraux présentés
en(16], [21 ab]
et[22 ab]
s’appliquent
ici. La difficulté réside alors dans l’obtention del’espérance
et de la variance de la distribution aposteriori
de u. Laplupart
des auteurs(Harville
etMee, 1984;
Stiratelli etal, 1984;
Foulley
etal,
1987a)
ontproposé
de lesapprocher
par lesparamètres homologues
de la distributionasymptotique
définis en[46 ab],
d’où pour la même structurequ’en
(17],
l’algorithme :
Sur la base de cette même
approximation asymptotique,
onpeut
développer
unalgorithme
de second ordre(cf Annexe A)
formellement similaire à celui décrit dans lapremière partie
pour la méthode GSK-FI. Parailleurs,
onpeut
avoir recours àune méthode
approchée
(Van
Raden etYung,
1988)
adaptée
aux caractères à seuilspar Manfredi
(1990)
lorsque
la taille des fichiers rend les méthodesprécédentes
difficilementapplicables.
DISCUSSION
Les 3 méthodes
statistiques
ainsi que lesalgorithmes correspondants
décrits dans cechapitre
soit enabrégé
(GSK-FI;
GAR;
GF-HM)
permettent
de traiter le modèle à seuil deWright
à des fins d’évaluationgénétique. L’objet
de cette discussion est d’effectuer uneappréciation critique comparative
de cesprocédures.
Comparaison
desalgorithmes
Foulley
(1987)
asouligné
les similitudes et les différences existant entrel’algorithme
de calculdes p
et u décrit en[43]
pour la méthode GF-HM et celuiproposé
par GAR. Enparticulier,
la matrice despondérations
S et la variable de travail ! de GF-HM bien que de formes très similaires à leurshomologues
R(cf [33 ab!; [35c])
et !
(cf
[35 abc])
en différent parcequ’elles
font intervenirexplicitement p
et u etQuant
aux méthodes GSK-FI etGF-HM,
leurs matrices depondération Q
*
(cf
[8])
et S(cf
[45b])
ont exactement la même forme : elles ne diffèrent que parl’argument
utilisé dans la fonction : pj pour GSK-FI et xj pour GF-HM.Quant
aux variables de travail du second membre g et W
respectivement
pour GSK-FI etGF-H1!!I,
la secondes’interprète
en fait comme undéveloppement
limité au le’’ ordre de lapremière
auvoisinage
de pj = 7rj.En
.
effet :Enfin,
il faut noter quel’algorithme
de l’estimateur MAP est itératif contraire-ment à celui de GSK-FI.Estimation
de p
et u avec des variances inconnuesLes 3 méthodes d’estimation
de fi
et udéveloppées
icisupposent
la connaissance de la matrice de covarianceEu
de u connue donc celle du vecteur y. desparamètres
dont elledépend.
Quand
y. n’est pas connu onpeut
adopter,
à l’instar deFoulley
et al
(1987a,
1989b)
et Gianola et al(1986),
uneapproche bayésienne empirique
fondée sur la distribution aposteriori
conditionnellement à y.égalé
au modede la distribution
marginale
aposteriori
de 0qui
se réduit au maximum de vraisemblancemarginale
avec une distribution apriori
uniforme sur y!. C’estprécisément
l’estimateur de y.développé
en[21 ab]
[22 ab]
et[57].
L’extensionbayésienne empirique
des méthodes GSK-FI et GF-HM est donc immédiate. Aucontraire,
si l’on peut, dansl’algorithme
[34a],
remplacer
lescomposantes
de y.u par leurs estimations telles queproposées
par GAR en(36!,
ceprocédé
ne résultepas d’une
justification
théorique
claire. Choix de l’estimateurponctuel
0Du
point
de vue de l’efficacité de la sélection en unegénération,
le critèrequi
maximisel’espérance
de la valeurgénétique
des individus sélectionnées à nombres de candidats et retenusfixes,
estl’espérance
de la distribution aposteriori
desvaleurs
génétiques
(Goffinet
etElsen, 1984;
Fernando etGianola,
1986).
L’estimateur
Ô
défini en[13]
pour la méthode GSK-FI est bien uneespérance
mais la distribution considérée en[12]
est uneapproximation
fondée sur un résultatasymptotique
de la loi conditionnelle du normit des observations. L’estimateur 0*
proposé
en[43]
pour la méthode GF-HM est le mode de la distribution aposteriori, qui
sedistinguera
d’autantplus
del’espérance
que la distribution seraplus asymétrique
(cas
d’un faible effectif par niveau defacteur).
L’estimateur modal n’en reste pas moinspotentiellement
intéressant euégard
à sajustification
enthéorie de la décision et il a
l’avantage
surl’espérance
d’être moins sensible auxd’intérêt et
paramètres
denuisance,
onpeut
l’améliorer en considérant le mode de la distributionmarginale
après intégration
desparamètres
de nuisance tels que les effetsparasites
de milieu engénétique
animale. Cetteopération
n’est malheureusement paspossible analytiquement
dans le cas des données binairesanalysées
selon GF-HM. Cette idée demarginalisation
est en faitsous-jacente
à laprocédure
GAR en vue de l’estimation des effets fixesfi.
Comparaison
des estimateursÀ
notreconnaissance,
l’estimateur de 0 en modèle mixte selon GSK-FI n’a faitl’objet
d’aucuneapplication excepté
celle mentionnée parFoulley
et Im(1989)
à propos de laprécision
d’une évaluationgénétique
sur descendance.Par
construction,
on s’attend à de meilleurespropriétés
de l’estimateurde fi
ob-tenu par la méthode GAR que par celle de GF-HM. Une
comparaison
rigoureuse
de ces méthodes a été effectuée par H5schele et Gianola
(1989)
grâce
auxtech-niques
de simulation. Celle-ci concerne une variable binaire suivant un modèle desusceptibilité sous-jacente
comportant
les facteurs« troupeau
x année x saison » et « groupe depères
» analysés
comme fixes et le facteur« pères
» intra groupe considérécomme aléatoire. Le
dispositif comprenait
les descendants de 50pères
originaires
de 4 groupes. En unepremière
étape,
2000 descendants étaient ainsi simulésrépartis
en 135 cellules« troupeau
x année x saison ». En un deuxièmestade,
1000 descendantsétaient
répartis
entre 10pères
ayant
obtenu les meilleurs évaluationsgénétiques
au 1er
stade selon l’une ou l’autre méthode.
Les méthodes ont été
comparées
pour l’estimation de l’héritabilité et des effets «groupe» sur la base destatistiques
d’échantillonnage
(biais,
variance,
erreurquadratique
moyenne)
empiriques
observées sur 45répétitions.
Les estimateurs deGF-HM
surpassent
ceux de GAR en termes de biais et d’erreurquadratique
aussi bien pour l’héritabilité que pour les effets «groupe» et cela sur les échantillons du stade 1 comme sur ceux du stade 2 avec sélection.Quand
on considère la valeurgénétique
transmise vraie de taureaux sélectionnés à despressions
de sélection de10,
20 et40%
àchaque stade,
la différence estnégligeable
entre les 2 méthodes. Cette étude conforte donc le bien fondé del’approche
GF-HM en matière d’évaluationgénétique,
ycompris
vis-à-vis de l’estimationgénétique
de certainescomposantes
fixes pour
lesquelles
on aurait puespérer
unesupériorité
de la méthode GAR. Cette étude met par ailleurs clairement en évidence un biais nonnégligeable
dans l’estimation de l’héritabilité(moyenne
de0,30
et0,34
avec les méthodesGF-HM et GAR
respectivement
pour une valeur vraie de0,25),
cequi,
dans le cas de la méthodebayésienne,
pose laquestion
de la validité del’approximation
del’espérance
par le mode.Estimation des
probabilités
deréponse
Un des
problèmes
délicats avec les modèlesopérant
des transformations de données ou deparamètres
est le retour à une estimation desparamètres
d’origine.
Avec le modèle linéairegénéralisé
et les méthodes basées sur la vraisemblance(et
lahomologue
de laprobabilité
deréponse
7rj, dans lacellule j
par la fonction inverse de la fonction de liensoit,
avec les notations de[25
ab] T
Tj
=4
l(x
j
p).
En
fait,
cettepropriété
nerépond
pas au besoin du sélectionneurqui
est intéressépar la
probabilité
deréponse
dans unesous-population
définie parcombinaison,
non seulement des niveaux des facteursfixes,
mais aussi de niveaux de facteurs considérés comme aléatoires. Parexemple,
dans une étude sur les difficultés devêlage,
on se demanderaquelle
est laprobabilité
d’unvêlage dystocique
pour une fille née dupère
X(effet aléatoire)
mettant bas dans la saison Y(effet fixe).
La méthode GAR ne nouspermet
pas derépondre simplement
à ceproblème.
Il faudrait lagénéraliser
en faisantappel,
parexemple,
auconcept
de vraisemblanceprédictive
(Bjornstad, 1990).
Au
contraire,
leconcept
de densitéprédictive
(Zellner, 1971)
qui apparaît
tout naturellement enstatistique
bayésienne,
permet
de bienrépondre
auproblème
concret que se pose le sélectionneur.Ainsi, Foulley
et al(1989b)
considèrent laprobabilité
deréponse
pour une future observationf
de lasous-population j
sachant les données observées(vecteur y
o
).
Celle-ci s’écrit :Cette
probabilité apparaît
comme une moyennepondérée
de4l(
q
j )
par la densitéa
posteriori
de ri!, donc par un indicateur dudegré
de connaissancequ’on
a sur ceparamètre.
Cette densité aposteriori
est décrite par desapproximations
normalesdonnées en
[12]
et[46 ab]
pour les méthodes GSK-FI et GF-HMrespectivement.
Nous écrirons donc :Partant de
[60],
l’intégrale
de[59]
se calcule aisément à la formule de Curnow( 1984) ;
on obtient alors :La formule
[61]
indique
bien l’incidence de l’incertitude sur l’estimationde
1
]j
qui tend,
par réduction de la valeur absolue del’argument
del’intégrale
[59]
à«régressera
laprédiction
de laprobabilité
deréponse
sur1/2.
Il convient toutefois de noter la difficultéimportante
qu’il
y aura à calculeru Iij
2
l y o
Cette