• Aucun résultat trouvé

IRMA, Univ ersité de Str asbourg Str asbourg, Fr ance ENSAI 3 e Année 19-03-2012

N/A
N/A
Protected

Academic year: 2022

Partager "IRMA, Univ ersité de Str asbourg Str asbourg, Fr ance ENSAI 3 e Année 19-03-2012"

Copied!
44
0
0

Texte intégral

(1)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Planification optimale des expér iences Introduction et cas du modèle linéaire Frédér ic Ber trand 1

1

IRMA, Univ ersité de Str asbourg Str asbourg, Fr ance ENSAI 3 e Année 19-03-2012

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Référence Ce cours s’appuie essentiellement sur 1. le livre de Hardeo Sahai et Mohammed I. Ageel, The Anal ysis of Variance :Fix ed, Random and Mix ed Models ,aux éditions Bir khäuser ,2000. 2. le livre de Hardeo Sahai et Miguel Ojeda, Anal ysis of Variance for Random Models , Volume I: Balanced data , aux éditions Bir khäuser ,2004. 3. le livre de Hardeo Sahai et Miguel Ojeda, Anal ysis of Variance for Random Models , Volume II: Unbalanced data ,aux éditions Bir khäuser ,2005. 4. le livre de Douglas C .Montgomer y, Design and Anal ysis of Experiments ,7 th Edition, aux éditions Wile y, 2009. 5. le livre de Sam uel D .Silv ey , Optimal Design ,aux éditions Chapman and Hall, 1980.

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

(2)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Introduction La planification d’e xpér ience traite ,comme son nom l’indique , de l’organisation réfléchie des expér iences de manière à pouv oir 1. analyser celles-ci av ec des modèles per mettant de reproduire fidèlement la, plus ou moins gr ande ,comple xité des processus expér imentaux à décr ire ; 2. maximiser la quantité d’inf or mation (au sens de Fisher par ex emple) que nous appor te les essais que nous choisirons de réaliser .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plans pour pesée Conte xte Un ex emple simple pour comprendre pourquoi il est impor tant de réfléchir à la planification les expér iences . Supposons que nous de vions peser 4 objets av ec une balance ay ant deux plateaux en réalisant au maxim um 4 pesées . À chacune des pesées ,nous pouv ons répar tir tous ou une par tie des objets sur l’un ou l’autre des deux plateaux de la balance .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plans pour pesée Définition La répar tition des objets lors des quatre pesées est appelée un plan pour pesée . Mise en équation Soit β 1 , β 2 ,. .., et β n les poids ,inconn us ,des objets . Nous posons u ij = 1 si le j − ème objet est dans le plateau de droite au cours de la i − ème pesée , u ij = − 1 si le j − ème objet est dans le plateau de gauche au cours de la i − ème pesée et u ij = 0 si le j − ème objet n’est pas utilisé lors de la i − ème pesée .

(3)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plans pour pesée Mise en équation (suite) Afin d’équilibrer les deux plateaux de la balance lors de la i − ème pesée il est possib le de rajouter une masse à l’un des deux plateaux de la balance . Le signe de cette masse dépend du plateau sur lequel elle a été posée :positif si elle se trouv e sur le plateau de gauche et négatif si elle se trouv e sur le plateau de droite . Nous désignons par y i cette masse signée utilisée lors de la i − ème pesée .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plans pour pesée Mise en équation (suite) Supposons que les erreurs de mesure ne sont pas corrélées , de dispersion stab le et sans biais systématique ,ce qui re vient à supposer les var iab les y i sont aléatoires non corrélées ,de même variance ,notée σ 2 e ,et d’ espérance égale à la valeur de la masse qu’il faut ajouter lors de la i − ème pesée afin d’équilibrer les deux plateaux de la balance .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plans pour pesée Compar aisons de deux plans Le premier plan pour pesée . 1. Pesée 1 :objet 1 à droite ; 2. Pesée 2 :objet 2 à droite ; 3. Pesée 3 :objet 3 à droite ; 4. Pesée 4 :objet 4 à droite . La matr ice X associée est     1 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1    

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plans pour pesée Compar aisons de deux plans Le premier plan pour pesée . 1. Pesée 1 0 :objets 1, 2, 3 et 4 à droite ; 2. Pesée 2 0 :objets 3 et 4 à gauche ,1 et 2 à droite ; 3. Pesée 3 0 :objets 2 et 3 à gauche ,1 et 4 à droite ; 4. Pesée 4 0 :objets 2 et 4 à gauche ,1 et 3 à droite . La matr ice X associée est     1 1 1 1 1 1 − 1 − 1 1 − 1 1 − 1 1 − 1 − 1 1    

(4)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plans pour pesée Compar aisons de deux plans Ainsi pour le premier plan, nous obtenons av ec le théorème de Gauss-Mar ko v et la for m ule b β = ( X 0 X ) − 1 X 0 y = y ,les BLUE 1. c β 1 = y 1 , V ar [ c β 1 ] = σ 2 e ; 2. c β 2 = y 2 , V ar [ c β 2 ] = σ 2 e ; 3. c β 3 = y 3 , V ar [ c β 3 ] = σ 2 e ; 4. c β 4 = y 4 , V ar [ c β 4 ] = σ 2 e .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plans pour pesée Compar aisons de deux plans Ainsi pour le premier plan, nous obtenons av ec le théorème de Gauss-Mar ko v et la for m ule b β = ( X 0 X ) − 1 X 0 y = X 0 y ,les BLUE 1. Pesée 1 : c β 1 =

2

σ 1 4

e

c ( y + y + y + y ) , V ar [ β ] = ; 1 2 3 4 1 4 c 2. Pesée 2 : β = 2

2

σ 1 4

e

c ( y + y − y − y ) , V ar [ β ] = ; 1 2 3 4 2 4 c 3. Pesée 3 : β = 3

2

σ 1 4

e

c ( y − y − y + y ) , V ar [ β ] = ; 1 2 3 4 3 4 c 4. Pesée 4 : β = 4

2

σ 1 4

e

c ( y − y + y − y ) , V ar [ β ] = . 1 2 3 4 4 4

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

En conclusion Le second plan pour pesée est le plus intéressant puisque la var iance des estimateurs des masses des objets est quatre plus petite . Il vaut mieux combiner astucieusement les objets pour la balance pour les peser tous quatre fois ,plutôt que de les peser chacun directement. En eff et, dans le premier cas ,l’estimateur est un mo yenne de quatre ter mes non corrélés ,ce qui réduit sa var iance .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

(5)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Modélisation de la réponse ˜ y Nous supposons que la loi de probabilité de la var iab le aléatoire ˜ y dépend de : 1. un vecteur colonne u = ( u 1 , u 2 ,. .. , u r ) 0 de var iab les réelles appelées var iab les contrôlées parce qu’elles ont été choisies par l’e xpér imentateur et puisque les valeurs qu’elles prennent sont parf aitement conn ues et peuv ent être fixées par lui ;

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Modélisation de la réponse ˜ y Nous supposons que la loi de probabilité de la var iab le aléatoire

˜y dépend de : 0 2. un vecteur colonne θ = ( θ ,θ ,. .. ,θ ) de par amètres qui 1 2 k sont fix es mais dont les valeurs sont inconn ues de l’e xpér imentateur ;ce sont les valeurs de ces par amètres , ou de fonctions de ces par amètres ,que l’e xpér imentateur essa ye de connaître ; 0 3. un vecteur colonne τ = ( τ ,τ ,. .. ,τ ) de par amètres de r 1 2 nuisance ;ceux-ci sont égaleme nt fix es et inconn us mais l’e xpér imentateur n’est pas par ticulièrement intéressé par le fait de connaître leur valeur .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème P ar amètres d’intérêts et de nuisance La distinction entre les par amètres d’intérêt et les par amètres de nuisance peut être difficile à faire ,en par ticulier lorsque notre attention por te sur l’estimation d’un nombre de fonctions de θ str ictement à infér ieur au nombre k de par amètres . Néanmoins ,typiquement les vecteurs u et θ appar aîtront dans E [˜ y ] et τ dans la « var iance des erreurs ».

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Domaines d’appar tenance des vecteurs 1. Les vecteurs u peut être choisis dans la par tie U ⊂ R r ; 2. Nous sa vons que le vr ai vecteur de par amètres θ appar tient à la par tie Θ ⊂ R k ; 3. Nous sa vons que le vr ai vecteur de par amètres τ appar tient à la par tie T ⊂ R l ;.

(6)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Loi de ˜ y Nous supposons que pour ,pour des valeurs données de u , θ et τ ,la loi de ˜ y est donnée par une densité de probabilité par rappor tà une mesure σ − finie . Si la var iab le ˜ y est • discrète cette mesure est la mesure de comptage ; • contin ue cette mesure est la mesure de Lebesgue .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Pr incipe de la planification L’e xpér imentateur est autor isé à réaliser N obser vations indépendantes de la réponse ˜ y aux points u ( 1 ) , u ( 2 ) ,. .., u ( N ) qui auront été choisis par lui dans l’ensemb le U . Ce choix des N vecteurs ,s’appelle le choix du plan expér imental en N essais ou d’un N − plan. La question classique est alors de sa voir comment constr uire un N -plan « intéressant ».

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Pr incipe de la planification Pour év aluer la qualité d’un N − plan plusieurs approches ont été proposées : 1. Théor ie de la décision, voir Brooks (1972), Bandemer (1979) pour les premières utilisations ,en définissant une fonction d’utilité et une distr ib ution a pr ior isur θ et τ et en calculant la richesse ,au sens de Ba yes ,appor tée par chaque N − plan. Il « suffit » alors de choisir l’un des plans qui maximise cette richesse . 2. Utilisation de l’inf or mation au sens de Fisher . La seconde approche est la plus souv ent utilisée car la première ,bien que simple en apparence ,pose de réels prob lèmes aussi bien pr atiques que théor iques .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Inf or mation de Fisher Supposons que nous souhaitions estimer θ . Nous supposons que la famille { p ( y | u ,θ ,τ ) ; u ∈ U , θ ∈ Θ , τ ∈ T } est suffisamment régulière pour que la matr ice d’inf or mation de Fisher existe et qu’il soit possib le d’utiliser la seconde car actér isation de l’inf or mation.

(7)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Inf or mation de Fisher Pour une obser vation de

˜y au vecteur u ,la matr ice par titionnée d’inf or mation de Fisher adaptée à l’estimation de ( θ, τ ) est J ( u ) J ( u ) θ θ θ τ J ( u ; θ, τ ) = . 0 J ( u ) J ( u ) τ τ θ τ où J ( u ) est la matr ice carrée d’ordre k dont la coordonnée θ θ ( i , j ) est 2 ∂ log p ( y | u ,θ ,τ ) E − ∂ θ ∂ θ i j

et J θ τ ( u ) et J τ τ ( u ) sont définies de manière similaire .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Inf or mation de Fisher P ar conséquent la matr ice d’inf or mation pour N obser vations indépendantes de ˜ y réalisées aux points u ( 1 ) , u ( 2 ) ,. .., u ( N ) est L ( u ; θ, τ ) = N X i = 1 J ( u ( i ) ; θ, τ ) = L θ θ ( u ) L θ τ ( u ) L θ τ ( u ) L τ τ ( u ) . où u = ( u ( 1 ) ,. .. , u ( N ) ) , L θ θ ( u ) = P

N i J ( u ) et L ( u ) et θ θ θ τ ( i ) L ( u ) sont définies de manière similaire . τ τ

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Inf or mation de Fisher Supposons maintenant que u est tel que la matr ice L ( u ; θ, τ ) 1 est in versib le . L’ inégalité de Fréc het-Darmois-Cramer -Rao four nit alors une bor ne infér ieure : − 1 1. L ( u ; θ, τ ) ,pour la var iance d’un estimateur sans biais de ( θ, τ ) ; − 1 0 − 1 2. V ( u ; θ, τ ) = ( L ( u ) − L ( u ) L ( u ) L ( u )) ,pour la θ θ θ τ τ τ θ τ var iance d’un estimateur sans biais de θ . V ( u ; θ, τ ) est en fait la première matr ice pr incipale carré d’ordre − 1 k extr aite de L ( u ; θ, τ ) . 1. Nous verrons dans la suite que nous ne pourrons pas toujours faire cette hypothèse et comment l’aff aib lir .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Inf or mation de Fisher Il est impor tant de noter que 1. les bor nes infér ieures précédentes dépendent du plan u qui a été choisi pa rl’e xpér imentateur .Comme nous l’a vons vu, un choix judicieux peut donc améliorer la précision de l’estimation ; 2. dans le cadre du modèle linéaire gaussien, V ( u ; θ, τ ) est exactement la var iance de l’estimateur de Gauss-Mar ko v de θ . 3. si N est gr and, et sous des hypothèses de régular ité suffisante ,la matr ice de var iance-co var iance de l’estimateur par maxim um de vr aisemb lance de θ est appro ximativ ement V ( u ; θ, τ ) puisque ces estimateurs sont asymptotiquement efficaces ;

(8)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Estimation d’une fonction du par amètre Supposons que nous souhaitions estimer les fonctions à valeurs réelles g 1 ( θ ) ,. .. , g s ( θ ) à la place de θ . Posons g la fonction ( g 1 ,. .. , g s ) 0 à valeurs dans R s et notons Dg ( θ ) = ∂ g j ( θ ) ∂ θ i 1 6 i , j 6 n sa différentielle au point θ lorsqu’elle existe .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Estimation d’une fonction du par amètre Sous des hypothèses de régular ité suffisante et pour un plan u donné, une bor ne infér ieure pour la matr ice de var iance-co var iance d’un estimateur sans biais de g ( θ ) est V g ( u ; θ, τ ) = { Dg ( θ ) } 0 V ( u ; θ, τ ) { Dg ( θ ) } . (1) À nouv eau, pour N suffisamment gr and, la var iance-co var iance de l’estimateur par maxim um de vr aisemb lance de g ser a proche de cette bor ne infér ieure .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Estimation d’un fonction du par amètre Le cas de l’estimation du par amètre θ correspond au cas où g i ( θ ) = θ pour tout i = 1 ,. .. , k et ainsi Dg ( θ ) = I k ,la matr ice identité d’ordre k . P ar conséquent, nous nous intéresserons uniquement au cas de l’estimation d’une fonction du par amètre θ .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Objectif de la planification L’idée simple ,que nous poursuivrons dans la plus gr ande par tie de l’e xposé qui va suivre ,est de s’eff orcer de choisir le plan u de telle sor te que la quantité qui appar aît dans l’équation (1) soit la plus petite possib le ,ou, ce qui est similaire ,de rendre son in verse le plus gr and possib le . En procédant de la sor te ,nous utilisons un plan u qui nous appor te le plus d’inf or mation possib le ,au sens de Fisher ,sur la fonction g ( θ ) .

(9)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Objectif de la planification Nous pourrons utiliser eff ectiv ement toute cette inf or mation soit • dans le cadre de l’estimation de Gauss-Mar ko v du modèle linéaire gaussien ; • soit av ec des estimateurs du maxim um de vr aisemb lance et un eff ectif N suffisamment gr and.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Objectif de la planification Le prob lème ainsi posé semb le considér ab le et deux questions se posent immédiatement à nous : 1. au sens de quel cr itère souhaitons-nous rendre la matr ice V g ( u ; θ, τ ) « petite » ? 2. est-il possib le de trouv er un plan u ,noté u ? ,indépendant de θ et τ ,qui rende V g ( u ; θ, τ ) « petite », au sens où nous le souhaitons ,pour toutes les valeurs de θ et τ ?

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition génér ale du prob lème Objectif de la planification Pour toute une classe de prob lèmes ,le modèle linéaire par ex emple ,l’e xpression de V g ( u ; θ, τ ) est si simple qu’il est possib le de répondre affir mativ ement à la seconde question, ce qui motiv er a l’étude de plans classiques comme les plans factor iels ,fr actionnaires ,en blocs ,. ... Pour les autres situations ,pour lesquelles un tel plan u ? n’e xiste pas ,nous de vrons réfléchir à comment tenir compte de cette situation. Nous commençons par étudier la première classe de prob lèmes qui pourr a nous four nir des pistes pour aborder la seconde ,plus comple xe .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

(10)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 1 Rég ression linéaire simple ,gaussienne et contrôlée Dans cet ex emple : • u est un nombre réel ; • θ = ( θ 0 ,θ 1 ) 0 ; • τ est un nombre réel str ictement positif . Pour des valeurs de u , θ et τ données , ˜ y suit une N ( θ 0 + θ 1 u ,τ ) 0 . Supposons que U = [ − 1 , 1 ] et considérons un plan u = ( u ( 1 ) ,. .. , u ( N ) ) av ec donc − 1 6 u ( i ) 6 1.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 1 Rég ression linéaire simple ,gaussienne et contrôlée Un calcul direct per met de montrer que V − 1 ( u ; θ, τ ) = 1 τ N P

N i u ( i ) = 1 P

P N i u ( i ) = 1 N i 2 u = 1 ( i )

! . Voici un cas où V ( u ; θ, τ ) se simplifie comme indiqué ci-dessus .Il ser a alors possib le de trouv er un plan u ? qui ser a le « meilleur » pour toutes les valeurs de θ et τ possib les .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 1 Rég ression linéaire simple ,gaussienne et contrôlée Si nous sommes intéressés par l’estimation de θ ,le prob lème se transf or me ainsi en celui de rendre la matr ice M ( u ) = 1 τ N P

N i u ( i ) = 1 P

P N i u ( i ) = 1 N i 2 u = 1 ( i )

! . « aussi gr ande que possib le ». 1. Il est possib le de montrer qu’il n’e xiste pas ,même dans ce cas simple ,de plan u ? qui soit le « meilleur » au sens matr iciel for t, ordre de Loe wner ,suiv ant : M ( u ? ) − M ( u ) est semi-définie positiv e pour tout plan u . P ar conséquent, et pour remédier à cette difficulté, nous essa yerons de rendre maximale une fonction de V − 1 .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 1 Rég ression linéaire simple ,gaussienne et contrôlée 2. Dans le cas de ce modèle ,même si nous avions tra vaillé en l’absence de l’h ypothèse de nor malité mais en conser vant les E [˜ y | u ,θ ,τ ] = θ 0 + θ 1 u V ar [˜ y | u ,θ ,τ ] = τ V ( u ; θ, τ ) rester ait la matr ice de var iance-co var iance de l’estimateur de Gauss-Mar ko v de θ ,ce qui rejoint la remarque que nous avions faite précédemment sur la recherche de plans dans le conte xte du modèle linéaire homoscédastique .

(11)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 2 Plans factor iel complet 2 2 Une par tie de la planification d’e xpér iences traite de la manière de répar tir les traitements de plusieurs facteurs à des unités expér imentales .La différence apparente av ec notre approche est qu’il s’agit de planifier des expér iences av ec des var iab les qualitativ es et non quantitativ es . Montrons ,à l’aide de l’e xemple simple suiv ant, comment inclure également ce domaine dans notre cadre génér al.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 2 Plans factor iel complet 2 2 Supposons que nous so yons intéressés par l’estimation des eff ets séparés (pr incipaux) et combinés (inter actions) de deux traitments T 1 et T 2 sur une réponse expér imentale y . Nous supposons ,comme génér alement pour ce type de modèle ,qu’une combinaison quelconque des modalités des traitements ne peut modifier que la valeur mo yenne de ˜ y . Notons : • θ 1 l’eff et de T 1 seul ; • θ 2 l’eff et de T 2 seul ; • θ 1 + θ 2 + θ 3 l’eff et de T 1 et T 2 lorsqu’ils sont combinés .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 2 Plans factor iel complet 2 2 Il est possib le de mettre chacune des unités expér imentales dans l’ une des quatre conditions suiv antes : 1. aucun traitement ; 2. seulement T 1 ; 3. seulement T 2 ; 4. T 1 et T 2 .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 2 Plans factor iel complet 2 2 Codons ces situations ,a vec u = ( u 1 , u 2 ) de la manière suiv ante : 1. ( 0 , 0 ) ; 2. ( 1 , 0 ) ; 3. ( 0 , 1 ) ; 4. ( 1 , 1 ) . Le rôle du planificateur est de choisir ,pour chaque unité expér imentale ,les valeurs de u 1 et u 2 dans { 0 ; 1 } .

(12)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 2 Plans factor iel complet 2 2 P ar conséquent, l’ensemb le U est réduit à quatre points . En for m ulant les hypothèses usuelles pour nos modèles ,nous obtenons : E [˜ y | u ,θ ,τ ] = θ 0 + θ 1 u 1 + θ 2 u 2 + θ 3 u 1 u 2 V ar [˜ y | u ,θ ,τ ] = τ, ce qui correspond exactement à un modèle de rég ression linéaire tel que nous l’a vons vu dans l’e xemple 1.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 3 Rég ression quadr atique av ec une var iab le contrôlée , fonction non-linéaire du par amètre Dans cet ex emple : • u est un nombre réel ; • θ = ( θ 0 ,θ 1 ,θ 2 ) 0 ,a vec θ 2 < 0 ; • τ est un nombre réel str ictement positif . Pour des valeurs de u , θ et τ données , ˜y suit une N ( θ 0 + θ 1 u + θ 2 u 2 ,τ ) 0 . Supposons que nous souhaitions trouv er la valeur de u pour laquelle E (˜ y ) est maximale ,c’est-à-dire estimer g ( θ ) = − θ 1 ( 2 θ 2 ) .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 3 Rég ression quadr atique av ec une var iab le contrôlée , fonction non-linéaire du par amètre Un calcul direct per met de montrer que ,pour un N − plan, V − 1 ( u ; θ, τ ) = 1 τ   

N P

P N i u ( i ) = 1

N i 2 u = 1 ( i ) P

P N i u ( i ) = 1

P N i 2 u = 1 ( i )

N i 3 u = 1 ( i ) P

P N i 2 u = 1 ( i )

P N i 3 u = 1 ( i ) N i 4 u = 1 ( i )

   . V ( u ; θ, τ ) se simplifie de la même manière que pour l’e xemple 1. Néanmoins ,il y a une différence fondamentale liée à la présence de la fonction non-linéaire g .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 3 Rég ression quadr atique av ec une var iab le contrôlée , fonction non-linéaire du par amètre Rappelons que dans le cas d’un ESB de g ( θ ) ,la bor ne infér ieure de l’inégalité de Fréchet-Dar mois-Cr amer-Rao est : { Dg ( θ ) } 0 V ( u ; θ, τ ) { Dg ( θ ) } , av ec ici { Dg ( θ ) } 0 = 1 2 θ 2 2 − θ 2 θ 1 . La quantité précédente dépend de θ et rien ne per met d’assurer qu’il existe un plan u ? qui la rende minimale pour toutes les valeurs de θ possib le . À ce titre ,cette situation se distingue des deux précédentes .

(13)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 4 Analyse probit :un modèle non-gaussien et non linéaire Des sujets peuv ent être soumis à un stim ulus av ec différents niv eaux d’intensité u pouv ant appar tenir à un inter valle U . Un sujet peut ou non réagir à un stim ulus de niv eau u ,et la probabilité pour qu’il réagisse est donnée av ec une bonne appro ximation par : Φ u − θ 1 θ 2

où Φ est la fonction de répar tition de la loi nor male centrée et réduite .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 4 Analyse probit :un modèle non-gaussien et non linéaire Supposons que nous disposions de N sujets pour réaliser l’e xpér ience . À quels niv eaux du stim ulus u de vons-nous les soumettre pour estimer θ 1 et θ 2 le plus précisément possib le ?

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 4 Analyse probit :un modèle non-gaussien et non linéaire Introduisons la var iab le aléatoire binaire ˜ y qui prend : • la valeur 1 si le sujet réagit ; • la valeur 0 si le sujet n’as pas de réaction. La densité de ˜ y est alors donnée par l’e xpression p ( y | u ,θ ) = Φ u − θ 1 θ 2

y 1 − Φ u − θ 1 θ 2

1 − y .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 4 Analyse probit :un modèle non-gaussien et non linéaire Un calcul direct per met de montrer que pour un plan u ,la matr ice d’inf or mation au sens de Fisher pour les par amètres θ 1 et θ 2 est      

N X i = 1

1 Φ i ( 1 − Φ i )

∂ Φ i ∂ θ 1

2 N X i = 1

1 Φ i ( 1 − Φ i ) ∂ Φ i ∂ θ 1

∂ Φ i ∂ θ 2 N X i = 1

1 Φ i ( 1 − Φ i ) ∂ Φ i ∂ θ 1

∂ Φ i ∂ θ 2

N X i = 1

1 Φ i ( 1 − Φ i )

∂ Φ i ∂ θ 2

2

     

où Φ i désigne Φ u

(i)

− θ

1

θ

2

.

(14)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 4 Analyse probit :un modèle non-gaussien et non linéaire En ver tu du pr incipe que nous av ons énoncé plus haut, nous souhaitons choisir un u qui rende cette matr ice la plus gr ande possib le en un sens que nous préciserons dans la suite . À nouv eau cette matr ice dépend de θ ,ce qui empêche a pr ior i l’e xistence d’un plan u ? qui rende l’inf or mation maximale pour tout θ .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 4 Analyse probit :un modèle non-gaussien et non linéaire Cet ex emple per met d’a voir une idée concrète du type prob lème rencontré dans le cas non-linéaire . Nous ne voulons pas en eff et réaliser d’e xpér iences pour des valeurs de u pour lesquelles Φ u − θ

1

θ

2

est soit proche de 0, soit proche de 1, parce que l’obser vation de telles valeurs ser a peu inf or matif sur θ 1 et θ 2 . Or les valeur s de u pour lesquelles ceci se pr oduit dépendent de θ 1 et θ 2 !

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 4 Analyse probit :un modèle non-gaussien et non linéaire Puisque nous ignorons les valeurs réelles des par amètres θ 1 et θ 2 ,comment pouv ons-nous sa voir si nous sommes en train de réaliser des expér iences pour des valeurs non-inf or mativ es de u ? La seule solution en visageab le à ce prob lème est de mettre en place une expérimentation séquentielle où nous choisirons les niv eaux à utiliser pour les nouv eaux sujets à par tir des réponses obten ues pour les niv eaux que nous av ons déjà utilisés pour les sujets pour lesquels nous av ons déjà fait les expér iences .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple 4 Analyse probit :un modèle non-gaussien et non linéaire Une telle appr oc he séquentielle ser a génér alement nécessaire pour tous les prob lèmes de planification non-linéaire pour lesquels nous ne disposons pas de connaissance préalab le sur les valeurs plausib les des paramètres inconn us .

(15)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Modèles de rég ression linéaire soumis aux hypothèses statistiques usuelles : • une réponse Y à valeurs réelles • U une par tie d’un espace vector iel de dimension finie R v m uni de sa str ucture euclidienne canonique ; • une var iab le indépendante u ∈ U ; • f = ( f 1 ,. .. , f k ) 0 est une fonction conn ue définie sur U et à valeurs dans R k ,posons X = f ( U ) ; • θ = ( θ 1 ,. .. ,θ k ) 0 ∈ R k est un vecteur de par amètres inconn us . y ( u ) = k X j = 1 θ j f j ( u ) = θ 0 f ( u ) , (2)

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Valeurs de la réponse y aux points u 1 ,. .. , u n ∈ U représentées par des var iab les aléatoires à valeurs réelles ˜ y 1 ,. .. , ˜ y n décorrélées telles que E [˜ y i | u ,θ ,τ ] = y ( u i ) i = 1 ,. .. , n , (3) V ar [˜ y i | u ,θ ,τ ] = τ i = 1 ,. .. , n . (4) τ ∈ ] 0 , + ∞ [ est inconn ue .

(16)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Il est possib le de se placer dans un cadre légèrement plus génér al si nous supposons que V ar [˜ y i | u ,θ ,τ ] = τ v ( u ) , i = 1 ,. .. , n , où v est une fonction de u conn ue . En eff et, il suffit alors de ramener au cas précédent en considér ant : • y 0 = y v ( u ) 1 / 2 à la place de y ; • f i ( u ) 0 = f i ( u ) v ( u ) 1 / 2 à la place de f i .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Les valeurs u 1 ,. .. , u n pour lesquelles les obser vations sont eff ectuées sont : 1. conn ues exactement 2. contrôlées par l’e xpér imentateur . Définition Un plan approché ξ est un couple ( U , w ) où : 1. U est un ensemb le fini de points { u 1 ,. .. , u r } ∈ U ,le suppor tdu plan , 2. w = ( w 1 ,. .. , w r ) sont les poids des points suppor tdu plan.

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Remarquons que ,sous les hypothèses (3) et (4), le choix d’un élément u ∈ U est équiv alent au choix d’un vecteur à k composante dans l’espace induit par le plan X = f ( U ) . Choisir un N -plan re vient donc à choisir N vecteurs dans l’espace induit par le plan X . P ar conséquent, nous pouv ons ,sans per te de génér alité, adopter la notation suiv ante ,en remplaçant (3) par (3’), E [˜ y | x ,θ ,τ ] = θ 0 x . et représenter un plan ξ par un couple ( X , w ) ,où X est un ensemb le fini de points { x 1 ,. .. , x r } ∈ X ,l’espace induit par le plan.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Plan approché = mesure de probabilité de suppor tfini sur X . Plan exact de taille n = plan av ec des poids ξ n ( x i ) = n

i

n , n i entiers de somme n . Dans la réalité, il n’est possib le de n’organiser des expér iences que selon ces plans d’où leur qualificatif . Qualité d’un plan expér imental traduite par sa matrice des moments M ( ξ ) .

(17)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition La matr ice des moments d’un plan est la matr ice M ( ξ ) définie ainsi : M ( ξ ) = r X i = 1 ξ ( u i ) f ( u i ) f ( u i ) 0 = r X i = 1 w i x i x i 0 . Pour un plan exact, nous av ons : M ( ξ n ) = X f ( u i ) f ( u i ) 0 = X x i x i 0 .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Proposition 1. M ( ξ ) matr ice carrée d’ordre k, matr ice polaire d’une for me quadr atique positiv e. 2. Si ξ n plan exact et M ( ξ n ) in versib le alors τ n M ( ξ n ) − 1 matr ice de var iance-co var iance de l’estimateur des moindres carrés ordinaires de θ . 3. Si modèle linéaire gaussien, alors n τ M ( ξ n ) matrice d’inf ormation de Fisher . ⇒ Naturel de comparer les plans au tra vers des propr iétés de leur matr ice des moments .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Notions abordées dans la suite pour comparer les plans . 1. admissibilité 2. optimalité alphabétique 3. div erses notions d’in var iance associées à un plan comme : l’ équiv ariance ,l’ in variance et l’ in variance faib le .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Admissibilité Il existe un ordre par tiel sur les for mes quadr atiques positiv es : l’ordre de Loe wner . Définition A 6 B ⇐ ⇒ B − A ∈ S + k ∀ ( A , B ) ∈ S 2 k (5) où S + k est le cône con ve xe des matr ices symétr iques réelles positiv es .

(18)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Cet ordre peut ser vir pour comparer les plans même si la matr ice des moments n’est pas in versib le . Définition Un plan ξ 0 est dit admissib le s’il n’e xiste pas de plan ξ tel que : M ( ξ 0 ) 6 M ( ξ ) et M ( ξ 0 ) 6 = M ( ξ ) , (6) où M ( ξ 0 ) et M ( ξ ) sont les matr ices des moments respectiv ement du plan ξ 0 et du plan ξ . Propr iété d’admissibilité indépendante des poids du plan.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ordre par tiel de Loe wner : défaut majeur . Ne per met pas de sélectionner un optim um unique :si k 6 = 1. Chacune des matr ices des moments qui ne sont pas compar ab les associées à plusieurs plans . De nombreux dispositifs expér imentaux non comparab les . Il est d’usage de spécifier un critère d’optimalité réel :une fonction de la matr ice des moments à valeur s réelles .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Optimalité Définition (Cr itère d’optimalité) Une fonction Φ : A → R est un cr itère d’optimalité si : 1. A est un cône con ve xe inclus dans S k tel que S ++ k ⊂ A ⊂ S + k ,où S ++ k est le cône con ve xe étoilé en 0 des matr ices réelles symétr iques définies positiv es d’ordre k. 2. Φ est décroissante pour l’ordre par tiel de Loe wner : A 6 B ⇐ ⇒ Φ( A ) > Φ( B ) , ∀ ( A , B ) ∈ A 2 . (7) 3. Φ est con ve xe .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Recherche d’un plan Φ − optimal ξ . Chercher une solution au prob lème de minimisation suiv ant : min ξ | M ( ξ ) ∈ A Φ( M ( ξ )) . (8) Posons M l’ensemb le des matr ices des moments M ( ξ ) lorsque ξ parcour tl’ensemb le de tous les plans . Le prob lème de minimisation donné par l’équation 8 de vient alors : min M ∈ M ∩ A Φ( M ) . (9)

(19)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Optimalité Définition alter nativ e d’un cr itère d’optimalité Chez cer tains auteurs la fonction Φ est 1. Condition inchangée . 2. Φ est cr oissante pour l’ordre par tiel de Loe wner : A 6 B ⇐ ⇒ Φ( A ) 6 Φ( B ) , ∀ ( A , B ) ∈ A 2 . (10) 3. Φ est conca ve . La recherche d’un plan optimal est alors un prob lème de maximisation défini sur les mêmes ensemb les . Pour passer de l’une à l’autre des con ventions ,remplacer φ par − φ .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Conca vité et conca vité str icte) Une application Φ à valeur dans R ∪ {−∞} est conca ve sur A si φ ( λ M 1 + ( 1 − λ ) M 2 ) > λ Φ( M 1 ) + ( 1 − λ ) M 2 , pour tout λ ∈ [ 0 ; 1 ] ,pour tout ( M 1 , M 2 ) ∈ A 2 . Si l’inégalité précédente est str icte pour 0 < λ < 1 sur A + , l’ensemb le des points A de A pour lesquels Φ( A ) est fini, alors φ est str ictement conca ve . Proposition Un cr itère str ictement conca ve admet sur A un unique maxim um A ? .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Pour résoudre le prob lème d’optimalité, il suffit alors de : 1. Déter miner une matr ice des moments optimale M ? . Prob lème de minimisation con ve xe . 2. Constr uire un plan ξ de matr ice des moments M ( ξ ) = M ? . Plusieurs difficultés : 1. Dimension du prob lème rapidement très éle vée . 2. Résolution numér ique du prob lème ⇒ connaissance approchée de la matr ice des moments optimales . 3. Exhiber un plan ay ant la bonne matr ice des moments . Coordonnées des points suppor tdu plan conn ues de manière apro ximativ e.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Remarquons que solution du prob lème d’optimalité tel que nous l’a vons posé n’a aucune raison pour être un plan exact. C’est même volontairement que nous av ons décidé de recherché les plans optimaux dans un ensemb le ,les plans approchés ,qui contient strictement les plans exacts . En eff et, l’ensemb le des N − plans ,ou plans exacts à N essais , est un ensemb le discret et minimiser le cr itère φ sur celui-ci re vient à chercher le minim um d’une fonction à valeurs réelles définie uniquement sur les nombres entiers !

(20)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Dans le cas d’une fonction à valeurs réelles définie uniquement sur les nombres entiers mais naturellement prolongeab le à R + , nous chercher ions ses var iations et son minim um t ? sur R + à l’aide des outils du calcul différentiel, puis nous chercher ions à montrer que le minim um sur les entiers est en fait atteint pour un entier proche de t ? . C’est cette idée qui a amené Kief er à introduire les plans approchés .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Classe impor tante de cr itères d’optimalité :cr itères or thogonalement in var iants sur S ++ k . Définition Un cr itère d’optimalité sur S ++ k est or thogonalement in var iant s’il est in var iant pour l’action du groupe or thogonal de R k par cong ruence sur S ++ k . Objectif :Utiliser les symétr ies du prob lème de minimisation pour : 1. Réduire la dimension. 2. Obtenir une résolution exacte .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emples Pour −∞ 6 p 6 1 ,les fonctions Φ p suiv antes ,définies sur S ++ k , sont des cr itères d’optimalité or thogonalement in var iants .Ce sont les cr itères d’optimalité Φ p de Kief er (1974).

          

Φ p ( A ) = 1 k P

−1

p

k j p λ ( A ) , si p 6∈ {−∞ , 0 } , j = 1

−1

Q

−1k

k j

k

Φ ( A ) = λ ( A ) = ( det ( A )) , 0 j = 1 Φ ( A ) = min −∞

− 1 k j λ ( A ) . j = 1 ,..., k

(11) Les cr itères obten us pour p = 0 ,p = − 1 et p = −∞ sont appelés respectiv ement cr itères de D − optimalité, A − optimalité et E − optimalité.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Remarque La D − optimalité trouv e son inter prétation naturelle dans le conte xte du modèle linéaire gaussien. Un ellipsoïde de confiance pour θ ,pour un niv eau de confiance fixé et une somme des carrés résiduelles donnée ,pro venant de l’utilisation du plan ξ est de la for me E = n θ ∈ R k : ( θ − b θ ) 0 M ( ξ )( θ − b θ ) 6 constante o où b θ est l’estimateur de Gauss-Mar ko v de θ .

(21)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Remarque Le volume de cet ellipsoïde E , vol (() E ) ,est propor tionnel à ( det ( M ( ξ ))) −

1 2

. Le cr itère de D − optimalité vise donc à rendre cette ellipsoïde le plus petit possib le en minimisant le déter minant de M ( ξ ) − 1 ou, en d’autre ter mes ,en maximisant celui de M ( ξ ) .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Optimalité minimax) Pour toute par tie C ⊂ R k telle que f soit prolongeab le naturellement à C ,un cr itère d’optimalité est défini par la for m ule : Φ C ( A ) = max u ∈ C f ( u ) 0 A − 1 f ( u ) . (12) En utilisant ce cr itère ,pour choisir un plan nous cherchons à rendre minimale la valeur maximale de la var iance de l’estimateur de θ 0 f ( u ) lorsque u décr it C .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition ( G − optimalité) Le cr itère de G − optimalité, qui est or thogonalement in var iant, est défini en prenant C = X : Φ G ( A ) = max u ∈ U f ( u ) 0 A − 1 f ( u ) . (13) En utilisant ce cr itère ,pour choisir un plan nous cherchons à rendre minimale la valeur maximale de la var iance de l’estimateur de θ 0 f ( u ) lorsque u décr it U .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition ( E − optimalité) Le cr itère de E − optimalité est défini en prenant C égal à la sphère unité : Φ E ( A ) = max x ∈ R

k

: x

0

x = 1 x 0 A − 1 x . (14) En utilisant ce cr itère ,pour choisir un plan nous cherchons à rendre minimale la valeur maximale de la var iance de l’estimateur de θ 0 x lorsque x décr it la sphère unité, ce qui re vient bien à chercher à rendre maximale la plus petite valeur propre de M ( ξ ) .

(22)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition ( I − optimalité) Le cr itère de I − optimalité, qui n’est pas or thogonalement in var iant, est défini pour tout domaine compact U d’intér ieur non vide par la for m ule : Φ I ( A ) = 1 vol ( U ) Z U f ( u ) 0 A − 1 f ( u ) d u , (15) où vol ( U ) désigne le volume du domaine expér imental compact U .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

In var iances Différentes notions d’in var iance pour l’action d’un groupe G existent (Puk elsheim 1993, Gaffk e, Heiligers 1996). 1. La ( G , Q ) − équiv ar iance = propr iétés de symétr ie hér itées de la for me du domaine expér imental U et du modèle de rég ression. 2. La G − in var iance = équiv ar iance et in var iance de l’ensemb le des points suppor tdu plan pour l’action de G . 3. La G − in var iance faib le = équiv ar iance et in var iance de la matr ice des moments du plan pour l’action de G sur les points suppor tdu plan.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Équiv ar iance) Considérons un modèle de rég ression linéaire ,y ( u ) = θ 0 f ( u ) , u ∈ U , θ ∈ R k .Soit G un groupe de transf or mations bijectiv es de U sur U et Q un groupe de matr ices réelles carrées d’ordre k po ur la m ultiplication matr icielle usuelle .Le modèle de rég ression est équiv ariant pour G et Q ,ce que nous abrégeons également en ( G , Q ) − équiv ariant ,s’il existe une application surjectiv e de G sur Q qui à un élément g de G associe un élément Q g de Q tel que : f ( g ( u )) = Q g f ( u ) , ∀ ( u , g ) ∈ U × G . (16) Ex emple Tout modèle de rég ression est ( { id U } , { I k } ) − équiv ar iant.

(23)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition Une application g de U dans U induit une opér ation sur l’ensemb le des plans dont le suppor test inclus dans U de la manière suiv ante : ξ g = g ( u 1 ) .. . g ( u r ) ξ ( u 1 ) .. . ξ ( u r ) , (17) où ξ g est l’image par g du plan ξ = u 1 .. . u r ξ ( u 1 ) .. . ξ ( u r ) . (18)

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Proposition Si un modèle de rég ression est ( G , Q ) − équiv ar iant alors le groupe G induit une opér ation sur l’ensemb le des matr ices des moments des plans dont le suppor test inclus dans U de la manière suiv ante : M ( ξ g ) = Q g M ( ξ ) Q 0 g , ∀ ξ ⊂ U , ∀ g ∈ G . (19) Il s’agit donc d’une action par cong ruence du groupe Q .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (In var iance ,in var iance faib le) Soit un modèle de rég ression ( G , Q ) − équiv ar iant. Un plan ξ est : 1. G − in var iant si pour tout g ∈ G , ξ g = ξ , 2. G − faib lement in var iant si pour tout g ∈ G ,M ( ξ g ) = M ( ξ ) . Lemme Soit un modèle de rég ression ( G , Q ) − équiv ar iant av ec Q un groupe compact. Pour tout plan ξ il existe un plan faib lement in var iant e ξ tel que M ( e ξ ) ∈ Con v { M ( ξ g ) , g ∈ G } . (20) Si G est fini alors ,pour tout plan faib lement in var iant e ξ ,il existe un plan in var iant ξ dont le suppor t, Supp ξ ,est inclus dans celui de e ξ et pour lequel M ( ξ ) = M ( e ξ ) .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Modèle de rég ression polynomiale) Soient d un entier naturel et A un sous-ensemb le fini de N v . Les éléments de A notés α = ( α 1 ,. .. ,α v ) sont tels que : 1. | α | = P

v i α 6 d pour tout α ∈ A i = 1 2. il existe α ∈ A tel que | α | = d . 0 0 Un modèle de rég ression m ultiple polynomiale A de deg ré d v sur un domaine expér imental U ∈ R est alors défini par : X α 0 y ( u ) = θ u , u = ( u ,. .. , u ) ∈ U . (21) α v 1 α ∈ A Le modèle de rég ression m ultiple polynomiale complet A de d v deg ré d sur un domaine expér imental U ∈ R est défini par : v A = { α ∈ N , | α | 6 d } . (22) d

(24)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emples 1. Soit G s le groupe des changements de signe . Si le domaine expér imental U est G s − in var iant alors tout modèle de rég ression m ultiple polynomiale A est ( G s , Q s ) − équiv ar iant. 2. Soit G p le groupe des per m utations des coordonnées . Si le domaine expér imental U est G p − in var iant et l’ensemb le des deg rés A est in var iant par per m utation alors le modèle de rég ression m ultiple polynomiale A est ( G p , Q p ) − équiv ar iant. 3. Soit G sp le groupe engendré par G s et G p . Si le domaine expér imental U est G sp − in var iant et l’ensemb le des deg rés A est in var iant par per m utation alors le modèle de rég ression m ultiple polynomiale A est ( G sp , Q sp ) − équiv ar iant.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Ex emple Le domaine expér imental U la boule de R v centrée en 0 .Soit G = G or th le groupe des transf or mations or thogonales de R v . Le modèle de rég ression m ultiple polynomiale complet A d est ( G or th , Q or th ) − équiv ar iant. Définition (Iso var iance) Soient un domaine expér imental U et un le modèle de rég ression m ultiple polynomiale complet A d ( G or th , Q or th ) − équiv ar iant. Un plan ξ est dit iso variant s’il est G or th − faib lement in variant .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Remarques 1. Seuls les trois groupes Q s , Q p et Q sp sont des sous-g roupes du groupe or thogonal. 2. Les plans in variants pour l’action du groupe G or th sont réduits au plan for mé par le point 0 . 3. Nous verrons dans la suite que les plans faib lement in variants pour l’action du groupe G or th ne se réduisent pas à celui for mé par le point 0 .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

In var iance ,admissibilité et optimalité Intérêt marqué pour la combinaison in var iance ,admissibilité et optimalité :Gaffk e et Heiligers 96, Schw abe 96 et Liski, Mandal, Shah et Sinha 02. Définition (Cr itère in var iant) Soit Q un groupe de matr ices réelles carrées d’ordre k. Un cr itère d’optimalité Φ défini sur A est Q− in var iant si : QA Q 0 ∈ A et Φ( QA Q 0 ) = Φ ( A ) , ∀ ( A , Q ) ∈ A × Q . (23) Ex emples Le cr itère Φ 0 de D − optimalité est Q or th − in var iant.

(25)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Lemme Soit un modèle de rég ression m ultiple polynomiale A ( G , Q ) − équiv ar iant, av ec Q est un groupe compact, et Φ un cr itère d’optimalité défini sur A et Q− in var iant. Pour tout plan ξ tel que M ( ξ ) ∈ A et tout plan e ξ G − faib lement in var iant av ec M ( e ξ ) ∈ Con v { M ( ξ g ) , g ∈ G } nous av ons : M ( e ξ ) ∈ A , Φ M e ξ 6 Φ ( M ( ξ )) . (24)

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Impor tance des plans iso var iants par mi tous les plans dont le suppor test inclus dans une boule de R v centrée en 0 pour les cr itères de D − optimalité. Corollaire Considérons un domaine expér imental U égal à une boule de R v centrée en 0 .P our un modèle polynomial de deg ré d iso var iant et le cr itère d’optimalité Φ 0 et Φ I ,nous pouv ons restreindre la recherche d’un plan optimal pour la classe des plans dont le suppor test dans U à la sous-classe des plans iso var iants .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition Un plan ξ est admissib le pour un modèle de rég ression polynomial A de deg ré d est dit A − admissib le . Lemme (Gaffk e, Heiligers 96) Soit G un groupe compact de transf or mations agissant linéairement sur U .Supposons que le modèle de rég ression polynomial A de deg ré d est ( G , Q ) − équiv ar iant. Alors ,pour tout plan faib lement in var iant ξ il existe un plan faib lement in var iant e ξ qui soit A − admissib le et A d − admissib le et tel que : M ( e ξ ) > M ( ξ ) . (25)

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Corollaire Lors de la recherche d’une solution optimale pour un cr itère d’optimalité Q− in var iant dans la classe des plans dont le suppor test dans χ ,nous pouv ons nous restreindre à chercher un plan optimal dans la sous-classe des plans faib lement in var iants et A d -admissib les . Nous pouv ons désor mais car actér iser les plans A d − admissib les pour un domaine χ compact. Le cas unidimensionnel a été traité en 1959 par Kief er .

(26)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Théorème Soit v = 1 ,et χ = [ a , b ] av ec ( a , b ) ∈ R 2 tels que a < b. Un plan ξ est A d − admissib le si et seulement si : Card ( supp ( ξ ) ∩ ] a , b [) 6 d − 1 . (26)

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Nous introduisons désor mais la notion de segment et d’intér ieur relatif d’un segment pour appliquer le théorème 2.1 au cas d’un modèle polynomial A d av ec v > 2. Définition (Segment) Un segment S d’e xtrémités x ( 0 ) et x ( 1 ) ,deux points de R v ,est l’en veloppe con ve xe de ces points : S = n λ x ( 0 ) + ( 1 − λ ) x ( 1 ) ,λ ∈ [ 0 , 1 ] o . (27) Le segment S n’est pas dégénéré si ces extrémités , x ( 0 ) et x ( 1 ) ,ne sont pas égales .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Intér ieur relatif) L’intér ieur relatif d’un segment S ,noté ri ( S ) ,d’e xtrémités x ( 0 ) et x ( 1 ) ,deux points de R v ,est l’ensemb le des bar ycentres à coefficients str ictement positifs de ces points : S = n λ x ( 0 ) + ( 1 − λ ) x ( 1 ) ,λ ∈ ] 0 , 1 [ o . (28)

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Théorème Soit v > 1 ,et S ⊂ χ un segment non dégénéré inclus dans le domaine expér imental. Si un plan ξ est A d − admissib le : Card ( supp ( ξ ) ∩ ri ( S )) 6 d − 1 . (29)

(27)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (F ace) Une face F d’un ensemb le χ est un sous-ensemb le con ve xe de χ tel que : S ⊂ χ est un segment et F ∩ ri ( S ) 6 = ∅ , = ⇒ S ⊂ F . (30) Remarque L’ensemb le χ est une face de χ et chaque point extrémal de χ est une face de χ .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Il existe plusieurs liens entre un compact con ve xe χ et ses faces .La proposition suiv ante explicite l’un d’entre eux. Proposition Si χ est un compact con ve xe de R v ,alors : χ = [ F face de χ ri ( F ) . (31)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Corollaire Nous reprenons le conte xte du théorème 2.2 et nous supposons de surcroît que le domaine expér imental χ est compact et con ve xe . 1. Si d = 1 ,alors les points suppor td’un plan A 1 − admissib le sont les points extrêmes de χ . 2. Si d = 2 ,alors pour toute face F de χ un plan A 2 − admissib le a au plus un point suppor tdans ri ( F ) . Pour obtenir des résultats plus précis nous étudions des domaines expér imentaux par ticuliers .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Domaine cubique) Le domaine expér imental C b est un v − hypercube symétr ique centré en 0 : C b = n x = ( x 1 ,. .. , x v )

0

∈ R v , | x i | 6 b i , 1 6 i 6 v o , (32) où b i ∈ ] 0 , + ∞ [ , 1 6 i 6 v. L’ensemb le des sommets de C b est V b av ec V b = n x = ( x 1 ,. .. , x v )

0

∈ R v , | x i | = ± b i , 1 6 i 6 v o . (33)

(28)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Domaine elliptique) Le domaine expér imental E H est un v − ellipsoïde centré en 0 : E H = n x = ( x 1 ,. .. , x v )

0

∈ R v , x

0

H x 6 1 o , (34) où H ∈ S ++ k . La frontière de E H est ∂ E H : ∂ E H = n x = ( x 1 ,. .. , x v )

0

∈ R v , x

0

H x = 1 o . (35)

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Corollaire Soit un modèle de rég ression m ultiple polynomiale de deg ré d = 1 sur χ = C b ou χ = E H .Un plan ξ est A 1 − admissib le si et seulement si : supp ( ξ ) ⊂ V b , si χ = C b , ∂ E H , si χ = E H . (36)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Remarque Dans le cas d’un domaine E H av ec H = ( 1 / r 2 ) I v ,c’est-à-dire si χ est la boule de ra yon r centrée en 0 ,la matr ice des moments d’un plan faib lement in var iant pour G sp et A 1 − admissib le est M ∗ = Diag 1 , r

2

v ,. .. , r

2

v .Il s’agit de la même matr ice des moments que celle d’un plan iso var iant et A 1 − admissib le . Ainsi tout plan sphér ique est un plan A 1 − admissib le si le domaine expér imental est si le suppor tdu plan est inclus dans la frontière de cette boule . Dans la suite nous nous concentrons sur les résultats d’admissibilité concer nant les domaines de type E H .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Corollaire Soit un modèle de rég ression m ultiple polynomiale de deg ré d = 2 ,un domaine expér imental χ égal à E H et le groupe de transf or mations constitué de deux éléments ,l’identité et la symétr ie centr ale par rappor tà l’or igine du repère . 1. Si un plan ξ est faib lement in var iant et A 2 − admissib le alors supp ( ξ ) ⊂ E H ∪ { 0 } . 2. Réciproquement, si un plan, non nécessairement faib lement in var iant, ξ est tel que supp ( ξ ) ⊂ E H ∪ { 0 } alors il est A 2 − admissib le .

(29)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Le corollaire 2.5 justifie pleinement l’utilisation de plans compor tant des points répar tis sur une même sphère , év entuellement complétés par des points au centre pour un modèle de rég ression polynomiale m ultiple de deg ré 2 et un domaine expér imental de type boule ;le suppor tdu plan étant inclus dans la frontière de cette boule . Corollaire Tout plan dont le suppor test conten u dans la sphère unité de R v est A 2 − admissib le pour un domaine χ égal à la boule unité de R v .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Dans le cas d’un domaine expér imental de type cube centré en 0 et symétr ique ou de la boule de ra yon r centrée en 0 , quelques résultats génér aux concer nant les modèles de deg ré supér ieurs ou égaux 3 existent, voir Gaffk e et Heiligers (1996). Toutef ois si nous faisons l’h ypothèse supplémentaire que le plan est iso var iant il est possib le de démontrer le résultat que nous allons exposer dans la section suiv ante .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Classe essentiellement complète Lors de la recherche d’une solution optimale pour un cr itère d’optimalité Q− in var iant dans la classe des plans dont le suppor test dans U ,nous pouv ons nous restreindre à chercher un plan optimal dans la sous-classe des plans faib lement in var iants et A d -admissib les . Réduction de dimension Les classes essentiellement complètes for mées de plans faib lement in var iants ,de plans admissib les ,ou de plans faib lement in var iants et admissib les donnent une cadre for mel pour la réduction de la dimension du prob lème de minimisation.

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Sommaire Introduction Plans pour pesée Définition génér ale du prob lème Ex emples Planification, modèle linéaire et symétr ies Définitions ,admissibilité, optimalité In var iances Cas de l’iso var iance Car actér isation différentielle de l’optimalité Définitions ,première propr iétés Théorèmes de car actér isation

(30)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Il a été étudié par de nombreux auteurs depuis l’ar ticle fondateur de Bo x et Hunter (1957) : • Dr aper ,Gaffk e et Puk elsheim (1993) ; • Gaffk e et Heiligers (1996) ; • My ers et Montgomer y (2002). Lorsqu’un plan possède la propr iété d’iso var iance ,la var iance de l’estimateur de Gauss-Mar ko v en un point du domaine expér imental ne dépend que de la distance de ce point au centre du domaine . Ainsi, à une distance fix e de l’or igine ,la précision de l’estimation est constante .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Soit χ un domaine expér imental égal à la boule centrée en 0 et de ra yon r > 0 et un modèle de rég ression m ultiple iso var iant de deg ré d > 1. Nous supposons que ,pour le prob lème d’optimalité considéré, la restr iction à l’ensemb le des plans iso var iants est justifiée comme c’est le cas pour les cr itères de D − optimalité et de I − optimalité.

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Proposition Soit un modèle polynomial complet de deg ré d > 1 sur la boule B r de ra yon r centrée en 0 et le groupe de transf or mations G or th .P our tout ρ ∈ [ 0 , r ] ,l’ensemb le des plans iso var iants dont le suppor test inclus dans la sphère S ρ est non-vide et tous ces plans ont la même matr ice des moments ,notée M d ,ρ .Nous av ons de plus ,pour tout plan ξ iso var iant sur la boule B r la décomposition suiv ante pour la matr ice de ses moments : M d ( ξ ) = X ρ ∈ R ( ξ ) ξ ( S ρ ) M d ,ρ , (37) où ξ ( S ρ ) est le poids total de tous les points du plan ξ appar tenant à la sphère S r et R ( ξ ) l’ensemb le ,fini, des ra yons ρ ∈ [ 0 , r ] tels que ξ ( S ρ ) > 0 .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Multiplicité d’un ra yon) Soit ξ un plan iso var iant sur la boule B r .La m ultiplicité m ξ ( ρ ) d’un ra yon ρ ∈ R ( ξ ) est égale à : m ξ ( ρ ) =     

0 , si ρ = r 1 , si 0 < ρ < r 1 2 , si ρ = 0 . (38)

(31)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Définition (Cardinal eff ectif) Soit ξ un plan iso var iant sur la boule B r .Le cardinal eff ectif γ ξ de R ( ξ ) est égal à : γ ξ = X ρ ∈ R ( ξ ) m ξ ( ρ ) . (39)

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Théorème Soit un modèle polynomial complet d’ordre d > 1 sur la boule B r .Si le plan ξ est iso var iant et A d − admissib le alors : γ ξ 6 d − 1 2 . (40) Réciproquement, si ξ est un plan, non nécessairement iso var iant, tel que : γ ξ 6 d − 1 2 , (41) alors il est A d − admissib le .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Corollaire 1. Si d = 1 , γ ξ = 0 .Ainsi le suppor td’un plan iso var iant et A 1 − admissib le est inclus dans la frontière de la boule B r . Réciproquement tout plan dont le suppor test inclus dans la sphère de ra yon r est A 1 − admissib le . 2. Si d = 2 , γ ξ 6 1 / 2 .Ainsi le suppor td’un plan iso var iant et A 2 − admissib le est : • soit inclus dans la frontière de la boule B r , • soit dans l’ensemb le for mé par l’union de cette frontière et de l’or igine 0 . Réciproquement si un plan vér ifie l’une des conditions ci-dessus ,il est A 2 − admissib le .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Corollaire 1. Si d = 3 , γ ξ 6 1 .Ainsi le suppor td’un plan iso var iant et A 3 − admissib le est : • soit inclus dans la frontière de la boule B r , • soit dans l’ensemb le for mé par l’union de cette frontière et de l’or igine 0 , • soit dans l’ensemb le for mé par l’union de cette frontière et d’une sphère de ra yon 0 < ρ < R centrée en 0 . Réciproquement si un plan vér ifie l’une des conditions ci-dessus ,il est A 3 − admissib le .

(32)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Corollaire 1. Si d = 4 , γ ξ 6 3 / 2 .Ainsi le suppor td’un plan iso var iant et A 4 − admissib le est : • soit inclus dans la frontière de la boule B r , • soit dans l’ensemb le for mé par l’union de cette frontière et de l’or igine 0 , • soit dans l’ensemb le for mé par l’union de cette frontière et d’une sphère de ra yon 0 < ρ < R centrée en 0 , • soit dans l’ensemb le for mé par l’union de cette frontière , d’une sphère de ra yon 0 < ρ < R centrée en 0 et d’une sphère de ra yon 0 < ρ < R centrée en 0 . Réciproquement si un plan vér ifie l’une des conditions ci-dessus ,il est A 4 − admissib le .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Conclusion Ce résultat per met de justifier la for me de la plupar tdes plans qui sont comm unément utilisés pour l’étude des modèles de rég ression. Nous rencontrerons plusieurs plans de ce type au cours des ex ercices que nous traiterons .

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

La proposition 2.5 indique que la matr ice des moments d’un plan iso var iant se décompose de la manière suiv ante : M d ( ξ ) = X ρ ∈ R ( ξ ) ξ ( S ρ ) M d ,ρ , (42) Les matr ices M d ,ρ vér ifient la relation : M d ,ρ = D ρ M d , 1 D ρ (43) où D ρ est la matr ice diagonale d’ordre v + d d

av ec D ρ α , α = ρ | α | , | α | 6 d .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Les matr ices des moments des plans iso var iants ξ sont donc par amétrées de manière linéaire par le vecteur : m ( ξ ) = X ρ ∈ R ( ξ ) ξ ( S ρ ) m ( ρ ) , (44) av ec m ( ρ ) = ( ρ 2 ,. .. ,ρ 2 d )

0

,pour 0 6 ρ 6 r . Lorsque ξ décr it l’ensemb le des plans iso var iants , m ( ξ ) décr it M où : M = Con v { m ( ρ ) , 0 6 ρ 6 r } . (45)

(33)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Une résolution explicite d’un prob lème d’optimisation por tant sur les plans iso var iants nécessite donc le calcul du ter me génér al de la matr ice M d ,ρ .Comme nous l’a vons rappelé ci-dessus ,il suffit de déter miner le ter me génér al de la matr ice M d , 1 .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Fonction génér atr ice des moments Mélange entre approche décr ite dans Gaffk e et Heiligers (1996) et My ers et Montgomer y (2002). Définition (F onction génér atr ice des moments) La fonction génér atr ice des moments d’un plan ξ ,pour un modèle polynomial complet A d de deg ré d ,notée MGF A

d

( ξ ) , est définie par : MGF A

d

( ξ )( t ) = E ξ h 1 + t 0 X 2 d i , ∀ t ∈ R v . (46) Ainsi dans le cas où les poids sont tous égaux : MGF A

d

( ξ )( t ) = 1 r

r X i = 1 1 + t 0 u i 2 d , ∀ t ∈ R v . (47)

Planification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Tr ansmission de propr iétés d’in var iance de la matr ice des moments à la fonction génér atr ice des moments du plan. Proposition Lorsque le plan ξ est iso var iant nous av ons l’identité : MGF A

d

( ξ )( t ) = d X j = 1 a 2 j

k X i = 1 t 2 i

! j , ∀ t ∈ R v . (48) MGF A

d

( ξ ) est une fonction radiale .

IntroductionPlanification,modèlelinéaireetsymétriesCaractérisationdifférentielledel’optimalité

Proposition Soit ξ un plan expér imental inclus dans le domaine expér imental χ .Le coefficient d’un monôme t γ = t γ

1

1 × ·· ·× t γ

v

v de MGF A

d

( ξ ) ,la fonction génér atr ice des moments du plan ξ pour un modèle polynomial complet A d de deg ré d ,est égal à : ( 2 d )! v Y i = 1 ( γ i )!( 2 d − | γ | )! µ γ ( ξ ) , (49) où | γ | = P

v i γ 6 2 d . i = 1

Références

Documents relatifs

[r]

The se data demonstrate a good co rre latio n between the doses , as estimated based o n the model assumpti on and using the resul ts of direct measurements.. It also proves that it

Généralités Règlesdeconstructiondumodèle Sommesdescarrésetdegrésdeliberté Sommaire 1 Généralitéssurlesmodèles,expressiondessommesdes

IntroductionPlanification,modèlelinéaireetsymétriesThéorèmesdecaractérisation Sommaire Introduction Planspourpesée Définitiongénéraleduproblème

Absenced’observationsnullesparmilesdonnées Présenced’observationsnullesdanslesdonnées Exemple

Méthode Versionmatricielle Lescalculs Casp=2 ExempleaveclelogicielR &gt;a&lt;-lm(max03T12+VX) &gt;summary(a) Call: lm(formula=max03T12+VX) Residuals:

FrédéricBertrandetMyriamMaumyComplémentssurlarégresionmultiple Quelquesrappels Analysedelavariance TestFpartiel Laprocédure: Calculerlesvaleursestiméesˆy

By assessing the data quality measures for every locus, some locus-dependent characteristics, such as the presence of homopolymers, complex repeat patterns, similarity between