• Aucun résultat trouvé

Les modèles de régression angulaire

N/A
N/A
Protected

Academic year: 2021

Partager "Les modèles de régression angulaire"

Copied!
122
0
0

Texte intégral

(1)

Les modèles de régression angulaire

Mémoire

Jessica Bach

Maîtrise en statistique

Maître ès sciences (M.Sc.)

Québec, Canada

© Jessica Bach, 2014

(2)
(3)

Résumé

En statistique directionnelle, on utilise trois types de régression : des modèles angle-linéaire, linéaire-angle et angle-angle, selon la nature des données. Ainsi, si la variable explicative et la variable réponse sont des angles, la régression angle-angle permet d’expliquer la relation entre ces variables. Plusieurs modèles de régression ont été développés en statistique directionnelle. Trois d’entre eux font l’objet de ce mémoire : le prédicteur décentré deRivest(1997), le modèle de Möbius de Downs & Mardia (2002) et la régression non paramétrique deDi Marzio et al.

(2012). Des méthodes d’estimation sont mises de l’avant pour les paramètres de chacun de ces modèles. On compare les modèles entre eux à l’aide de simulations et d’exemples utilisant des données réelles.

(4)
(5)

Abstract

For the analysis of directional data, there are three types of regression models: angular-linear, linear-angular and angular-angular. The type of regression depends on the nature of the data. Hence, if the explanatory variable and the response variable are angles, the angular-angular re-gression model can explain the relationship between these variables. Several models have been developed for this purpose and in this paper, three of these directional models are discussed: the decentred predictor ofRivest (1997), the Mobius model Downs & Mardia(2002) and the nonparametric regression of Di Marzio et al. (2012). Estimation procedures are highlighted for the parameters of each of these models. We compare the models together with simulations and examples using real data.

(6)
(7)

Table des matières

Résumé iii

Abstract v

Table des matières vii

Liste des tableaux ix

Liste des figures xi

Remerciements xiii

Introduction 1

1 Concepts de base 3

1.1 Caractéristiques des angles. . . 3

1.2 Statistiques descriptives . . . 5

1.3 Variable aléatoire angulaire . . . 7

1.4 Lois directionnelles . . . 9 1.5 Outils informatiques . . . 12 2 Régression angulaire 15 2.1 Régression angle-linéaire . . . 15 2.2 Régression linéaire-angle . . . 16 2.3 Régression angle-angle . . . 17

3 Estimation des paramètres des modèles paramétriques 29 3.1 Méthode de maximum de vraisemblance . . . 29

3.2 Précision des valeurs prédites ˆµ(y|x) . . . 34

3.3 Intervalle de confiance . . . 38

4 Comparaison des modèles par simulations 39 4.1 Simulation. . . 39

4.2 Estimations des paramètres . . . 40

4.3 Statistiques d’ajustement . . . 43

4.4 Résultats . . . 45

(8)

5.1 Analyse des données . . . 53

5.2 Exemple sur le tremblement de terre . . . 53

5.3 Exemple sur la direction du vent . . . 54

Conclusion 57 Bibliographie 59 A Annexe 63 A.1 Résultats du premier objectif . . . 63

A.2 Résultats du deuxième objectif . . . 76

A.3 Programme informatique des analyses de la variance . . . 85

A.4 Programme informatique des simulations. . . 87

A.5 Programme informatique des correspondances entre les modèles décentré et Möbius. . . 96

(9)

Liste des tableaux

1.1 Champs d’application de la statistique directionnelle . . . 12

4.1 Valeurs ω utilisées dans les simulations . . . 45

4.2 Vraies valeurs de µ(y|π/6) selon le modèle . . . 46

4.3 Vraies valeurs de µ(y|π/3) selon le modèle . . . 46

4.4 Vraies valeurs de µ(y|π/2) selon le modèle . . . 46

5.1 Estimations pour les données sur le tremblement de terre . . . 54

(10)
(11)

Liste des figures

1.1 Exemples d’échantillon en statistique directionnelle . . . 3

1.2 Angles facilement reconnaissables du cercle unité . . . 4

1.3 Représentation graphique d’un point en coordonnées polaires . . . 4

1.4 Statistiques descriptives sur un échantillon . . . 5

1.5 Diagramme en rose d’un échantillon de taille 1000 tiré d’une loi uniforme . . . 10

1.6 Échantillons de la loi de von Mises centrée . . . 11

2.1 Cas en science politique illustrant le nombre de crimes en fonction de l’heure . . . 16

2.2 Fonction 2arctan(.) . . . 17

2.3 Principe du prédicteur décentré . . . 18

2.4 Modèles d’indépendance et rotationnel . . . 19

3.1 Intervalle de confiance circulaire asymptotique. . . 38

4.1 Légende des courbes pour le premier objectif . . . 47

4.2 Simulations pour le premier objectif avec le modèle décentré . . . 47

4.3 Simulations pour le premier objectif avec le modèle de Möbius . . . 47

4.4 Résumé des résultats de simulations du premier objectif . . . 48

4.5 Résultats du test de comparaisons multiples de Tukey . . . 49

4.6 Légende des courbes pour le deuxième objectif . . . 50

4.7 Simulations pour le deuxième objectif . . . 50

4.8 Résumé des résultats de simulations du deuxième objectif . . . 51

5.1 Comparaison des trois modèles sur le tremblement de terre γ = 250 . . . 54

5.2 Comparaison des trois modèles sur le tremblement de terre γ = 4 . . . 54

5.3 Comparaison des trois modèles sur les directions du vent γ = 4 . . . 55

A.1 simulation 1 du premier objectif . . . 63

A.2 simulation 2 du premier objectif . . . 63

A.3 simulation 3 du premier objectif . . . 63

A.4 simulation 4 du premier objectif . . . 64

A.5 simulation 5 du premier objectif . . . 64

A.6 simulation 6 du premier objectif . . . 64

A.7 simulation 7 du premier objectif . . . 64

A.8 simulation 8 du premier objectif . . . 64

A.9 simulation 9 du premier objectif . . . 64

(12)

A.11 simulation 11 du premier objectif . . . 65

A.12 simulation 12 du premier objectif . . . 65

A.13 simulation 1 du deuxième objectif . . . 77

A.14 simulation 2 du deuxième objectif . . . 77

A.15 simulation 3 du deuxième objectif . . . 77

A.16 simulation 4 du deuxième objectif . . . 77

A.17 simulation 5 du deuxième objectif . . . 77

(13)

Remerciements

Je tiens à remercier les personnes de mon entourage qui ont contribué à la réalisation de ce mémoire. Tout d’abord, il y a Louis-Paul Rivest, mon directeur de recherche, qui a toujours été disponible durant la dernière année. Je le remercie d’avoir porté un grand intérêt à ma recherche, de m’avoir décerné des bourses d’études et particulièrement, de m’avoir permis de réaliser ce travail à un rythme accéléré. Ensuite, j’aimerais remercier Thierry Duchesne et Khader Khadraoui d’avoir accepté d’être les examinateurs de ce mémoire. Je remercie également tous les professeurs, chargés de cours et consultants qui m’ont enseigné toutes les notions statistiques que j’ai acquises.

Certaines personnes ont été une source de motivation et d’encouragement pendant mon année à la maîtrise comme Marie-Hélène, Aurélien et Charles. À cette liste, je souhaite ajouter Virginie et Marc-André qui ont été très présents durant les années au premier cycle.

Je souhaite également remercier ma grande soeur et mon grand frère qui ont toujours été des modèles pour moi. Considérant l’apport de ma famille, je n’oublierai jamais mes parents qui m’ont toujours rappelé l’importance de la réussite scolaire. Cela a sans doute guidé mon cheminement académique jusqu’à l’obtention d’un diplôme d’études supérieures : 謝謝爸爸,

謝謝媽媽!

Mes derniers remerciements s’adressent à une personne qui m’est très chère depuis plus de 8 ans : mon amoureux Codd. Que ce soit durant les études secondaires, collégiales ou même universitaires, je le remercie tout simplement d’avoir toujours été présent pour moi.

(14)
(15)

Introduction

La statistique directionnelle est une extension de la statistique classique. Autrement dit, elle est complémentaire à cette dernière puisque la statistique directionnelle s’intéresse à des directions plutôt qu’à des données linéaires. Les applications de la statistique directionnelle sont nombreuses (Berens,2009) que ce soit dans le domaine des sciences et du génie, en sciences sociales, etc.

Dans le monde de la statistique, la statistique directionnelle (statistique angulaire) constitue un sujet d’actualité. Les mathématiques standards ne peuvent s’appliquer adéquatement aux données directionnelles. Ainsi, l’analyse de ce type de données nécessite des modèles particu-lièrement conçus pour tenir compte des propriétés des données angulaires.

Dans les 20 dernières années, plusieurs modèles ont été inventés à cet effet. L’objectif de ce mémoire est d’étudier et de valider certains de ces modèles comme le prédicteur décentré univarié deRivest(1997) en comparant son ajustement à celui obtenu avec le modèle paramé-trique de Downs & Mardia(2002) et avec la régression non paramétrique deDi Marzio et al.

(2012). D’abord, le chapitre 1 introduit les concepts de base de la statistique directionnelle. Le chapitre 2 explique les modèles de régression angulaire et en particulier, les trois modèles constituant l’objectif de ce mémoire sont davantage approfondis. Les méthodes d’estimation des paramètres et les mesures de précision de ces modèles sont décrites au chapitre3. Au cha-pitre 4, différentes méthodes d’estimation sont comparées entre elles à l’aide de simulations alors que le chapitre 5 présente des exemples d’applications à l’aide de données réelles.

(16)
(17)

Chapitre 1

Concepts de base

Ce premier chapitre a pour objectif d’offrir au lecteur un survol des éléments importants de la statistique directionnelle pour assurer une connaissance de base dans ce domaine.

L’espace échantillonnal de la statistique classique est normalement Rn où n ∈ N. Pour la

statistique directionnelle, l’espace échantillon est une variété différentielle (Chikuse, 2003). Selon l’espace lié à la nature des quantités étudiées, la statistique directionnelle peut porter un second nom (voir figure1.1). Lorsqu’on se restreint au cercle unité de R2, ce deuxième nom

sera la statistique circulaire. Sur la sphère unité de R3, il s’agira de la statistique sphérique

(Mardia,1972). Il y a également la statistique rotationnelle (Oualkacha,2009) où parfois les données sont des matrices de rotation (SO(3)) qui sont en quelque sorte reliées au sous-espace de R4 : les quaternions unitaires (Kuipers, 1999). Dans le cadre de ce mémoire, on traitera

de la statistique circulaire. Ainsi, les données directionnelles seront synonymes de données circulaires à partir de ce moment. Comme ces données seront représentées par des angles, l’expression "données angulaires" s’ajoute à cette liste de synonymes. Dans ce chapitre, la majorité des concepts présentés sont tirés de Mardia & Jupp (2000).

1.1

Caractéristiques des angles

Périodicité

En statistique, les méthodes habituelles d’analyse de données linéaires ne peuvent s’ap-pliquer adéquatement aux données directionnelles. Comme ce mémoire traite des données angulaires, définissons les concepts reliés à ce type de données. D’abord, les mesures d’angle sont couramment exprimées en degrés. Par exemple, un tour complet sur le cercle correspond à 360 degrés. Cependant, pour la suite de ce mémoire, l’unité qui sera employée est l’unité internationale de mesure des angles, soit le radian. La figure 1.2 montre les correspondances entre ces unités d’angle dans un plan cartésien. Sous l’unité du radian, un tour complet sur

(18)

Figure 1.1 – Exemples d’échantillon en statistique directionnelle

le cercle correspond à 2π radians. En se plaçant sur le cercle trigonométrique standard, les angles sont dits 2π-périodiques puisque l’angle θ0 correspond à la même direction sur le cercle

que l’angle θ0+ 2πk, ∀ k ∈ Z. Autrement dit, l’angle θ0 et l’angle θ0+ 2πk ∀ k ∈ Z sont les

mêmes. En adoptant la convention de calcul en modulo 2π, tous les angles θ seront sous leur forme principale et s’exprimeront dans l’intervalle (−π, π). Par exemple,

5π 2 = π 2 + 2π = π 2 mod 2π ≡ π 2.

(19)

Coordonnées

En coordonnées cartésiennes, un point p dans le plan est noté (xp, yp). Ce même point p

possède un équivalent en coordonnées polaires qui est entièrement déterminé par un angle θ et une distance de l’origine d, soit (θp, dp) où p appartient au cercle de centre (0, 0) et de rayon

dp. Comme le plan R2 peut être vu comme l’ensemble des nombres complexes C (Flament,

2003), le point p est équivalent à dpeiθp où i est tel que i2 = −1. Lorsque la distance dp vaut

1, il va de soi que le point p est situé sur le cercle unité centré à l’origine. Dans ce cas, ce point p peut s’écrire sous les formes suivantes : (cos θp, sin θp)> et eiθp = cos θp+ i sin θp. Pour ce

qui est de la coordonnée angulaire, ce point p est tout simplement exprimé en radians par θp,

l’angle formé par la droite qui passe par le point d’intérêt et le centre du cercle unité avec l’axe des abscisses, employant le sens antihoraire. La figure1.3illustre les coordonnées du point p.

Figure 1.3 – Représentation graphique d’un point en coordonnées polaires

1.2

Statistiques descriptives

Un ensemble d’angles peut être décrit par des statistiques descriptives afin d’offrir de l’in-formation sur les données. Cependant, les formules mathématiques permettant de calculer ces statistiques diffèrent des formules habituelles. Prenons comme exemple le calcul de la moyenne de deux angles, θ1et θ2, dont les valeurs sont 0 et 2π respectivement. La moyenne arithmétique

indique que la moyenne de θ1 et θ2 est

1 2 2 X j=1 θj = 1 2(0 + 2π) = π.

Il est incorrect de déterminer cette mesure de tendance centrale en additionnant tous les angles puis en divisant le tout par le cardinal de l’ensemble. Dans le cas ci-dessus, ce calcul indiquerait une direction opposée à chacun des deux angles. Comme θ1 et θ2 sont tous deux

(20)

considérés comme l’angle 0, leur moyenne devrait être 0. La suite de ce chapitre présentera donc les concepts propres à la statistique circulaire. Pour donner un avant-goût, la figure1.4

résume les statistiques descriptives présentées dans cette section concernant un échantillon de 5 angles distincts : {π/6, π/4, π/2, 7π/4, 11π/6}. Dans cette figure, la moyenne arithmétique est (π/6+π/4+π/2+7π/4+11π/6)/5 = 0.9π et des détails suivront sur les autres statistiques présentées.

Figure 1.4 – Statistiques descriptives sur un échantillon

1.2.1 Mesures de localisation

Moyenne

Étant donné que les angles représentent des directions, en termes de géométrie, la moyenne géométrique des angles se nomme direction moyenne, notée par ¯θ. Considérons un échantillon de vecteurs unitaires p1,..., pn où pj = (cos θj, sin θj)> ∀ j ∈ 1, ..., n. On rappelle que l’on

définit la résultante des vecteurs p1,..., pnpar la somme p1+ ... + pn. La direction moyenne de

ces angles est donc la direction de la résultante de ces vecteurs et elle correspond à la direction du centre de masse de cet échantillon. En coordonnées cartésiennes, ce centre de masse est défini par ¯p = ( ¯C, ¯S) où

¯ C = 1 n n X j=1 cos θj ¯ S = 1 n n X j=1 sin θj.

(21)

Ainsi, ¯ θ =atan( ¯S, ¯C) =    tan−1(C¯) si ¯C ≥ 0, tan−1(CS¯¯) + π si ¯C < 0,

où tan−1 représente la fonction arc tangente, soit la réciproque de la fonction tangente qui

prend ses valeurs dans l’intervalle (−π 2 , π 2). Pour ¯C = 0, atan( ¯S, 0) = ± π 2 selon le signe de ¯S. Médiane

La médiane est une alternative à la direction moyenne. La médiane des angles θ1,...,θn

correspond à l’angle θ∗ de sorte que la moitié des données soit dans l’arc (θ, θ+π). Il faut

également que la majorité des données soient plus près de θ∗ que de θ+π. Lorsque la taille

nde l’échantillon est impaire, la médiane correspond à l’une des observations de l’échantillon alors que lorsque n est un nombre pair, la médiane est le point milieu des deux angles centraux de l’échantillon.

1.2.2 Mesures de dispersion

Longueur de ¯p

Dans le plan cartésien, le centre de masse ¯p de l’échantillon a pour coordonnées ( ¯C, ¯S). On en déduit de celui-ci une direction moyenne des données, soit la direction ¯θ. On va maintenant définir une mesure de concentration des données, ¯R, égale à la longueur du vecteur de centre de masse :

¯

R = ( ¯C2+ ¯S2)1/2.

Puisque les points p1,..., pnsont situés sur le cercle unité, alors ( ¯C, ¯S)est à l’intérieur du cercle

unité et

0 ≤ ¯R ≤ 1.

Si le centre de masse est confondu avec l’origine, alors les données angulaires θ1,...,θn sont

parfaitement dispersées. Il en résultera qu’il n’y a pas de concentration particulière et ainsi, ¯

R = 0. Au contraire, si le centre de masse est un point sur le cercle et que θ1 = ... = θn= ¯θ,

les données sont dites concentrées en ¯θ et ¯R = 1. Variance

La variance circulaire V prend ses valeurs entre 0 et 1 et est définie par V = 1 − ¯R.

Avec des angles dispersés, la variabilité se situe près de 1 alors qu’avec des angles regroupés, la variabilité est faible. Il est à noter que la variance circulaire n’est pas définie de manière

(22)

unique. Par exemple, la variance est parfois considérée comme étant 2(1 − ¯R) (Batschelet,

1981). Écart-type

L’écart-type circulaire v est une autre mesure de dispersion des données. Il est important de souligner que ce n’est pas la racine carrée de la variance circulaire :

v =p−2 log(1 − V ).

1.3

Variable aléatoire angulaire

Une variable aléatoire angulaire Θ est comparable à une variable aléatoire réelle qui prend ses valeurs dans l’intervalle (−π, π). Comme dans le cas classique (R), on peut définir une loi angulaire par sa fonction de densité par rapport à la mesure uniforme sur le cercle unité, et par sa fonction caractéristique. Étant donné que Θ prend ses valeurs dans (−π, π), certaines propriétés de la fonction de répartition ne se transmettent pas au cas circulaire alors qu’il existe un lien très fort entre une variable aléatoire angulaire et sa fonction caractéristique.

1.3.1 Fonction de densité

Pour définir une densité, il faut avoir une mesure. Pour les variables aléatoires angulaires, on définit ainsi une densité par rapport à la mesure uniforme sur le cercle unité. La densité permettra de calculer la probabilité d’appartenir à un arc de cercle.

La fonction de densité f obtenue aura pour propriétés : 1. f(θ) ≥ 0 ∀ θ ∈ R

2. f est 2π-périodique 3. Rπ

−πf (θ)dθ = 1.

1.3.2 Fonction caractéristique

La fonction caractéristique φ permet de déterminer entièrement la loi de la variable aléa-toire angulaire Θ, contrairement au cas réel, où ce n’est pas toujours vrai (Pouyanne,2013). Comparativement à la fonction caractéristique d’une variable aléatoire réelle, une restriction s’impose : les valeurs de l’argument de cette fonction doivent être à valeurs entières car les angles ont la propriété d’être 2π-périodiques : la loi de Θ est la même que la loi de Θ + 2π.

(23)

Ainsi, pour φk non nulle,

φk= E[eikθ]

= E[eik(θ+2π)] = eik2πE[eikθ] = eik2πφk.

Ainsi, comme eik2π = cos(k2π) + i sin(k2π), pour que la condition eik2π = 1 soit satisfaite, k

doit prendre ses valeurs dans Z car eik2π = 1 ⇒ cos(k2π) | {z } 1 + i sin(k2π) | {z } 0 = 1 ⇒ k ∈ {..., −2, −1, 0, 1, 2, ...}.

La fonction caractéristique de la variable aléatoire angulaire Θ est, ∀ k ∈ Z, φk= E[eikθ] = Z 2π 0 eikθdF (θ) = Z 2π 0 eikθf (θ)dθ.

Cette fonction permet d’obtenir la direction moyenne de même que la longueur de la résultante. Pour ce faire, il faut utiliser la forme exponentielle d’un nombre complexe :

φk= E[eikθ] = E[cos(kθ) + i sin(kθ)] = E[cos(kθ)] + iE[sin(kθ)] =R02πcos(kθ)dF (θ) | {z } αk +iR02πsin(kθ)dF (θ) | {z } βk = αk+ iβk = ρkeiµk.

À partir de cela, φ1 = ρ1eiµ1 nous indique la direction moyenne µ et la longueur résultante

de la direction moyenne ρ. Par la définition de φk, cette fonction peut s’exprimer en fonction

de f(θ), et vice versa grâce aux séries de Fourier. En effet, l’ensemble des nombres complexes {φk : k ∈ Z} correspondent aux coefficients de Fourier. Ainsi, sous réserve de convergence de

(24)

P

k≥1

(αk2+ βk2), par le théorème d’inversion de Fourier (Carslaw,1930), on obtient :

f (θ) = 1 2π ∞ X k=−∞ φke−ikθ = 1 2π " φ0+ 2 ∞ X k=1 {αkcos(kθ) + βksin(kθ)} # ,

où l’on a développé f sous ses deux formes classiques de série de Fourier. On remarque au passage que φ0 = 1, de toute évidence.

Les propriétés de la fonction caractéristique sont très puissantes. Considérons notamment deux variables aléatoires angulaires Θx et Θy dont les fonctions caractéristiques sont φx et φy

respectivement. Si on réussit à montrer que φx = φy, on conclura instantanément que Θx et

Θy ont la même distribution.

1.4

Lois directionnelles

Le comportement stochastique des variables aléatoires angulaires est représenté par des lois. Dans cette section, on présente les principales lois sur le cercle. Il est important de souligner que pour les angles, la fonction caractéristique permet d’identifier complètement une loi et par le fait même, d’identifier les paramètres de ces lois. Les différentes simulations présentées dans cette section ont été réalisées avec le module circuar du logiciel R (Agostinelli & Lund,

2011).

1.4.1 Loi uniforme continue

Parmi les distributions circulaires, la loi uniforme continue sur l’intervalle (−π, π) représente la distribution la plus simple et il est fréquent de s’intéresser à savoir si les données sont uniformément distribuées sur le cercle. Sa fonction de densité

f (θ) = 1

2π, θ ∈ (−π, π)

indique que toutes les valeurs comprises dans le domaine ont la même probabilité d’être la valeur de l’observation angulaire. La figure 1.5 représente un échantillon aléatoire de 1000 observations issues de cette loi. Les observations sont présentées par un diagramme en rose : les angles rapprochés sont regroupés dans une zone et la longueur de cette zone correspond au nombre d’angles qui s’y trouve à l’intérieur. Cette distribution correspond à la loi uniforme continue pour les variables aléatoires linéaires dont la borne inférieure et la borne supérieure sont −π et π respectivement. Par conséquent, la probabilité que l’angle aléatoire Θ soit compris dans l’intervalle (α, β) correspond au rapport entre la longueur de l’arcαβ_ et la circonférence

(25)

du cercle. Pour −π ≤ α < β < π,

P[α ≤ Θ < β] = β − α 2π .

Figure 1.5 – Diagramme en rose d’un échantillon de taille 1000 tiré d’une loi uniforme

1.4.2 Loi de von Mises

Pour les variables aléatoires réelles, la loi normale constitue la loi la plus importante du point de vue de l’inférence statistique. Pour les variables aléatoires angulaires, la loi de von Mises est l’équivalent de cette loi. La distribution de von Mises M(µ, κ) a comme fonction de densité

f (θ; µ, κ) = 1 2πI0(κ)

eκ cos(θ−µ), θ ∈ (−π, π),

où I0 est la fonction de Bessel modifiée de première espèce et d’ordre 0, c’est-à-dire

I0(κ) = 1 2π Z 2π 0 eκ cos θdθ.

Pour les ordres supérieurs, la fonction de Bessel modifiée d’ordre p se définit par Ip(κ) = 1 2π Z 2π 0 cos(pθ)eκ cos θdθ.

Le paramètre µ indique la direction moyenne alors que le paramètre κ représente le paramètre de concentration. Plus le paramètre de concentration est élevé, plus les valeurs de la variable aléatoire angulaire se concentrent autour de la direction moyenne. Dans le cas particulier où κ = 0, cette loi est la loi uniforme présentée précédemment.

Une fonction importante, dénotée A(κ), calcule la longueur résultante moyenne. L’inverse de cette fonction permet d’estimer le paramètre de concentration. Cette fonction se définit comme

(26)

suit :

A(κ) = I1(κ) I0(κ)

.

Puisque les angles sont 2π-périodiques et par la définition de la fonction de densité de la loi de von Mises, M(µ + π, κ) et M(µ, −κ) correspondent à la même distribution car cos(θ + π) = − cos(θ). Pour s’en convaincre, il suffit de substituer le couple de paramètres (µ + 2π, κ) dans f(θ; µ, κ). Pour cette raison, dans la littérature, l’ensemble des valeurs possibles pour κ est défini sur les valeurs strictement positives. La figure 1.6 représente 4 échantillons de taille 1000. Pour les sous-figures a), b), c) et d), le paramètre de concentration κ est de A−1(0.25) = 0.52, A−1(0.5) = 1.15, A−1(0.75) = 2.36 et A−1(0.99) = 50.25 respectivement. Pour les 4 échantillons, la direction moyenne µ est 0.

Figure 1.6 – Échantillons de la loi de von Mises centrée

1.4.3 Loi normale projetée

Les distributions dans le plan peuvent être projetées sur le cercle. En présence d’une telle projection, la distribution sur le cercle est appelée loi projetée. Considérons le vecteur aléatoire X = (X1, X2)>. Suite à la projection de la loi bidimensionnelle X sur le cercle, la variable

aléatoire angulaire Θ = (||X||−1X)devient définie dans cet espace. Dans le cas particulier où

Xsuit la loi normale bidimensionnelle N2(µ, Σ)avec µ = (µ1, 0)>et Σ = I, où I est la matrice

identité bidimensionnelle, la loi caractérisant Θ est la loi normale projetée (projected normal), P N2(µ,I), dont la densité est

f (θ; µ1,I) =

1 √

(27)

où φ(·) et Φ(·) représentent la fonction de densité et la fonction de répartition de la loi N(0, 1) respectivement.

1.4.4 Lois de type enroulées

Il existe des lois circulaires créées par les distributions sur la droite réelle, enroulées autour du cercle unité (Mardia, 1972). Ceci étant dit, soit X une variable aléatoire réelle, alors on définit la variable aléatoire enroulée Xw par la relation

Xw = X(mod2π).

Ainsi, si la fonction de densité de X est f, alors la fonction de densité fw(θ)de Xw est donnée

par fw(θ) = ∞ X k=−∞ f (θ + 2πk), θ ∈ (−π, π).

Loi normale enroulée

Parmi les lois enroulées les plus courantes, il y a la loi normale enroulée (wrapped normal). Cette loi, W N(µ, e−σ/2), issue d’une loi N(µ, σ2) enroulée autour d’un cercle, est de densité

f (θ; µ, σ) = 1 σ√2π ∞ X k=−∞ exp −(θ − µ + 2πk) 2 2σ2  , θ ∈ (−π, π).

Loi de Cauchy enroulée

La loi de Cauchy enroulée (wrapped Cauchy), W C(µ, e−a), est bien connue également. Cette

loi est obtenue par la loi de Cauchy C(µ, a) enroulée sur le cercle. La densité de la loi de Cauchy enroulée a une densité définie par

f (θ; µ, a) = 1 2π

1 − e−2a

[1 + e−2a− 2e−acos(θ − µ)], θ ∈ (−π, π).

1.5

Outils informatiques

Plusieurs domaines utilisent la statistique directionnelle pour analyser des données. Le ta-bleau 1.1 présente quelques domaines d’application de ce type de données. Mis à part ces domaines, il en existe d’autres qui nécessitent des logiciels adaptés à ce type de données comme en agriculture, en neuroscience, en zoologie, etc.

Plusieurs outils informatiques ont vu le jour au cours des 20 dernières années pour l’analyse des données circulaires. En 1998, le logiciel statistique STATA a rendu disponible à ses uti-lisateurs un module nommée circstat (Cox, 2004). En 2009, MATLAB, un logiciel populaire en ingénierie, a également développé un module à ce sujet (Berens,2009). Parmi les logiciels

(28)

Domaine Exemple Référence

Biologie Déplacement animal Cochran et al. (2004) Médecine Rythme circadien Hrushesky (1985) Météorologie Direction du vent Breckling (1989) Physique Physique des fluides van Doorn et al. (2000) Psychologie Carte heuristique Kubiak & Jonas(2007) Science politique Crime Gill & Hangartner (2008)

Tableau 1.1 – Champs d’application de la statistique directionnelle

libres, il y a le logiciel R qui contient une librairie pour analyser des données circulaires : circular (Agostinelli & Lund, 2011). En fait, circular a bonifié la librairie CircStats conçue initialement pour le logiciel S-plus (Jammalamadaka & Sengupta,2001). SelonPewsey et al.

(2013), le module circular du logiciel R et le logiciel Oriana (Computing Services Kovach,

2009) font partie des logiciels les plus sophistiqués en ce qui a trait à ce type de données. Ces logiciels offrent la possibilité de générer des observations aléatoires à partir des lois présen-tées à la section1.4. Des calculs de lois directionnelles, de statistiques descriptives comme la moyenne angulaire, la longueur de la direction moyenne, la dispersion, les quantiles et l’éten-due sont également disponibles. Il y a des tests d’ajustement pour vérifier si les observations proviennent d’une distribution quelconque. Par exemple, il y a le test de Watson qui vérifie si un ensemble de données suit une loi uniforme ou une loi de von Mises. Un autre test de Watson permet également de comparer l’homogénéité des variances de deux échantillons indé-pendants. Il y a d’autres tests comme celui de Rayleigh qui compare l’hypothèse de l’uniformité des données avec l’hypothèse que la distribution est unimodale.

En résumé, la statistique directionnelle, plus précisément la statistique circulaire, est un do-maine en développement.

(29)

Chapitre 2

Régression angulaire

Plusieurs notions traitées précédemment serviront à mieux cerner la théorie de la présente section. Dans ce chapitre, les questions "comment un nombre réel peut-il être prédit par un angle ?", "comment un angle peut-il être prédit par un nombre réel ?", ou encore, "comment un angle peut-il être prédit par un autre angle ?" seront abordées. En complément, des modèles de régression seront présentés.

D’abord, il existe plusieurs types de régression pour traiter les données angulaires. Les trois grandes familles sont : la régression angle-linéaire, la régression linéaire-angle et la régression angle-angle. Les deux premiers types de régression représentent la relation qui existe entre des données angulaires avec des données réelles (R), alors que la régression angle-angle modélise des données angulaires en fonction d’autres données de même type.

Un moyen de parvenir à étudier la relation entre une variable angulaire et une variable continue, ou encore d’étudier la relation entre deux variables angulaires, peut s’appuyer sur les lois enroulées ou les lois projetées comme décrit à la section 1.4, ou encore, sur les fonctions de lien.

2.1

Régression angle-linéaire

La régression angle-linéaire est un modèle où la variable explicative est un angle alors que la variable réponse est un nombre réel. Un exemple d’application peut être en science politique. Danse ce domaine, il est possible d’étudier le lien entre le nombre de crimes commis (y) et l’heure à laquelle les crimes se produisent (x) : les heures sont représentées par 24 directions (des angles) également espacées sur le cercle. Dans Gill & Hangartner (2008), on montre l’importance d’utiliser des modèles circulaires lorsqu’il y a des données périodiques comme les heures. La figure 2.1 est tirée de cet article et elle met en relation la fréquence des crimes et les heures de la journée qui sont considérées comme des directions sur le cercle. Sur cette

(30)

même figure, on pourra lire l’information sur le nombre de crimes en fonction de l’heure. Dans d’autres domaines, la régression angle-linéaire est également utilisée. En météorologie, on peut s’intéresser à prédire la quantité de précipitation selon la direction du vent. En biologie, on peut étudier la distance qu’un animal a parcourue en fonction de la direction de sa trajectoire.

Figure 2.1 – Cas en science politique illustrant le nombre de crimes en fonction de l’heure

Supposons qu’on a un ensemble d’observations {(x1, y1), (x2, y2), ..., (xn, yn)} où xi sont les

variables explicatives angulaires et yi sont les variables réponses continues ∀ i ∈ {1, 2, ...n}.

Cette régression est dans les faits une régression linéaire multiple où la variable explicative angulaire x crée deux variables explicatives continues : cos x et sin x. Ce modèle est

yi = β0+ β1cos xi+ β2sin xi+ i, i = 1, ..., n

où β0, β1 et β2 sont des paramètres inconnus, et les  sont des erreurs résiduelles de loi

N (0, σ2).

Il est important de souligner que les fonctions trigonométriques sont essentielles pour exprimer yien fonction de xi. Par exemple, sans ces fonctions, on aurait que β0+β1(xi) 6= β0+β1(xi+2π)

alors que l’angle xi≡ xi+ 2π.

2.2

Régression linéaire-angle

DansGould(1969), on présente un des premiers modèles qui utilise un nombre réel x pour expliquer un angle réponse y :

yi ∼ M (β0+ β1xi

| {z }

g(xi)

(31)

Ce modèle n’est pas bien défini car le terme β0+β1xine permet pas de considérer la périodicité

des angles. Il y a également un problème de maximisation : il n’y a pas de solution unique pour maximiser la fonction de vraisemblance.

Pour pallier à ce problème, Fisher & Lee(1992) proposent des fonctions de lien g(.) qui sont des applications bijectives de R à (−π, π). Ainsi, chaque nombre réel est associé à un unique angle de l’intervalle (−π, π). Dans l’article, on présente la fonction

g(x) = 2 arctan(x), x ∈ R, (2.1)

où arctan(.) est la réciproque de la fonction tangente (figure 2.2).

Figure 2.2 – Fonction 2arctan(.)

Il y a le lien scale probit qui utilise Φ(.), la fonction de répartition de la loi normale centrée réduite. Cette fonction se définit comme suit :

g(x) = 2π [Φ(x) − 0.5] , x ∈ R. (2.2)

Dans Johnson & Wehrly (1978), on introduit une autre fonction de lien basée sur F (.) : la fonction de répartition d’une variable aléatoire quelconque. Comme les angles varient de (−π, π), c’est-à-dire de 0 à 2π, et que Φ(.) et F (x) prennent leurs valeurs entre 0 et 1, il est ainsi possible d’établir un lien entre les données de R et le cercle unité à l’aide du lien

g(x) = 2πF (x), x ∈ R. (2.3)

Bien que les fonctions (2.1), (2.2) et (2.3) soient des applications bijectives, le fait que les angles soient obtenus par une projection de la droite des nombres réels sur le cercle occasionne un autre problème (Presnell et al., 1998). La projection de cette droite revient à associer

(32)

l’intervalle (−∞, ∞) à l’intervalle (−π, π). En d’autres mots, −∞ correspond à −π, et ∞ correspond à π. Comme −∞ 6= ∞ alors que −π = π, des problèmes d’interprétation peuvent survenir de même que des problèmes de maximisation lors des calculs. Si l’ensemble des angles ne sont pas définis de −π à π, ces problèmes auront peu de chance de survenir car une rotation de l’ensemble des angles peut pallier au problème pour éviter d’avoir des angles définis près de π.

La forme générale de la régression linéaire-angle à l’aide d’une fonction de lien g(.) est donc yi= g(β0+ β1xi) + i,

où  peut suivre la loi de von Mises de moyenne nulle.

2.3

Régression angle-angle

La suite de ce mémoire porte sur la régression angle-angle : on étudie des modèles de régression dont la variable réponse et la variable explicative sont des angles. La régression entre deux angles se base principalement sur les propriétés trigonométriques. Cette section discute de la construction des angles prédits pour y sachant x : µ(y|x). Deux modèles de régression angle-angle paramétriques seront présentés de même qu’un modèle non paramétrique, et la fin de cette section concernera d’autres types de modèles possibles.

2.3.1 Prédicteur décentré

Parmi les modèles angle-angle paramétriques, il y a le prédicteur décentré traité dansRivest

(1997) basé sur l’identité suivante :

x =atan(sin x, cos x), x ∈ (−π, π). (2.4)

Comme son nom l’indique, le prédicteur décentré a comme but de modéliser la relation entre un angle réponse sur le cercle unité et un point pouvant être situé à l’extérieur de ce cercle. Pour que les mathématiques tiennent concernant les données angulaires, il est important de travailler sur le cercle unité. Ainsi, le prédicteur décentré permet, en quelque sorte, de déplacer l’origine du cercle de sorte que le point aux coordonnées (u1, u2)soit un point situé à l’intérieur

ou à l’extérieur du cercle de rayon 1. La figure 2.3 illustre le cas où un individu est situé à l’intérieur du cercle unité aux coordonnées (u1, u2). De ce point, la direction (cos x, sin x)>où

x ∈ (−π, π)est perçue comme étant celle du vecteur (cos x − u1, sin x − u2)>.

Ce prédicteur décentré, similaire à la fonction de l’équation (2.4), est le suivant :

(33)

Figure 2.3 – Principe du prédicteur décentré

où µ(y|x) ∈ (−π, π) est l’angle moyen y du prédicteur décentré sachant x, et β0 ∈ (−π, π),

(u1, u2) ∈ R2sont des paramètres inconnus. Il s’agit d’un modèle qui s’ajuste bien aux données

provenant de la loi de von Mises bivariée ou de la loi normale enroulée bivariée.

Par un changement de paramétrisation, l’équation (2.5) peut se réécrire sous la forme suivante : µ(y|x) = β +atan{sin(x − α), ω + cos(x − α)}

| {z }

compromis entre deux angles

(mod 2π) (2.6)

où β ∈ (−π, π), α ∈ (−π, π) et ω ∈ (0, ∞).

Le compromis de l’équation (2.6) représente un compromis entre deux directions, −→a et−→b, des vecteurs de R2. Plus précisément, ces vecteurs sont

− →a = cos(x − α) sin(x − α) ! et − → b = ω 1 0 ! où α = atan(u2, u1) et ω = √

u12+ u22. L’angle µ(y|x, β, α, ω) s’interprète ainsi comme un

compromis entre ces deux directions, auquel on ajoute une rotation d’angle β.

En réalité, le paramètre ω peut prendre des valeurs négatives et l’équation (2.6) retourne quand-même un angle µ(y|x). La restriction du domaine de ce paramètre, ω ∈ (0, ∞), est due à la construction géométrique de (u1, u2) et à des fins d’interprétation. Ainsi, si le paramètre

(34)

paramètres tout en obtenant le même angle réponse, et que l’ensemble des paramètres respecte le domaine des trois paramètres de l’équation (2.6).

Proposition 2.3.1. Soit ωnég, le paramètre ω ∈ (−∞, 0). Pour convertir ωnég dans l’in-tervalle (0, ∞) pour des fins d’interprétation du modèle, il faut transformer les paramètres (β, α, ωnég) en (β + π, α + π, −ωnég).

Démonstration.

µ(y|x) = (β + π) +atan{sin(x − (α + π)), −ωnég+ cos(x − (α + π))} (mod 2π)

= (β + π) +atan{sin(x − α − π), −ωnég+ cos(x − α − π)} (mod 2π)

= (β + π) +atan{− sin(x − α), −ωnég− cos(x − α)} (mod 2π)

= β +atan{sin(x − α), ωnég+ cos(x − α)} (mod 2π)

Propriétés

Deux cas particuliers se présentent sous la nouvelle écriture du modèle en termes de β, α et ω :

1. lorsque ω = ∞ ⇒ µ(y|x, β, α, ∞) = β (mod 2π) 2. lorsque ω = 0 ⇒ µ(y|x, β, α, 0) = β − α + x (mod 2π).

Le premier cas représente le modèle d’indépendance étant donné que l’angle prédit ne dépend pas de l’angle explicatif, alors que le deuxième cas indique un modèle rotationnel. Lorsque ω = 0, le prédicteur décentré se simplifie énormément car l’angle prédit est une simple addition d’une constante à l’angle indépendant. Dans ce dernier cas, on peut voir ce modèle statistique comme une régression linéaire simple dans R. La figure 2.4 illustre un exemple de calcul de ces deux cas particuliers.

Le prédicteur décentré se rapproche parfois du modèle de régression linéaire simple même lorsque ω ne vaut pas 0 nécessairement. Cette ressemblance se produit lorsque l’angle explicatif et l’angle réponse sont concentrés près des paramètres α et β respectivement. Ce résultat provient du fait que la dérivée première du modèle par rapport à x est

d

dxµ(y|x, β, α, ω) =

ω cos(x − α) + 1 ω2+ 2ω cos(x − α) + 1.

Ainsi, avec x = α et ω → ∞, cette dérivée vaut 1

1+ω et donc µ(y|x, β, α, ω) ≈ β + (x − α) 1 ω+1.

Le prédicteur décentré prédit des valeurs qui dépendent du paramètre ω qui est considéré comme la pente du modèle. Lorsque ω < 1, l’étendue des angles prédits est de −π à π. Lorsque ω ≥ 1, les angles prédits se concentrent près du paramètre β étant donné que µ(y|x, β, α, ω)−β se situe dans l’intervalle (−π

2 , π

(35)

Figure 2.4 – Modèles d’indépendance et rotationnel

Autre paramétrisation

Il est intéressant de constater que le prédicteur décentré s’exprime sous une troisième pa-ramétrisation utilisant des régressions linéaires. En fait, cette papa-ramétrisation utilise deux fonctions linéaires, hc(x) et hs(x), pour construire µ(y|x) selon la formule

µ(y|x) =atan{hs(x), hc(x)},

où hc(x)et hs(x) peuvent s’écrire sous forme vectorielle comme

hc(x) hs(x) ! = β1 cos x sin x ! + β2 cos(x + π2) sin(x + π2) ! + β3 1 0 ! + β4 0 1 ! (2.7) où β1, β2, β3 et β4 sont les paramètres du modèle associés aux angles explicatifs x, x + π2, 0

et π

2 respectivement.

L’angle prédit par le prédicteur décentré avec cette paramétrisation est µ(y|x) =atan{β1sin x + β2sin(x +

π

2) + β4, β1cos x + β2cos(x + π

2) + β3} (2.8) =atan{β1sin x + β2cos x + β4, β1cos x − β2sin x + β3}. (2.9)

Comme cette dernière paramétrisation est équivalente à l’équation (2.6), il est possible d’établir un lien entre les paramètres de ces deux écritures. D’abord, il faut réécrire l’équation (2.6)

(36)

sous une forme sans ordonnée à l’origine, soit :

µ(y|x) = β +atan{sin(x − α), ω + cos(x − α)}

= β +atan{sin(x − α) + ω sin 0, cos(x − α) + ω cos 0} =atan{sin(x − α + β) + ω sin β, cos(x − α + β) + ω cos β} =atan{sin(x − (α − β)) + ω sin β, cos(x − (α − β)) + ω cos β}.

Ainsi, µ(y|x) = atan{hs(x), hc(x)}où une association possible entre ces différentes expressions

de prédicteur décentré est obtenue en posant que hs et hcen fonction des paramètres β, α et

ω sont

hc= cos x cos(α − β) + sin x sin(α − β) + ω cos β (2.10)

et

hs = sin x cos(α − β) − cos x sin(α − β) + ω sin β. (2.11)

En associant l’équation (2.7) aux équations (2.10) et (2.11), on obtient que β1 = cos(α − β)

β2 = sin(α − β)

β3 = ω cos β

β4 = ω sin β.

Pour établir une bonne correspondance entre {β, α, ω} et {β1, β2, β3, β4}, il faut normaliser

les paramètres {β1, β2, β3, β4} pour que β12+ β22 = 1 puisque cos2(α − β) + sin2(α − β) = 1.

Les paramètres normalisés sont

β1∗= β1 pβ2 1 + β22 , β2∗= β2 pβ2 1 + β22 , β3∗= β3 pβ2 1 + β22 , β4∗= β4 pβ2 1 + β22 . Ainsi, les paramètres β, α et ω en fonction de β∗

1, β2∗, β3∗ et β∗4 sont β = arctan(β ∗ 4 β3∗) ω = q β3∗2+ β4∗2 (α − β) = arctan β ∗ 2 β1∗ 

(37)

car

β∗4 β∗3 =

ω sin β

ω cos β = tan β =⇒ β = arctan( β4∗ β3∗) β3∗2+ β4∗2 = ω2cos2β + ω2sin2β =⇒ ω = q β∗32+ β4∗2 −β ∗ 2 β1∗ = sin(α − β)

cos(α − β) = tan(α − β) =⇒ (α − β) = arctan  β∗ 2 β1∗  . 2.3.2 Prédicteur de Möbius

Le modèle de régression angulaire basé sur le prédicteur de Möbius introduit dans l’article de Downs & Mardia(2002) utilise la fonction de lien

x = 2 arctan{tan(x/2)}, x ∈ (−π, π) (2.12)

pour relier deux variables angulaires. Comme 2 arctan( w |{z} ∈ R ) = x |{z} ∈ (−π,π) =⇒ arctan( w |{z} ∈ R ) = x/2 |{z} ∈ (−π/2,π/2) ,

on réussit ainsi à relier l’angle dépendant y à l’angle x avec la fonction suivante : x |{z} un angle =⇒ tan(x/2) | {z } un nombre R =⇒ 2 arctan{tan(x/2)} | {z } un angle .

Ce modèle de régression angle-angle est

µ(y|x) = β + 2 arctan  ω tan1 2(x − α)  (2.13) où µ(y|x) est l’angle moyen du prédicteur de Möbius sachant l’angle explicatif x. Les pa-ramètres de ce modèle sont β et α ∈ (−π, π) et ω ∈ (−1, 1). Ce modèle porte le nom de Möbius bien que ses paramètres appartiennent à l’ensemble des nombres réels R. En fait, la transformée de Möbius se définit par une fonction M comme suit :

M : C −→ C M(v) = av + b

cv + d, v ∈ C.

Avec des restrictions sur les paramètres a, b, c et d, l’image du cercle unité par M se restreint au cercle unité : M transforme le cercle unité en lui-même (Kato,2009).

Le paramètre ω est restreint dans l’intervalle (−1, 1) afin que ce paramètre exprime la force de la relation entre l’angle explicatif et l’angle réponse. Ce paramètre peut prendre des valeurs à l’extérieur de ce domaine et retourner le même angle réponse que dans la situation où ω ∈ (−1, 1). Il suffit d’appliquer une transformation aux paramètres lorsque cela est nécessaire afin que tous les paramètres respectent le domaine des paramètres du modèle de Möbius.

(38)

Proposition 2.3.2. Soit ωext, le paramètre ω prenant une valeur à l’extérieur du domaine (−1, 1). Pour convertir ωext dans l’intervalle (−1, 1) afin de respecter le domaine des

para-mètres, il faut transformer les paramètres (β, α, ωext) en (β + π, α + π,ωext1 ).

Démonstration. µ(y|x) = (β + π) + 2 arctan  1 ωext tan1 2(x − (α + π))  = (β + π) + 2 arctan  1 ωext tan1 2(x − α − π)  = (β + π) + 2 arctan  1 ωext tan 1 2(x − α) − π 2  = (β + π) + 2 arctan  − 1 ωext cot 1 2(x − α)  = (β + π) + 2 arctan ( − 1 ωexttan 12(x − α)  ) = (β + π) +  −π − 2 arctan  −ωexttan 1 2(x − α)  = β + 2 arctan  ωexttan  1 2(x − α)  Propriétés

Les paramètres de l’équation (2.13) ont chacun un rôle. Les paramètres α et β constituent des paramètres de localisation exprimés en radians alors que ω prend sa valeur dans l’intervalle (-1,1) pour représenter la pente de la régression. Voici quatre cas particuliers de ce modèle lorsque les paramètres prennent certaines valeurs :

1. lorsque ω = 0 ⇒ µ(y|x) = β

2. lorsque ω = 1 ⇒ µ(y|x) = β + x − α 3. lorsque ω = −1 ⇒ µ(y|x) = β − x + α.

Selon la valeur de la pente, on retombe sur des cas particuliers présentés précédemment à la section 2.1. Le premier cas est le modèle d’indépendance car l’angle dépendant n’est pas expliqué par l’angle x. Quant aux deux derniers cas, ce sont des modèles rotationnels et ils prédisent des angles distincts si le paramètre α n’est pas nul. En particulier, le deuxième cas indique que l’angle réponse est une rotation de x de l’angle β − α, alors qu’en ce qui concerne le troisième cas, l’angle µ(y|x) est une rotation de −x de l’angle β + α. Il est à noter que les paramètres β, α et ω sont identifiables à la condition que le paramètre de pente ne prenne pas les valeurs particulières suivantes : {−1, 0, 1}.

(39)

2.3.3 Prédicteur décentré versus prédicteur de Möbius

Le prédicteur décentré et le prédicteur de Möbius étudiés précédemment sont similaires, en particulier, lorsqu’on utilise le prédicteur décentré sous la forme de l’équation (2.6). En fait, connaissant l’angle explicatif, l’espérance de l’angle réponse de ces deux modèles sont des valeurs très près l’une de l’autre. Les paramètres de ces modèles ont en fait les mêmes rôles :

• β correspond à la rotation qui doit être ajoutée à la fonction de lien

• ω est associé à la force de dépendance entre l’angle réponse et l’angle explicatif • α représente le déphasage de l’angle x dans la fonction de lien.

Le prédicteur de Möbius correspond à une application bijective : chaque angle explicatif est associé à un unique angle réponse variant de −π à π. En fait, il existe une bijection entre l’angle prédit et l’angle explicatif, ce qui fait en sorte que si les angles explicatifs sont définis partout sur le cercle, alors les angles prédits seront également définis partout sur le cercle. Le prédicteur décentré n’est pas basé sur une fonction bijective, mais selon la valeur de ω, il se peut que cette fonction soit bijective.

On remarque également que le prédicteur décentré a plusieurs paramétrisations possibles, en particulier, la possibilité de s’exprimer sous forme vectorielle. Quant au prédicteur de Möbius, ce modèle ne peut pas se décomposer sous forme vectorielle.

2.3.4 Modèle non paramétrique

Pour visualiser si certains modèles s’ajustent bien à un jeu de données, il est intéressant de tracer une courbe de régression à travers le nuage de points. Si un modèle paramétrique est adéquat, sa courbe de prédiction devrait, en quelque sorte, épouser la courbe de régres-sion. Avec les données angulaires, une des façons de faire est d’employer la régression non paramétrique. Les valeurs prédites par cette régression serviront au lissage. La régression non paramétrique est employée comme un outil d’analyse de données et elle est à ce titre explo-ratoire. Dans l’article de Di Marzio et al.(2012), un tel modèle non paramétrique est étudié. Selon eux, l’approche non paramétrique pour une variable réponse circulaire est un sujet to-talement inexploré.

Le modèle de régression non paramétrique pour les données angulaires (x1, y1), ..., (xn, yn) se

présente sous la forme

µ(y|xi) = m(xi), i = 1, ..., n (2.14)

où µ(y|xi)est l’angle réponse moyen lorsque l’angle explicatif est xi, et m(xi)est une fonction

(40)

Propriétés

Le modèle non paramétrique se nomme ainsi car il n’est pas caractérisé par une forme prédéterminée : il laisse toute la place à l’information contenue dans les données. L’angle prédit par le modèle dépend du paramètre de lissage γ, et un noyau, W (.), est utilisé pour estimer la fonction de régression m(.). Un noyau représente une fonction de pondération des données qui intervient lors de la prédiction d’un angle réponse. L’idée du noyau est d’obtenir la meilleure pondération possible de sorte que les angles réponses observés avoisinant le point d’intérêt influencent davantage l’angle prédit que les angles distants de ce point.

La fonction de régression m(.) au point fixé x0 s’estime par

ˆ m(x0) =atan " 1 n n X i=1 sin(yi)W (xi− x0, γ), 1 n n X i=1 cos(yi)W (xi− x0, γ) # (2.15) où W (xi− x0, γ)représente un noyau circulaire. Ce noyau peut se reposer sur plusieurs

distri-butions comparables à la distribution normale telles que la von Mises, la Cauchy enroulée, la normale enroulée, etc. Dans la suite des choses, posons W (xi− x0, γ) comme étant un noyau

circulaire von Mises avec γ comme paramètre de concentration :

W (xi− x0, γ) = eγ cos(xi−x0).

Ce noyau accorde un poids plus élevé aux valeurs rapprochées de x0étant donné que la fonction

cosinus varie entre -1 et 1, et lorsque xi = x0, cos(xi − x0) = cos 0 = 1. Par conséquent, le

noyau prendra sa valeur maximale pour accorder un poids complet de eγà x

idans l’estimation

de m(xi).

Dans la régression non paramétrique avec un noyau circulaire de von Mises, le paramètre de concentration de cette loi (γ) correspond également au paramètre de lissage de la régression. Lorsque γ est trop petit, la fonction de régression aura tendance à être trop lisse tandis qu’avec un γ trop élevé, la fonction estimée sera plutôt irrégulière. Lorsque γ = 0, l’équation (2.15) donne la direction moyenne de y comme valeur prédite quelle que soit la valeur de x.

Pour déterminer le paramètre de lissage, une approche possible est de l’estimer par validation croisée en se basant sur la statistique du cosinus résiduel. En d’autres mots, le γ qui sera associé à la plus grande moyenne du cosinus résiduel en validation croisée est retenu comme paramètre de lissage.

Voici en quoi consiste la procédure d’estimation : 1. choisir plusieurs valeurs potentielles de γ

(41)

2. pour chaque γ potentiel, calculer ˆm(x−ii ) pour i ∈ 1, ..., n où ˆ m(x−ii ) =atan     1 n n X j=1 j6=i sin(yj)W (xj − xi, γ), 1 n n X j=1 j6=i cos(yj)W (xj − xi, γ)    

3. calculer le cosinus résiduel, soit

n

X

i=1

cosyi− ˆm(x−ii )



4. retenir le γ qui donne la plus grande valeur du cosinus résiduel.

Une fois que le paramètre de lissage est déterminé, il suffit de conserver ce paramètre pour le calcul de ˆm(xi) pour i ∈ 1, ..., n selon la formule de l’équation (2.15).

2.3.5 Autres modèles

Il existe d’autres modèles de régression pour traiter des données angulaires. Cependant, ce mémoire s’intéresse principalement au prédicteur décentré, au prédicteur de Möbius, ainsi qu’au modèle non paramétrique. Par contre, il peut s’avérer intéressant de comparer ces mo-dèles à un modèle de régression à deux étapes afin de voir s’il existe une perte d’information lorsque la modélisation se fait en une ou deux étapes. Ce modèle en question est la régression circulaire-circulaire (Jammalamadaka & Sengupta,2001) qui s’ajoutera à liste de modèles de ce mémoire. Cette régression ne modélise pas directement l’angle réponse à partir des angles observés. Elle va plutôt calculer, sachant l’angle explicatif, le cosinus moyen de l’angle ré-ponse, E{cos(y|x)}, indépendamment du sinus de ce même angle, E{sin(y|x)}. L’angle prédit par cette régression est défini par

µ(y|x) =atan [E{sin(y|x), E{cos(y|x)}] où E{cos(y|x)} = l X k=0 {β1kcos(kx) + β2ksin(kx)} et E{sin(y|x)} = l X k=0 {β3kcos(kx) + β4ksin(kx)}

respectivement, où β1k, β2k, β3k et β4k, où k ∈ {0, ..., l}, sont des paramètres inconnus et l est

l’ordre nécessaire du polynôme pour obtenir un modèle précis. Ce modèle, avec l = 1, s’écrit

µ(y|x) =atan " 1 X k=0 {β3kcos(kx) + β4ksin(kx)}, 1 X k=0 {β1kcos(kx) + β2ksin(kx)} #

(42)

Si β31= β11et β41= β21, alors le modèle se réduit à la paramétrisation du prédicteur décentré

de la section2.3.1.

Il s’agit d’un modèle intéressant puisque le modèle utilise une approche d’estimation des pa-ramètres différente de celle du prédicteur décentré. En particulier, il y a la considération des paramètres pour cos(kx) et sin(kx). Cependant, ce modèle n’a pas d’interprétation géomé-trique comme le prédicteur décentré.

(43)

Chapitre 3

Estimation des paramètres des

modèles paramétriques

La description du prédicteur décentré et du prédicteur de Möbius a été présentée au chapitre précédent. Dans ce chapitre, on abordera les méthodes d’estimation des paramètres et les mesures de précision de ces modèles. Les concepts pour évaluer la précision des estimateurs des paramètres des modèles de même que la précision des estimations ponctuelles des valeurs prédites seront abordés.

3.1

Méthode de maximum de vraisemblance

Le prédicteur décentré et celui de Möbius sont des modèles avec 3 paramètres à estimer que l’on pose égaux à λ = (β, α, ω). Comme il peut exister des fluctuations aléatoires dans les observations, on émettra l’hypothèse que l’erreur expérimentale suit la loi de von Mises M (0, κ). La liste de paramètres à estimer contiendra donc un quatrième paramètre, soit le paramètre de concentration des résidus κ. La méthode de maximum de vraisemblance permet d’obtenir des estimateurs de (λ, κ) que l’on note (ˆλ, ˆκ). Cette méthode permet aussi d’estimer la variance de ces estimateurs.

Les différentes étapes de l’estimation par maximum de vraisemblance consistent à :

1. calculer la fonction de vraisemblance L(λ, κ) et prendre le logarithme de cette fonction 2. calculer le vecteur de scores U(λ, κ) et résoudre U(ˆλ, ˆκ) = 0

3. calculer la matrice d’information de Fisher I(ˆλ, ˆκ)

(44)

La fonction de vraisemblance s’écrit L(λ, κ) = n Y i=1 eκ cos{yi−µ(y|xi)} I0(κ)2π = 1 {I0(κ)2π}ne κ n P i=1 cos{yi−µ(y|xi)}

où µ(y|xi) dépend des paramètres β, α, ω et κ. Le logarithme de la fonction de vraisemblance

est ainsi obtenu par

l(λ, κ) = log{L(λ, κ)} (3.1)

= κ

n

X

i=1

cos{yi− µ(y|xi)} − n log I0(κ) − n log(2π). (3.2)

Pour obtenir le vecteur des scores, il faut dériver l(λ, κ) par rapport à chacun des paramètres. Pour U(λj), ∀ j ∈ {1, 2, 3}, U (λj) = ∂l(λ, κ) ∂λj = κ ∂ n P i=1 cos{yi− µ(y|xi)} ∂λj = κ n X i=1 ∂µ(y|xi) ∂λj sin{yi− µ(y|xi)},

ainsi, on peut résoudre le système d’équations

U (λj) = 0, j ∈ {1, 2, 3}

pour obtenir les estimateurs ˆλ = ( ˆβ, ˆα, ˆω) sans connaître ˆκ. Connaissant ˆλ, on peut calculer ˆ

µ(y|x) pour ensuite estimer κ. En calculant la fonction de score pour κ et en posant que A(κ) = I1(κ)

I0(κ) (section 1.4.2) représente la longueur de la résultante des résidus du modèle, on a U (κ) = ∂l(λ, κ) ∂κ = n X i=1 cos{yi− µ(y|xi)} − n ∂I0(κ) ∂κ I0(κ) = n X i=1 cos{yi− µ(y|xi)} − n I1(κ) I0(κ) = n X i=1

cos{yi− µ(y|xi)} − nA(κ).

(45)

Pour connaître la stabilité du modèle de régression, il est intéressant d’estimer la variance des estimateurs ˆλj, ∀ j ∈ {1, 2, 3}. Pour ce faire, on peut travailler sur la matrice d’information

de Fisher de λ sans conséquence, au lieu de travailler sur celle de (λ, κ), car la covariance entre ˆ

λavec ˆκ est nulle (Downs & Mardia,2002).

À partir de U(λ), il faut calculer la matrice de variance-covariance du vecteur des scores pour obtenir la matrice d’information de Fisher de terme général :

Ijk(λ) = −E  ∂2 ∂λj∂λk l(λ)  , 1 ≤ j, k ≤ 3.

Lorsque la fonction du score est dérivable par rapport à chacun des paramètres, I(λ) s’obtient par I(λ) =    I11 I12 I13 I21 I22 I23 I31 I32 I33   

où la diagonale de la matrice est définie par I11= −E  ∂2l(λ) ∂λ12  = −E " −κ n X i=1 cos (yi− µ(y|xi)) # = κE " n X i=1 cos (yi− µ(y|xi)) # = nκA(κ), et pour j ∈ {2, 3}, Ijj = −E  ∂2l(λ) ∂λj2  = −E " κ n X i=1 (

− cos (yi− µ(y|xi)) ∂µ(y|xi) ∂λj 2 + sin (yi− µ(y|xi)) ∂2µ(y|xi) ∂λj2 )# = −E " κ n X i=1 (

− cos (yi− µ(y|xi)) ∂µ(y|xi) ∂λj 2)# = κA(κ) n X i=1  ∂µ(y|xi) ∂λj 2 .

(46)

simi-laires aux précédents, sont donnés par I12= I21= κA(κ) n X i=1 ∂µ(y|xi) ∂α I13= I31= κA(κ) n X i=1 ∂µ(y|xi) ∂ω I23= I32= κA(κ) n X i=1  ∂µ(y|xi) ∂α ∂µ(y|xi) ∂ω  .

Les dérivées partielles de µ(y|xi) sont calculées à la proposition3.1.1et à la proposition 3.1.2.

Pour estimer la matrice de variance-covariance de ˆλ, il suffit d’inverser la matrice I(λ) car

(ˆλ − λ) −→L

n→+∞N3(0, I

−1(λ)).

On a donc le résultat suivant :

cov(ˆλ) = I−1(λ)

λ=ˆλ.

Les éléments (j, j) ∀ j ∈ {1, 2, 3} de la matrice cov(ˆλ) estiment les variances des estimations des paramètres. L’élément (1, 1), l’élément (2, 2) et l’élément (3, 3) sont les variances de ˆβ, ˆ

α, et ˆω, respectivement. Pour les éléments hors-diagonale, il s’agit de la covariance entre les estimations des paramètres. Comme µ(y|x) du modèle décentré n’est pas identique au modèle de Möbius, les variances des estimations ne sont pas nécessairement les mêmes.

Proposition 3.1.1. Pour le prédicteur décentré, les dérivées partielles de µ(y|xi) sont

∂µ(y|xi) ∂β = 1 ∂µ(y|xi) ∂α = −  1 + ω cos(xi− α) 1 + ω2+ 2ω cos(x i− α)  ∂µ(y|xi) ∂ω =  − sin(xi− α) 1 + ω2+ 2ω cos(x i− α)  .

(47)

Démonstration. ∂µ(y|xi) ∂β ≡ ∂ ∂ββ = 1 ∂µ(y|xi) ∂α ≡ ∂ ∂αatan{sin(xi− α), ω + cos(xi− α)} = ∂ ∂α  sin(xi−α) ω+cos(xi−α)  1 +  sin(xi−α) ω+cos(xi−α) 2 = − sin 2(x

i− α) [ω + cos(xi− α)]−2− cos(xi− α) [ω + cos(xi− α)]−1

1 +  sin(xi−α) ω+cos(xi−α) 2 = − sin 2(x

i− α) [ω + cos(xi− α)]−2− cos(xi− α) [ω + cos(xi− α)]−1 2ω cos(xi−α)+ω2+1 [ω+cos(xi−α)]2 = − sin 2(x i− α) − cos2(xi− α) − ω cos(xi− α) 2ω cos(xi− α) + ω2+ 1 = −  1 + ω cos(xi− α) 1 + ω2+ 2ω cos(x i− α)  ∂µ(y|xi) ∂ω ≡ ∂ ∂αatan{sin(xi− α), ω + cos(xi− α)} = ∂ ∂ω  sin(xi−α) ω+cos(xi−α)  1 +  sin(xi−α) ω+cos(xi−α) 2 = sin(xi− α)∂ω∂  1 ω+cos(xi−α)  1 + sin(xi−α) ω+cos(xi−α) 2 = − sin(xi−α) [ω+cos(xi−α)]2 2ω cos(xi−α)+ω2+1 [ω+cos(xi−α)]2 =  − sin(x i− α) 1 + ω2+ 2ω cos(x i− α) 

Proposition 3.1.2. Pour le prédicteur de Möbius, les dérivées partielles de µ(y|xi) sont ∂µ(y|xi) ∂β = 1 ∂µ(y|xi) ∂α = " − ω sec 2 1 2(xi− α) 1 + ω2tan2 1 2(xi− α) # ∂µ(y|xi) ∂ω = " 2 tan12(xi− α) 1 + ω2tan2 1 2(xi− α) #

(48)

où sec est la fonction sécante : 1/ cos(.). Démonstration. ∂µ(y|xi) ∂β ≡ ∂ ∂ββ = 1 ∂µ(y|xi) ∂α ≡ ∂ ∂α2 arctan n ω tan(xi− α 2 ) o = 2 ∂ ∂αω tan( xi−α 2 ) 1 +ω tan(xi−α 2 ) 2 = 2ω sec 2(xi−α 2 )(− 1 2) 1 +ω tan(xi−α 2 ) 2 = " − ω sec 2 1 2(xi− α) 1 + ω2tan2 1 2(xi− α) # ∂µ(y|xi) ∂ω ≡ ∂ ∂ω2 arctan n ω tan(xi− α 2 ) o = 2 ∂ ∂ωω tan( xi−α 2 ) 1 +ω tan(xi−α 2 ) 2 = 2tan( xi−α 2 ) 1 +ω tan(xi−α 2 ) 2 = " 2 tan12(xi− α) 1 + ω2tan2 1 2(xi− α) #

Les estimations obtenues par la méthode du maximum de vraisemblance ont des propriétés intéressantes (Fisher,1922). En particulier, que ce soit avec le modèle décentré ou le modèle de Möbius, on a que

• les estimateurs sont asymptotiquement efficaces • les estimateurs sont asymptotiquement sans biais • les estimateurs sont asymptotiquement de loi normale

• les estimateurs sont convergents en probabilité vers les vraies valeurs. Un algorithme pour l’estimation des paramètres sera présenté à la section4.2.

3.2

Précision des valeurs prédites ˆ

µ(y|x)

Une fois que les estimateurs ˆβ, ˆα, et ˆω sont obtenus, on peut calculer des valeurs prédites par le modèle décentré de même que par le modèle de Möbius pour une valeur explicative donnée x0. Posons ˆµ(y|x0) la valeur prédite par le modèle sachant x0.

(49)

Par le principe d’invariance de l’estimateur par maximum de vraisemblance, on a :

• pour le modèle décentré, l’estimateur du maximum de vraisemblance de l’angle moyen prédit par le modèle sachant x0 est

ˆ

µ(y|x0) = ˆβ + atan{sin(x0− ˆα), ˆω + cos(x0− ˆα)} (mod 2π)

• pour le modèle de Möbius, l’estimateur du maximum de vraisemblance de l’angle moyen prédit par le modèle sachant x0 est

ˆ µ(y|x0) = ˆβ + 2 arctan  ˆ ω tan1 2(x0− ˆα)  .

Pour connaître la précision des valeurs prédites, les prochaines sections présentent des mé-thodes pour estimer la variance de ˆµ(y|x0), à savoir :

• méthode de linéarisation • méthode du jackknife • méthode du bootstrap.

3.2.1 La linéarisation

La méthode de linéarisation est également connue sous le nom de la méthode delta. Cette méthode permet de calculer la variance pour des statistiques dérivables (Oehlert,1992) telles que l’estimateur ˆµ(y|x0). Considérons une application g telle que g(ˆλ) = ˆµ(y|x), pour laquelle

la dérivée première existe et ne s’annule pas en λ. Grâce au théorème de Slutsky mentionnant que g(.), une application continue,

g(ˆλ) →P n→∞g(λ), on obtient que g0(ˆλ) →P n→∞g 0 (λ).

Comme ˆµ(y|x0) s’exprime en fonction de ˆλ = ( ˆβ, ˆα, ˆω), la méthode de linéarisation utilise la

matrice d’information de Fisher I(λ) pour mener au résultat g>(λ)(ˆλ − λ) ∼ N3



0, (g0(λ))>I−1(λ)g0(λ).

Ainsi, cette méthode permet d’obtenir la variance de l’estimation ponctuelle de l’angle moyen sachant l’angle explicatif comme suit :

V ar[ˆµ(y|x0)] ' "  ∂µ(y|x0) ∂λ > I−1(λ) ∂µ(y|x0) ∂λ #

où les dérivées partielles sont celles définies à la proposition 3.1.1 ou à la proposition 3.1.2

selon le modèle paramétrique utilisé. L’estimateur de V ar[ˆµ(y|x0)], qui dépendra aussi de ˆκ,

est v[ˆµ(y|x0)] = "  ∂µ(y|x0) ∂λ > I−1(λ) ∂µ(y|x0) ∂λ # λ=ˆλ,κ=ˆκ .

(50)

DansKrewski & Rao (1981), on montre que l’estimateur de variance par la méthode de li-néarisation est un estimateur convergent de la variance asymptotique de la statistique calculée, soit ˆµ(y|x0) dans ce cas-ci.

3.2.2 Le jackknife

Une alternative à la méthode précédente pour estimer la variance est la méthode du jack-knife. La méthode du jackknife, inventée parQuenouille(1949), avait comme objectif d’estimer le biais d’un estimateur. Peu de temps après, le jackknife a été proposé pour estimer la variance d’un estimateur (Tukey,1958). Dans le cadre de ce mémoire, cette méthode est utilisée pour estimer la variance d’une estimation ponctuelle. Le jackknife est basé sur plusieurs échantillon-nages à effectuer. Partant d’un ensemble de n paires de données,

(x1, y1) (x2, y2) ... (xi−1, yi−1) (xi, yi) (xi+1, yi+1) ... (xn−1, yn−1) (xn, yn),

il faut former n nouveaux échantillons distincts où l’échantillon i est composé des (n − 1) paires d’observations suivantes :

(x1, y1) (x2, y2) ... (xi−1, yi−1) (xi+1, yi+1) ... (xn−1, yn−1) (xn, yn).

Autrement dit, pour l’échantillon i ∈ {1, ..., n}, toutes les paires d’observations font partie de l’échantillon sauf la paire d’observations (xi, yi) qui a été écartée de l’échantillon.

(51)

Pour chacun des n échantillons, la notation ˆµ−i(y|x

0)représente l’estimateur ˆµ(y|x0)obtenu

avec l’échantillon qui ne contient pas la iepaire d’observations. À partir de tous les ˆµ−i(y|x 0)

calculés, posons ˆµ(.) la moyenne angulaire de ces n termes.

À l’aide du jackknife que l’on modifie pour des données angulaires, pour obtenir la variance de l’estimateur ˆµ(y|x0), il suffit de calculer

vjack[ˆµ(y|x0)] = n − 1 n n X i=1

sin{ˆµ−i(y|x0) − ˆµ(.)}

2 .

Dans le cas classique, lorsque la statistique pour laquelle on calcule la variance n’est pas exprimée en angle, la fonction sinus n’apparaît pas dans le calcul de la variance. Comme ˆµ(y|x0)

est un angle, pour le calcul de sa variance par la méthode du jackknife, on ajoute la fonction sin(.) car sin{ˆµ−i(y|x0) − ˆµ(.)} a le même comportement asymptotique que ˆµ−i(y|x0) − ˆµ(.).

En fait, le développement en série de Taylor de sin{ˆµ−i(y|x

0) − ˆµ(.)} est {ˆµ−i(y|x0) − ˆµ(.)} − {ˆµ−i(y|x0) − ˆµ(.)}3 3! + {ˆµ−i(y|x0) − ˆµ(.)}5 5! − ... .

DansRao & Wu(1985), on mentionne que les variances obtenues par la méthode du jackknife et celles obtenues par la méthode de linéarisation sont asymptotiquement équivalentes.

3.2.3 Le bootstrap

L’estimation de la variance d’un estimateur peut également se faire par la méthode du bootstrap. Cette méthode est comparable à celle du jackknife, cependant, la méthode de rééchantillonnage diffère. La méthode du jackknife fait appel aux n sous-échantillons sans remise de taille n − 1, alors que la méthode du bootstrap forme B échantillons de taille n avec remise. Le bootstrap permet de tirer plus d’information sur les données en considérant plus de sous-échantillons formés à partir du jeu de données initiales : la taille B est habituellement supérieure à la taille n (Efron,1982).

Le nombre d’échantillons bootstrap, B, peut varier de 50 à 200. Ce nombre doit augmenter lorsqu’il y a un grand nombre de valeurs extrêmes parmi les données ou lorsque l’estimation de la variance par cette méthode sert à la construction d’intervalles de confiance.

Soit ˆµb(y|x

0), l’estimation ˆµ(y|x0) pour l’échantillon b ∈ {1, 2, ..., B}, et soit ˆµ(.), la moyenne

angulaire de ces B estimations. Ainsi, la variance bootstrap ajustée pour des données angu-laires, en y ajoutant la fonction sinus, est définie par

vboot[ˆµ(y|x0)] = 1 B B X b=1 h sin{ˆµb(y|x0) − ˆµ(.)} i2 .

Figure

Figure 1.2 – Angles facilement reconnaissables du cercle unité
Figure 1.4 – Statistiques descriptives sur un échantillon
Figure 1.5 – Diagramme en rose d’un échantillon de taille 1000 tiré d’une loi uniforme
Figure 2.2 – Fonction 2arctan(.)
+7

Références

Documents relatifs

(d) Proposer un test permettant de tester le mod`ele satur´e contre le mod`ele de la question 2 (le mod`ele n’ayant pas ´et´e ´ecris, on se contentera de d´ecrire les hypoth`eses

De plus, la conception du dispositif et le déroulement du jeu lui-même visent également à donner à voir une façon possible de tirer parti des décalages entre l’application

For a configuration u, let ρ(u) denote the reduced con- figuration obtained from the monomial associated to u by performing reductions in the Gr¨obner basis of I G associated with

Nous avons examiné de nombreux jeux de données tests pour étudier le comportement de la méthode proposée pour des données aberrantes de différents types : plusieurs modes

Pour répondre à ces problématiques, notre contribution principale dans cette thèse est de proposer la méthode Bayesian functional Linear regression with Sparse Step function

Dans cette thèse, on a développé ce contexte d’un point de vue méthodologique, en proposant deux procédures de classification en régression par modèles de mélange qui pallient

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des