• Aucun résultat trouvé

3.2 Estimation de la tension et de la température à base de tests d’hy-

3.2.1 Les tests d’hypothèse non-paramétriques

Il existe de nombreux tests d’hypothèse, dont on distingue principalement deux classes : les tests paramétriques et les tests non-paramétriques. On parle de test paramétrique lorsque l’on fait l’hypothèse que les individus appartenant à une population sont issus d’une loi de distribution paramétrée (par exemple la loi normale). Ces tests permettent de comparer les paramètres de différentes populations afin de tester si elles sont comparables ou non. Ainsi les tests de Student et de Fisher comparent respectivement les moyennes et variances des populations testées.

Contrairement aux tests paramétriques, les tests non-paramétriques ne font aucune supposition sur la loi de distribution des populations traitées [87]. Ces tests permettent de comparer deux populations dont les lois de distributions sont inconnues, afin de tester si elles sont issues de la même loi de distribution. Le critère de comparaison n’est donc pas basé sur les paramètres d’une loi de distribution mais seulement sur l’analyse des données.

Dans le cadre de notre d’application, le but est de comparer les mesures des RO à des modèles. Il est donc important de s’affranchir des lois de distribution

3.2. ESTIMATION DE LA TENSION ET DE LA TEMPÉRATURE À BASE DE TESTS

D’HYPOTHÈSE 55

des données car nous ne disposons d’aucun modèle formel de ces répartitions et ce d’autant plus que cette modélisation pourrait faire intervenir des paramètres liés aux procédés de fabrication.

Dans la classe des tests d’hypothèse non-paramétriques, les tests dit de good- ness-of-fit semblent tout particulièrement bien adaptés car ils comparent la ré- partition de deux jeux de données pour tester l’hypothèse selon laquelle ils sont issus de la même loi de distribution. Ces tests demandent une mise en forme spécifique des fonctions de répartitions à comparer. C’est leur CDF (Fonction de Distribution Cumulée), ou CDF empirique pour les échantillons de données, qui est utilisée. La Figure 3.4 montre la représentation de la CDF (en bleu) et d’une CDF empirique (en rouge) dans le cas de la loi normale. L’axe des abscisses représente les valeurs des données x contenues dans l’échantillon X et l’ordonnée la probabilité cumulée tel que F (x) = Pr(X 6 x).

−40 −3 −2 −1 0 1 2 3 4 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 x F(x)

Figure 3.4 – La CDF (en bleu) et une CDF empirique (en rouge) toutes deux issues de la loi normale

Parmi les tests de goodness-of-fit non-paramétriques, le test de Kolmogorov- Smirnov et le test de Cramér-von Mises sont sans doute les plus connus. Les deux procédures testent la même hypothèse nulle H0, selon laquelle les deux

échantillons testés sont issus de la même loi de distribution. Cependant, le critère de comparaison utilisé par chaque test est différent.

Test de Kolmogorov-Smirnov

La version originale du test de Kolmogorov-Smirnov a été établie en 1933 par Andreï Kolmogorov sous le nom plus simple de test de Kolmogorov. Cette version du test est aujourd’hui connue sous le nom de test de goodness-of-fit de Kolmogorov-Smirnov à un échantillon à cause de ses similarités avec le test de goodness-of-fit à deux échantillons, développé par Vladimir Smirnov en 1939.

Le test de Kolmogorov-Smirnov à un échantillon compare la CDF empirique Fm d’un l’échantillon à la CDF Ms d’une loi connue. La Figure 3.5a montre que

cette comparaison est basée sur la recherche de l’écart maximum Dsentre les deux

CDFs. Cette métrique Ds est appelée statistique du test et a pour expression :

Ds= sup x

|Fm(x) − Ms(x)| (3.3)

A partir de la statistique Ds, il possible de calculer la probabilité ps, appelée

p-Value, que les deux CDFs testées soient issues de la même loi de distribution :

ps(λ) = 2 +∞ X k=1 (−1)k+1e−2k2λ2 (3.4)

avec λ =n · Ds et n la taille de l’échantillon testé.

−4 −3 −2 −1 0 1 2 3 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 x F(x) Ds

(a) Test de Kolmogorov-Smirnov à un échantillon −4 −3 −2 −1 0 1 2 3 4 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 x F(x) Ds

(b) Test de Kolmogorov-Smirnov à deux échantillons

Figure 3.5 – Mesure de la statistique Ds du test de Kolmogorov-Smirnov entre

deux CDFs issues de la loi normale

La version à deux échantillons du test de Kolmogorov-Smirnov conserve le même principe en comparant directement deux échantillons de données pour dé- terminer s’ils sont issus de la même loi de distribution, indépendamment de la connaissance de cette loi. La Figure 3.5b montre le principe de cette version à deux échantillons. Le test recherche toujours la distance maximale Dsentre deux

3.2. ESTIMATION DE LA TENSION ET DE LA TEMPÉRATURE À BASE DE TESTS

D’HYPOTHÈSE 57

respectivement. La p-Value correspondante peut être calculée grâce à l’équation (3.4) en prenant n = n1.n2

n1+n2.

Test de Cramér-von Mises

Le test de Cramer-von Mises a été suggéré indépendamment par Harald Cra- mér en 1928 et par Richard Edler von Mises en 1931. Comme pour le test de Kolmogorov-Smirnov, ce test fut d’abord développé dans sa version à un échan- tillon, puis généralisé en 1962 à deux échantillons par Theodore Wilbur Anderson [88].

Ce test, qui est connu pour être une alternative au test de Kolmogorov- Smirnov, teste la même hypothèse selon la même procédure d’utilisation. Le test de Cramér-von Mises se différencie par le critère utilisé pour générer la statistique Ds. Là où le test de Kolmogorov-Smirnov recherchait la distance maximale entre

deux CDFs, le test de Cramér-von Mises calcule l’intégrale de la différence entre les deux CDFs. Dans le cas du test à un échantillon Ds est calculé en prenant

en compte la CDF empirique Fm = {x1, . . . , xn}et la CDF de la distribution de

Ms : Ds= 12n1 + 2 n X i=1 2i − 1 2n − Ms(xi) 2 (3.5)

Dans le cas à deux échantillons Ds est calculé en prenant en compte deux CDFs

empiriques Fm= {x1, . . . , xN} et Ms= {y1, . . . , yM} : Ds= U N M(N + M)4NM − 1 6(N + M) (3.6)

avec U tel que :

U = N N X i=1 (ri− i)2+ M M X i=1 (sj− j)2 (3.7)

avec ri et sj respectivement les rangs dans l’échantillon combiné de xi et yj. Une

probabilité que les deux échantillons soient issus de la même loi de distribution est également déduite de la statistique de Cramér-von Mises.

Cependant, -le calcul de la statistique de Cramér-von Mises demande plus de calculs que celle du test de Kolmogorov-Smirnov. C’est pourquoi, dans le contexte de développement de méthodes bas coût, nous privilégierons l’utilisation du test de Kolmogorov-Smirnov.