• Aucun résultat trouvé

              

Figure 4.1. Illustration de la relation entre l’erreur, l’incertitude et la précision de mesure.

4.3.2 Gestion de l’incertitude

Puisque différents types d’incertitude sont présentes dans les sources de mesure, les théories mathématiques, celles qui sont appropriées pour au moins une partie de la représentation et de la gestion de ces incertitudes, doivent être considérées d’une manière compétitive.

Pour représenter les incertitudes aléatoires, la théorie des probabilités propose des méthodes et outils adéquats. De manière générale, une distribution Gaussienne est utilisée, ou plus simplement la moyenne et l’écart-type, car ces deux manières conduisent à des traitements relativement simples dans la propagation des incertitudes dans les situations fréquentes où un nombre important de données ou mesures indépendantes sont disponibles.

L’incertitude épistémique, provenant de l’incomplétude des informations, est difficile à représenter par une seule distribution de probabilité. Dans la littérature, l’incertitude épistémique est modélisée par l’analyse des intervalles, la distribution de possibilité (Dubois and Prade, 1988), la théorie de Dempster-Shafer (Shafer, 1976). La théorie de Dempster-Shafer est basée sur la notion de preuves utilisant les fonctions de croyance et le raisonnement plausible. Elle est considérée comme une gé-néralisation de la théorie des probabilités classique qui permet de modéliser à la fois l’incertitude épistémique et l’incertitude aléatoire. Toutefois, le bon cadre de l’application de cette théorie est l’univers discret. Pour des mesures continues, elle n’est plus la théorie appropriée. L’analyse des intervalles nécessite d’évaluer les bornes de l’erreur sur la mesure, à défaut de pouvoir évaluer l’er-reur elle-même, qui est inconnue. Les bornes ainsi obtenues permettent de définir un intervalle qui est assuré de contenir la valeur exacte recherchée. La méthode de l’analyse des intervalles permet de propager ces intervalles mais elle conduit à des résultats particulièrement imprécis après propa-gation. Une représentation par distributions de possibilité qui généralise l’intervalle tout en étant plus spécifique fournit des moyens pertinents pour gérer les incertitudes épistémiques. De plus, une distribution de possibilité permet de représenter une famille de distributions de probabilité (Dubois and Prade, 1988), ce qui autorise une représentation possibiliste également pour les incertitudes aléa-toires permettant de considérer des informations probabilistes partielles et s’affranchir d’hypothèses pas toujours complètement vérifiées dans le contexte d’utilisation (Dubois et al., 2004).

4.4 Théorie des probabilités

4.4.1 Notions de base

Si l’univers est la droite réelle ℜ, alors on admet l’existence d’une fonction appelée fonction de répartition F , qui donne P (X ≤ x) = F (x) pour une variable aléatoire X. Autrement dit, F (x)

4.4 Théorie des probabilités 45 retourne la probabilité que X soit inférieur ou égal à x.

La fonction de répartition doit satisfaire les propriétés suivantes : 1. F est une fonction croissante et continue à droite.

2. limx→−∞F(x) = 0

3. limx→+∞F(x) = 1

Si F est dérivable, alors on dit que la variable aléatoire X a une densité de probabilité f(x) =

dF (x) dx .

Pour un ensemble E ⊆ ℜ, la probabilité que la variable aléatoire X soit dans E est définie comme :

P(X ∈ E) =

Z

x∈E

dF(x) (4.1)

Si la densité de probabilité existe, on peut alors la réécrire :

P(X ∈ E) =

Z

x∈E

f(x) dx (4.2)

Tandis que la densité de probabilité n’existe que pour les variables aléatoires continues, la fonction de répartition existe pour toute variable aléatoire (y compris les variables discrètes) à valeurs dans R.

La fonction de répartition est la plus souvent utilisée pour caractériser une loi de probabilité. Parmi de nombreuse lois de probabilité qui existent, la loi normale qui est aussi connue sous le nom de distribution Gaussienne, est couramment utilisée pour approximer de nombreuses lois de probabilité apparaissant dans les applications.

La fonction de répartition de la loi normale est définie comme : Φ(x) = Z x −∞ 1 σ√ 2 πe (t−µ)22σ2 dt (4.3)

La densité de probabilité correspondante s’écrit alors :

f(x) = 1

σ√

2 π e

12(x−µ

σ )2 (4.4)

où µ dénote la moyenne et σ dénote l’écart-type.

L’intervalle de confiance (I

β) est l’ensemble des valeurs raisonnablement compatibles avec le

résultat observé. Il donne une visualisation de l’incertitude de l’estimation. L’intervalle de confiance (I

β) de niveau de confiance β du paramètre x est défini comme :

P(x ∈ Iβ) = β (4.5)

Des intervalles de confiance à 99%, à 95% ou à 90% sont parfois utilisés. La probabilité (degré de confiance) de ces intervalles de contenir la vraie valeur est respectivement 99%, 95% et 90%. Pour passer de l’écart-type à un intervalle de confiance, il est nécessaire de connaître la loi de probabilité. Pour une loi normale, si l’on connait l’écart-type, σ, l’intervalle [¯x − 2σ, ¯x + 2σ] est alors un intervalle de confiance de ¯x à 95%.

La référence standard en modélisation d’incertitude est le "Guide pour l’expression de l’incerti-tude de mesure (GUM)" (BIPM et al., 2008) édité par un consortium international d’organisations juridiques et professionnelles. Le Guide préconise une représentation de l’incertitude par un para-mètre de dispersion afin d’éviter les calculs complexes induits par l’identification et la propagation de distributions de probabilité. L’écart-type et la demi-largeur d’un intervalle de confiance à un niveau donné (95 ou 99%) sont habituellement utilisés.

4.4.2 Propagation de l’incertitude dans un cas linéaire

Le GUM regroupe les quantités uncertaines en "Type A" et "Type B". Les incertitudes du Type A sont déterminées avec les méthodes statistiques traditionnelles. Alors que le Type B est soumis à d’autre incertitude comme l’expérience et la connaissance sur un instrument. Les 2 types d’incertitude peuvent avoir les composantes aléatoire et épistémique. En effet, le GUM propose de traiter ces 2 types d’incertitude dans un cadre stochastique, introduit la variance pour décrire les incertitudes et les traite avec la loi de propagation des variances, sous l’hypothèse généralement d’indépendance. Appliquer cette approche à un cas linéaire, les incertitudes se propagent comme suit :

Soit fk(x1, x2, . . . , xn) un ensemble de fonctions qui sont des combinaisons linéaires de n variables

x1, x2, . . . ,xn avec les coefficients de combinaison a1,k, a2,k, . . . , an,k, (k = 1, . . . , m).

fk= n X i=1 ai,kxi : f = ATx (4.6) où AT =    a11 · · · a1n ... ... ... am1 · · · amn    (4.7)

Si la matrice de variance-covariance de l’erreur de x est notée par Σx,

Σx =      σ12 σ12 σ13 · · · σ21 σ22 σ23 · · · σ31 σ32 σ2 3 · · · ... ... ... ...      (4.8)

alors la matrice de variance-covariance Σf de l’estimation de f est donnée par

Σf i,j = n X k n X l ai,kΣxk,lal,j : Σf = ATΣxA (4.9)

C’est l’expression la plus générale pour la propagation de l’incertitude d’un ensemble de variables sur un autre.

Afin de déterminer des intervalles de confiance pour les paramètres, le GUM suggère d’utiliser la distribution Gaussienne (justifié par le théorème central limite), et d’utiliser les simulations Monte

4.5 Théorie des possibilités 47