• Aucun résultat trouvé

1.4 L’utilisation en routine

2.1.3. Calcul de l’erreur totale

 

Figure II‐13‐ Représentation schématique des composantes de l'erreur; flèche orange: 

Erreur systématique ou biais, flèche verte : erreur aléatoire ou écart type ; Flèche rouge :  erreur totale.X  est la moyenne des résultats (points rouges) et µT est la vraie valeur. 

 

Donc, l’erreur totale est une mesure de la distance entre tout résultat individuel et la valeur  de référence de la concentration de l'analyte présent dans l'échantillon. L’erreur d'analyse  totale ou l'erreur totale est donc la combinaison simultanée des parties systématiques et  aléatoires de l'erreur. 

 

2.1.3. Calcul de l’erreur totale   

Comme on a vu précédemment, l'objectif principal de l'erreur totale est de fournir la  quantité globale d'erreur d'analyse liée à n’importe quel résultat de mesure. Une étape  principale dans le cycle de vie des méthodes d'analyse où l’estimation de l'erreur totale est  importante est l'étape de validation analytique. En effet, des échantillons de concentration  considérée comme connue (par exemple, la valeur réelle conventionnelle ou la valeur de  référence) sont analysés afin de satisfaire aux critères de validation exigés par la plupart des  lignes directrices réglementaires [19,21,22,44,48,58‐61]. L'objectif final de cette étape est de  vérifier si la méthode d'analyse fournira des résultats fiables et exacts. Le calcul de l’erreur  totale permet d’atteindre cet objectif et ce en estimant la quantité globale de l'erreur  d'analyse à chaque niveau de concentration étudié et en la comparant à une limite de  mesure acceptable [28,46, 51,62,68].  

 

Cette limite acceptable est généralement définie par les autorités réglementaires, par des  spécifications provenant d'un processus de production industrielle ou par les exigences du  client. Ainsi, il y a une distribution d'erreur autour de la valeur de référence, telle que  donnée par l'équation suivante: 

où  δ et  σ sont, respectivement, le biais et l'écart‐type,  μT est la valeur de référence ou la  valeur conventionnellement « vraie » et xi est le résultat de l'analyse. 

 

L'équation (Eq. 5) donne la région où chaque résultat d'analyse peut être trouvé autour de la  concentration de référence d'analyte présente dans l'échantillon et est illustré dans la Figure  12. En d'autres termes, il définit les distributions prédictives des résultats d'analyse xi, pour  une concentration de référence définie μT. 

 

Mandel (1964) a montré [63] comment la différence entre un résultat d’une mesure et la  valeur  de  référence  peut  être  décrite  comme  la  combinaison  d'erreurs  aléatoires  et  systématiques, définie comme l'erreur totale: 

Cependant, avec cette formule, le  deuxième terme va toujours sous‐estimer la partie  aléatoire puisque la distance positive entre chaque valeur et la moyenne sera toujours  compensée par son équivalente négative. Par conséquent, ce terme devrait être remplacé  par la différence des sommes des carrées, c'est à dire qu'elle représente une mesure de la  fidélité ou erreur aléatoire: 

A partir de cette définition initiale, différents modèles pour combiner les deux parties  d'erreur ont été proposées.  

 

Pour les  études de validation,  nous  avons  besoin d’obtenir la  région  où les résultats  d'analyse sont obtenus autour de valeurs de référence, et ces modèles d'erreur totale sont  donc écrits comme suit : 

La valeur de k est fixée en fonction de la garantie qu'un laboratoire est disposé à fournir et  dépend de l'hypothèse de la distribution des résultats. Habituellement, k est fixé à 2,  exprimant ainsi une garantie de 95% en supposant une distribution normale des résultats  avec une moyenne connue exprimée par le biais connu (δ) et d’écart‐type connu (σ). 

 

Le modèle le plus utilisé est le modèle linéaire, où les erreurs aléatoires et systématiques  sont  combinées  linéairement  selon  le  modèle  ET3.  z  est  un  facteur  de  probabilité,  généralement égal à 1,65 ou 1,96 [65,66]. Ce modèle a été principalement utilisé dans la  chimie clinique [68‐70]. 

 

Toutefois, dans les secteurs pharmaceutiques et biopharmaceutiques, nous remarquons un  début  de  tendance  vers  l'utilisation  de  l'erreur  totale  comme  critère  d’évaluation  de  validation des méthodes. En effet, une commission SFSTP a , d'une part , fourni un guide sur 

la validation des méthodes bioanalytiques [27] où le modèle pour déclarer une méthode  valide est construit comme suit:  

 

( 2; ) . .

ˆ ˆI P

Qt 

   

avec  δˆ est le biais estimé,  σˆI.P. est l’écart type estimé de la fidélité intermédiaire et 

t(α2;ν)

Q est le quantile de la distribution de Student avec ν degré de liberté 

 

Il s’agit donc d’une estimation de l'erreur totale d'analyse puisque l'erreur systématique  s’additionne à l'erreur aléatoire. Deuxièmement, comme nous l’avons vu à la section 1.3  Validation, une récente commission de la SFSTP [28] a également proposé d'utiliser le  concept d'erreur totale pour évaluer la validité des méthodes analytiques. Enfin, à la fin d'un  atelier commun, la FDA et l’AAPS ont convenu de proposer une règle pour évaluer la validité  des méthodes bioanalytiques fondée sur une erreur totale maximale de 30% [48]. Cette  règle  à  d’ailleurs  été  introduite  dans  le  récent  guide  de  validation  des  méthodes  bioanalytiques  de  l’EMA  [52].  Egalement,  dans  un  récent  éditorial  du  Journal  of  Chromatography B, l'implication du critère d'erreur totale proposé par la FDA / AAPS [48] est  discutée en relation avec la révision des manuscrits soumis à cette revue [67]. 

 

Même  si  les  méthodologies  présentées  sont  très  diverses  et  imparfaite,  la  principale  préoccupation est que l'erreur totale est donc liée à la fiabilité globale des résultats générés  par la méthode d'analyse. En effet, si l'erreur totale est élevée, les résultats générés par le  procédé peuvent être de qualité insuffisante pour l'objectif initial de la méthode d'analyse. 

Par conséquent, l'erreur totale maximale ou le niveau de fiabilité acceptable doit être stipulé  par l'utilisateur final des résultats et est liée à l'objectif spécifique de l'analyse. 

 

En outre, il n'est généralement pas important que la méthode d'analyse ait une faible erreur  systématique ou une faible erreur aléatoire, tant que la combinaison des deux composantes  de l'erreur est acceptable. En effet l'utilisateur final des résultats pense en termes d'erreur  totale. Les façons de combiner simultanément d’une manière statistique correcte les erreurs  systématiques et aléatoires doivent donc être trouvées. Cette question est examinée dans la  section  suivante  traitant  des  intervalles  de  tolérance  statistiques.

2.2. Rôle des intervalles de tolérance   

Pour  comprendre  le  rôle  potentiel  des  intervalles  de  tolérance  dans  l'industrie  pharmaceutique et en particulier durant les étapes du cycle de vie des méthodes d'analyse, il  est important d'examiner d'abord les principaux types d'intervalles statistiques qui existent. 

 

2.2.1. Intervalle de confiance de la moyenne d'un échantillon  a. Intervalle de confiance 

 

L'intervalle de  confiance de  la moyenne d'un  échantillon est probablement l'intervalle  statistique le plus connu. Au sens courant, c’est une “fourchette”. 

Un intervalle de confiance bilatéral à 95% de la moyenne m d’une variable est un couple de  variables aléatoires (L, U) telles queP L(   U) 0.95 . L’intervalle est défini par une  probabilité de recouvrement : celle que la vraie valeur de m (inconnue) soit contenue dans  l’intervalle aléatoire [L, U]. [68]”. 

 

Soit  par exemple x1, x2,  x3,….xk  k résultats obtenus  à  partir d’une méthode d'analyse  quantitative. La valeur moyenne de cet échantillon de résultats peut être facilement calculée  par: 

ˆ 1 k

i i

x



k

       Eq. II‐9   

Et la formule de l'intervalle de confiance de  la  moyenne  avec 1‐ comme niveau de  confiance: 

( 1, 2)

ˆ ˆ Qk

k

        Eq. II‐10 

 

où σˆ est l’écart type estimé à partir de l’échantillon et Qk-1; 2 est la quantile /2 de la distribution  de Student avec k‐1 degré de liberté. 

 

Cet intervalle exprime que la vraie valeur µ de la moyenne de l'ensemble de la population  est comprise dans cet intervalle avec une probabilité de 1‐. Ainsi, si les expériences sont