1.4 L’utilisation en routine
2.1.3. Calcul de l’erreur totale
Figure II‐13‐ Représentation schématique des composantes de l'erreur; flèche orange:
Erreur systématique ou biais, flèche verte : erreur aléatoire ou écart type ; Flèche rouge : erreur totale.X est la moyenne des résultats (points rouges) et µT est la vraie valeur.
Donc, l’erreur totale est une mesure de la distance entre tout résultat individuel et la valeur de référence de la concentration de l'analyte présent dans l'échantillon. L’erreur d'analyse totale ou l'erreur totale est donc la combinaison simultanée des parties systématiques et aléatoires de l'erreur.
2.1.3. Calcul de l’erreur totale
Comme on a vu précédemment, l'objectif principal de l'erreur totale est de fournir la quantité globale d'erreur d'analyse liée à n’importe quel résultat de mesure. Une étape principale dans le cycle de vie des méthodes d'analyse où l’estimation de l'erreur totale est importante est l'étape de validation analytique. En effet, des échantillons de concentration considérée comme connue (par exemple, la valeur réelle conventionnelle ou la valeur de référence) sont analysés afin de satisfaire aux critères de validation exigés par la plupart des lignes directrices réglementaires [19,21,22,44,48,58‐61]. L'objectif final de cette étape est de vérifier si la méthode d'analyse fournira des résultats fiables et exacts. Le calcul de l’erreur totale permet d’atteindre cet objectif et ce en estimant la quantité globale de l'erreur d'analyse à chaque niveau de concentration étudié et en la comparant à une limite de mesure acceptable [28,46, 51,62,68].
Cette limite acceptable est généralement définie par les autorités réglementaires, par des spécifications provenant d'un processus de production industrielle ou par les exigences du client. Ainsi, il y a une distribution d'erreur autour de la valeur de référence, telle que donnée par l'équation suivante:
où δ et σ sont, respectivement, le biais et l'écart‐type, μT est la valeur de référence ou la valeur conventionnellement « vraie » et xi est le résultat de l'analyse.
L'équation (Eq. 5) donne la région où chaque résultat d'analyse peut être trouvé autour de la concentration de référence d'analyte présente dans l'échantillon et est illustré dans la Figure 12. En d'autres termes, il définit les distributions prédictives des résultats d'analyse xi, pour une concentration de référence définie μT.
Mandel (1964) a montré [63] comment la différence entre un résultat d’une mesure et la valeur de référence peut être décrite comme la combinaison d'erreurs aléatoires et systématiques, définie comme l'erreur totale:
Cependant, avec cette formule, le deuxième terme va toujours sous‐estimer la partie aléatoire puisque la distance positive entre chaque valeur et la moyenne sera toujours compensée par son équivalente négative. Par conséquent, ce terme devrait être remplacé par la différence des sommes des carrées, c'est à dire qu'elle représente une mesure de la fidélité ou erreur aléatoire:
A partir de cette définition initiale, différents modèles pour combiner les deux parties d'erreur ont été proposées.
Pour les études de validation, nous avons besoin d’obtenir la région où les résultats d'analyse sont obtenus autour de valeurs de référence, et ces modèles d'erreur totale sont donc écrits comme suit :
La valeur de k est fixée en fonction de la garantie qu'un laboratoire est disposé à fournir et dépend de l'hypothèse de la distribution des résultats. Habituellement, k est fixé à 2, exprimant ainsi une garantie de 95% en supposant une distribution normale des résultats avec une moyenne connue exprimée par le biais connu (δ) et d’écart‐type connu (σ).
Le modèle le plus utilisé est le modèle linéaire, où les erreurs aléatoires et systématiques sont combinées linéairement selon le modèle ET3. z est un facteur de probabilité, généralement égal à 1,65 ou 1,96 [65,66]. Ce modèle a été principalement utilisé dans la chimie clinique [68‐70].
Toutefois, dans les secteurs pharmaceutiques et biopharmaceutiques, nous remarquons un début de tendance vers l'utilisation de l'erreur totale comme critère d’évaluation de validation des méthodes. En effet, une commission SFSTP a , d'une part , fourni un guide sur
la validation des méthodes bioanalytiques [27] où le modèle pour déclarer une méthode valide est construit comme suit:
( 2; ) . .
ˆ ˆI P
Qt
avec δˆ est le biais estimé, σˆI.P. est l’écart type estimé de la fidélité intermédiaire et
t(α2;ν)
Q est le quantile de la distribution de Student avec ν degré de liberté
Il s’agit donc d’une estimation de l'erreur totale d'analyse puisque l'erreur systématique s’additionne à l'erreur aléatoire. Deuxièmement, comme nous l’avons vu à la section 1.3 Validation, une récente commission de la SFSTP [28] a également proposé d'utiliser le concept d'erreur totale pour évaluer la validité des méthodes analytiques. Enfin, à la fin d'un atelier commun, la FDA et l’AAPS ont convenu de proposer une règle pour évaluer la validité des méthodes bioanalytiques fondée sur une erreur totale maximale de 30% [48]. Cette règle à d’ailleurs été introduite dans le récent guide de validation des méthodes bioanalytiques de l’EMA [52]. Egalement, dans un récent éditorial du Journal of Chromatography B, l'implication du critère d'erreur totale proposé par la FDA / AAPS [48] est discutée en relation avec la révision des manuscrits soumis à cette revue [67].
Même si les méthodologies présentées sont très diverses et imparfaite, la principale préoccupation est que l'erreur totale est donc liée à la fiabilité globale des résultats générés par la méthode d'analyse. En effet, si l'erreur totale est élevée, les résultats générés par le procédé peuvent être de qualité insuffisante pour l'objectif initial de la méthode d'analyse.
Par conséquent, l'erreur totale maximale ou le niveau de fiabilité acceptable doit être stipulé par l'utilisateur final des résultats et est liée à l'objectif spécifique de l'analyse.
En outre, il n'est généralement pas important que la méthode d'analyse ait une faible erreur systématique ou une faible erreur aléatoire, tant que la combinaison des deux composantes de l'erreur est acceptable. En effet l'utilisateur final des résultats pense en termes d'erreur totale. Les façons de combiner simultanément d’une manière statistique correcte les erreurs systématiques et aléatoires doivent donc être trouvées. Cette question est examinée dans la section suivante traitant des intervalles de tolérance statistiques.
2.2. Rôle des intervalles de tolérance
Pour comprendre le rôle potentiel des intervalles de tolérance dans l'industrie pharmaceutique et en particulier durant les étapes du cycle de vie des méthodes d'analyse, il est important d'examiner d'abord les principaux types d'intervalles statistiques qui existent.
2.2.1. Intervalle de confiance de la moyenne d'un échantillon a. Intervalle de confiance
L'intervalle de confiance de la moyenne d'un échantillon est probablement l'intervalle statistique le plus connu. Au sens courant, c’est une “fourchette”.
Un intervalle de confiance bilatéral à 95% de la moyenne m d’une variable est un couple de variables aléatoires (L, U) telles queP L( U) 0.95 . L’intervalle est défini par une probabilité de recouvrement : celle que la vraie valeur de m (inconnue) soit contenue dans l’intervalle aléatoire [L, U]. [68]”.
Soit par exemple x1, x2, x3,….xk k résultats obtenus à partir d’une méthode d'analyse quantitative. La valeur moyenne de cet échantillon de résultats peut être facilement calculée par:
ˆ 1 k
i i
x
kEq. II‐9
Et la formule de l'intervalle de confiance de la moyenne avec 1‐ comme niveau de confiance:
( 1, 2)
ˆ ˆ Qk
k
Eq. II‐10
où σˆ est l’écart type estimé à partir de l’échantillon et Qk-1; 2 est la quantile /2 de la distribution de Student avec k‐1 degré de liberté.
Cet intervalle exprime que la vraie valeur µ de la moyenne de l'ensemble de la population est comprise dans cet intervalle avec une probabilité de 1‐. Ainsi, si les expériences sont