• Aucun résultat trouvé

Sensibilité et spécificité du classificateur binaire

On considère une instance du problème de la recherche de cibles, constituée d’une molécule ligand

requêteL, et d’un ensemble de macromolécules cibles candidatesC. Les méthodes de prédiction de cibles

fonctionnent généralement en fournissant une liste triée des cibles de C, suivant l’affinité prédite avec

le ligand requête. On peut alors utiliser un rang seuil s qui partitionne C = PP(s)∪PN(s) en deux

ensembles : les résultats prédits positifs PP(s) dont le rang est inférieur à s, et les résultats prédits

négatifs PN(s) dont le rang est supérieur à s. On obtient ainsi un nombre de cibles prédites positives

#PP(s) égal à la valeur du rang seuilschoisi.

On suppose maintenant qu’on connaît le résultat souhaité, c’est à dire une partitionC=P ∪ N telle

que les cibles de P sont exactement celles qui peuvent former un complexe avec le ligand. On dit que

P sont les résultats positifs et N sont les négatifs. On définit alors pour un rang seuil s les ensembles

suivants (détaillés en figure1) :

• TP(s) =PP(s)∩ P, les vrais positifs

• TN(s) =PN(s)∩ N, les vrais négatifs

• FP(s) =PP(s)∩ N, les faux positifs

• FN(s) =PN(s)∩ P, les faux négatifs

À partir de ces ensembles et pour un rang seuil s donné, on définit la sensibilité (ou True Positive

Rate) d’une approche comme le quotient des vrais positifs par les positifs. On définit de même laspécificité

1. Méthodes pour évaluer et comparer différentes approches 67

(ou True Negative Rate) comme le quotient des vrais négatifs par les négatifs. La précision (ou Positive

Predictive Value) est définie comme le quotient des vrais positifs par les prédits positifs.

tpr(s) = #TP(s)

#P =

#TP(s)

#TP(s) + #FN(s) ∈[0,1] la sensibilité

tnr(s) = #TN(s)

#N =

#TN(s)

#TN(s) + #FP(s) ∈[0,1] la spécificité

ppv(s) = #TP(s)

#PP(s) ∈[0,1] la précision

1.1.2 Courbe ROC, évaluation du classificateur

Le fait de considérer les approches de prédiction de cibles comme des classificateurs binaires permet

d’utiliser des méthodes classiques comme les courbes ROC et les aires AUC [Carvalho 2014]. Ces mesures

permettent d’évaluer la qualité des résultats d’un classificateur binaire, fournissant ainsi un moyen de

comparer plusieurs classificateurs entre eux sur une même instance du problème de prédiction de cible.

La courbe ROC (ou Receiver Operating Characteristic, figure 2) est définie comme la sensibilité en

fonction de la spécificité. Elle est constituée de l’ensemble des points (tpr(s),1−tnr(s)) pour toutes

les valeurs de seuils s possibles 0 ≤ s ≤ #C. En particulier le point (0,0) est toujours présent pour le

rang seuils= 0toutes les cibles sont prédites négatives, il n’y a donc aucun vrai positif et tous les vrais

négatifs. Réciproquement le point (1,1)est également toujours présent, car pour le rang seuil maximal

s= #C toutes les cibles sont prédites positives, il n’y a donc aucun vrai négatif et tous les vrais positifs.

L’AUC (ou Area Under Curve), définie comme l’aire sous la courbe ROC, constitue une métrique

globale du classificateur sur l’ensemble des cibles candidates. Il s’agit par définition d’une partie du carré

unité, donc toujours comprise entre 0 et1. La valeur 1 correspondant au classificateur idéal pour lequel

toutes les cibles positives sont classées avant toute autre cible négative. L’AUC peut aussi s’interpréter

comme la probabilité qu’un positif choisi au hasard soit mieux classé qu’un négatif choisi au hasard, en

particulier la valeur0.5correspond à l’espérance d’un classificateur aléatoire.

Un cas particulier est à considérer si une approche de prédiction de cible ne fournit pas un classement

complet. C’est-à-dire qu’un rang n’est attribué que pour une partie de l’ensemble des cibles, la tête du

classement résultat. Ce problème est contourné en affectant des rangs arbitrairement mauvais aux cibles

positives qui ne sont pas classés, afin de pouvoir définir systématiquement les différentes métriques. Cela

introduit un biais dans les mesures globales comme l’AUC mais nous verrons que les mesures pertinentes

sont justement restreintes à la tête du classement, où ce biais n’a pas d’influence.

1.1.3 Adaptation de la métrique pour évaluer la tête du classement

La figure 3 présente une adaptation de la métrique. En effet la mesure de l’AUC permet d’évaluer

globalement un classificateur, pour l’ensemble des choix de rang seuils possibles en couvrant toutes les

valeurs de sensibilité et spécificité. Cependant une méthode de prédiction de cibles, telle queBioBind, est

conçue dans l’objectif de pouvoir déterminer les cibles d’un ligand, parmi untrès grand ensemble de cibles

candidates. L’objectif est de déterminer un ensemble de cibles potentielles suffisamment petit, sur lequel de

nouvelles expériences plus précises pourront être réalisées. Ainsi, l’intérêt se situe dans les premiers vrais

positifs, et la sensibilité ou spécificité pour des valeurs de seuil trop grandes est une mesure peu pertinente

de la qualité de l’approche. Une nouvelle mesure est construite pour prendre en compte uniquement les

classifications produites par les rangs seuil suffisamment petits, afin de rendre mieux compte du résultat

attendu pour un problème réel.

Pour une spécificité minimale de X%, on définit le rang seuil s

X

pour lequel la spécificité reste au

dessus de X%, correspondant à une lecture plus réaliste où seuls les premiers résultats sont considérés.

tpr

1−tnr

0 1

1

0

Classificateur performant

Classificateur par

tirage aléatoire

Classificateur moins

efficace que le hasard

0.5<auc≤1 auc= 0.5 0≤auc<0.5

point de la courbe correspondant

au rang seuilstel que :

tpr(s) =xettnr(s) = 1−x

y

x

Figure2 – Évaluation d’un classificateur par sa courbe ROC et l’aire sous la courbe AUC. Une

aire de0.5correspond à l’espérance d’un tirage aléatoire, ainsi pour être pertinent un classificateur

doit produire une AUC supérieure.

1. Méthodes pour évaluer et comparer différentes approches 69

roc

75

auc

75

>0.125

auc

75

= 0.125

tpr tpr

1−tnr 1−tnr

Figure 3 – Courbe ROC restreinte à une spécificité supérieure à 75 %. On note que même si

l’auc

X

est normalisée dans l’intervalle[0,1], dans ce contexte l’AUC de référence d’un classificateur

aléatoire n’est plus 0.5 mais

100X

200

, soit 0.125 pour X = 75.

On définit également les paramètres ppv

X

,tpr

X

,tnr

X

en fonction du seuil, ainsi que la courbe roc

X

et son aire associée auc

X

.

s

X

= max{s:tnr(s)≥X%} ppv

X

=ppv(s

X

)

roc

X

={(tpr(s),1−tnr(s)) :s∈N,tnr(s)≥X%} tpr

X

=tpr(s

X

)

auc

X

=

Z

roc

X

×100/(100−X) tnr

X

=tnr(s

X

)

Afin d’illustrer la nécessité d’une telle mesure focalisée sur les premiers rangs, on peut citer l’exemple

d’un classificateur qui récupère la moitié des cibles positives très bien classées, et l’autre moitié très mal

classées. Un tel classificateur aurait une AUC proche de 0.5, qui ne le distingue pas d’un classificateur

aléatoire. Cependant un tel classificateur a un intérêt réel dans la pratique car il apporte une information

dès les tous premiers éléments du classement. Cette situation est courante avec les différentes méthodes

de prédiction de cibles, c’est pourquoi nous privilégierons les auc

75

ou auc

90

pour évaluer les différents

résultats. La figure 4schématise un tel exemple.