• Aucun résultat trouvé

Chapitre 4 Méta-analyse de données de survie: Nouvelle méthodologie Gr-RSMT

4.2 Approche par données individuelles

4.2.2 Régression de Poisson

La régression de Poisson est essentiellement utilisée dans la modélisation des tableaux de contingence et peut être appliquée aux données de survie via une transformation exponentielle [109]. Ceci repose sur l’intégration de la fonction de survie par des modèles linéaires appliqués à une série d’intervalles de temps [110]. La largeur d’intervalle la plus communément utilisée est un an [111]. Cette approche a pour avantage de déterminer le taux de hasard ce qui permet de calculer la différence de risque et le number needed to treat (nombre de patients à traiter pour prévenir un nouvel évènement adverse), données pertinentes en clinique [112].

4.2.3 Limites

La validation des deux approches repose sur deux suppositions statistiques, qui ne sont pas toujours valables pour la réalité de la littérature médicale.

Les modèles de Cox assument que le hasard est proportionnel tout au long du suivi. Ceci n’est pas toujours vrai dans le domaine de la recherche médicale, car il est fréquent que les courbes de survie convergent ou même se croisent [113 114]. La présomption d’un hasard constant le long du suivi est inappropriée en recherche médicale [115]. Le hasard dérivé par cette approche

devient biaisé dans ces conditions et dépend de la longueur du suivi [116] et le log rank test perd ainsi toute sa puissance statistique [117].

En fractionnant la courbe de survie en plusieurs intervalles de temps, la régression de Poisson assume que la fonction de survie tend vers un modèle linéaire dans chacun de ces intervalles. Ceci est réaliste seulement si les intervalles sont définis par la survenue d’un évènement, ce qui rend l’intégration de ce nombre infini de fonctions linéaires quasi impossible même en ayant recours à des logiciels aussi puissants tels que R (R Core Team, Auckland, New Zealand) [118]. En assumant la linéarité, la régression de Poisson sous-estime aussi la variance de la fonction de survie et sous-estime donc par conséquent l’hétérogénéité induisant de gros biais dans les résultats surtout si la majorité des évènements se produisent à un time-point donné [119]. Les deux approches partagent aussi une autre limite qui est la nécessité d’utiliser des logiciels dédiés et le recours à une expertise poussée en statistique ce qui limite leur utilisation.

4.3 Méthodes graphiques

Devant la complexité des approches sus-citées, les limites des suppositions statistiques sur lesquelles elles se basent et les avantages de méta-analyses portant sur des données individuelles de patients plutôt que sur les agrégats, il est apparu un intérêt particulier lors de la dernière décade pour développer des approches d’extraction de données individuelles par méthodes graphiques.

4.3.1 Méthodes

Ouwens et al. [120] et Jansen et al. [121] sont les premiers à avoir utilisé graphiquement les courbes de survie en faisant appel à des logiciels de digitalisation. Leur approche était d’extraire des données de survie en certains time-points pour faire une approximation de la fonction de survie. Cependant, ceci ne tient pas compte du nombre de patients à risque ni du nombre de censures rendant cette approche rapidement désuète [122].

Guyot et al [122] ont développé un algorithme en langage R (R Core Team, Auckland, New Zealand) pour pouvoir imputer le nombre de patients à risque et les censures à partir du nombre d’évènements rapportés ainsi que les patients à risque au début et à la fin de l’étude. Une fois le nombre de patients à risque et les censures calculés, les évènements sont extraits par un logiciel

de digitalisation à partir des graphiques publiés dans les diverses études. Ces données sont compilées par l’algorithme qui permet la construction de nouvelles courbes qui sont vérifiées et comparées visuellement aux courbes originales. Cette approche a été validée sur six différentes courbes avec une erreur moyenne de la fonction de survie de 0,103 % et de la survie médiane de 1,1 %.

4.3.2 Limites

Deux limites sérieuses sont à déplorer pour cette approche prometteuse. Premièrement, l’imputation du nombre de patients à risque et des censures n’est pas toujours valide. En procédant à plusieurs simulations pour adopter cette approche, nous avons constaté qu’en absence du nombre total d’évènements ou du nombre des patients à risque à un time-point autre que 0, l’algorithme produit une imputation de censures de très mauvaise qualité et a tendance à surestimer l’effet. Ces constatations sont d’ailleurs partagées par d’autres auteurs [123]. Deuxièmement, la vérification des courbes reconstruites se fait de façon visuelle sans aucun critère objectif, ceci peut entacher la validité de cette approche.

4.4 Méthodologie développée 4.4.1 La méthode

On a pris en considération les limites de l’approche de Guyot el al. [122] et on s’est fixé comme but de développer une nouvelle approche graphique ne se basant sur aucune supposition ou imputation statistiques et qui serait vérifiable de façon objective.

Plusieurs étapes de réflexion ont été nécessaires à la mise en place de cette approche :

1) Le choix d’utiliser une approche graphique était motivé par la performance de ces approches à extraire les données individuelles de patients permettant de réaliser des méta-analyses plus robustes.

2) Par la nécessité de sursoir à toute imputation statistique, il a été décidé d’extraire aussi bien les évènements que les censures à partir des courbes de survie. Par conséquent, seules les études qui rapportent les patients à risque et les censures ont été sélectionnées. 3) Les logiciels jusque là utilisés pour la digitalisation des courbes de survie n’étaient pas performants pour extraire les censures. Nous avons fait appel au logiciel Digitizelt

(Digitizelt ®, Braunschweig, Germany) pour extraire ce type d’information. Ce logiciel peut séparer la courbe en plusieurs parties, les agrandir et permet d’extraire les évènements et les censures avec une grande précision (Figure 2). Lorsque l’extraction des censures est incomplète, le reste des censures est affecté à la borne supérieure de l’intervalle.

Figure 2 : Extraction d’un évènement (flèche rouge) et d’un point de censure (flèche bleue) par Digitizelt®.

À droite de la figure, le time-point et la valeur de la fonction de survie correspondante pour chaque type d’évènements (encadré rouge pour l’évènement, bleu pour la censure.

4) Une fois tous les évènements et les censures extraits, un tableau de survie usuel est constitué et la courbe de survie est construite sans aucune imputation statistique ou algorithme d’inférence.

5) Nous avons réfléchi à une méthode objective pour comparer la courbe reconstruite à la courbe originale en faisant appel à la notion du restricted mean survival time (RMST). Le RMST se définit comme l’aire sous la courbe de survie. L’aire sous la courbe est calculée selon la loi des trapèzes (Figure 3). Ainsi, aussi bien la courbe de survie originale que reconstruite sont partagées en trapèzes dont le nombre dépend du nombre de valeurs de la fonction de survie rapportées dans l’étude. Seules les études rapportant au moins deux valeurs de survie sont incluses. Le nombre de trapèzes et la durée de l’intervalle temps qu’ils couvrent sont les mêmes pour les deux études. Le calcul est fait à l’aide de logiciels statistiques qui offrent cette fonctionnalité comme SAS (SAS Institute, Cary, NC, United States).

6) Un ratio de RMST est calculé et doit être supérieur à 0.98 pour que la courbe soit valide. 7) Une fois la courbe validée, les données extraites (évènements et censures) sont combinées aux données des autres courbes pour constituer un tableau de survie de la méta-analyse.

8) Une fois le tableau de survie de la méta-analyse constitué, les courbes de survie de toute la cohorte incluse dans la méta-analyse peuvent être construites, et les tests non paramétriques de données de survie tels que les log-rank test ou la régression de Cox peuvent être appliqués.

Documents relatifs