• Aucun résultat trouvé

reporting des études évaluant un délai diagnostique

3.2 Deuxième étape de validation

Avertissement : nous présentons les résultats préliminaires après 2 relances des auteurs de revues systématiques et une première invitation des auteurs d’études primaires (au 3 octobre 2015).

Quatre-vingt dix-huit auteurs de revues systématiques et quatre-vingt sept auteurs d’études primaires ont été sollicités. Vingt-neuf auteurs de revues systématiques (30%) et sept auteurs d’études primaires (8%) ont répondu à au moins une des questions. Parmi les 36 auteurs

Partie I – Chapitre 3

items. Tous les items ont été jugés pertinents par 24 experts ou plus (86% des répondants) et 18 des 21 items ont été jugés pertinents par plus de 90% des répondants. Tous les items ont été jugés intelligibles par 23 experts ou plus (85% des répondants) et 15 items ont été jugés lisibles par plus de 90% des répondants. Les commentaires des experts visaient dans l’ensemble à demander des explications plus détaillées dans le document joint notamment pour les items 1, 9 et 19B (Tableau 6, page 112). Vingt-trois des vingt-six auteurs ayant répondu à cette question ont mentionné qu’ils utiliseraient potentiellement la checklist pour la rédaction d’un futur article. Trois auteurs ont commenté que l’Aarhus statement leur semblait plus adapté à leur champ d’exercice.

3.3 Version finale de la checklist

Nous n’avons pas modifié la checklist à ce stade par rapport à la version soumise aux experts de la deuxième étape de validation (Tableau 6, page 112) car tous les items ont été jugés pertinents et intelligibles par une large majorité des experts. Nous allons ajouter des précisions dans le document explicatif puis soumettre ce document et la checklist pour une ultime validation auprès du comité scientifique.

4. Discussion

Nous proposons une reporting guideline de 21 items pour guider les auteurs dans la rédaction des études primaires investiguant un délai diagnostique. Ces items ont été validés par des experts internationaux dans le domaine de la méthodologie de la recherche, de l’épidémiologie ou des délais diagnostiques et des auteurs de revue systématique sur les délais diagnostiques. Cette reporting guideline insiste sur les points considérés comme clés avec 6 items dédiés au reporting du processus de sélection de la population avec une proposition de diagramme de flux (items 3-6, 14-15 du Tableau 6, page 112), 6 items dédiés au reporting de

Partie I – Chapitre 3

la définition et de la mesure du délai diagnostique et éventuellement du retard diagnostique (items 7-10, 16-17).

La méthodologie utilisée pour mettre au point cette checklist a suivi les recommandations du réseau EQUATOR avec un travail préalable d’analyse de la littérature et de réflexion sur les risques de biais et d’obstacles à la transportabilité de ce type d’étude. Cependant, nous n’avons pas pris l’option pour la validation de la checklist de la discussion lors d’une réunion présentielle, comme cela a été fait pour STARD, STROBE ou CONSORT, pour des raisons de faisabilité.(47,118,178) La proposition d’un premier tour de sondage anonyme auprès du comité scientifique a pu permettre une expression plus indépendante des différents experts sans risque d’influence ou d’argument d’autorité. Nous avons choisi de procéder à une validation en 2 étapes afin de renforcer dans un premier temps la légitimité des items sélectionnés en les soumettant à des experts dans le domaine de la méthodologie. L’utilisation d’une méthode de validation par un comité restreint d’experts avait également été celle choisie pour la mise au point de la Research Triangle Institute bank of bias. En effet, nous n’avons pu faire la démonstration de l’existence de biais reliés à certains items. Comme nous l’avons évoqué précédemment, une telle démonstration nécessiterait de pouvoir comparer les résultats d’un grand nombre d’études ne variant que sur le point méthodologique associé au risque de biais à démontrer (caractère systématique ou non de la procédure diagnostique, ou évaluation du délai diagnostique par des experts à l’aveugle ou non de l’issue par exemple) et dans un contexte de soin similaire. Etudier la variabilité des délais calculés dans plusieurs études en fonction de variations méthodologiques ponctuelles est donc probablement impossible. La deuxième étape de validation nous a permis de confronter les items révisés à un public moins averti et peut-être plus proche des connaissances habituelles en méthodologie d’un auteur susceptible d’utiliser notre guideline. Cette étape de validation

Partie I – Chapitre 3

guideline puisque sur les 28 répondants à ce jour, tous les items étaient jugés intelligibles par

au moins 85% des répondants.

Le réseau EQUATOR propose que les items soient validés par une méthode de consensus type Delphi*. La première étape de validation est inspirée de cette méthode avec un premier tour anonyme, à l’issue du premier tour une large majorité des items (20/25) était jugée pertinente par 7 experts ou plus et seulement 3 étaient jugés non pertinents par au moins la moitié des experts. Les principales suggestions de modifications concernaient l’intelligibilité. Plutôt que de resoumettre un à un les items selon la méthode Delphi, nous avons alors choisi une validation globale à l’issue d’une discussion ouverte et non anonyme au fur et à mesure des modifications des items. Nous avons pu ainsi obtenir un accord de tous les experts ce qui n’aurait pas forcément été le cas avec une méthode Delphi. En effet l’expérience de Philipps et coll qui avait soumis à une validation par méthode Delphi les items composant une reporting guideline pour les études évaluant les interventions d’éducation à la pratique fondée sur les preuves (evidence based) (GREET) avait échoué à obtenir le taux de consensus fixé a priori de 80%. Une des limites de notre méthode par rapport à la méthode Delphi est cependant que certains experts étaient plus actifs que d’autres dans la discussion.

Lors des discussions avec le comité scientifique plusieurs auteurs nous ont suggéré de proposer une conducting guideline pour aider les investigateurs à construire une étude sur les délais diagnostiques plutôt qu’une reporting guideline. En effet, le concept des études sur les délais diagnostiques peut paraître difficile à appréhender pour les spécialistes des essais randomisés ou des études observationnelles au design plus conventionnel de type étude de cohorte ou cas/témoins. Le document explicatif que nous avons joint à la reporting guideline (cf. Figure 10, page 114) permet de préciser certaines notions propres aux études sur les délais diagnostiques avec des exemples comme la définition du délai et des sous-délais ou

Partie I – Chapitre 3

l’importance du processus de sélection avec l’exemple de diagramme de flux (cf. Figure 9, page 113). Ce document ne se substitue pas à une conducting guideline mais peut permettre de sensibiliser les investigateurs d’études sur les points méthodologiques importants à prendre en considération lors de construction d’une étude sur les délais diagnostiques.