• Aucun résultat trouvé

Schéma stepped wedge : modélisation et analyse de données

N/A
N/A
Protected

Academic year: 2021

Partager "Schéma stepped wedge : modélisation et analyse de données"

Copied!
78
0
0

Texte intégral

(1)

Schéma Stepped Wedge

: Modélisation et Analyse

de données

Mémoire

Ghizlane Messaoudi

Maîtrise en statistique - avec mémoire

Maître ès sciences (M. Sc.)

(2)

Schéma Stepped Wedge

Modélisation et Analyse de données

Mémoire

Ghizlane Messaoudi

Sous la direction de:

Louis-Paul Rivest, directeur de recherche France Légaré, codirectrice de recherche

(3)

Résumé

Ce mémoire a pour objectif principal de présenter des méthodes pour analyser les données pro-venant d'un essai clinique stepped wedge. On introduit des méthodes qui traitent les données individuelles ainsi que les données agrégées. Chaque méthode est illustrée avec des données provenant d'un essai clinique qui porte sur l'implantation d'un programme de formation à la prise de décision partagée dans une équipe interprofessionnelle. L'objectif secondaire de ce mémoire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. À cette n, des simulations ont été réalisées sous le logiciel R. Les résultats indiquent qu'il n'y a pas une méthode qui est supérieure à l'autre. Le choix de la méthode dépend du contexte de l'étude.

(4)

Abstract

This research paper aims initially to present methods to analyse data from a stepped wedged clinical trial. We introduce methods that process both individual and aggregated data. Each method is exposed using data taken from a clinical trial based on the implementation of shared decision-making training program within an interprofessional team. As its secondary objective, this research paper provides a performance assessment on the comparison tests of two treatments studied within a stepped wedge using the Monte Carlo methods. On this note, simulations were executed using the R software. The results indicate that there is no method that is universally superior to the other. The choice of method depends on the context of the study.

(5)

Table des matières

Résumé ii

Abstract iii

Table des matières iv

Liste des tableaux vi

Liste des gures vii

Remerciements ix

Introduction 1

1 Essai clinique 2

1.1 Essai clinique . . . 2

1.2 Essai clinique randomisé . . . 3

1.3 Stepped wedge . . . 6

1.4 Objectifs du mémoire . . . 7

2 Présentation du modèle statistique de base pour les schémas stepped wedge 8 2.1 Description des données et construction du modèle . . . 8

2.2 Analyse des données agrégées . . . 9

2.3 Étude du test pour H0 : θ=0 par la méthode de Monte Carlo . . . 15

3 Des méthodes robustes pour le traitement des données agrégées 18 3.1 Méthode non-paramétrique : tests de permutation . . . 18

3.2 Méthode semi-paramétrique . . . 21

3.3 Application : étude des décisions de relocalisation chez les personnes âgées . 24 4 Le traitement des données désagrégées 30 4.1 Construction du modèle . . . 30

4.2 Simulation . . . 33

4.3 Présence des facteurs de confusion . . . 36

Conclusion 39

(6)

B Données agrégées : méthode non et semi paramétrique 43 C Données désagrégées : simulations et calcul de puissance 50 D Données désagrégées avec une présence d'un facteur de confusion :

simulations et calcul de puissance 58

E Sorties R 62

(7)

Liste des tableaux

2.1 Seuil nominal (ˇα lorsque θ=0) et puissance (1- ˇβ lorsque θ6=0) pour le cas d'une

grappe par séquence. . . 16

2.2 Seuil nominal (ˇα lorsque θ=0) et puissance (1- ˇβ lorsque θ6=0) pour le cas de deux grappes par séquence. . . 16

3.1 Tableau de fréquences des traitements associés aux périodes j et k. . . 23

3.2 Tableau de fréquences des traitements associés aux périodes 2 et 3. . . 23

3.3 Tableau de fréquences des traitements associés aux périodes 2 et 4. . . 24

3.4 Tableau de fréquences des traitements associés aux périodes 3 et 4. . . 24

3.5 L'estimation de l'eet de la formation et les intervalles de conances à 95%. . . 28

3.6 Les matrices de variance covariance et de corrélation estimées pour les périodes 2,3 et 4. . . 29

4.1 L'estimation de l'eet de la formation, les P.value , les intervalles de conance, les déviances et les variances. . . 32

4.2 Modèle réduit : seuil nominal (ˇα lorsque θ=0) et puissance (1- ˇβ lorsque θ6=0) pour le cas des données individuelles. . . 33

4.3 Modèle complet : seuil nominal (ˇα lorsque θ=0) et puissance (1- ˇβ lorsque θ6=0) pour le cas des données individuelles. . . 35

4.4 L'estimation de l'eet de la formation (θ), l'eet du sexe(ζ ), l'eet de l'inter-action (ξ) ainsi que les P.values. . . 36

4.5 Modèle avec présence d'un facteur de confusion : seuil nominal (ˇα lorsque ξ=0) et puissance (1- ˇβ lorsque ξ6=0) pour le cas des données individuelles. . . 37

(8)

Liste des gures

1.1 Étude parallèle avec six grappes utilisées pour comparer deux traitements . . . 4

1.2 Étude parallèle avec baseline où six grappes sont utilisées pour comparer deux traitements . . . 5

1.3 Étude chassé-croisée (crossover) où six grappes sont traitées . . . 5

1.4 Étude d'un Stepped wedge avec 4 grappes et 5 périodes . . . 6

2.1 Schéma d'un step wedge avec I=4 groupes et T =5 périodes . . . 12

2.2 La puissance en fonction de θ pour le cas de données agrégées. . . 16

3.1 Le schéma Stepped wedge de l'essai clinique de l'aide à la décision partagée. . . 26

3.2 Les proportions de proches aidants estimant avoir joué un rôle actif dans la prise de décision concernant la relocalisation de l'ainé. . . 26

3.3 Le nombre de proches aidants contactés à chaque grappe-période. . . 27

3.4 Les boxplots de la proportion du rôle assumé positif groupés par intervention . 27 3.5 L'histogramme, la densité et le boxplot des estimations de θ pour B=1000 per-mutations. . . 28

4.1 Modèle réduit : la puissance en fonction de θ pour le cas de données désagrégées. 34 4.2 Modèle réduit et modèle complet : la puissance en fonction de θ pour le cas de données désagrégées. . . 35

(9)

À ma mère, mon père, mes s÷urs Houda et Ibtissam, Essaddik, mes amis et tous ceux qui me sont chers.

(10)

Remerciements

Au terme de ce travail, je tiens à exprimer ma gratitude à Monsieur Louis-Paul Rivest, mon directeur de recherche, pour avoir accepté d'être mon encadrant, et aussi pour son soutien, sa compréhension et ses directives qui m'ont été utiles. Je remercie également Madame France Légaré, ma co-directrice de recherche, et son équipe pour leur collaboration précieuse. Je tiens à remercier davantage et j'exprime ma reconnaissance au corps professoral de l'Institut National de Statistique et d'Économie Appliquée de Rabat et du Département de mathéma-tiques et de statistique de l'Université Laval.

Mes derniers remerciements vont à Ariane Boivin pour sa collaboration. Merci pour le pro-gramme C++ et les résultats du package TMB.

(11)

Introduction

Les essais cliniques randomisés sont utilisés pour l'évaluation des interventions en santé. Ils servent à comparer deux ou plusieurs traitements an d'établir leurs impacts sur la variable d'intérêt. La randomisation des unités expérimentales aux traitements permet une interpréta-tion causale : les résultats obtenus sont représentatifs des traitements étudiés. La randomisa-tion peut se faire soit par sujet soit par groupe de sujets. Quand la randomisarandomisa-tion individuelle n'est pas possible pour des raisons logistiques, nancière ou éthiques on recourt à une rando-misation par grappes.

Un stepped wedge est un essai randomisé par grappes qui se déroule sur plusieurs périodes. L'objectif d'un essai clinique randomisé par grappe et par étape est d'étudier l'impact d'une intervention sur certaines variables d'intérêt en comparant deux groupes : un traité et un non-traité. À chacune des périodes, un ensemble de grappes reçoit l'intervention. Une fois qu'une grappe a eu l'intervention, elle reste traitée jusqu'à la n de l'expérience. À la dernière période, toutes les grappes ont reçu le traitement. On cite, à titre d'exemple d'un essai clinique utilisant un schéma stepped wedgeGerritsen et al.(2011). Le but de cette étude était d'évaluer l'impact d'un programme de soins multidisciplinaires sur la dépression chez les résidents des maisons de soins inrmiers. Ces dernières représentent l'unité de la randomisation. Le schéma stepped wedge a été choisi pour deux raisons : premièrement, le nombre d'unités disponibles était faible. Deuxièmement, il était impossible de mettre en ÷uvre le programme simultanément dans la moitié des unités participantes (Woertman et al. (2013)) ce qui rend un schéma en parallèle impossible à réaliser.

Le premier chapitre de ce mémoire fait un bref historique des essais cliniques randomisés en donnant quelques exemples. Les chapitres suivants présentent des méthodes pour analyser les données provenant d'un essai clinique randomisé par grappe et par étape. Le deuxième chapitre traite du modèle de base de Hussey et Hughes pour le cas des données agrégées et donne des formules pour le calcul de la taille d'échantillon. Le troisième chapitre présente des méthodes non-paramétriques et semi-paramétriques qui sont robustes à des violations des hypothèses subjacentes du modèle de chapitre 2. Le dernier chapitre porte sur l'analyse des données désagrégées.

(12)

Chapitre 1

Essai clinique

L'étude clinique est devenue une démarche indispensable au traitement d'une maladie. Avant de proposer un nouveau médicament, il faut être sûr de son ecacité et bien cerner les situa-tions où il est contre indiqué. De ce fait, des études cliniques sont nécessairement faites avant la mise en ÷uvre d'un nouveau traitement. Dans cette première partie nous présentons la dé-nition des essais cliniques en donnant quelques exemples. Puis, dans une deuxième partie, nous abordons les essais cliniques randomisés et leurs objectifs ; nous introduisons deux formes de randomisation possibles : la randomisation individuelle et la randomisation par grappe. Nous exposons aussi quelques plans connus comme l'approche parallèle et le crossover. Enn, dans une troisième partie nous traitons le plan d'expérience stepped wedge ainsi que des objectifs et des avantages à l'utilisation d'un tel essai.

1.1 Essai clinique

On peut dénir une étude clinique comme une expérience au cours de laquelle on teste sur des êtres humains l'exactitude ou non d'une hypothèse décrite dans le protocole d'étude. Souvent les essais cliniques sont utilisés pour déterminer l'ecacité ainsi que les eets secondaires d'un médicament, ils sont aussi utilisés pour étudier l'impact d'un changement organisationnel, d'un traitement ou d'une méthode diagnostique tout en le comparant avec une méthode de référence. Généralement, l'accord des autorités de santé et de comités d'éthique là où l'étude sera eectuée est nécessaire pour sa réalisation.

Exemple d'essais cliniques

Le concept des essais cliniques apparaît en 1025 après Jésus-Christ1, il est introduit par

le philosophe et médecin d'origine perse Ibn Sina dans son ouvrage Kitab Al Qanûn fi Al-Tibb , livre des lois médicales. Grâce à ces essais cliniques plusieurs chercheurs ont

(13)

réussi à vérier leurs hypothèses comme, par exemple, le médecin édimbourgeois James Lind qui a démontré en 1747 que les agrumes peuvent soigner le scorbut2.

On retrouve dans la littérature scientique des références à plusieurs essais cliniques. À titre d'exemple on mentionne Chaulet and Boulahbal(1995) qui étudie la combinaison en propor-tions xes de trois médicaments dans le traitement de la tuberculose. L'objectif de l'essai est de comparer l'ecacité d'une association de trois médicaments antituberculeux, à l'adminis-tration des trois médicaments séparément. On cite aussi l'essai mené par Légaré et al.(2016) an d'étudier l'eet de l'implémentation d'une formation interprofessionnelle sur la prise de décision concernant la relocalisation des personnes âgées.

1.2 Essai clinique randomisé

On considère dans ce travail des essais cliniques comparant deux traitements, le premier re-présente une nouvelle façon de procéder alors que le deuxième dénote la façon standard. Un essai clinique randomisé est une expérience où un nouveau sujet est assigné de façon aléa-toire à un des deux bras de l'étude. Le premier bras représente le groupe traitement qui subit l'intervention tandis que le deuxième représente le groupe de contrôle qui sert de référence. Objectif d'un essai clinique randomisé

L'objectif d'un essai randomisé est d'établir une relation de cause à eet. Pour atteindre cet objectif il faut respecter quelques règles, à titre d'exemple, faire l'expérience à double insu lorsque cela est possible, c'est-à-dire qu'à la fois les intervenants et les participants ignorent le bras du traitement auquel le participant est assigné.

Type de randomisation

La randomisation peut se faire soit par sujet soit par groupe de sujets. On parle d'une ran-domisation individuelle lorsque chaque individu est assigné indépendamment des autres à un bras de l'essai.

Pour certaines études la randomisation individuelle n'est pas possible, donc on recourt à la randomisation par grappe. Un essai clinique randomisé par grappes est un essai dans lequel on ne randomise pas individuellement des sujets, mais des groupes de sujets qu'on appelle des grappes. Bien souvent, on randomise par grappe quand les individus appartenant aux mêmes grappes reçoivent le traitement en même temps, donc l'intervention testée ne s'applique pas au niveau individuel, mais plutôt à un échelon supérieur. Prenant l'exemple de l'essai clinique traité par Donner et al. (1998), dont le but est de tester l'ecacité d'un nouveau programme de prise en charge prénatale ; la randomisation est faite au niveau des hôpitaux même si en principe ce sont les médecins qui subissent l'intervention. En eet, étant donné

(14)

que les médecins du même hôpital travaillent dans le même environnement, ils vont avoir des comportements semblables. En plus, les recommandations données par un médecin aux patients qui ont le même prol risquent d'être semblable dans un hôpital donné. À cet eet, l'unité de randomisation la plus logique est l'hôpital. Une autre raison qui peut conduire à randomiser par grappe est la crainte d'une contamination entre les grappes que l'on compare. En eet, des interactions et des discussions entre les sujets des deux grappes (bras expérimental et bras témoin) pourraient contaminer le bras témoin. En considérant l'exemple précédent, les médecins qui ont subi la formation peuvent contaminer ceux qui ne l'ont pas subi. La présence d'une contamination a les conséquences suivantes : premièrement, un eet de traitement estimé qui est biaisé, deuxièmement, une dépendance des deux échantillons qui fait en sorte que les hypothèses statistiques sous-jacentes au test réalisé ne sont plus vériées. Pour plus de détails sur l'essai clinique randomisé par grappes voir l'article de Giraudeau (2004).

La caractéristique des essais randomisés par grappes est que les unités provenant de la même grappe sont corrélées. En raison de la présence de la corrélation intra-grappe positive -vu que les unités d'une même grappe sont souvent semblables- la puissance dans un essai randomisé en grappes dépend plus de nombre de grappes que du nombre de sujets dans chaque grappe. Lorsque le nombre de grappes est limité, il est plus intéressant d'utiliser des nouvelles structures d'expériences comme une structure parallèle, crossover ou stepped wedge.

Quelques exemples d'essais cliniques randomisés par grappes

Il existe diérentes structures d'essais cliniques randomisés par grappes. La gure 1.1 illustre une structure en parallèle dans laquelle chaque groupe reçoit un seul traitement.

Figure 1.1  Étude parallèle avec six grappes utilisées pour comparer deux traitements La structure parallèle peut contenir deux points de temps tel qu'illustré dans la gure 1.2, le premier point de temps correspond à une mesure de référence (baseline) où les six grappes de l'étude ne reçoivent pas l'intervention, alors qu'au deuxième temps les grappes sont

(15)

randomi-sées à un des deux traitements.

Figure 1.2  Étude parallèle avec baseline où six grappes sont utilisées pour comparer deux traitements

Dans une étude chassée-croisée (crossover) toutes les grappes sont soumises aux deux traite-ments tel qu'illustré dans la gure 1.3 ; il s'agit d'une étude où les grappes sont initialement randomisées à un traitement puis elles changent pour l'autre traitement après une période de temps prédéterminée, cela permet de comparer la réponse de la grappe sous les deux traite-ments. Un crossover nécessite moins de grappes que le modèle parallèle ce qui est avantageux mais en contrepartie il dure deux fois plus de temps. En plus, vu que les mêmes sujets sont utilisés dans les diérents traitements expérimentaux, il est possible qu'un traitement précé-dent inuence le résultat du traitement ultérieur, ceci est connu comme un eet de report (carry-over eect).

Figure 1.3  Étude chassé-croisée (crossover) où six grappes sont traitées

(16)

pé-riodes. Au début, aucune grappe ne reçoit l'intervention, ensuite l'intervention est implémentée séquentiellement dans chacune des grappes selon un ordre établi au hasard.

Figure 1.4  Étude d'un Stepped wedge avec 4 grappes et 5 périodes

1.3 Stepped wedge

Cette section présente les schémas stepped wedge, aussi appelé essai clinique randomisé par grappe et par étape en français. Leur objectif consiste à comparer deux méthodes, une standard et l'autre nouvelle ; par exemple elle permet d'étudier l'impact d'un changement organisation-nel sur le fonctionnement d'un organisme.

Pour une étude stepped wedge la 1ère période correspond généralement à une mesure de référence où aucune grappe ne reçoit l'intervention. Au temps suivant, des grappes subissent l'intervention tel qu'illustré dans la gure 1.4. Une fois l'intervention mise en ÷uvre il n'est plus possible de revenir en arrière, à titre d'illustration, la première grappe de la gure 1.4 reçoit l'intervention au temps 2 et reste traitée jusqu'à la n de l'expérience.

Un des désavantages d'un stepped wedge est que l'eet de traitement et l'eet de temps sont partiellement confondus. De plus, en comparant les trois études on remarque que dans la gure 1.4 on a 5 périodes alors que dans les gures 1.2 et 1.3 on n'en a que deux ce qui souligne qu'un stepped wedge nécessite plus de temps. Malgré cela, on peut recourir à une étude stepped wedge pour éviter les contraintes nancières et logistiques. Parfois avec des ressources limitées ou des contraintes géographiques il devient impossible d'appliquer l'intervention sur la moitié ou sur un grand nombre de grappes. Avec un stepped wedge le recrutement devient plus facile vu qu'il permet de mettre en ÷uvre l'intervention dans une fraction plus petite des grappes à chaque temps comparé aux méthodes des gures 1.2 et 1.3. En plus, on peut faire des comparaisons entre grappes et au sein de chaque grappe vu que chacune reçoit les deux traitements durant l'étude. Enn, un stepped wedge permet de faire un suivi des unités traitées et d'étudier si le temps écoulé depuis l'intervention a une inuence sur son ecacité3.

(17)

1.4 Objectifs du mémoire

les objectifs de ce mémoire sont structurés comme suit. L'objectif général est la présentation de quelques méthodes qui servent au traitement des données provenant d'un essai clinique randomisé par grappe et par étape. L'objectif secondaire est d'évaluer la performance des tests de comparaison des deux traitements étudiés dans un stepped wedge à l'aide des méthodes de Monte Carlo. Les études de simulation permettent de générer des données partiellement synthétiques où les vraies valeurs des paramètres sont connues, ce qui constitue un avantage essentiel pour évaluer objectivement la performance des tests de comparaison. Une analyse partielle des données agrégées et individuelles d'un schéma stepped wedge particulier a eu lieu. Pour une meilleure illustration des méthodes présentées, ce travail a été motiver par une application sur des données réel provenant de l'essai clinique mené parLégaré et al. (2016).

(18)

Chapitre 2

Présentation du modèle statistique de

base pour les schémas stepped wedge

Tel que mentionné au chapitre 1, l'objectif d'une analyse stepped wedge consiste à comparer deux méthodes, une standard et l'autre nouvelle. On cherche à étudier l'eet de la mise en place d'une nouvelle prescription ou d'une nouvelle méthode pour accomplir une tâche. En 2007, Hussey et Hughes ont proposé un modèle pour traiter les données des stepped wedge et étudier l'impact d'un changement organisationnel sur un ensemble de variables dépendantes. Dans ce chapitre, nous décrivons ce modèle statistique de base en explicitant les hypothèses ainsi que les diérentes composantes du modèle. Nous introduisons, par la suite, d'une manière synthétisée le calcul de la taille d'échantillon et nous nissons par une étude par simulation de la performance du test de comparaison de deux traitements.

2.1 Description des données et construction du modèle

Ici, nous considérons une étude avec I grappes, T périodes de temps et N individus par grappe par période. La variable d'intérêt Yijk représente la réponse du keindividu au temps j dans la

grappe i avec :     

i = 1, ..., I indice des grappe.

j = 1, ..., T indice de la période de temps. k = 1, ..., N indice de l'individu.

Tel que mentionné au chapitre 1, les unités de la randomisation sont les grappes attribuées à des séquences diérentes. Pour T périodes, on trouve t=T -1 séquences qui dépendent du temps où les grappes subissent le traitement. Chaque séquence contient un nombre de grappes g ce qui implique que le nombre total de grappes est un multiple du nombre de séquences I=(T -1)×g=t×g.

(19)

leur article publié en 2007Hussey and Hughes(2007). Leur approche a été suggérée pour des variables continues et utilise un modèle linéaire mixte :

Yijk = µij+ eijk, i = 1, ..., I; j = 1, ..., T ; k = 1, ..., N ; (2.1)

µij = µ + αi+ βj+ Xijθ, (2.2)

et

 µ : L'ordonnée à l'origine qui représente la moyenne de la population pour les non traités, c'est un eet xe, non aléatoire (c'est l'eet général).

 αi : L'eet aléatoire de la grappe i qui suit la loi normale, centrée et de variance τ2, αi

∼ N(0,τ2).

 βj : L'eet xe du temps j (j =1,...,T -1) ; avec βT=0 pour assurer l'identiabilité des

paramètres).

 Xij : L'indicateur de traitement pour la grappe i au temps j.

(

0 : Témoin. 1 : Intervention.  θ : L'eet du traitement.

 Le terme d'erreur individuel eijk suit la distribution normale, centrée et de variance σ2e

(eijk ∼N(0,σe2)).

Le modèle (2.1) traite les variables réponses de type continu tandis que pour le cas des va-riables dichotomiques nous utilisons des modèles linéaires généralisés avec le lien logit. En eet, l'approche de Hussey et Hughes s'étend aux modèles linéaires mixtes généralisés pour traiter les variables binaires. En utilisant la formule suivante nous modélisons la probabilité d'avoir 1, P(Yijk=1) :

P (Yijk= 1) =

exp(µ + αi+ βj+ Xijθ)

1 + exp(µ + αi+ βj+ Xijθ)

. (2.3)

L'équation (2.3) est obtenue après transformation de l'équation ci-dessous : Logit(P (Yijk = 1)) = log



P (Yijk= 1)

1 − P (Yijk= 1)



= µ + αi+ βj + Xijθ. (2.4)

2.2 Analyse des données agrégées

En cas d'absence de covariables individuelles, le modèle peut être écrit plus simplement en agrégeant les données des grappes pour chaque période

(20)

où µij est donné par (2.2), et eij représente l'erreur moyenne dans la grappe i au temps j qui

suit la distribution N(0,σ2 = σ2

e/N). Comme nous supposons, pour le modèle (2.1), que les

eijk sont indépendantes de αi, par conséquent les eij sont indépendantes des αi.

A l'aide de l'écriture matricielle on peut reformuler le modèle (2.5) sous la forme suivante :

Y = Xη + Zγ + e, (2.6)

où :

 η=(µ, β1, β2,...,βT −1, θ) vecteur des paramètres xes, et βT=0.

 γ= (α1,...,αI) vecteur des eets aléatoires.

 X : La matrice de dimension IT ×(T +1) correspondant au vecteur η.  Z : La matrice de dimension IT ×(I) correspondant au vecteur γ.

En se rapportant à la section 2.2 de l'article deThompson et al.(2018), le modèle (2.5) suppose que les grappes sont indépendantes les unes des autres, que l'eet d'intervention et les eets de période sont communs à toutes les grappes, et que les observations sont également corrélées au sein des grappes pour toutes les périodes.

2.2.1 Estimation des paramètres

Le modèle (2.5) est un modèle linéaire mixte, alors dans le cas où les composantes de la va-riance τ2 et σ2 sont connues, on peut obtenir les estimations des eets xes en utilisant les

moindres carrés pondérés (weighted least squares (WLS)). Soit X la matrice des variables ex-plicatives de (2.6). L'estimateur des moindre carrés pondérés est ˆη= (X>V−1X)−1(X>V−1Y)

avec V une matrice diagonale par blocs de dimension IT par IT , chaque bloc T ×T de la matrice V s'écrit sous la forme suivante :

        σ2+ τ2 τ2 ... τ2 . σ2+ τ2 ... . . . ... . . . ... . τ2 . ... σ2+ τ2         .

La matrice de covariance de l'estimateur ˆη est égale à (X>V−1X)−1, l'élément T +1 de la

diagonale de cette matrice a une forme explicite donnée dans l'article deHemming and Taljaard (2016) par : V ar(ˆθ) = σ 2 e+ τ2 N I 6(1 − ρ) t − 1/t 1 + (N t + N − 1)ρ (N t/2 + N − 1)ρ , (2.7)

(21)

où ˆθ est l'élément T +1 de ˆη, et ρ représente l'indice de corrélation intra-grappe qui est égale à

ρ = τ

2

τ2+ σ2. (2.8)

Dans le cas où τ2 et σ2 sont inconnus, on cherche à les estimer à l'aide des méthodes

d'esti-mation des composantes de la variance, telle l'estid'esti-mation par maximum de vraisemblance où l'estimation par maximum de vraisemblance restreint. Pour plus de détails sur les méthodes d'estimation voir le site web1. Une fois les variances estimées, l'estimateur de maximum de

vraisemblance de η est donné par (X>Vˆ−1X)−1(X>Vˆ−1Y).

Pour un modèle de régression comprenant uniquement des eets xes, les distributions des estimateurs sont connues d'une manière exacte, par contre avec des eets aléatoires les résultats sont asymptotiques. La distribution exacte de ˆη est inconnue mais on connaît sa distribution asymptotique : lorsque le nombre de grappes par séquence tend vers l'inni ˆη suit une loi normale N(η,(X>V−1X)−1). L'estimation du dernier élément (T +1, T +1) de la matrice de

variance (X>V−1X)−1représente une estimation de la variance de (2.7) donnée par la formule :

v(ˆθ)=σˆe 2+ ˆτ2 N I 6(1 − ˆρ) t − 1/t 1 + (N t + N − 1) ˆρ (N t/2 + N − 1) ˆρ .

Après l'estimation de ˆθ et de v(ˆθ), nous xons un seuil α, et nous utilisons un test Z bilatéral an de tester l'hypothèse H0 : θ=0 (voir la section 1.3). La statistique de test s'écrit comme

suit : Z = qθ − θˆ 0 v(ˆθ) = qθˆ v(ˆθ) . (2.9)

On mentionne que la région de rejet du test est

|Z| > z1−α/2, (2.10)

où z1−α/2 dénote le quantile d'ordre (1-α/2) de la loi normale standard.

La distribution de la statistique de test Z est inconnue mais en présence d'un grand nombre de grappes elle converge en distribution vers une loi N(0,1). Ainsi le test (2.10) est basé sur une approximation valide pour de grands échantillons ; si nous désirons améliorer cette approximation, nous faisons appel aux résultats de Kenward and Roger(1997). Ces derniers présentent une statistique de Wald modiée fondée sur un estimateur ajusté de la matrice de

(22)

covariance estimée par la méthode de maximum de vraisemblance restreint, ils ont montré que cette statistique est performante pour des petites tailles d'échantillons.

2.2.2 Exemple

À des ns d'illustration, nous allons utiliser un schéma avec t= 4 séquences où chacune est constituée de g=1 grappe. Ceci donne un total de I=4 grappes. Chaque séquence fournit des données à l'analyse de chaque période de mesure, vu la relation entre le nombre des périodes et des séquences donnée par T =t+1 on a au total T =5 périodes de temps. Ce schéma est résumé à la gure 2.1 :

Figure 2.1  Schéma d'un step wedge avec I=4 groupes et T =5 périodes

En se rapportant à l'écriture sous forme matricielle, les composantes du modèle (2.6) sont :  η=(µ, β1, β2, β3, β4, θ ) le vecteur des paramètres xes.

(23)

-La matrice X associée aux facteurs xes s'écrit sous la forme suivante :

                                                     1 1 0 0 0 0 1 0 1 0 0 1 1 0 0 1 0 1 1 0 0 0 1 1 1 0 0 0 0 1 1 1 0 0 0 0 1 0 1 0 0 0 1 0 0 1 0 1 1 0 0 0 1 1 1 0 0 0 0 1 1 1 0 0 0 0 1 0 1 0 0 0 1 0 0 1 0 0 1 0 0 0 1 1 1 0 0 0 0 1 1 1 0 0 0 0 1 0 1 0 0 0 1 0 0 1 0 0 1 0 0 0 1 0 1 0 0 0 0 1                                                     

-La matrice Z associée aux facteurs aléatoires s'écrit sous la forme sui-vante :                                                         1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1                                                        

Chaque bloc de la matrice X représente une séquence contenant une seule grappe. Prenons l'exemple du premier bloc : il a 5 lignes, une pour chaque période de temps. Durant la pé-riode j=1 la grappe n'a pas été traité (X1,6=0), par contre elle a été traitée à partir de j=2

(X2,6=1), une fois l'intervention est mise en ÷uvre elle n'est plus possible de la supprimer ainsi

(X3,6=1,...,X5,6=1). Lorsqu'on change le bloc cela revient à changer la séquence, c'est-à-dire

la grappe suivante subit l'intervention mais cette fois à la période j=3. On procède de la même façon jusqu'à l'obtention de l'intervention par les quatre séquences.

2.2.3 Taille d'échantillon

L'objectif du calcul de la taille d'échantillon est de déterminer le nombre de sujets à considérer dans l'étude an de répondre à des objectifs dénis au préalable. Dans les essais randomisés en grappes l'eet de plan est utilisé pour calculer la taille eective des échantillons tout en

(24)

tenant compte de la structure du schéma expérimental utilisé pour réaliser l'étude. L'eet de plan donne l'ampleur de l'augmentation de la variance causée par l'utilisation d'un schéma ex-périmental complexe à la place d'un essai complètement randomisé. On obtient l'eet du plan à l'aide du rapport entre la variance sous le schéma expérimental complexe et celle obtenue avec un essai complètement randomisé. On fait le rapport de deux variances, la variance réelle vue dans la section 2.7 pour le plan stepped wedge et la variance d'un essai complètement randomisé.

L'étude implique I=g×t=(T -1)×g grappes, chaque grappe est de taille NT , donc l'essai est constitué de NT I sujets. Si l'expérience était complètement randomisée, NT I/2 sujets seraient assignés à chaque traitement, et selon (2.1) et (2.5) la variance de la mesure prise sur un sujet est σ2

e + τ2. L'eet du traitement ˆθ serait alors estimé par une diérence de moyennes

ˆ

θ = ¯YT R− ¯YN T,

avec

 T R : l'indice des grappes traitées.  NT : l'indice des grappes non traitées. La variance de cet estimateur est

V ar0(ˆθ) = V ar( ¯YT R) + V ar( ¯YN T) = 2V ar( ¯YT R) = 2σ 2 e+ τ2 IN T /2 = 4σ 2 e+ τ2 IN T = 4 σ 2 e+ τ2 IN (t + 1). (2.11)

En faisant le rapport des deux variances (2.7) sur (2.11) nous obtenons un eet de plan égal à : DESW = V ar(ˆθ) V ar0(ˆθ) = (t + 1) 3(1 − ρ) 2(t − 1/t) 1 + (N t + N − 1)ρ 1 + (N t/2 + N − 1)ρ, (2.12) avec :  t : nombre de séquences.

(25)

 ρ : indice de corrélation intra-grappe.

Une étude de l'eet de plan (2.12) révèle qu'il est une fonction croissante de ρ. Exemple de calcul de taille d'échantillon :

Considérons le schéma de l'exemple 2.2.2 avec t=4 séquences, θ=1, et N=10. On veut une valeur de ρ=0.05, on suppose que σ2=1 et on déduit à partir de (2.8) la valeur de τ2=0.05 et

de σ2

e=σ2×N=10.

La formule (2.12) donne un eet de plan de 3.21 : DESW = (t + 1) 3(1 − ρ) 2(t − 1/t) 1 + (N t + N − 1)ρ 1 + (N t/2 + N − 1)ρ = (4 + 1)3(1 − 0.05) 2(4 − 1/4) 1 + (10 × 4 + 10 − 1)0.05 1 + (10 × 4/2 + 10 − 1)0.05 = 3.21.

An d'obtenir la valeur de la taille d'échantillon N0 pour un essai complètement randomisé

qui assure une puissance de 80% pour un seuil de 5%, il faut d'abord calculer la taille d'eet θ/p(τ2+ σ2

e)=0.31. On peut par la suite déterminer la valeur de N0 à l'aide d'un logiciel, on

s'est servi de Gpower, voirErdfelder et al.(1996), qui nous a donné une taille de N0=180. Pour

obtenir la taille d'échantillon NSW pour un schéma step wedge on utilise la formule NSW=

N0×DESW=578. Pour calculer le nombre total de grappes, on divise NSW par N(t+1)=50 ce

qui donne 12 grappes au total. Finalement, pour déterminer le nombre de grappes qu'il faut tenir pour chaque séquence on divise NSW par N(t+1)t=200 ce qui revient à 3 grappes par

séquence.

2.3 Étude du test pour H

0

: θ=0 par la méthode de Monte

Carlo

Pour illustrer la performance du test (2.10), des simulations des données ont été réalisées à l'aide du modèle linéaire mixte (2.5). Les analyses ont été faites à l'aide du logiciel libre R et notre modèle a été mis en ÷uvre à l'aide de la fonction lmer du package lme4 Bates et al. (2015).

On a simulé les données de (2.6) pour deux cas : le premier est illustré par l'exemple 2.2.2 où on a T =5 périodes, t=4 séquences et g=1 grappe par séquence, ce qui revient à un total de I=4 grappes ; le deuxième cas est similaire au premier mais avec g=2 grappe par séquence. On a simulé 10000 échantillons pour chaque cas, cela en donnant aux paramètres les valeurs de θ=(0, 0.2, 0.3, 0.5, 0.7, 1, 1.5, 2), µ=0.05, β=(0.5, 0.1, 0.4, 0.3), on impose la contrainte d'identiabilité β5=0. Pour le ρ on a xé deux valeurs 0.05 et 0.1. On a posé σ2=1 et on a

exploité la formule (2.8) pour conclure que τ2=0.05 et τ2=0.11 respectivement. Le code R est

(26)

L'objectif général de la simulation est de vérier si le seuil réel estimé lorsque θ=0 par ˇα '

nombre.de.rejets

nombre.de.simulations est égal au seuil nominal de 5% xé pour le test (2.10) en se basant sur

des approximations asymptotiques, ainsi que de calculer sous l'hypothèse alternative θ6=0 la puissance 1- ˇβ' nombre.de.rejets

nombre.de.simulations pour visualiser comment elle varie en fonction de θ.

Les résultats des deux simulations faites sont présentés dans les tableaux et graphique ci-dessous :

θ 0 0.2 0.3 0.5 0.7 1 1.5 2

ρ=0.05 0.0926 0.1032 0.1141 0.1671 0.2279 0.3710 0.6459 0.8578 ρ=0.1 0.0944 0.0988 0.1209 0.1688 0.2248 0.3651 0.6245 0.8384

Table 2.1  Seuil nominal (ˇα lorsque θ=0) et puissance (1- ˇβ lorsque θ6=0) pour le cas d'une grappe par séquence.

θ 0 0.2 0.3 0.5 0.7 1 1.5 2

ρ=0.05 0.0639 0.0939 0.1217 0.2070 0.3397 0.5809 0.8907 0.9888 ρ=0.1 0.0843 0.1141 0.1350 0.2143 0.3450 0.5721 0.8684 0.9784

Table 2.2  Seuil nominal (ˇα lorsque θ=0) et puissance (1- ˇβ lorsque θ6=0) pour le cas de deux grappes par séquence.

(27)

Discussion :

Le tableau 2.1 donne pour le cas d'une grappe par séquence une estimation de seuil ˇα'0.0926 qui est supérieur au seuil nominal α. L'erreur type associé à cette estimation Monte Carlo du seuil s'écrit comme suit :

etM C=

r

5% × (1 − 5%)

10000 . (2.13)

Pour un taux de conance nominal de 0.95 nous obtenons etM C'0.0022, ce qui donne un

intervalle de conance à 95% de [ˇα ± 1.96etM C]=[0.0882 ; 0.0969], on conclut que α=5%

n'appartient pas à cet intervalle. Les données de la simulation ont montré que sous l'hypothèse nulle le seuil de 5% n'est pas respecté pour un ρ=0.05, on obtient la même conclusion pour ρ=0.1. Pour une meilleure illustration regardez le tableau des puissances 2.1 et la gure 2.2 ci-dessus.

An de mieux visualiser l'évolution de la puissance en fonction de θ dans le cas de deux grappes par séquence on a dressé le tableau 2.2 et le graphique 2.2 ci-dessus. La valeur de la puissance montre que pour une valeur plus élevée de θ on a une puissance supérieure à 99% chose qu'on a prévu d'obtenir dès le lancement des simulations. On aurait pu obtenir des résultats plus satisfaisants en utilisant l'approximation de Kenward and Roger(1997).

Pour évaluer l'eet de l'intervention une autre approche peut être utilisée, il s'agit du test de permutation-en utilisant un processus itératif- qui repose sur l'idée de permuter les séquences de traitements entre les diérentes grappes. Le test de permutation semble intéressant car il ne fait aucune hypothèse sur la composition des données autres que celles de l'interchangeabilité. Le postulat du test dit que sous H0 les observations doivent être échangeables. Autrement dit,

la distribution multivariée de Y reste identique même après permutation [Thompson et al. (2018) , Hughes et al.(2020)] . Ce test est étudié au chapitre suivant.

(28)

Chapitre 3

Des méthodes robustes pour le

traitement des données agrégées

Les schémas expérimentaux stepped wedge sont souvent analysés en utilisant les modèles à eets mixtes vus dans le chapitre 2. Ces modèles s'appuient sur des hypothèses concernant la structure de corrélation qui risquent de ne pas être vériées. Dans ce cas, l'inférence sur θ risque d'être erronée.

Étant donné que la structure de corrélation des données est souvent inconnue, ce chapitre présente des tests qui ne font aucune hypothèse sur cette dernière. Nous adoptons une approche intra-période, appelée comparaison verticale, telle que présentée par Thompson et al. (2018). Elle compare, sur la même période, les groupes qui ont subi l'intervention et les groupes contrôles. Les deux tests présentés dans ce chapitre traitent des réponses agrégées grappe par période Yij où i est la grappe et j est la période comme à la section 2.2. Il est à souligner

que les notations utilisées dans tout ce qui suit sont les mêmes que celles présentées dans la section 2.1 du chapitre 2.

3.1 Méthode non-paramétrique : tests de permutation

Les tests non-paramétriques, tels que les tests de permutation, permettent un choix exible de la statistique de test. Une fois la statistique choisie, une distribution de référence est obtenue en évaluant la statistique pour plusieurs permutations aléatoires des données . Le seuil observé du test est calculé en comparant la valeur de la statistique à des quantiles de cette distribution de référence. Pour appliquer les tests de permutation, il faut que l'échangeabilité des observations soit vériée sous l'hypothèse nulle. Pour les données de l'essai stepped wedge, ceci signie que les données grappe-période Yij et Yg(i)j ont la même distribution pour toute permutation g

(29)

Thompson et al. (2018) ont suggéré de combiner des comparaisons intra-période en utilisant les poids de la variance inverse. L'idée est de calculer, pour chaque permutation, la statistique de test, à savoir l'estimation de l'eet de l'intervention θ. On calcule d'abord une statistique

ˆ

θj qui compare la réponse moyenne des grappes traitées et des grappes contrôles pour chaque

période j, ensuite on construit notre statistique ˆθ en pondérant ˆθj avec l'inverse de sa variance.

Pour faire des comparaisons intra-périodes, il faut que les grappes ne soient pas toutes dans la même situation (traitée ou non). Pour cette n, ces méthodes utilisent seulement les données collectées après que la première grappe ait subi l'intervention et avant que la dernière grappe ne la reçoive.

Prenons l'exemple cité à la section 2.2.2 où on a une seule grappe par séquence avec un total de 4 grappes. Dans ce cas, le nombre de permutations possible est égal à 4 !=24. Tandis que pour le cas de deux grappes par séquences traité dans la section 2.3, le nombre de permutations possibles est de 8 2 6 2 4 2 2 2  =2520 permutations. L'algorithme de calcul de ˆθ est le suivant :

1. Calculer l'eet d'intervention spécique à la période ˆθj. L'estimateur ˆθj est la diérence

entre la réponse moyenne des grappes traitées et des grappes contrôles durant la période j : ˆ θj = 1 nj1 X i:Xij=1 Yij− 1 nj0 X i:Xij=0 Yij = ¯Yj,T R− ¯Yj,N T, (3.1) avec

 nj0 : le nombre de grappes dans la condition de contrôle à la période j.

 nj1 : le nombre de grappes dans la condition d'intervention à la période j.

 Xij : l'indicateur de traitement pour la grappe i à la période j qui prend 1 pour

l'intervention et 0 pour le contrôle.  T R : l'indice des grappes traitées.  NT : l'indice des grappes non traitées.

2. Calculer l'estimation globale de l'eet de l'intervention ˆθ. ˆθ est la moyenne des eets d'intervention par période ˆθj pondérés par l'inverse de leurs variances.

ˆ θ = T −1 X j=2 Wj W ˆ θj, (3.2) avec : W=PT −1j=2 Wj,

(30)

Wj= \V ar(ˆθj) −1 = "  (nj0−1)s2j0+(nj1−1)s2j1 nj0+nj1−2  1 nj0+ 1 nj1 #−1 , et s2

j0 et s2j1 sont respectivement les variances empiriques des réponses grappes-période

dans les conditions de contrôle et d'intervention à la période j.

Pour faire un test de permutation il faut réappliquer cet algorithme à, disons B assignations aléatoires des grappes aux séquences et calculer l'eet de l'intervention θestime pour chacune.

Nous calculons la p-value comme la proportion des statistiques θestime qui se situent au-delà

ou en deçà de ˆθ. La p-value du test de permutation pour l'hypothèse nulle d'absence d'eet d'intervention est donnée par :

P.value = 2 min  π(θestime ≤ ˆθ); π(θestime≥ ˆθ)  B , (3.3) où

 π(θestime ≥ ˆθ) est le nombre des permutations avec un eet d'intervention estimé égal

ou plus grand que l'eet observé.

 π(θestime ≤ ˆθ) est le nombre des permutations avec un eet d'intervention estimé égal

ou plus petit que l'eet observé.

Pour construire l'IC à savoir l'intervalle de conance pour l'eet d'intervention θ, on xe un niveau de conance (1 − α)100% où α est le risque de première espèce. On xe une valeur d'eet d'intervention θA et on calcule Yij∗ :

Yij∗ = (

Yij − θA si i : Xij = 1.

Yij si i : Xij = 0.

Ensuite, on applique le test de permutation en se basant sur Y∗

ij au lieu de Yij. À l'aide de la

P.value (3.3) du test de permutation, on détermine si θA appartient ou non à l'intervalle de

conance de θ, si P.value > α alors θA ∈ IC sinon θA∈ IC/ . On refait itérativement le même

processus pour plusieurs valeurs de θA données an de construire les bornes de l'intervalle de

conance.

Hughes et al. (2020) présentent une autre manière de tester l'eet du traitement θ à l'aide du test de permutation quand la distribution de la variable réponse, la structure de la moyenne ou celle de la variance sont inconnues ou mal spéciées. Dans cet article, on fournit des formules explicites pour l'espérance et la variance de ˆθ sous la distribution de permutation qu'on utilise pour l'inférence. Ces formules sont calculées sous la distribution de permutation mais sans faire les B permutations comme le fait le test (3.3).

(31)

3.2 Méthode semi-paramétrique

Comme à la section précédente, on présente une méthode qui se base sur la comparaison intra-période des eets d'intervention en utilisant des analyses au niveau des grappes. Pour estimer l'eet d'intervention on applique cette fois une méthode semi-paramétrique qui permet de tenir compte de la corrélation dans des inférences sur les coecients de régression d'un modèle linéaire.

Ce qui suit représente les étapes de calcul d'une statistique du test pour H0 : θ=0 :

1. En supposant que la variable réponse suit une distribution normale, calculons l'eet d'intervention spécique à la période j en utilisant le modèle suivant :

Yij = µj + θjXij+ eij, i = 1, ..., I; j = 2, ..., T − 1; (3.4)

 µj est l'espérance des réponses pour les témoins.

 θj l'eet d'intervention spécique à la période j.

 Xij l'indicateur de traitement pour la grappe i à la période j qui prend 1 pour

l'intervention et 0 pour le contrôle.  eij le terme d'erreur aléatoire.

Pour une période j donnée les erreurs sont indépendantes et ˆθj= ¯Yj,T R- ¯Yj,N T estime

l'ef-fet d'intervention spécique à la période j. ¯Yj,T R et ¯Yj,N T sont respectivement la réponse

moyenne des grappes traitées et des grappes contrôles durant une période j, voir (3.1). Considérons I grappes indépendantes. Pour une grappe i, on dispose d'un vecteur de la variable réponse (Yi2,..., Yi(T −1)) issu d'une loi multidimensionnelle de variance Σ de

dimension (T − 2) × (T − 2). La matrice de variances covariances Σ qui caractérise la dépendance intra-grappe s'écrit comme suit :

Σ =       σ22 σ23 ... σ2(T −1) σ32 σ23 ... σ3(T −1) ... ... ... ... σ(T −1)2 σ(T −1)3 ... σ2T −1       . (3.5)

2. Calculer l'estimateur de θ, ˆθ qui combine les ˆθj en tenant compte de la dépendance

intra-grappe : ˆ θ = T −1 X j=2 wjθˆj, (3.6) avec ˆW=[w1...,wT]>=([1..., 1]>∧ˆ −1 w [1..., 1])−1∧ˆ −1

w [1..., 1], où ˆ∧w est un estimateur de la

(32)

L'estimateur (3.6) de ˆθ suit approximativement une distribution normale avec une variance estimée par \V ar(ˆθ)= ˆW ˆ∧wWˆ> ce qui permet de construire les intervalles de conance de

manière paramétrique : IC =  ˆ θ ± zα/2 q \ V ar(ˆθ)  =h ˆθ ± zα/2p ˆW ˆ∧wWˆ>i, où P[|N(0, 1)| >

zα/2] = α. L'hypothèse nulle est rejetée si

ˆ θ q \ V ar(ˆθ) > z1−α/2.

Pour estimer ∧w la matrice de variance covariance des ˆθj il faut estimer Σ. Pour cette n, on

va suivre les étapes suivantes :

1. Pour la grappe i, calculer le vecteur résidu ri contenant les résidus rij pour les périodes

j=2, j=3 jusqu'à j=T -1 : ri=         ri2 ri3 ... ... ri(T −1)         =         Yi2− Xi2Y¯2,T R− (1 − Xi2) ¯Y2,N T Yi3− Xi3Y¯3,T R− (1 − Xi3) ¯Y3,N T ... ...

Yi(T −1)− Xi(T −1)Y¯T −1,T R− (1 − Xi(T −1)) ¯YT −1,N T

        .

2. Estimer la matrice de variance covariance Σ :

S = 1 I − 1 I X i=1 riri>=       s22 s23 ... s2(T −1) s32 s23 ... s3(T −1) ... ... ... ... s(T −1)2 s(T −1)3 ... s2T −1       . (3.7)

3. Calculer l'élément (j,k) de la matrice ∧w en fonction de l'élément (j,k) de Σ.

On a pour deux périodes j et k :

cov(ˆθj, ˆθk) = cov  1 nj1 X i XijYij − 1 nj0 X i (1 − Xij)Yij, 1 nk1 X i XikYik− 1 nk0 X i (1 − Xik)Yik  = σjk  1 nj1nk1 X i XijXik− 1 nj1nk0 X i Xij(1 − Xik) − 1 nj0nk1 X i (1 − Xij)Xik + 1 nj0nk0 X i (1 − Xij)(1 − Xik)  ,

où nj0 et nj1 sont dénis dans (3.1) et σjk est un élément de Σ, voir (3.5).

Soit le tableau de fréquences 3.1, où n(j,k) 00 , n (j,k) 01 , n (j,k) 10 et n (j,k)

11 représentent les eectifs des

grappes pour les quatre assignations possibles aux périodes j et k : non traité à j et k, non traité à j et traité à k, traité à j et non traité à k, traité à j et k.

(33)

H H H H H H H j k 0 1 Total 0 n(j,k)00 n(j,k)01 nj0 1 n(j,k)10 n(j,k)11 nj1 Total nk0 nk1 n

Table 3.1  Tableau de fréquences des traitements associés aux périodes j et k. En exploitant le tableau 3.1, l'élément (j,k) de la matrice ˆ∧w est donné par :

       ˆ cov(ˆθj, ˆθk) = sjk  n(j,k)11 nj1nk1 − n(j,k)01 nj0nk1 − n(j,k)10 nj1nk0 + n(j,k)00 nj0nk0  si j 6= k. ˆ var(ˆθj) = s2j  1 nj1 + 1 nj0  si j = k. (3.8) Exemple :

Prenons l'exemple, avec deux grappes par séquence, traité dans la section 2.3 où on a T =5 périodes, t=4 séquences et g=2 grappes par séquence, ce qui donne un total de I=8 grappes. On a trois périodes qui sont utilisées pour faire le test, donc on va calculer trois covariances cov(ˆθ2, ˆθ3), cov(ˆθ2, ˆθ4), cov(ˆθ3, ˆθ4).

Soit le tableau de fréquences des traitements associés aux périodes j=2 et k=3 :

H H H H H HH j=2 k=3 0 1 Total 0 4 2 6 1 0 2 2 Total 4 4 8

Table 3.2  Tableau de fréquences des traitements associés aux périodes 2 et 3. En exploitant le tableau 3.2 on obtient à l'aide de (3.8) l'élément (2,3) de la matrice ˆ∧w qui

est donné par :

ˆ cov(ˆθ2, ˆθ3) = s23  4 4 × 6 − 2 4 × 6 − 0 4 × 2 + 2 4 × 2  = 1 3s23.

(34)

H H H H H H H j=2 k=4 0 1 Total 0 2 4 6 1 0 2 2 Total 2 6 8

Table 3.3  Tableau de fréquences des traitements associés aux périodes 2 et 4. En exploitant le tableau 3.3 on calcule l'élément (2,4) de la matrice ˆ∧w donné par :

ˆ cov(ˆθ2, ˆθ4) = s24  2 2 × 6 − 4 6 × 6 − 0 2 × 2 + 2 6 × 2  = 2 9s24.

Idem, on construit le tableau de fréquences 3.4 pour les périodes 3 et 4 :

H H H H H H H j=3 k=4 0 1 Total 0 2 2 4 1 0 4 4 Total 2 6 8

Table 3.4  Tableau de fréquences des traitements associés aux périodes 3 et 4. À l'aide de 3.4 on trouve l'élément (3,4) de la matrice ˆ∧w donné par :

ˆ cov(ˆθ3, ˆθ4) = s34  4 4 × 6 − 2 4 × 6 − 0 4 × 2 + 2 4 × 2  = 1 3s34.

On procède de la même manière pour calculer les éléments de la diagonale de la matrice ˆ∧w

en exploitant la formule (3.8) pour le cas j=k. On obtient :

ˆ ∧w =    2 3s 2 2 13s23 2 9s24 1 3s32 1 2s23 13s34 2 9s42 1 3s43 2 3s 2 4   .

3.3 Application : étude des décisions de relocalisation chez les

personnes âgées

Rester à la maison ou déménager dans une RPA1 est la question à laquelle les personnes âgées

fragiles au Canada doivent faire face lorsqu'elles commencent à perdre leur autonomie. Souvent

(35)

les proches aidants les accompagnent dans cette démarche. Les outils de prise de décision partagée, renforcent la participation des proches aidants à la décision de la relocalisation. Cette décision est faite en collaboration avec des équipes interprofessionnelles des CIUSSS2.Légaré

et al.(2016) ont mené une étude pour tester l'eet de l'ajout d'un programme de formation à la prise de décision partagée dans l'équipe interprofessionnelle à la diusion passive d'un guide sur la prise de décision partagée. La formation consiste à suivre un tutoriel en ligne d'une heure et demie ainsi qu'à assister à un atelier de renforcement des compétences comprenant des démonstrations vidéo et des conférences d'une durée de trois heures et demie.

L'essai clinique implique 9 CIUSSS de la province de Québec. Les CIUSSS sont l'unité de randomisation, chaque centre représente une grappe. An d'éviter toutes sources de biais, un biostatisticien qui n'est pas impliqué dans l'analyse des données s'est occupé de la randomisa-tion des neuf CIUSSS sur quatre séquences. Trois séquences contiennent deux CIUSSS alors que la quatrième est constituée de trois centres. Après le début de la collecte de données de base (T0), chacune des séquences va recevoir l'intervention à une période prédéterminée à l'avance à savoir 4 (T4), 11 (T11), 18 (T18) et 25 (T25) mois après T0. Les interventions ont été séparées par des intervalles de 7 mois. Il y a un total de cinq périodes de collecte de données avec 1 mois pour l'intervention entre chacune d'entre elles. La durée de collecte des données est de 32 mois. Chaque 7 mois, l'intervention est faite dans un nouveau groupe, tandis que les grappes traitées précédemment continuent à appliquer leurs compétences nouvellement acquises, jusqu'à ce que les quatre séquences reçoivent l'intervention. À la n de l'étude, les neuf CIUSSS reçoivent l'intervention. Pour plus de détails concernant le protocole de cet essai clinique voir Légaré et al.(2016).

La gure ci-dessous, tirée deLégaré et al. (2016), illustre le plan d'étude des CIUSSS durant les cinq périodes :

(36)

Figure 3.1  Le schéma Stepped wedge de l'essai clinique de l'aide à la décision partagée. En utilisant les données de l'essai clinique Légaré et al. (2016), on construit le schéma 3.2 qui contient les données agrégées grappe par période de notre variable réponse. La variable réponse Yij représente le rôle assumé de la formation, c'est-à-dire, le pourcentage des proches

aidants déclarant ayant joué un rôle actif dans la prise de décision concernant la relocalisation de l'ainé. Dans chacune des séquences, on a pour chaque grappe la valeur de Yij propre à la

grappe i durant la période j, où i=1,...,9 et j=1,...,5.

.

Figure 3.2  Les proportions de proches aidants estimant avoir joué un rôle actif dans la prise de décision concernant la relocalisation de l'ainé.

(37)

. Figure 3.3  Le nombre de proches aidants contactés à chaque grappe-période. On observe que durant les périodes 2 et 4, à la grappe 7, la proportion de proches aidants estimant avoir joué un rôle actif est de 29% et 44% respectivement. Cette proportion est faible en la comparant aux autres grappes-périodes, ce qui suggère une hétérogénéité des données. En exploitant les données du schéma 3.2, on obtient les boîtes à moustaches des groupes traités et non-traités :

Figure 3.4  Les boxplots de la proportion du rôle assumé positif groupés par intervention

À partir des boîtes à moustaches de la gure 3.4, on conclut que les proportions médianes du rôle assumé positif entre les groupes traités et non-traités semblent similaires tandis que la proportion de rôle assumé positif des groupes traités est plus variable que celui des non-traités. An d'estimer l'eet de la formation implantée, on analyse les données du tableau 3.2 en

(38)

utilisant les trois méthodes vues dans les chapitres 2 et 3. Pour le modèle mixte, on estime l'eet de l'intervention à l'aide du modèle (2.5) en considérant un schéma équilibré, c'est-à-dire on traite les données comme si le nombre des proches aidants dans les grappes-périodes est xe nij=N. Sur les données de la gure 3.2, on exclut les périodes 1 et 5 pour calculer ˆθ avec

les méthodes non-paramétrique et semi-paramétrique. Pour la méthode non-paramétrique on eectue B=1000 permutations. Les résultats des estimations et les intervalles de conances se résument dans le tableau 3.5.

Méthode θˆ Borne inférieure de IC Borne supérieure de IC

Modèle mixte 0.043 -0.097 0.183

Test de permutation -0.029 -0.098 0.068 Semi-paramétrique -0.026 -0.097 0.046

Table 3.5  L'estimation de l'eet de la formation et les intervalles de conances à 95%. Comme déjà mentionné, les ˆθj obtenus par la méthode semi-paramétrique sont similaires à

ceux estimés par la méthode non-paramétrique. Le vecteur (0.010, -0.041, 0.131) représente les valeurs estimées des θj pour les périodes j=2,3,4.

Pour visualiser les estimations de θ pour les mille permutations eectuées pour la méthode non-paramétrique on dresse le graphique suivant. La ligne en bleu représente l'estimation de l'eet d'intervention sous l'hypothèse nulle ˆθ=-0.02894.

Figure 3.5  L'histogramme, la densité et le boxplot des estimations de θ pour B=1000 permutations.

(39)

Selon les intervalles de conance du tableau 3.5, aucune des estimations n'est signicative-ment diérence de 0. L'eet de l'intervention est non signicatif, donc la formation n'a pas d'eet sur le pourcentage des proches aidants déclarant ayant joué un rôle actif dans la prise de décision concernant la relocalisation de l'ainé. En outre, on remarque que ˆθ est positive dans le cas du modèle mixte tandis qu'elle est négative pour les deux dernières méthodes. Probablement cette diérence s'explique par le non-usage des deux périodes 1 et 5 dans les deux méthodes. Prenant la cinquième période, on constate que le rôle assumé Yi5 atteint des

valeurs importantes arrivant à 100% pour plusieurs grappes, voir la gure 3.2. Pour les in-tervalles de conance, on remarque que l'IC obtenue par le modèle mixte est le plus large, peut être cela revient à une mauvaise détermination de la structure de dépendance. Pour une meilleure visualisation, on présente les matrices de variance covariance et de corrélation du modèle mixte et de la méthode semi-paramétrique pour des périodes 2, 3 et 4. Concernant les tests de permutation, et comme déjà mentionné, on ne fait aucune hypothèse sur la structure de corrélation.

Méthode Matrice de variance covariance Matrice de corrélation Modèle mixte    0.026 0.003 0.003 0.003 0.026 0.003 0.003 0.003 0.026       1 0.115 0.115 0.115 1 0.115 0.115 0.115 1    Semi-paramétrique    0.034 0.002 0.024 0.002 0.003 −0.003 0.024 −0.003 0.036       1 0.198 0.690 0.198 1 −0.086 0.690 −0.086 1   

Table 3.6  Les matrices de variance covariance et de corrélation estimées pour les périodes 2,3 et 4.

On remarque, à partir du tableau 3.6, une variabilité importante des estimations de corréla-tions. Pour la méthode semi-paramétrique, les corrélations varient entre -8% et 70%, où deux parmi eux sont assez faibles, probablement cela revient au nombre faible de grappes utilisées. Au niveau des variances, on constate que la variance de la période 3 est très faible ce qui entraine une grande contribution de cette période dans le calcul de ˆθ.

Le code R utilisé pour les diérents résultats discutés dans ce chapitre est présenté dans l'annexe B.

(40)

Chapitre 4

Le traitement des données désagrégées

Dans le cas d'absence de covariables individuelles, les deux chapitres 2 et 3 présentent quelques approches pour traiter les données agrégées d'un stepped wedge. Quant au cas désagrégé, on ne trouve pas dans la littérature des méthodes spéciques au schéma stepped wedge, semblables à celles des chapitres précédents, qui traitent directement les données individuelles. Le présent chapitre introduit un modèle qui sert à une analyse fondée sur des données individuelles. Il s'agit d'un modèle linéaire mixte généralisé (GLMM). Après la description de ce modèle, On y présente les résultats de son application sur les données de l'essai cliniqueLégaré et al.(2016). Ainsi, tel qu'au chapitre 2 nous eectuons une étude par simulation de la performance du test de comparaison de deux traitements : H0: θ=0. Dans la dernière partie, on dénit la confusion

dans le cadre du modèle logistique avec un facteur confondant. On termine le chapitre par une étude de simulation de tests pour détecter un facteur confondant.

4.1 Construction du modèle

Comme déjà mentionné dans le chapitre 2, Hussey and Hughes(2007) ont proposé le modèle (2.1) pour analyser les données stepped wedge dans le cas d'une variable réponse continue. Ce modèle s'étend aux modèles linéaires mixtes généralisés, cité dans (2.3), pour le traitement des variables binaires. Ce dernier peut accueillir plusieurs niveaux de regroupement par l'ajout de multiples eets aléatoires.

Considérons le cas d'une variable réponse Yijk continue. En gardant les mêmes notations des

chapitres précédents, on rappelle que le modèle proposé par Hussey and Hughes(2007) s'écrit comme suit :

(41)

où αi représente l'eet aléatoire de la grappe i qui suit la loi normale, centrée et de variance

τ2, αi ∼ N(0,τ2).

Prenons les données provenant de l'essai cliniqueLégaré et al.(2016). Notre variable réponse, le rôle assumé, est une variable dichotomique. Pour cette raison, on va utiliser le modèle GLMM avec le lien logit (2.3) :

Logit  P (Yijk= 1)  = log  P (Yijk= 1) 1 − P (Yijk= 1)  = µ + αi+ βj+ Xijkθ. (4.2)

Considérons un modèle plus complet que le modèle réduit (4.2) en ajoutant un eet aléatoire de la grappe-période :

Logit(P (Yijk = 1)) = log



P (Yijk = 1)

1 − P (Yijk = 1)



= µ + αi+ βj+ (αβ)ij + Xijkθ. (4.3)

où (αβ)ij est l'eet aléatoire du temps j pour la grappe i qui suit la loi normale, centrée et

de variance σ2

αβ, (αβ)ij ∼ N(0,σαβ2 ).

L'indice de corrélation intra-grappe :

En général, l'ICC est déni par la formule (2.8). Pourtant, dans le cadre de la régression logis-tique, il n'y a pas d'estimation directe de σ2. Pour calculer l'ICC on va recourir à l'approche

des variables latentes1. Cette approche considère la réponse binaire observée comme une

va-riable continue seuillée où on observe 0 en dessous du seuil et 1 au-dessus. Pour plus de détails voir l'article de Nakagawa et al.(2017). On sait que la loi logistique a une variance2 égale à

π2/3. On prend π2/3 comme valeur pour la variance σ2. On se retrouve alors avec

ρ = τ

2

τ2+ π2/3 (4.4)

comme ICC pour le modèle réduit (4.2). Tandis que pour le modèle complet (4.3), on a deux formules de l'ICC. La première porte sur les individus provenant de la même grappe et de la même période noté ρwp. La deuxième formule concerne les individus provenant de la même

grappe mais à des périodes diérentes noté ρbp. Le ρwp et ρbp représentent respectivement

l'ICC_intra-période et l'ICC_inter-période et s'écrivent sous la formes suivantes :    ρwp= τ22 αβ τ22 αβ+π2/3 , ρbp= τ 2 τ22 αβ+π2/3 . (4.5)

L'utilisation des indices wp et bp vient de la terminologie anglaise0within period0 et0between

period0.

1. https://www.barelysignicant.com/post/icc/

(42)

L'implantation du modèle sous R :

Après le calcul de la fonction de vraisemblance conditionnelle, on intègre sur les eets aléa-toires an d'obtenir une fonction de vraisemblance marginale qu'on maximise pour construire les estimations des paramètres. Pour cette n, des méthodes d'intégration interviennent. Le logiciel R a mis en ÷uvre deux méthodes d'estimation des coecients. La première s'agit du calcul de quasi-vraisemblance pénalisée noté PQL, et la deuxième concerne un calcul de vrai-semblance avec l'approximation de Laplace ou la quadrature adaptative de Gauss-Hermite. An d'utiliser la méthode de PQL il faut appeler la fonction glmmPQL du package MASS Ri-pley et al. (2013). Tandis que la fonction glmer du package lme4 Bates et al. (2015) utilise l'approximation de Laplace par défaut, ce qui est équivalent à la méthode de Gauss-Hermite avec un seul point de quadrature. An d'utiliser une quadrature de Gauss-Hermite avec un nombre plus important de points d'intégration, il sut de donner la valeur du nombre de points de quadrature désirés à l'argument nAGQ. Plus on augmente le nombre de points, plus le programme devient long mais les estimations sont plus précises. Actuellement, la méthode de Gauss-Hermite est implémentée seulement pour les modèles avec un seul eet aléatoire3.

Pour plus de détails voir Stéphane (2012) etCommenges and Jacqmin-Gadda (2015). Exemple : essai clinique sur les proches aidants

En guise de comparaison entre les grappes qui ont subi la formation et celles qui ont reçu le guide seulement, et an de tester si la formation a un eet, on ajuste, sous R, les deux modèles linéaires généralisés (4.2) et (4.3). Ainsi on ajuste le modèle (4.3) en utilisant le package TMB Kristensen et al. (2015). TMB est un package R qui permet une implémentation rapide de modèles complexes à eet aléatoire aux données. D'abord, On a écrit un programme C++ qui permet d'évaluer la vraisemblance conditionnelle, étant donné les eets aléatoires pour le GLMM. Ce programme permet à TMB de faire des calculs très précis des dérivées nécessaires pour faire l'approximation de Laplace. Le code et les sorties R sont présentés dans les annexes C et E. Les résultats de cette analyse sont résumés dans le tableau 4.1 :

H H H H H H H R TMB Modèles θ P.value IC− IC− Déviance τ2 σαβ2 R Modèle complet 0.217 0.625 -0.655 1.090 339.4 0.124 0.024 R Modèle réduit 0.222 0.611 -0.635 1.080 339.4 0.130 0 TMB Modèle complet 0.217 0.625 -0.655 1.090 339.4 0.124 0.024 Table 4.1  L'estimation de l'eet de la formation, les P.value , les intervalles de conance, les déviances et les variances.

(43)

En principe TMB donne des résultats plus précis que lmer. On a utilisé les deux packages pour s'assurer que les résultats de l'approximation de Laplace faite par lmer sont satisfaisants. Dans notre cas, on remarque que les résultats obtenus par lmer sont similaires aux sorties TMB. Cela valide que les résultats donnés par lmer sont ables. D'après le tableau 4.1, l'eet de l'intervention est non signicatif, donc la formation n'a pas d'eet sur le pourcentage des proches aidants déclarant ayant joué un rôle actif dans la prise de décision concernant la relocalisation de l'ainé. On remarque que les estimations obtenues en analysant les données individuellement sont diérentes de celles obtenues avec les données agrégées résumés dans le tableau 3.5. Cette diérence est probablement due à la fonction de lien utilisée. Dans les modèles ajustés pour le tableau 4.1 on a considéré une fonction de lien logit tandis que pour le tableau 3.5 on a un lien linéaire. À propos de la déviance, le but derrière son utilisation est d'eectuer le test du rapport des vraisemblances lorsque le modèle sous l'hypothèse nulle est un cas particulier du modèle sous la contre hypothèse. On note D0 la déviance du modèle

réduit, D1 la déviance du modèle complet. On calcule la statistique du test ζ= D0- D1, ensuite

on calcule le seuil observé p = P (χ2

r > ζ)où r est le nombre de paramètres du modèle complet

moins le nombre de paramètres du modèle réduit. Par rapport à l'exemple, on obtient la même valeur avec les deux modèles. La statistique du rapport des vraisemblances pour ce test est donc égale à ζ=0. La valeur p est P (χ2

1 > 0)  5%, donc on ne rejette pas l'hypothèse nulle

que σ2

αβ=0 et on retient le modèle réduit.

4.2 Simulation

An d'étudier la performance du test de comparaison entre deux traitements, on a simulé des données de (4.2) pour un cas similaire à celui de l'essai clinique Légaré et al. (2016). On a T=5 périodes, t=4 séquences et I=9 grappes. Pour les séquences 1, 3 et 4 on a g=2 grappes, cependant que la deuxième séquence est constituée de g=3 grappes. Chacune des grappes-périodes contient K=7 individus. On a simulé 10000 échantillons pour diérentes valeurs de θ. On a donné aux paramètres les valeurs de θ=(0, 0.2, 0.3, 0.5, 0.7, 1, 1.5, 2), µ=0.05 et β=(0.5, 0.1, 0.4, 0.3). Comme au chapitre 2, on impose la contrainte d'identiabilité β5=0. Pour le ρ,

il est déni par la formule (4.4). On a donné à τ2 des valeurs de 0.37 et de 0.82 an de se

retrouver avec un ICC de 10% et de 20%. Le code R utilisé pour les simulations est présenté dans l'annexe C.

L'objectif de cette simulation est de vérier si le seuil réel estimé lorsque θ=0 est respecté ainsi que d'étudier la puissance du test. Les résultats sont présentés dans le tableau ci-dessous :

θ 0 0.2 0.3 0.5 0.7 1 1.5 2

ρ=0.10 0.0601 0.0901 0.1244 0.2372 0.3870 0.6525 0.9061 0.9826 ρ=0.20 0.0588 0.0800 0.1159 0.2154 0.3453 0.5941 0.8714 0.9684

(44)

Table 4.2  Modèle réduit : seuil nominal (ˇα lorsque θ=0) et puissance (1- ˇβ lorsque θ6=0) pour le cas des données individuelles.

Pour un taux de conance nominal de 0.95, et en exploitant l'équation (2.13), on se retrouve avec un erreur type etM C qui s'écrit comme suit :

etM C=

r

5% × (1 − 5%)

10000 . (4.6)

Après calcul, on trouve une valeur de etM C'0.0022. En exploitant le tableau 4.2, on a pour

ρ=0.10 une estimation de seuil ˇα'0.0601. Cette dernière est supérieure au seuil nominal α=5%. On calcule l'intervalle de conance à 95% de [ˇα ± 1.96etM C]=[0.0558 ; 0.0644], on remarque

que α=5% n'appartient pas à cet intervalle. On fait la même conclusion pour ρ=0.20.

Pour visualiser l'évolution de la puissance en fonction de θ, on récapitule les résultats du tableau 4.2 dans la gure 4.1 :

Figure 4.1  Modèle réduit : la puissance en fonction de θ pour le cas de données désagrégées. On a simulé 10000 échantillons en utilisant le même nombre de grappes par séquence comme dans la simulation illustrée dans 4.2, mais cette fois avec des données du modèle complet (4.3). On a laissé les mêmes valeurs des paramètres qu'avant sauf qu'on a considéré un µ=0 et un β5

non nul et égal à 0.7. Le ρ est déni par la formule (4.5). On a donné à τ2 et σ2

αβ des valeurs

de 0.37 et de 0.15 an de se retrouver avec un ρwp=14% et un ρbp=10%. Les résultats de la

Figure

Figure 1.1  Étude parallèle avec six grappes utilisées pour comparer deux traitements La structure parallèle peut contenir deux points de temps tel qu'illustré dans la gure 1.2, le premier point de temps correspond à une mesure de référence (baseline) où
Figure 1.2  Étude parallèle avec baseline où six grappes sont utilisées pour comparer deux traitements
Figure 1.4  Étude d'un Stepped wedge avec 4 grappes et 5 périodes 1.3 Stepped wedge
Figure 2.1  Schéma d'un step wedge avec I=4 groupes et T =5 périodes
+7

Références

Documents relatifs

L’analyse des données du dispositif Nergal-Abattoir a montré leur excellente qualité (Partie 1 2.3.4) et a donc permis d’envisager l’étude de la faisabilité d’un dispositif

les techniques de « Text Mining » ne sont capables d ' être utilisées que si les données sont déjà préparées et bien structurées. Cette recherche a deux objectifs

Face à la problématique de l’identification et de la variabilité des sources et de leur contribution, deux méthodes ont été utilisées : la séparation par un modèle de mélange

Seuls les échogrammes aux fréquences de 38 et 120 kHz ont été utilisés dans cette étude. Les données récoltées à une fréquence de 200 kHz n’ont pas été utilisées pour deux

Six d’entre-elles sont implantées à côté d’un habitat ou d’une nécropole, deux autres sont dans une zone où les sites sont abondants tandis que des vestiges de la période

Enfin, pour le groupe « Sortie RMI-emploi », on observe un double mouvement : un peu moins des deux tiers des ménages occupent le même emploi depuis au moins un an, ce qui

Enfin, pour le groupe « Sortie RMI-emploi », on observe un double mouvement : un peu moins des deux tiers des ménages occupent le même emploi depuis au moins un an, ce qui

7.8 : Spectre de la somme en énergie des deux électrons pour les évènements de type double bêta réels dans la fenêtre en énergie [2,5-3,5] MeV de la phase I restreinte (178,90