• Aucun résultat trouvé

L'effet des heures supplémentaires sur les conditions sanitaires des nouveau-nés en unité de néonatalogie : une analyse économétrique

N/A
N/A
Protected

Academic year: 2021

Partager "L'effet des heures supplémentaires sur les conditions sanitaires des nouveau-nés en unité de néonatalogie : une analyse économétrique"

Copied!
53
0
0

Texte intégral

(1)

Les effets des heures supplémentaires sur les

conditions sanitaires des nouveau-nés en unité de

néonatalogie : une étude économétrique

Mémoire

Nicolas Corneau-Tremblay

Maîtrise en Science Économique Maître ès sciences (M.Sc.)

Québec, Canada

(2)

Les effets des heures supplémentaires sur les

conditions sanitaires des nouveau-nés en unité de

néonatalogie : une étude économétrique

Mémoire

Nicolas Corneau-Tremblay

Sous la direction de:

Guy Lacroix, directeur de recherche Luc Bissonnette, codirecteur de recherche

(3)

Résumé

Dans ce mémoire, nous tentons d’estimer l’effet des heures supplémentaires travaillées par le personnel infirmier sur la santé des patients mis à sa charge. Nous effectuons notre analyse sur des enfants admis dans une unité de néonatalogie. Comme indicateur de santé, nous utilisons les infections nosocomiales contractées, les accidents subis et les décès. Pour répondre à un possible problème d’endogénéité entre la santé des enfants et les heures supplémentaires aux-quelles ils sont exposés, nous utilisons la méthode des variables instrumentales. Nous obtenons comme résultats qu’une exposition accrue à des heures supplémentaires semble augmenter pour les patients la probabilité de contracter une infection et de subir un accident, mais n’a pas d’effet sur la probabilité de décéder.

(4)

Table des matières

Résumé iii

Table des matières iv

Liste des tableaux v

Remerciements viii

Introduction 1

1 Revue de littérature 4

1.1 Charge de travail du personnel infirmier . . . 4 1.2 Heures supplémentaires . . . 5

2 Méthodologie 8

2.1 Endogénéité et variables instrumentales . . . 8 2.2 Probit . . . 17 2.3 Effet aléatoire corrélé . . . 22

3 Données 25

3.1 Analyse descriptive . . . 25 3.2 Analyse comparative . . . 27

4 Résultats 30

4.1 Spécification avec variables instrumentales . . . 30 4.2 Spécification sans variable instrumentale . . . 34 4.3 Limites . . . 36

Conclusion 38

Bibliographie 39

(5)

Liste des tableaux

3.1 Répartition par caractéristiques . . . 26

3.2 Durée et heures supplémentaires par évènement . . . 28

4.1 Première étape : heures supplémentaires . . . 31

4.2 Résultats : Avec variables instrumentales . . . 33

4.3 Effets partiels : Avec variables instrumentales . . . 34

4.4 Résultats : Sans variables instrumentales . . . 35

4.5 Effets partiels : Sans variables instrumentales . . . 36

4.6 Modèle linéaire en probabilité : Accident . . . 43

4.7 Modèle linéaire en probabilité : Infection . . . 44

(6)
(7)

“True ignorance is not the absence of knowledge, but the refusal to acquire it.”

(8)

Remerciements

Je tiens tout d’abord à présenter mes remerciements les plus sincères à mon directeur de re-cherche, M. Guy Lacroix. Votre encadrement, vos conseils et votre passion me permettent, à chacune de nos rencontres, de grandir en tant qu’étudiant et chercheur. Je ne peux qu’aspirer à devenir un aussi bon scientifique. Je remercie également M. Luc Bissonnette pour sa dispo-nibilité et son aide.

Je suis reconnaissant envers David Marceau, Olivier Gravel et Thomas Racine pour leur ami-tié. Chacun à votre façon, vous avez su m’apporter écoute, support et bonheur. La complétion de se mémoire aurait été sans vous impossible.

Je souhaite aussi remercier Manon Tremblay et Sylvain Corneau, simplement pour tout ce qu’ils sont, m’ont donné et représentent pour moi. Je n’aurais pu avoir plus grande chance dans la vie que de naitre avec de si bons parents. J’espère à chaque jour vous rendre aussi fier de moi que je le suis d’être votre fils.

Enfin, je tiens à remercier ma femme et ma meilleure amie, Joanie Albert. Rien de tout cela n’aurait de sens sans toi. Tu es l’équilibre me tenant loin de mes extrèmes. Sans toi, ma vie serait une nuit sans étoile. Merci d’être dans ma vie.

(9)

Introduction

Depuis les 200 dernières années, l’espérance de vie des êtres humains n’a cessé de croitre, pour atteindre aujourd’hui des sommets sans précédent dans l’histoire de l’humanité. Si d’une part des avancées importantes comme l’établissement des normes d’hygiène et la conception de vaccins sont pour beaucoup dans cette croissante longévité, il ne faut pas oublier que les soins obstétriques et pédiatriques y ont également grandement contribué (Deaton, 2013 et Olshansky et Ault, 1986). Les percées effectuées dans ces branches ont permis de réduire de façon significative la mortalité infantile et d’augmenter drastiquement l’espérance de vie. Pour s’en convaincre, on peut se tourner du côté de nombreux pays en voie de développement. Dans plusieurs d’entre eux, les soins aux femmes en grossesse et aux enfants sont loin d’être au niveau des standards occidentaux. On y observe parallèlement des taux de mortalité infantile plus importants de même que des espérances de vie beaucoup plus faibles (Guillot et al, 2012 et WHO, 2014).

Si la situation des soins apportés aux nouveau-nés au Québec n’a rien à voir avec celle des pays défavorisés, il n’en demeure pas moins que ce sont des soins qui ont une importance ma-jeure sur le parcours de vie d’un individu. C’est particulièrement le cas pour les départements de néonatologie1, unités de soins centrées autour des bébés souffrant de lourds problèmes à la naissance. C’est pourquoi la mise en place de conditions optimales dans ce type d’unité est fondamentale. Cependant, des ressources financières limitées sont partie intégrante de la réalité des gestionnaires hospitaliers. Ils doivent donc effectuer un arbitrage dans l’allocation de ces ressources selon les différents besoins de chacune des unités. L’étude sérieuse de chaque option qui s’offre à eux devient alors fondamentale.

L’un des arbitrages que les gestionnaires ont à effectuer concerne la distribution des heures de travail, notamment lorsque certaines unités font face à une charge inhabituelle. Les ad-ministrateurs doivent alors entre autres décider s’ils accordent des heures supplémentaires à leur personnel ou s’ils effectuent plutôt de nouvelles embauches. Chacune de ces options vient avec ses coûts directs et indirects qui sont parfois plus ou moins bien connus. Par exemple, on pourrait penser qu’accorder des heures supplémentaires au lieu d’embaucher de nouveaux

(10)

travailleurs puisse engendrer des coûts immédiats moindres pour l’administration de l’hôpital, mais que cette décision ait des effets non anticipés et délétères pour la santé des patients.

Pour expliquer ces effets néfastes, une hypothèse serait que les patients soient exposés à des évènements indésirables pouvant être liés aux heures supplémentaires. Un personnel surchargé et fatigué est potentiellement plus prompt à des erreurs d’inattention ou des maladresses, bien que, comme nous le verrons plus loin, cette question est encore sujet à débat. De nombreuses études ont mis de l’avant qu’il y avait un coût économique aux évènements indésirables en milieu hospitalier. Russel et al (2007) soulèvent que des enfants étant nés prématurément ou en sous-poids2 coûtent en moyenne 15 000$US chacun pour la durée de leur séjour en unité de soins3, comparativement à 600$US pour des enfants sans problème à la naissance. Pour des enfants nés avec un sous-poids très important4, les coûts peuvent s’élever à 40 000$US (Almond et al, 2010). Les coûts d’hospitalisations ne s’arrêtent d’ailleurs pas à ceux suivants la naissance. Les enfants prématurés et en sous-poids nécessitent plus de soins tout au long de leur vie. Pour les 10 années après la naissance, ces coûts ont été estimés à plus de 5 fois ceux des enfants nés sans complication (Petrou, 2005).

Si on ajoute à cela les frais associés à la survenue d’évènements indésirables, les coûts grimpent rapidement. Pour prendre uniquement le cas des infections nosocomiales, il a été estimé qu’une infection contractée dans un hôpital coûte, pour un patient issu de la population hospitalière générale, entre 2 265$CAN et 12 197$CAN par cas (CPSI, 2012). Plus particulièrement chez les nouveau-nés, ces coûts augmentent à 27 796$CAN. Par conséquent, si une pratique accrue des heures supplémentaires de la part des infirmières et infirmiers engendre une hausse de ce type d’évènement, cela devrait être pris en considération dans l’évaluation de ses coûts. Sachant que les coûts dans les unités de néonatalogie sont déjà très importants, ne pas les augmenter devraient être prioritaire.

De plus, les évènements adverses dans les premiers instants de vie peuvent avoir des im-pacts importants sur le développement des enfants, spécialement chez ceux qui sont davantage à risque, comme c’est le cas pour la clientèle des unités de néonatalogie. Récemment, il a été démontré qu’un mauvais état de santé à la naissance nuit au développement cognitif et peut également mener à plusieurs problèmes scolaires et sociaux (Currie et al, 2010 ; Figlio et al, 2014 ; Oreopoulos et al, 2008). Par exemple, il a été estimé que les enfants nés en sous-poids avaient 50% plus de chance de se retrouver dans un programme d’éducation spécial et subissaient davantage de diagnostics concernant les troubles de l’apprentissage (Chaikind et

2. De façon conventionnelle, la prématurité est établie lorsqu’une gestation est de moins de 37 semaines ; un enfant est considéré comme en sous-poids à la naissance lorsqu’il pèse moins de 2500 grammes.

3. Il est intéressant de voir que dans leur article, Russel et al rapportent une durée de séjour pour ces enfants de 12.9 jours, ce qui est très proche de la durée moyenne des enfants dans l’unité de néonatalogie du CHUL qui est de 14.2 jours.

(11)

Corman, 1991 et McCormick et al, 1992). Encore une fois, les coûts découlant de ces problé-matiques ne sont pas à négliger.

Comme on vient de le voir, il est possible que les heures supplémentaires travaillées par le personnel soignant augmentent la probabilité d’évènements indésirables, ce qui peut hypo-théquer la santé des patients. De plus, lorsque ces patients sont des nouveau-nés à la santé particulièrement précaire, ces évènements adverses pourraient avoir des conséquences néfastes sur leur développement à long terme. D’un point de vue économique, il est donc pertinent de se poser la question : quels sont les impacts des heures supplémentaires du personnel infirmier sur la santé des patients, spécialement celle des enfants en unité de néonatalogie ? Cette ques-tion est importante, puisque ces impacts peuvent avoir des conséquences sur les budgets des hôpitaux, mais également sur les budgets des différents gouvernements présents et à venir.

Dans cette perspective, ce mémoire de maîtrise s’intéresse à l’organisation des heures de travail du personnel soignant dans une unité de soins. Plus précisément, nous tentons dans ce mé-moire de cerner l’impact des heures supplémentaires des infirmières et infirmiers sur différents indicateurs de santé des enfants admis au département de néonatologie du Centre hospitalier de l’Université Laval (CHUL). Nos trois indicateurs de santé sont les accidents subis, les in-fections nosocomiales contractées et les décès. Nous proposons une méthodologie peu utilisée dans la littérature actuelle, et qui permet de répondre à certaines contraintes méthodologiques jusqu’à maintenant souvent ignorées. Nous utilisons la méthode des variables instrumentales pour pallier à un possible problème d’endogénéité entre les heures supplémentaires du person-nel infirmier et la santé des enfants en unité de soins. Nous exploitons également des variations quotidiennes des heures supplémentaires durant le séjour des enfants, ce qui a également peu été fait dans les articles précédents.

Nos résultats suggèrent que la spécification par variables instrumentales est nécessaire pour analyser l’impact des heures supplémentaires sur les infections nosocomiales, mais non sur les accidents et les décès. Nous trouvons qu’une hausse des heures supplémentaires travaillées par le personnel infirmier augmente la probabilité qu’un enfant contracte une infection et de subisse un accident, mais ne semble pas avoir d’effet sur la probabilité de décéder.

Dans la suite de ce mémoire, nous présentons quel est l’état de la littérature concernant les heures supplémentaires en milieu hospitalier. Nous abordons ensuite la méthodologie que nous utilisons afin d’effectuer nos analyses. Par la suite, nos données et nos résultats sont détaillés. Une conclusion termine enfin le tout.

(12)

Chapitre 1

Revue de littérature

1.1

Charge de travail du personnel infirmier

Le personnel infirmier du milieu hospitalier canadien est de plus en plus soumis à une lourde tâche de travail, notamment en ce qui a trait aux heures supplémentaires (Drebit et al, 2010). Cette augmentation des heures supplémentaires peut avoir des conséquences néfastes sur la rétention, l’appréciation et la santé du personnel (Aiken et al, 2002). Ces phénomènes ne sont d’ailleurs pas propres au personnel infirmier (Lilley et al ; 2002, Dembe et al ; 2005, Shields, 1999). Cependant, bien que de nombreuses recherches concluent à des impacts négatifs sur la santé des personnes travaillant ces heures supplémentaires, les résultats ne sont pas aussi catégoriques concernant leurs conséquences sur l’état de la production de ces personnes.

Dans le cas de personnel infirmier, certaines études semblent indiquer que les différentes formes que peut prendre la surcharge de travail peuvent avoir des effets adverses sur la santé des pa-tients. C’est notamment le cas lorsque le personnel est davantage fatigué (Bae, 2013), vit davantage de dépressions (Cimiotti et al, 2012), que ses horaires de travail sont trop chargés (Trinkoff et al, 2011), et que sa proportion par rapport au nombre de patients diminue (Kane et al, 2007). Une expérience en Australie a également été conduite en suivant 23 infirmières durant un mois pour voir les conséquences de la lourde charge de travail qui leur est assignée (Dorrian et al, 2006). Cette étude montre que les infirmières dorment moins longtemps les jours où elles travaillent, et que ce sont précisément les jours où elles ont le moins dormi que les erreurs médicales sont le plus promptes à survenir. Les auteurs concluent en suggérant d’approfondir la recherche concernant le lien entre la charge de travail du personnel infirmier, la fatigue de ce dernier ainsi que les erreurs médicales qu’il commet.

Cependant, ces résultats sont équivoques. Plusieurs des articles cités précédemment ont été critiqués, principalement concernant leurs méthodes d’analyse. Souvent, ces recherches uti-lisent des régressions basées sur des données en coupe transversale, c’est-à-dire qu’elles tirent

(13)

des conclusions en comparant à un moment précis différents hôpitaux ou unités de soins entre eux. Certains auteurs se sont inquiétés que cette méthode d’analyse ne saisisse pas tous les facteurs différentiant les unités de comparaison, ce qui risquerait fort de biaiser les résultats obtenus.

De plus, des variables comme le nombre d’infirmières sur le plancher sont endogènes à la santé des patients dont le personnel infirmier doit s’occuper. Si davantage de cas lourds se présentent dans une unité de soins, plus d’infirmières seront nécessaires pour administrer les soins adéquats. Ne pas contrôler pour ce problème peut générer des résultats erronés dans les analyses. Ces critiques sont notamment soulevées par Lin (2014) qui utilise la méthode par variables instrumentales pour y répondre. Elle trouve qu’une hausse du nombre d’infirmières augmente bien la santé des patients, mais que ne pas contrôler pour le problème d’endogénéité conduit à des résultats biaisés.

Ces critiques ont également été le fruit entre autres de Cook et al (2012) et de Evans et Kim (2006). S’intéressant au ratio infirmières-patients, ces auteurs ont quant à eux utilisé une méthode qui n’utilise pas les données en coupe. Ils ont plutôt utilisé l’adoption d’une loi en Californie concernant un ratio infirmières-patients minimum comme choc sur le person-nel infirmier. À partir de leur analyse, ces auteurs n’ont pas trouvé de relation entre le ratio infirmières-patients et la santé des patients. Ces articles ne sont qu’un exemple de la sensibilité de certains résultats à la méthode utilisée pour les obtenir.

1.2

Heures supplémentaires

En ce qui concerne plus particulièrement notre sujet, il a été démontré dans plusieurs articles que les heures supplémentaires peuvent avoir des impacts négatifs sur la santé des patients. Sur une période de deux semaines, Liu et al (2012) ont demandé à des infirmières de tenir un livre dans lequel elles devaient noter les erreurs qu’elles avaient commises durant leur quart de travail, de même que les informations concernant leurs activités quotidiennes au travail. Les auteurs ont trouvé que le fait pour une infirmière de travailler des heures supplémentaires avait un impact sur un grand nombre d’indicateurs de santé concernant ses patients. Seule-ment, cette étude obtient ces résultats uniquement à travers des coefficients de corrélation et des rapports de cotes entre les évènements et ne contrôle pas pour de possibles variables confondantes. Ces résultats doivent donc être interprétés avec précaution.

Utilisant des données obtenues de façon similaire à celles de Liu et al, Rogers et al (2004) ont toutefois utilisé des outils statistiques plus poussés pour obtenir leurs résultats, notam-ment des régressions logistiques. Les auteurs trouvent un lien entre les heures supplénotam-mentaires et les erreurs médicales. D’autres auteurs, utilisant la même source de données que Rogers et

(14)

al, ont obtenu des résultats semblables (Scott et al, 2006).

Olds et Clarke (2010) se sont intéressés à la même question, mais en utilisant plutôt les réponses de plus de 11 000 infirmières et infirmiers à un questionnaire en Pennsylvanie pour étudier le lien entre temps supplémentaire et les erreurs médicales. Eux aussi trouvent, à l’aide de régressions logistiques, un lien entre les deux. Cependant, leurs variables sont des réponses rétrospectives concernant la dernière année de travail des répondants. Il est probable qu’en ce qui concerne l’exactitude des réponses, des doutes peuvent être émis.

Avec une méthodologie différente, utilisant cette fois des données colligées de façon admi-nistrative, Stone et al (2007) se penchent sur 15 902 patients provenant des cliniques de soins intensifs de 31 hôpitaux afin de voir l’impact des heures supplémentaires sur les infections no-socomiales, la mortalité à trente jours et les escarres. À l’aide de régressions logistiques, et en contrôlant pour diverses variables confondantes comme la dimension de l’hôpital ou son statut de lieu d’enseignement, les auteurs trouvent qu’une augmentation des heures supplémentaires est associée à une hausse des infections nosocomiales et des escarres.

Cependant, ces résultats ne font encore une fois pas l’unanimité. Par exemple, Berney et Need-leman (2006) ont trouvé quant à eu une relation négative entre les heures supplémentaires et la mortalité des patients, c’est-à-dire que plus un patient est exposé à des heures supplémen-taires, moins il risque de décéder. Duffield et al (2011) trouvent une relation semblable entre les heures supplémentaires et les erreurs de médication. Leurs résultats sont obtenus par une combinaison d’analyses de données en coupe et de données panel.

La plupart des recherches que nous venons de voir peuvent se soumettre aux mêmes cri-tiques que celles concernant la charge du travail des infirmières et infirmiers : elles utilisent principalement des analyses comparant différentes unités de soins à une seule période. Il est donc toujours possible qu’il y ait présence de facteurs inobservables différenciant les centres de santé, ce qui pose problème. C’est d’ailleurs un problème lorsque que l’on compare des hôpitaux entre eux, mais également lorsque l’on utilise les infirmières et infirmiers ou les pa-tients comme unité d’étude, car les caractéristiques des lieux de travail ou de soins sont tout autant d’intérêt. Ne pas les inclure peut induire des problèmes de variables omises, ce qui peut affecter les relations estimées.

La seconde critique que l’on peut faire à la majorité de ces études, c’est qu’elles non plus ne contrôlent pas pour un possible problème d’endogénéité. En effet, il est possible que les heures supplémentaires aient un impact sur la santé des patients. Mais il est vraisemblable de penser qu’inversement, un patient plus mal en point nécessitera plus de soins, et sera donc plus sujet à être exposé à des heures supplémentaires. Ainsi, si ce phénomène de causalité inverse

(15)

n’est pas contrôlé, des biais importants peuvent apparaitre lors de l’estimation de régressions. Du point de vue de l’état actuel de la littérature, la relation entre les heures supplémentaires et la santé des patients en milieu hospitalier est donc loin d’être évidente.

Les résultats de deux récentes revues systématiques de la littérature vont dans le même sens que nos conclusions. Bae et Fabry (2013) trouvent que les conditions de travail du personnel infirmier, y compris les heures supplémentaires, ont un impact négatif sur la santé du person-nel lui-même, ce qui est cohérent avec notre propre revue de la littérature. Cet article, tout comme un autre datant de quelques années (Stone et al, 2008), aboutit néanmoins à des résul-tats ambigus concernant la relation entre les conditions de travail et la santé des patients, ce qui inclut les heures supplémentaires. Les deux articles concluent en suggérant que davantage de recherches soient effectuées sur ce sujet. Notre projet de mémoire semble donc s’inscrire dans cette nécessité. Il évite d’une part, comme nous allons le voir plus loin, les critiques concernant les régressions sur des données en coupe transversale, et d’autre part, les critiques concernant les problèmes d’endogénéité.

En terminant, si toute cette question de l’incidence des heures supplémentaires sur la santé des patients en est une de la plus grande importance, cela est particulièrement le cas pour les départements de néonatologie, là d’où proviennent nos données. Ces départements reçoivent les nouveau-nés les plus mal en point, entre autres parce qu’ils sont prématurés, qu’ils ont un poids trop faible, ou parce qu’ils souffrent d’un problème de développement. Dans ces dépar-tements, les patients sont donc singulièrement à risque d’infections et de complications, et la méthode de prise en charge de ceux-ci peut avoir un effet important sur leur santé. Almond et al (2010) le démontrent bien en étudiant l’impact d’une méthode d’intervention lourde dans les années 90. À l’époque, on considérait les enfants pesant moins de 1500 grammes particu-lièrement à risque de problèmes de toute sorte comparativement aux enfants plus lourds. Les médecins ont donc développé un protocole d’intervention lourde auprès de ces enfants afin de leur assurer la quantité et la qualité maximale de soins. Les enfants pesant plus de 1500 grammes n’avaient quant à eux pas droit à ce traitement spécial. Ce que trouvent Almond et al, c’est que les enfants pesant juste un peu moins que le seuil 1500 grammes ont une espérance de survit à un an plus élevée que ceux juste un peu plus lourds que le seuil. On voit ainsi que ce type d’enfants sont très sensibles à la façon dont ils sont pris en charge. Il est donc fondamental de s’assurer que les conditions optimales sont mises en place pour leur venir en aide.

(16)

Chapitre 2

Méthodologie

Dans ce chapitre, nous présentons le modèle économétrique que nous mettons en place pour estimer l’effet des heures supplémentaires des infirmières et infirmiers sur la santé des patients en milieu hospitalier. Puisque nous cherchons à voir si des patients subissent ou non un évène-ment durant leur séjour, nous estimons un modèle probit en panel. Notre modèle panel est de type pooled avec effet aléatoire corrélé. Enfin, puisque nous craignons un potentiel problème d’endogénéité, nous utilisons la spécification des variables instrumentales. Ce type de modèle a été proposé notamment par Papke et Wooldridge (2008). Dans la suite de ce chapitre, nous présentons ce qu’est plus exactement un problème d’endogénéité, et comment la méthode des variables instrumentales peut y répondre. Nous présentons ensuite en quoi consiste le modèle probit. Enfin, le modèle à effet aléatoire corrélé est présenté.1

2.1

Endogénéité et variables instrumentales

2.1.1 Endogénéité

On peut présenter le problème d’endogénéité de la façon suivante. Prenons un modèle écono-métrique tel que celui présenté en (2.1), où yi est la variable dépendante, Xi la matrice des

variables explicatives, β le vecteur des paramètres à estimer, et ui un terme d’erreur.

L’es-timation sans biais des paramètres contenus dans β peut se faire sous certaines hypothèses. L’une de ces hypothèses est l’exogénéité du terme d’erreur. Cette hypothèse stipule que le terme d’erreur ne doit pas être corrélé aux variables explicatives du modèle, tel qu’illustré en (2.2). Ce que l’on appelle un problème d’endogénéité, c’est lorsque cette hypothèse est violée.

yi = Xiβ + ui (2.1)

corr(ui, Xi) = 0 (2.2)

1. La documentation pour ce chapitre provient de plusieurs sources, notamment Cameron et Trivedi (2005), Greene (2011) et Wooldridge (2002).

(17)

Comme nous l’avons vu dans le chapitre précédent, les modèles utilisés jusqu’ici dans la lit-térature souffrent d’un possible problème d’endogénéité. Trois causes peuvent engendrer de l’endogénéité dans un modèle économétrique. La première est lorsqu’il y a une variable explica-tive qui est omise dans le modèle. Une telle omission ne cause cependant pas automatiquement un problème. C’est le cas uniquement lorsque la variable omise est corrélée à une ou plusieurs autres variables explicatives du modèle. Dans notre revue de la littérature, ce problème sur-vient par exemple lorsqu’une étude fait des analyses en comparant différentes unités de soins, mais ne considère pas la technologie accessible dans chacune des unités. L’omission de cette variable peut causer de l’endogénéité, puisque la technologie peut être corrélée au fait qu’un hôpital soit affilié ou non à un lieu d’enseignement. La seconde cause est lorsque survient une erreur de mesure dans l’une des variables explicatives. Enfin, la troisième source d’endogénéité est un problème de simultanéité, c’est-à-dire que la variable dépendante et la variable explica-tive problématique sont toutes deux fonctions l’une de l’autre. C’est de cette dernière source que provient notre potentiel problème d’endogénéité.

Dans notre cas, la situation problématique peut être présentée de façon plus spécifique se-lon le raisonnement suivant. Il est possible que les heures supplémentaires travaillées par le personnel infirmier aient, par exemple, un effet néfaste sur la santé des patients, puisque les travailleuses et travailleurs sont plus fatigués et distraits. Cependant, il est aussi possible qu’un patient en moins bonne santé nécessite plus de soins, et soit donc plus susceptible d’être exposé à des heures supplémentaires.

yi = β0+ β1xi+ ui (2.3)

xi = α0+ α1yi+ νi (2.4)

Ainsi, si dans (2.3) et (2.4), yi représente la santé d’un patient et xi représente le nombre

d’heures supplémentaires auquel il est exposé, on voit bien que xi affecte yi, c’est-à-dire que

les heures supplémentaires affectent la santé du patient. Cependant, on voit également que la variable xi est elle-même fonction de yi, donc que la santé du patient affecte elle-même le

nombre d’heures supplémentaires travaillées. Les deux variables se définissent donc simultané-ment. En ne contrôlant pas pour ce problème, l’estimation des paramètres dans la régression simple de yi sur xi sera biaisée. Pour bien saisir ce problème, supposons la formulation

ci-dessous permettant d’obtenir les coefficients de l’équation (2.1)

ˆ

β = (Xi0Xi)−1X10yi (2.5)

L’hypothèse d’exogénéité du terme d’erreur peut également être formulée de la façon suivante : E[Xi0ui|Xi] = 0. La violation de cette hypothèse implique E[Xi0ui|Xi] = γ. Ainsi, si l’on

(18)

ˆ

β = (Xi0Xi)−1X10yi

= (Xi0Xi)−1Xi0(Xiβ + ui)

= (Xi0Xi)−1Xi0Xiβ + (Xi0Xi)−1Xi0ui

= β + (Xi0Xi)−1Xi0ui

Si l’on prend ensuite l’espérance de la dernière étape, on obtient

E[ ˆβ|Xi] = E[(β + (Xi0Xi)−1Xi0ui|Xi]

= β + (Xi0Xi)−1E[Xi0ui|Xi]

= β + (Xi0Xi)−1γ

On voit que l’estimation des coefficients sera systématiquement biaisée par le facteur (Xi0Xi)−1γ.

Une méthode qui permet de répondre à cette endogénéité est celle des variables instrumentales.

2.1.2 Variables instrumentales

Une variable explicative à laquelle est corrélé le terme d’erreur est appelée une variable endo-gène. Ainsi, lorsque cette variable varie, elle engendre non seulement des variations dans yi,

mais également dans ui. Pour obtenir une estimation des paramètres qui ne soit pas biaisée, nous avons besoin de variations de cette variable qui soient exogènes, c’est-à-dire engendrant uniquement des variations dans yi, notre variable dépendante. Autrement dit, ces variations

doivent provenir de l’extérieur du modèle qu’estime l’équation. Pour obtenir ces variations exogènes, nous avons besoin d’une variable instrumentale, appelée parfois plus simplement un instrument.

Une variable instrumentale est une variable qui nous permet de générer des variations de la variable endogène qui sont exogènes, c’est-à-dire qui n’affectent pas le terme d’erreur. Pour ce faire, la variable instrumentale doit respecter deux critères. Tout d’abord, elle doit bien évidemment être corrélée à la variable endogène qui pose problème. Ensuite, elle ne doit pas être corrélée au terme d’erreur. Ces critères sont respectivement représentés par (2.6) et (2.7), où zi est la variable instrumentale et xe la variable endogène. Dans notre cas, notre variable instrumentale doit ainsi être corrélée aux heures supplémentaires, mais non à la santé des patients.

corr(zi, xe) 6= 0 (2.6)

corr(zi, ui) = 0 (2.7)

Si ces deux conditions sont remplies, nous pouvons utiliser les variations de l’instrument pour expliquer une partie des variations de la variable endogène. Puisque l’instrument n’est pas

(19)

corrélé au terme d’erreur, les variations de la variable endogène ne le seront pas non plus. Le problème d’endogénéité sera donc résolu. Il est important de noter que plusieurs variables ins-trumentales peuvent être utilisées pour expliquer les variations d’une seule variable endogène. Si nous possédons une seule variable instrumentale pour la variable endogène, on dit alors que le modèle est exactement identifié2. Si nous possédons plusieurs variables instrumentales pour une variable endogène, le modèle est alors suridentifié. Il est également possible qu’un modèle économétrique soit composé de plusieurs variables endogènes. Il faut alors trouver au moins un instrument pour chacune d’elles.

De façon formelle, la procédure pour estimer un modèle linéaire par variables instrumen-tales se fait généralement de deux façons. Pour des raisons de simplicité, nous considérons dans les démonstrations suivantes un modèle n’ayant qu’une seule variable endogène ; le même raisonnement s’applique pour des modèles ayant plusieurs variables problématiques. Lorsque le modèle est exactement identifié, nous pouvons obtenir une solution selon la méthode des moments. On doit alors résoudre le problème E[Zi0ui] = 0, où Zi est la matrice contenant les

variables endogènes qui ont été remplacées par leur instrument ainsi que les variables expli-catives non problématiques et ui le terme d’erreur d’une régression linéaire. Il est à noter que

ce problème est la condition d’exogénéité des instruments par rapport à l’équation principale. Soit cette condition E[Zi0ui] = 0, en échantillon fini on obtient alors

1 N N X i=1 Zi0ui = 1 N N X i=1 Zi0(yi− Xiβ) = 0

où la matrice Xi est la matrice contenant les variables explicatives de la régression linéaire

qui souffre d’endogénéité. Sachant que nous avons un seul instrument pour chaque variable endogène, il est important de voir que Zi et Xi sont de même dimension. Ainsi, on peut effectuer le développement suivant

1 N N X i=1 Zi0ui = 1 N N X i=1 Zi0(yi− Xiβ) = 0 ⇒ 1 N N X i=1 Zi0ui = 1 N N X i=1 Zi0yi− 1 N N X i=1 Z0Xiβ = 0 ⇒ 1 N N X i=1 Zi0yi = 1 N N X i=1 Z0Xiβ + 1 N N X i=1 Zi0ui= 1 N N X i=1 Zi0Xiβ

Étant donné que Zi et Xi sont de même dimension, Zi0Xi est une matrice carrée. On obtient

donc

(20)

β = " 1 N N X i=1 (Zi0Xi) #−1 1 N N X i=1 Zi0yi βV I = (Zi0Xi)−1Zi0yi

La seconde façon est utile lorsque nous avons un modèle suridentifé. Nous procédons alors en deux étapes. Nous devons d’abord estimer l’équation de la première étape telle que présenté en (2.8). Dans cette équation, la variable dépendante est la variable endogène xe du modèle

principal, Zi est la matrice contenant les variables instrumentales ainsi que les autres variables explicatives de yi non problématiques, α est un vecteur de paramètres à estimer, et i est un

terme d’erreur.

xe= Ziα + i (2.8)

Suite à l’estimation de ce modèle, la méthode traditionnelle récupère la projection de l’équa-tion (2.8), soit ˆxe. On insère ensuite la projection dans l’équation principale, celle par exemple

présentée en (2.1), à la place de la variable endogène. Puisque la projection est expliquée uniquement par les variables instrumentales ainsi que les autres variables explicatives non problématiques, elle est purgée de l’effet endogène. Par une dérivation semblable à celle pré-sentée précédemment, on peut obtenir l’estimation par variables instrumentales suivante :

ˆ

βV I = ( ˆXi 0

Xi)−1Xˆiyi (2.9)

En définissant Mz la matrice produisant des résidus de la régression d’une variable quelconque

sur Zi, et sachant que Mz est symétrique et idempotente, on peut arriver à

ˆ βV I = ( ˆXi 0 Xi)−1Xˆiyi = (Xi0(I − Mz)Xi)−1Xi0(I − Mz)yi = ( ˆXi 0 ˆ Xi)−1Xˆiyi

On voit ainsi que pour un modèle linéaire, l’estimation des coefficients se fait sensiblement de la même façon que les moindres carrés ordinaires, seulement les variables problématiques sont remplacées par leur projection purgée de l’effet endogène.

Lors de l’estimation de la matrice de variance-covariance avec la méthode des variables ins-trumentales, les résidus de la régression s’obtiennent selon

ˆ

ui = yi− XiβˆV I

où βV I est le vecteur des coefficients obtenus lors de la procédure en 2 étapes, et Xi est la

(21)

plutôt que les instruments ou les projections des variables. Ainsi, l’estimation de la variance se fait selon ˆ σ2V I= 1 N N X i=1 (yi− XiβˆV I)2

La méthode par introduction de la projection est la méthode standard lorsque l’on fait des es-timations par variables instrumentales. Une spécification alternative existe cependant. Il s’agit plutôt de récupérer les résidus de la régression en (2.8) et de les introduire dans la régression principale, avec la variable endogène telle qu’elle est. L’idée derrière cette pratique est que la variable endogène subit des variations de deux types : exogènes et endogènes. Les variations exogènes sont celles expliquées par les variables contenues dans la matrice Zi de l’équation (2.8). Ce sont donc elles que l’on retrouve dans la projection utilisée dans la méthode stan-dard. Les variations endogènes demeurent quant à elles dans le résidu de la régression (2.8). Ainsi, selon cette logique, lorsque l’on introduit le résidu de la première étape dans la régres-sion principale, celui-ci capte l’effet endogène associé à la variable problématique. Ainsi, les variations restantes de la variable problématique ne sont plus qu’exogènes.

Cette spécification a deux avantages. Tout d’abord, il a été démontré qu’elle converge plus rapidement (Terza et al, 2008). L’intuition pour ce résultat est assez simple. En utilisant la projection de la variable problématique, nous répondons au problème d’endogénéité, mais n’ex-ploitons qu’une partie des variations de la variable endogène, les variations exogènes. Ainsi, une plus grande part de la variable dépendante demeure inexpliquée. Avec la méthode par introduction du résidu, nous contrôlons aussi pour l’endogénéité, mais exploitons cependant toutes les variations de la variable endogène. Une plus petite part de la variable dépendante reste alors inexpliquée. C’est pourquoi cette méthode converge plus rapidement.

Le second avantage de cette spécification est que l’inclusion des résidus de la première étape dans l’équation principale permet de tester si ces résidus sont bien endogènes. L’idée est que, si ces résidus contiennent les variations endogènes de la variable problématique, ils devraient alors avoir un effet sur la variable dépendante. Si ce n’est pas le cas, il est possible que la variable que l’on soupçonnait d’être endogène n’avait en fait pas de problème. Le test pour vérifier cette hypothèse est un simple test de Student sur le coefficient des résidus dans la ré-gression principale. Si ce test ne permet pas de rejeter l’hypothèse nulle qui est que le coefficient n’est pas différent de zéro, alors cela est une indication que la variable problématique n’est possiblement pas endogène. Ce test a été proposé initialement par Hausman (Hausman, 1978).

Comme nous l’avons spécifié en début de chapitre, nous estimons dans notre cas un modèle par maximum de vraisemblance plutôt que par la méthode des moindres carrés ordinaires. Les

(22)

développements ci-haut concernant l’estimation des coefficients ne correspondent donc pas exactement à la méthode que nous utilisons pour nos estimations. Cependant, ils démontrent bien la cohérence de la méthode. Également, la procédure à deux étapes, soit l’estimation des résidus en premier lieu dans un modèle linéaire et l’introduction par la suite de ceux-ci dans le modèle principal, demeure valide. Le modèle principal sera dans notre cas un modèle probit.

2.1.3 Tests des hypothèses

Nous avons mentionné que les instruments devaient respecter deux hypothèses, soit d’être exogènes et pertinents. Nous présentons ici comment nous pouvons tester ces hypothèses.

La première condition est l’exogénéité des instruments, c’est-à-dire qu’ils respectent la condi-tion (2.7). Une violacondi-tion de cette hypothèse peut mener à des problèmes de biais. Pour s’en convaincre, on peut se référer à la formulation en (2.10). Supposons un modèle linéaire avec une variable endogène et un instrument permettant d’expliquer celle-ci. On peut montrer que

plim ˆβV I = cov(zi, yi) cov(zi, xe)

= β + cov(zi, ui) cov(zi, xe)

(2.10) où zi est l’instrument expliquant la variable endogène xe. On voit que les coefficients estimés

par variables instrumentales seront biaisés asymptotiquement si zi n’est pas exogène au terme d’erreur, puisque qu’alors cov(zi, ui) 6= 0. Cela fait en sorte que le terme à droite n’est pas nul

et donc que l’estimateur diverge de la vraie valeur de β à estimer.

Lorsque le modèle est exactement identifié, cette exigence d’exogénéité est une hypothèse qu’on ne peut vérifier. On doit alors élaborer une explication crédible qui justifie l’hypothèse d’exogénéité. Par contre, lorsque l’on possède plus d’une variable instrumentale pour une même variable endogène, on peut tester l’hypothèse. L’idée derrière le test d’exogénéité est que lorsque nous avons un modèle suridentifié, chaque instrument pourrait être utilisé seul pour estimer le modèle. Si tous les instruments sont bien exogènes, les coefficients estimés avec chacun d’eux individuellement ne devraient pas trop différer entre eux. Si l’un d’entre eux s’écarte des autres, cela suggère qu’au moins l’un des instruments n’est pas exogène. Cependant, même si tous les paramètres estimés sont semblables, cela ne confirme pas l’exo-généité. En effet, il pourrait être possible que les estimateurs soient simplement tous biaisés de la même façon. Ce test permet donc seulement d’appuyer les hypothèses, mais ne remplace pas la théorie économique justifiant le choix des instruments.

Ce test est la J-Statistic développée par Sargan (1958) et actualisée par Hansen (1982) pour les résidus non i.i.d.3 La procédure pour ce test va comme suit. On estime d’abord un modèle est deux étapes. On récupère ensuite les résidus de l’équation principale telle que

(23)

ˆ

ui = yi− XiβˆV I

où la matrice Xicontient les variables endogènes non modifiées et les variables explicatives non

problématiques, et le vecteur βV I les coefficients estimés avec la méthode des variables

instru-mentales. On peut alors effectuer la régression de ces résidus sur nos variables instrumentales selon l’équation

ˆ

ui = Ziθ + µi (2.11)

où la matrice Zi contient nos variables instrumentales et les variables explicatives non problé-matiques. Selon l’hypothèse que les instruments sont exogènes, le test vérifie que les coefficients contenus dans le vecteur θ sont égaux à zéro. L’intuition de ce test est que les résidus ˆui de

l’équation principale contiennent la partie non expliquée de yi. Si cette partie non expliquée est

corrélée aux instruments, alors les instruments ne sont nécessairement pas exogènes à l’équa-tion principale. Ainsi, si nous rejetons H0, c’est donc que les instruments sont endogènes. Formellement, nous obtenons la statistique selon

J = ˆu0iZiSˆ−1Zi0uˆi

où ˆui = yi− Xi0βV I et S = n1

P

iu2iZiZi0. Sous H0, la statistique est distribué selon une χ2

avec (m − k) degrés de liberté, où m est le nombre d’instruments et k le nombre de variables endogènes. Ce test a cependant été développé pour les modèles linéaires. Or, nous estimons dans notre cas un modèle probit. Afin d’obtenir la J-Statistic, nous estimerons donc aussi un modèle linéaire en probabilité. Ce modèle ne fera cependant pas l’objet d’analyse et sera uniquement utilisé pour obtenir cette statistique.

En ce qui concerne la pertinence des instruments, elle se teste de façon simple. Une façon de procéder est d’effectuer un test de Fisher partiel sur les paramètres de l’équation de la première étape. On teste de façon jointe les coefficients des instruments. Nous allons voir plus loin les détails de ce test, mais une évaluation rapide est de vérifier si la valeur de la statistique F est supérieure à 10 (Stock et Yogo, 2005). Si tel est le cas, la pertinence des instruments est établie. Ainsi, toute corrélation entre la variable instrumentale et la variable exogène qui répond à cette règle permet de répondre à la condition de pertinence en permettant une convergence asymptotique. Cependant, il faut mentionner qu’un biais peut survenir dans les petits échantillons lorsque nous utilisons la méthode par variables instrumentales. Supposons un modèle exactement identifié. Nous avons vu que l’estimation des coefficients se fait par

(24)

ˆ

βV I = (Zi0Xi)−1Zi0yi

= β + (Zi0Xi)−1Zi0ui

Si l’on prend l’espérance par rapport à Zi et Xi, on obtient

E[ ˆβV I|Zi, Xi] = β + E[(Zi0Xi)−1Zi0ui|Zi, Xi]

= β + (Zi0Xi)−1Zi0E[ui|Zi, Xi]

Pour que l’estimateur soit sans biais, il faut que la condition E[ui|Zi, Xi] = 0 soit respectée.

Cependant, cette condition implique que E[ui|Xi] = 0. Or, nous utilisons justement la

spéci-fication par variables instrumentales puisque nous croyons que cette hypothèse est violée. On voit donc que l’estimation par variables instrumentales est biaisé en échantillon fini

E[ ˆβV I|Zi, Xi] 6= β

Si l’on retourne au test de Fisher partiel, une valeur F de 5 ou moins laisse penser que le modèle souffre lourdement de ce biais. De grands échantillons permettent toutefois de réduire le biais et de retrouver la convergence asymptotique (que nous ne présentons pas dans le cadre de ce mémoire).

Ces deux conditions que sont l’exogénéité et la pertinence des instruments sont nécessaires à l’estimation par variables instrumentales. Il peut arriver toutefois qu’elles ne soient pas suffisantes à une estimation adéquate et non biaisée. Nous avons soulevé précédemment que tant qu’une corrélation existait entre l’instrument et la variable endogène, l’estimation par variables instrumentales était possible. Cependant, lorsque la corrélation entre un instrument et la variable endogène est ténue, un problème de biais survient, et ce problème persiste même dans de grands échantillons. Dans ce cas, l’instrument est considéré comme faible. Si l’on se refère à la formulation en (2.10), on peut voir que le biais asymptotique peut devenir très grand si cov(zi, xe) est faible. Ultimement, si cov(zi, xe) → 0, alors le biais tend vers l’infini.

C’est pourquoi vérifier si nos instruments sont faibles est primordial.

Il n’existe pas de définition établie de ce qu’est un instrument faible. Il existe cependant des tests afin de vérifier à quel point la relation entre nos instruments et la variable endo-gène est forte. Un test abordé précédemment est un test joint de Fisher sur les coefficients des instruments dans l’équation de la première étape. Ce test est celui de Cragg et Donald. Cependant, le test proposé par Cragg-Donald nécessite des résidus qui sont i.i.d. Comme nous allons le voir plus loin, nous ne supposons pas que nos erreurs sont i.i.d., nous utilisons donc ce test selon la spécification de Kleibergen et Paap (2005) qui utilise les résidus corrigés. Nous avons mentionné précédemment qu’une valeur supérieure à 10 était signe que nos instruments

(25)

sont valides. Stock et Yogo (2005) ont également développé des tables de statistiques permet-tant de vérifier l’importance du biais des variables instrumentales selon la valeur de ce test joint de Fisher. Dans ces tables, plus la valeur de test Fisher est grande, plus le biais est faible. Ces tables sont toutefois à considérer avec précaution, puisqu’elles ont été développées pour la version du test présentée par Cragg-Donald. Nous aborderons néanmoins ces tables dans nos résultats à des fins de vérification.

En somme, la spécification par variable instrumentale est une combinaison de procédures et de tests statistiques de même que de théorie économique. Elle permet des analyses perti-nentes lorsque les instruments sont adéquats et les échantillons sont importants. Comme nous allons le voir, nous croyons répondre à ces critères.

2.2

Probit

Comme nous l’avons spécifié précédemment, nous estimons dans notre cas un modèle probit. Le modèle de maximum de vraisemblance probit repose sur un modèle à variable latente. Supposons un modèle linéaire tel que

yi∗= Xiβ + ui

où yi∗ est une variable continue, Xi une matrice de variables explicatives, et ui un terme

d’erreur distribué selon une loi N (0, σ2). Cependant, nous n’observons pas yi∗. Ce que nous observons plutôt, c’est

yi =

( 1 0

(2.12)

Dans notre cas, yi prend la valeur 1 si individu a subit un accident, contracté une infection ou est décédé à une période donnée. Supposons

P r(yi = 1) = P r(yi∗ > 0) = P r(Xiβ + ui > 0) = P r(ui > −Xiβ)

c’est-à-dire que yi prend la valeur 1 lorsque la variable latente yi∗ est supérieure à zéro, et la valeur 0 autrement. Ainsi, on obtient4

P r(yi= 1) = P r(ui > −Xiβ) = P r(ui < Xiβ)

4. Dans la formulation suivante, le passage P r(ui> −Xiβ) = P r(ui< Xiβ) est possible si la distribution

(26)

P r(yi= 0) = P r(ui ≤ −Xiβ) = P r(ui ≥ Xiβ)

Précédemment, nous avons défini ui ∼ N (0, σ2). La distribution normale du terme d’erreur

est ce qui caractérise le modèle probit. Ainsi

P r(ui < Xiβ) =

Z Xiβ

−∞

φ(ui) du

où φ est la distribution normale

φ(ui) = 1 √ 2πσ2exp(− 1 2σ2u 2 i)

D’après ce que nous venons de voir, on peut définir P r(yi = 1) et P r(yi = 0) de la façon

suivante P r(yi = 1) = Z Xiβ −∞ φ(ui) du = Φ(Xiβ) P r(yi= 0) = Z ∞ Xiβ φ(ui) du = 1 − Φ(Xiβ)

Un individu peut prendre un seul état ; la contribution de cet individu à la vraisemblance peut ainsi s’écrire

f (yi|Xi) = P r(yi = 1)yiP r(yi= 0)1−yi

où yi = {0, 1}. Sachant que les probabilités sont issues d’une loi normale, on peut réécrire

cette densité

f (yi|Xi) = Φ(Xiβ)yi(1 − Φ(Xiβ))1−yi

La probabilité jointe de deux évènements indépendants est le produit des probabilités de cha-cun des évènements. Par l’hypothèse que nos observations sont indépendantes et identiquement distribuées, on peut définir la vraisemblance comme la probabilité d’observer simultanément notre échantillon en entier. En supposant que nous connaissons la distribution de nos obser-vations, on peut définir la vraisemblance conditionnelle5 comme

L(yi|Xi, β) = N

Y

i=1

f (yi|Xi)

(27)

Dans le cas du modèle probit, la vraisemblance s’écrit ainsi L(yi|Xi, β) = N Y i=1 Φ(Xiβ)yi(1 − Φ(Xiβ))1−yi

L’objectif de la méthode du maximum de vraisemblance est de trouver les β qui maximisent la vraisemblance que nous venons de définir, soit β = argmax

β

L(yi|Xi, β). Dit autrement, nous

cherchons les β qui rendent la probabilité d’obtenir simultanément nos observations la plus élevée possible. Ce problème se pose comme un problème d’optimisation standard dans lequel nous cherchons le maximum d’une fonction. Cependant, puisque la fonction est un produit de Φ, la fonction cumulative de la loi normale, dériver notre vraisemblance pourrait être laborieux. C’est pourquoi, de façon générale, nous travaillons plutôt avec le log de la fonction de vraisemblance. Cette transformation nous donne ce qu’on appelle la fonction objective qui a la forme suivante : lnL(yi|Xi, β) = 1 N N X i=1 {yiln Φ(Xiβ) + (1 − yi)(1 − ln Φ(Xiβ))}

Pour résoudre le problème de maximisation appliqué à cette fonction, nous devons résoudre les conditions de première ordre de sorte que

∂lnL(yi|Xi, β)

∂β = 0

Le vecteur des dérivées premières, appelé vecteur de score, consiste en

h(y, X, β) = ∂lnL(yi|Xi, β) ∂β = 1 N N X i=1 ∂lnf (yi|Xi, β) ∂β = N X i=1 hi(yi, Xi, β)

Le problème de maximisation de vraisemblance peut ainsi s’écrire alternativement

N

X

i=1

hi(yi, Xi, β) = 0

Ce type de problème ne possède pas de solution évidente ni facile à dériver, c’est pourquoi son estimation est faite par ordinateur via des systèmes itératifs qui cherchent la valeur des β la plus probable.

Pour obtenir la matrice de variance-covariance de l’estimateur, nous pouvons utiliser ce que nous venons de voir. En espérance, le problème de maximisation solutionne

(28)

E ∂lnf (yi|Xi, β) ∂β  = Z ∂lnf (yi|Xi, β) ∂β f (yi|Xi, β)dy = 0 (2.13) Selon certaines propriétés du calcul différentiel et intégrale, il est possible de montrer que l’on peut dériver l’équation (2.13) de façon à obtenir

− Z ∂2lnf (yi|Xi, β) ∂β∂β0 f (yi|Xi, β)dy = Z ∂lnf (yi|Xi, β) ∂β ∂lnf (yi|Xi, β) ∂β f (yi|Xi, β)dy −E[H(y, X, β)] = E[h(y, X, β)h(y, X, β)0]

où H(y, X, β) est la matrice hessienne de la fonction objective (matrice des dérivées secondes) et E[h(y, X, β)h(y, X, β)0] l’espérance du produit du vecteur de score avec lui-même. Connaissant la définition de la variance suivante

var(x) = E(x2) + E(x)2 on peut définir la variance de notre estimateur telle que

var[h(y, X, β)] = E[h(y, X, β)h(y, X, β)0] + E[h(y, X, β)]2 Sachant que par construction

E[h(y, X, β)] = 0

la variance de notre estimateur est donc

var[h(y, X, β)] = E[h(y, X, β)h(y, X, β)0] où, comme nous l’avons vu précédemment, h(y, X, β) est défini comme

h(y, X, β) = 1 N N X i=1 ∂lnf (yi|Xi, β) ∂β

Évidemment, ce type d’estimation repose sur des hypothèses. Une hypothèse fondamentale, commune aux moindres carrés ordinaires, est l’exogénéité du terme d’erreur. À cela s’ajoutent deux hypothèses importantes qui ont été abordées précédemment, mais sur lesquelles il est tout

(29)

de même pertinent de revenir clairement. Tout d’abord, puisque le modèle de maximum de vraisemblance utilise la propriété que la probabilité jointe de deux évènements indépendants est le produit des probabilités inidivuelles de chaque évènement, l’hypothèse d’indépendance des observations est fondamentale. Si ce n’est pas le cas, la spécification de la vraisemblance serait différente.

Également, nous avons fait l’hypothèse que toutes les observations sont identiquement dis-tribuées, donc suivant la même loi de probabilité. Dans notre cas, cette loi est la loi normale. C’est l’hypothèse que nos données suivent une loi normale qui fait en sorte que nous estimons un modèle probit. Si l’on supposait plutôt que nos données suivent une loi logistique, nous devrions estimer un modèle logit. Il est important de spécifier que l’estimateur par maximum de vraisemblance est valide si la densité de probabilité est bien spécifiée.

Pour ce qui est des coefficients estimés, ils ne peuvent être directement comparés les uns aux autres, sans manipulation. En effet, dans un modèle linéaire standard, si l’on veut connaitre l’effet marginal d’un xj sur yi, on obtient simplement

∂E(yi|Xi)

∂xj

= βj

Cependant, dans un modèle non linéaire comme le modèle probit, si l’on dérive l’espérance de yi par rapport à xj, on obtient

∂E(yi|Xi)

∂xj

= φ(−Xi0β)βj

On voit que l’effet dépend de la matrice Xi. Ainsi, on peut uniquement, à la vue des

coeffi-cients, considérer leur signe, car celui-ci ne changera pas (puisque φ(Xi0β > 0)), ainsi que leur niveau de significativité. Pour obtenir un coefficient qui puisse être comparé à un coefficient estimé par exemple par moindres carrés ordinaires, on peut estimer le coefficient lorsque toutes les variables explicatives dans la matrice Xi sont à leur moyenne. Cet effet est appelé l’effet partiel aux moyennes des variables.

En revenant au modèle probit, on voit que cet estimateur possède des avantages certains. Il permet notamment des prédictions qui sont bornées entre 0 et 1, ce que ne permet pas, par exemple, l’estimateur en probabilité linéaire. Il serait bien difficile d’expliquer comment on peut prédire pour un individu un risque de subir un évènement avec une probabilité supé-rieure à 1.

(30)

modèle. Dans la section suivante, nous voyons comment notre spécification en panel respecte cette hypothèse, mais fait en sorte que l’estimation de notre variance nécessite des corrections.

2.3

Effet aléatoire corrélé

Des données panel sont des données qui permettent de suivre des individus durant plusieurs périodes. Nous avons donc des variables concernant ces individus qui demeurent constantes dans le temps, et d’autres qui varient. Dans notre cas, nous suivons des patients durant leur séjour en unité de soins de façon quotidienne. Grâce à cela, nous pouvons estimer un modèle de type panel. L’ajout de la dimension temporelle que nous n’avons pas dans les analyses transversales permet de faire des estimations plus sophistiquées. Supposons un modèle linéaire standard en analyse transversale. Soit

yi = Xi0β + ui

Ce que l’analyse en panel nous permet de faire, c’est d’ajouter un terme inobservable propre à chaque individu. Ainsi, notre modèle devient

yi,t = Xi,t0 β + ci+ ui,t (2.14)

où à présent ci est un facteur inobservable individuel. L’analyse en panel consiste à faire des hypothèses sur ce terme inobservable afin d’estimer des modèles. À remarquer également que désormais, les variables sont indicées à la fois à l’individu i et à la période t auxquelles elles correspondent.

L’un des modèles d’estimation en panel est le modèle à effet aléatoire. Ce modèle fait deux hypothèse sur le terme d’hétérogénéité. La première hypothèse sur ci dans un modèle à effet aléatoire est que l’hétérogénéité de chaque individu ne varie pas dans le temps. C’est pourquoi, dans l’équation (2.14), c est indicé seulement en i. La seconde hypothèse est que l’hétérogé-néité de chaque individu n’est pas corrélée aux variables explicatives. Cette hypothèse se définie comme

corr(ci, Xi,t) = 0

Ainsi, puisque le terme inobservable n’est pas corrélé avec les variables explicatives, son omis-sion ne biaisera pas l’estimation des coefficients. Le modèle à effet aléatoire est une estimation par moindres carrés généralisés, via une transformation des variables. Cependant, le modèle à effet aléatoire fait l’hypothèse d’exogénéité stricte. Cette hypothèse spécifie que le terme

(31)

d’erreur est de moyenne zéro conditionnellement aux valeurs passées, présentes et futures des variables explicatives, tel que

E(ui,t|ci, xi,1, ..., xi,T) = 0

Cette hypothèse est cependant très forte. Mundlak (1978) a montré qu’une façon de relâcher cette hypothèse était la spécification en (2.15). Selon cette spécification le terme d’hétérogé-néité est plutôt fonction des moyennes des variables explicatives et d’un terme d’erreur µi, tel

que l’hypothèse présentée en (2.16) est respectée.

ci = γ ¯xi+ µi (2.15)

corr( ¯xi, µi) = 0 (2.16)

C’est cette spécification par effet aléatoire corrélé, parfois appelée spécification à la Mundlak, que nous utilisons pour estimer notre modèle économétrique.

Suite aux recommandations de Papke et Wooldridge (2008), nous estimons notre modèle de façon pooled, c’est-à-dire en considérant chaque période de chaque individu comme une nou-velle observation. Nous devons ainsi modifier légèrement la théorie du modèle probit vue à la section précédente. Nos observations demeurent i.i.d. en ce qui concerne nos individus. Nous observons ces individus sur plusieurs périodes. Sachant que nous observons chaque individu i un nombre de période T , nous définissons le log de la vraisemblance partielle pour chaque individu i comme lnL(yi|Xi,t, β) = T X t=1 lnf (yi,t|Xi,t, β)

qui est la somme du log des vraisemblances à travers toutes les périodes t pour chaque individu. Nous obtenons ensuite les β, l’estimateur du maximum de vraisemblance partielle, en résolvant

argmax β N X i=1 T X t=1 lnf (yi,t|Xi,t, β)

En rappelant que le vecteur de score consiste en

h(y, X, β) = ∂lnL(yi|Xi,t, β) ∂β On voit que problème de maximisation devient

(32)

N X i=1 T X t=1 hi(yi,t, Xi,t, β) = 0

où nous croyons que les erreurs sont corrélées entre les périodes pour un même individu, de sorte que

corr(hi,t, hi,k) 6= 0

La matrice de variance-covariance présentée dans la section précédente n’est donc plus valide. On peut obtenir la matrice de variance-covariance cluster-robust dont nous avons besoin selon la formule suivante ˆ V ( ˆβ) = N X i=1 T X t=1 ∂h0i,t( ˆβ) ∂ ˆβ !−1 N X i=1 T X t=1 T X k=1 hi,t( ˆβ)hi,k( ˆβ)0 N X i=1 T X t=1 ∂hi,t( ˆβ) ∂ ˆβ !−1

Cette matrice est incluse en option dans le logiciel d’analyse statistique que nous utilisons.

En somme, le modèle que nous estimons est un modèle panel pooled probit. Afin de corri-ger pour un éventuel problème d’endogénéité, nous utilisons une spécification par variables instrumentales. Également, pour que nous puissions relâcher l’hypothèse d’indépendance du terme inobservable dans le modèle à effet aléatoire, nous considérons plutôt la spécification à la Mundlak. Enfin, dans le but de prendre en considération les problèmes d’hétéroscédasticité et d’auto-corrélation, nous estimons une matrice de variance-covariance corrigée.

(33)

Chapitre 3

Données

Dans ce chapitre, nous présentons d’où proviennent nos données. Nous incluons également quelques statistiques descriptives afin de saisir les caractéristiques importantes des nouveau-nés auxquels nous nous intéressons. Enfin, nous présentons quelques analyses descriptives qui mettent la table pour le prochain chapitre, celui portant sur les résultats de nos analyses.

3.1

Analyse descriptive

Nos données proviennent de deux sources, soit de l’unité de néonatalogie et de l’administration du CHUL. Elles couvrent une période de 5 ans : du 1eravril 2008 au 31 mars 2013. Nous avons

obtenu l’autorisation d’accès à ces données confidentielles auprès du Comité d’éthique de la recherche du CHU de Québec.

Les données provenant de l’unité de néonatalogie contiennent de l’information sur tous les enfants admis durant ces 5 ans, soit 7430 nouveau-nés. Ces enfants sont identifiés par des numéros générés pour notre étude. Nous possédons de l’information sur ces enfants, comme leur poids à la naissance (en grammes) et leur âge gestationnel (en semaines). Nous savons également leur sexe, s’ils sont nés par voie vaginale ou par césarienne, et s’ils sont nés avec un jumeau. Nous avons ensuite de l’information sur leur mois de naissance, s’ils sont nés la fin de semaine, et durant quelle partie du jour ils ont été admis en néonatalogie.

Notre analyse économétrique porte sur trois indicateurs de santé, à savoir si un enfant a été victime d’un accident durant son séjour, s’il a contracté une infection nosocomiale ou s’il est décédé. Nous conaissons les dates auxquelles les accidents sont survenus, auxquelles les infections ont été détectées via un test de bactériémie, et auxquelles les décès ont été déclarés. Ces informations permettent d’introduire un aspect temporel à notre analyse, et c’est grâce à elles que nous pouvons estimer un modèle panel. Les distributions de certaines caractéristiques des enfants selon qu’ils ont subi ou non un de ces évènements sont reportées dans le tableau

(34)

3.1. Sur les 7430 enfants, 401 ont subi au moins un accident (5,40% de notre échantillon), 246 enfants ont contracté au moins une infection (3,31%), et 257 enfants sont décédés (3,46%).

Table 3.1: Répartition par caractéristiques

Variables Échantillon Accident Infection Décès Nombre d’enfants total 7430 401 246 257

(% de l’échantillon) (100,0) (5,4) (3,3) (3,5) Filles 3239 189 109 118

(%) (43.6) (47,1) (44.3) (45.9) Accouché par césarienne 2850 197 154 74

(%) (38,4) (59,1) (62,6) (28,8) Nouveau-né 5919 299 211 207

(%) (79.7) (74,6) (85,8) (80,5) Né avec un jumeau 926 66 61 35

(%) (12,5) (16,5) (24,8) (13,6)

Les données provenant de l’unité de néonatalogie contiennent également de l’information sur les conditions de l’unité de façon quotidienne. Nous savons chaque jour combien de lits étaient occupés dans l’unité, et combien de nouveaux enfants étaient admis à l’unité. Le nombre de lits occupés moyens durant la période de 5 ans est de 50 lits (ce qui est la capacité maximale théorique de l’unité), allant de 37 lits au plus bas et jusqu’à 58 lits dans les journées les plus lourdes. En moyenne, 4 nouveaux enfants étaient admis chaque jour, et certaines journées ont admis jusqu’à 14 nouveau-nés.

Nos données proviennent également de l’administration du CHUL. Cette dernière nous a permis d’avoir accès à de l’information concernant le personnel infirmier assigné à l’unité de néonatalogie. Nous savons notamment combien d’heures régulières ont été travaillées dans l’unité chaque jour. Cette variable est une indicatrice du nombre d’infirmières ne travaillant pas des heures supplémentaires sur le plancher. Nous avons également accès à notre variable d’intérêt, le nombre d’heures supplémentaires travaillées dans l’unité chaque jour.

Comme nous l’avons vu dans le chapitre précédent, nous utilisons dans notre modèle éco-nométrique une spécification par variables instrumentales. Dans notre étude, nous utilisons comme telles variables les heures payées non travaillées, obtenues elles aussi auprès de l’admi-nistration du CHUL. Les heures payées non travaillées sont, comme leur nom l’indique, des heures payées au personnel infirmier alors que celui-ci n’est pas sur le plancher à prodiguer des soins. Comme exemple d’heures payées non travaillées, on peut penser à des libérations syndicales ou pour des fins d’enseignement, des congés de maternité ou des retraits suite à des blessures.

(35)

Nous avons vu précédemment qu’un bon instrument doit répondre à deux conditions, soient la pertinence et l’exogénéité. Nos instruments sont pertinents, car ils sont fortement corrélés à notre variable endogène, les heures supplémentaires. Nous présentons dans le chapitre suivant les résultats de la régression des heures supplémentaires sur nos instruments, mais pouvons donner ici l’intuition de cette corrélation. Lorsque par exemple une infirmière quitte son poste pour un congé de maternité, elle reçoit une partie de son salaire. Elle est donc sur les listes de rémunération, avec les infirmières travaillant dans l’unité. Cependant, puisqu’elle n’est pas au travail, elle doit être remplacée. Souvent, le remplacement se fait en accordant des heures supplémentaires à une autre infirmière. Les heures payées non travaillées sont donc l’une des raisons expliquant les heures supplémentaires.

La seconde condition d’un bon instrument est qu’il soit exogène, c’est-à-dire non corrélé à la variable dépendante de la régression principale autrement que par son effet sur la variable endogène. Dans notre cas, les heures payées non travaillées ne doivent pas être corrélées à la santé des enfants. Nous croyons que nos instruments répondent aussi à cette seconde condition. La seule façon que les heures payées non travaillées pourraient être corrélées à la santé des enfants, c’est si les infirmières et infirmiers, anticipant la présence d’enfants en mauvaise santé dans l’unité, prennent par exemple des congés mobiles ou demandent des libérations pour une raison quelconque. Nous avons pris soin de sélectionner nos variables instrumentales afin de s’assurer que cela ne puisse pas arriver.

Les catégories d’heures payées non travaillées que nous avons conservées comme variables instrumentales sont les vacances, l’assurance salaire et les absences pour des raisons familiales. Les vacances comprennent les congés planifiés en cours d’année, mais pas les congés mobiles. L’assurance salaire comprend les retraits de moyenne et de longue durée pour cause de bles-sures. Enfin, les congés familiaux sont des congés pour un mariage, un décès ou une grossesse. Comme on peut le constater, aucune de ces catégories ne se prête bien à l’anticipation. C’est pourquoi nous pensons avoir sous la main de très bons instruments.

3.2

Analyse comparative

Dans le tableau 3.2, nous présentons les durées moyennes de séjour pour différents groupes. Nous y présentons aussi le nombre d’heures supplémentaires total moyen auquel les enfants de chacun des groupes ont été exposés. Enfin, puisque le nombre total d’heures supplémen-taires auquel on est exposé augmente nécessairement avec notre durée, nous présentons aussi le nombre d’heures supplémentaires moyen auquel les enfants de chaque groupe ont été exposés de façon quotidienne. Le premier groupe est l’échantillon complet, le second comprend uni-quement les enfants ayant subi au moins un accident durant leur séjour, le troisième contient les enfants ayant contracté au moins une infection durant leur séjour, et le dernier les enfants

(36)

qui sont décédés.

Table 3.2: Durée et heures supplémentaires par évènement Évènement Durée H.S. totales H.S. moyennes Échantillon 14.21 356.51 23.34 (23.28) (607.22) (14.95) Accident 53.96 1375.06 25.51 (49.04) (1381.52) (12.56) Infection 74.82 1887.37 25.07 (48.85) (1429.50) (10.99) Décès 9.61 264.91 26.00 (20.69) (492.84) (19.70)

On voit tout d’abord avec ce tableau qu’un lien certain existe entre la survenue de l’un des trois évènements adverses auxquels nous nous intéressons et la durée de séjour. Subir un accident ou contracter une infection semble être associé à une durée de séjour plus longue, alors que les décès semblent être liés à une durée de séjour plus courte. Évidemment, ce type de tableau ne nous dit rien sur la direction de la relation, car comme il est possible que contracter par exemple une infection augmente la durée de séjour, il est également possible que les enfants passant plus de temps en unité soient par le fait même plus sujets à contracter une infection. La même chose peut être également dite du nombre d’heures supplémentaires total auquel les enfants sont exposés, car si un enfant qui subit un accident demeure plus longtemps en unité, il risque aussi d’être exposé à un nombre total d’heures supplémentaires plus grand. Notre spécification par panel répond à cette limite, car elle observe le lien entre les heures supplémentaires et la survenue d’un évènement de façon quotidienne, donc indépendamment de la durée de séjour.

La dernière colonne du tableau 3.2 est toutefois plus intéressante, car elle capte le nombre d’heures supplémentaires quotidien moyen auquel chacun des groupes a été exposé. Les va-leurs y sont donc indépendantes de la durée de séjour. On y voit que les trois évènements sur lesquels nous portons notre attention semblent être liés à un nombre d’heures supplémentaires quotidien plus important que pour le reste de l’unité. Cette relation peut être due au fait que les enfants qui ont subi une infection ou un accident sont exposés à plus de soins, donc à plus d’heures supplémentaires. Il est aussi possible que les heures supplémentaires augmentent la probabilité de subir un évènement malheureux. Nous voyons donc bien dans ces comparaisons de moyennes que notre inquiétude associée au problème d’endogénéité est fondée.

Des comparaisons de moyennes ne nous permettent cependant pas de cerner le sens de la relation entre les heures supplémentaires et les accidents, les infections et les décès. Une ré-gression simple ne nous serait pas d’un grand secours non plus, dû au problème d’endogénéité que nous venons d’entrevoir dans les statistiques comparatives. Il semble ainsi que notre

(37)

spé-cification par variables instrumentales soit pertinente.

Avant de passer aux résultats, une dernière précision s’impose. Dans nos analyses, nous avons retiré tous les enfants décédés et ayant un séjour en unité de moins de 3 jours. Cette procé-dure a été effectuée sous la recommandation des médecins avec lesquels nous travaillons. La raison qui explique ce retrait est que les enfants décédés si rapidement sont morts puisqu’ils possédaient une santé très précaire. Il s’agit souvent d’enfants nés avec un âge gestationnel de même qu’un poids à la naissance très faible. Les heures supplémentaires auxquelles ils ont été exposés ne peuvent en rien expliquer leur décès. Leur inclusion dans notre analyse n’est donc pas pertinente.

Figure

Table 3.1: Répartition par caractéristiques
Table 3.2: Durée et heures supplémentaires par évènement Évènement Durée H.S. totales H.S
Table 4.1: Première étape : heures supplémentaires Variable Coefficient (Écart-type) AssSalaire 0.165 ∗∗∗ (0.010) Famille 0.177 ∗∗∗ (0.009) Vacances 0.052 ∗∗∗ (0.006) Poids -0.001 (0.000) Cesarienne -0.209 (0.410) Feminin -0.365 (0.350) Jumeau 0.750 (0.468
Table 4.2: Résultats : Avec variables instrumentales
+7

Références

Documents relatifs

Le seul « avantage » de cette loi, du point de vue des salariés, c’est son possible effet boomerang : si les salariés constatent que, sous prétexte de « travailler plus pour

Le temps supplémentaire pour les cadres qui travaillent au-delà de la journée ou de la semaine normale de travail de 40 heures, et ce, en lien avec les besoins exceptionnels

période précédente donc au mois précédent et si en novembre vous avez effectué des heures supplémentaires, vous devez percevoir la même rémunération que si vous étiez présent

Il peut refuser ce 2e CDD, il percevra sa prime de précarité (qui sera très faible) et dans la mesure où il refuse le 2e CDD, il ne pourra prétendre à aucune indemnité des

Primes de rendements, de productivité individuelles Prime de bilan, de rendement attribué sans référence au travail individuel du salarié ou de son équipe.. Commissions sur

Un(e) collègue certifié(e) formulant une demande à 80 % effectuera soit un service de 14 heures sur l’ensemble de l’année scolaire auxquelles s’ajouteront 0,4 × 36 = 14,4

Au 8 e échelon, pour porter la rémunération d’une HS à 125 % de cette heure ordinaire, il faudrait par exemple augmenter le taux annuel de l’HSA de plus de 90 % pour les

Le projet de réforme des lycées, qu’il faut encore faire modifier, accroît le nombre de travaux en petits groupes, inscrit le dispositif d’aide aux élèves et de tra- vaux