• Aucun résultat trouvé

Variabilité aléatoire et choix du seuil de significativité

Déterminer l’existence de la surmortalité des jeunes

2.3 Qualité d’ajustement des modèles

2.3.2 Variabilité aléatoire et choix du seuil de significativité

L’application universelle d’un même seuil de significativité ou du BIC sur l’en-semble des populations est une tâche dont l’objectif est, in fine, de préserver la comparabilité des analyses entre pays et périodes. Idéalement, le R2 et le BIC, et donc la p-valeur du test de Fisher associée, ne devraient dépendre que de la forme du risque de décès, en particulier la taille d’une éventuelle bosse de surmortalité des jeunes adultes. Or, ces mesures dépendent également du niveau général de va-riabilité aléatoire des données.

Cette variabilité s’explique par le fait que le nombre de décés par âge résulte d’un processus stochastique régi par un certain niveau de risque et une population soumise à ce risque. Plus la population et le risque sont faibles, plus le nombre de dé-cès observés est affecté par un aléa non-modélisable. Ce "bruit de fond" augmente donc la part de variance incompressible (inexplicable). En conséquence, l’apport d’un modèle complexe par rapport à un modèle simple est d’autant plus faible que la variabilité aléatoire est importante. La sélection du meilleur modèle dépend donc

de la variabilité aléatoire autant que de la forme du risque de décès.

Afin d’illustrer ce phénomène, prenons une force de mortalité sous-jacenteB(x) qui comporte une bosse de surmortalité et ajoutons un bruit (variabilité aléatoire), de sorte que

qx=B(x) +Vx·κ

Vx est une variable aléatoire de distribution normale centrée réduite, simu-lant un certain bruit stochastique, et κest un facteur mesurant l’amplitude de ce bruit. La figure 2.12[A] illustre deux cas où B(x) etVx sont identiques, mais qui diffèrent par l’amplitudeκ, qui vaut respectivement 10−3 et 2·10−4. Dans le pre-mier cas, le modèle HP parvient à expliquer plus de 90% de la variabilité résiduelle du modèle HPS (R2rel >0.9), apport qui est hautement significatif et permet de conclure à l’existence d’une bosse de surmortalité des jeunes adultes. Dans le se-cond cas, le gain n’est plus que de 34% et a beaucoup perdu en significativité. La différence de BIC entre les deux modèles a, elle aussi, nettement fondu. Ce résultat confirme que tant l’application du test de Fisher que du BIC sur deux populations soumises à des variations aléatoires différentes peut aboutir à des décisions oppo-sées concernant le choix du modèle le mieux adapté, indépendamment de la forme sous-jacente du risque de décès.

Pour mesurer cette association entre la magnitude de la variabilité aléatoireκ et la capacité de distinguer la supériorité d’un modèle comportant une bosse de surmortalité, 100 tables de mortalité ont été générées en gardant constantes les variables B(x) et Vx et en faisant uniquement évoluer κ entre 10−3 et 10−4. En calculant pour chaque population le gain de qualité d’ajustement permis par HP par rapport à HPS (R2rel), ainsi que la différence de BIC (∆BIC), on obtient une relation quasi-linéaire avec κ(figure 2.12[B]). La capacité de HP à capter la va-riance résiduelle de HPS est fortement corrélée (-0.96 pourR2rel, 0.83 pour ∆BIC) avec la magnitude du bruit des données. Nous pouvons donc en déduit que le degré de variabilité des données κ a une influence importante sur la capacité des tests à trancher entre les modèles, alors que ces tests ne devraient idéalement dépendre que de la forme de la fonctionB(x).

En pratique, cependant, il est impossible de connaitre a priori la variabilité Vx·κ. On sait par contre que cette variabilité est liée à la taille de la population et au niveau général de la mortalité, puisque le mécanisme de génération du nombre de décès par âge est un processus binomial14. En effet, le nombre de décés dx

enregistré dans un groupe d’âge d’effectifnx est le résultat de l’application de nx

épreuves de Bernouilli de probabilité égale à q(x)15. En termes plus prosaïques, le destin de chaque individu appartenant au groupe d’âge x est déterminé par un tirage au sort, dont la probabilité de "succès" (donc de décès) est égale àq(x). Le

14. Si l’on considère la quantitéqx, alors il s’agit d’une distribution binomiale. Si l’on considère la quantité mx, il s’agit alors d’une processus de Poisson. Puisque nous travaillons ici avecqx

nous adopterons la première solution.

15. Par la suite,q(x) dénotera la probabilité de décès sous-jacente (non-observée) etqxdénotera le quotient de mortalité observé.

Figure 2.12 – Variabilité aléatoire, significativité du test de Fisher et valeur du

2e−04 4e−04 6e−04 8e−04 1e−03 0.0

rapport qx = dnxx, mesurant la probabilità de décès observée, sera d’autant plus proche deq(x) quenxetq(x) sont élevés.

La relation entre, d’une part, la taille de la population totale et le niveau de mortalité, et d’autre part,R2rel, peut être évaluée par la simulation suivante. Soient une force de mortalité sous-jacente q(x), une structure de population standard sx

(exprimée en pourcentages) et des effectifs par âgenx=λ·sx. Le nombre de décès observésdx est distribué d’après une loi binomiale,

dxB(n=nx, p=q(x))

Supposons en outre que la fonctionq(x) suit un modèle d’Heligman et Pollard, q(x) =HP(x,Θ) où les paramètres Θ correspondent aux valeurs initiales présen-tées plus haut 2.1, et sx est la population européenne standard (Ahmad et al.

2001) exprimée en pourcentages. Nous pouvons ainsi générer autant de séries de décès aléatoires que nécessaire et tester la relation entre la taille de la population λ=P

xnxet la puissance du test de Fisher.

La figure 2.13 illustre la probabilité de décès "observée"qx d’une population artificielle d’un million d’individus (λ= 106), générée aléatoirement. En estimant un modèle de HP sur ces valeurs observées nous observons que le modèle HP (ligne foncée) estime relativement bien le risque sous-jacent q(x) (ligne claire). Dans ce cas, HP permet d’expliquer environ la moitié de la variance résiduelle de HPS (R2rel = 0.5), avec une p-valeur associée de 2e−8 <<0.05. La série de données ne produit ici aucune valeur nulle (tous les groupes d’âge comportent des décès).

Afin d’étudier comment réagissent R2rel et sa p-valeur lorsque la population

Figure2.13 – Quotients de mortalité générés par un processus aléatoire

0 20 40 60 80

−8

−6

−4

−2

Population totale: 1 million

âge

ln(q)

qx

q(x) HP HPS

soumise au risque λ et le niveau de mortalité q(x) varient, il suffit de réaliser le même exercice de simulation pour plusieurs valeurs de λetq(x). Pourq(x), nous conserverons la même forme générale comprenant une bosse de surmortalité, et générerons des variantes proportionnellesq(x) =γ·HP(x,Θ). Ainsi,λetγvarient dans les fourchettes suivantes

λ∈[105; 107] et γ∈[0.2; 5]

soit une population totale allant de 100’000 à 10 millions d’individus, et une probabilité de décès sous-jacente correspondant à une espérance de vie variant de e0= 64.2⇔γ= 5 àe0= 130.5⇔γ= 0.2.

De ces hypothèses nous générons 10’000 séries de données aléatoires, sur la base de 100 valeurs de λx 100 valeurs deγ comprises dans les bornes fixées ci-dessus.

Pour chaque série, nous estimons un modèle HP et HPS, puis calculonsR2relet la

p-valeur associée. Cela permet d’observer les relations suivantes (figure 2.14).

Figure2.14 – Taille de la population, niveau de mortalité et significativité du test de Fisher

R2rel et taille de la population

Taille de la population (millions)

R2rel

R2rel et niveau de la mortalité

Espérance de vie à la naissance

R2rel

R2rel et nombre absolu de décès

Nombre absolu de décès (milliers)

R2rel

p−valeur et taille de la population

Taille de la population (millions)

p−val(HP vs HPS)

p−valeur et niveau de la mortalité

Espérance de vie à la naissance

p−valeur

p−valeur et nombre absolu de décès

Nombre absolu de décès (milliers)

p−valeur

α = 0.10 α = 0.05 α = 0.01

La relation entre taille de la population etR2rel est clairement positive, quel que soit le niveau de mortalité. Par exemple, pour une espérance de vie de 79 ans, le modèle HP n’explique que 20% de la variabilité résiduelle de HPS sur une popu-lation totale de 100’000 habitants, une part qui atteint 70% pour une popupopu-lation totale de 2 millions et plus de 90% pour une population de 10 millions d’individus.

Cela s’explique par le fait que plus la population est importante, plus la variabilité aléatoire diminue, plus cette dernière dépend de la partie déterministe du modèle et plus le modèle HP est capable d’expliquer la variabilité résiduelle.

La relation entreR2rel et le niveau de mortalité est également claire, au moins pour les petites populations. Ainsi, pour une population de 100’000 habitants, le modèle HP explique 40% de la variabilité résiduelle de HPS lorsque l’espérance de vie est inférieure à 70 ans, mais moins de 10% lorsque l’espérance de vie atteint 90 ans. Cela est dû au fait que plus le risque sous-jacent de mortalité est faible, plus le nombre de décès observés est sujet à une variabilité aléatoire.

La combinaison de la taille de la population et du niveau général de mortalité donne le nombre absolu de décès total. Puisque tant la taille de la population que le niveau de mortalité influencent la capacité de HP à surpasser HPS, leur combi-naison devrait offrir une relation plus claire encore. On observe en effet que pour obtenir un R2rel supérieur à 60% il est obligatoire de compter au moins 50’000

décès dans la population (figure 2.14[en haut à droite]).

Transposé sur le degré de significativité (p-valeur), le raisonnement est simi-laire, si ce n’est que la probabilité de rejeter HPS évolue beaucoup plus rapidement que R2rel. En effet, il suffit d’environ 5’000 décès dans la population totale pour que la probabilité de se tromper en affirmant que HP augmente significativement la qualité d’ajustement par rapport à HPS ne dépasse pas 0.01. En dessous de 5’000 décès, le seuil de significativité devrait être rehaussé à 0.05 ou 0.1 (figure 2.14[en bas à droite]).

Cette simulation confirme premièrement la relation positive entre, d’une part, la magnitude de la mortalité et la population soumise au risque et, d’autre part, la variabilité aléatoire. Deuxièmement, elle suggère que le test de Fisher reste tout de même suffisamment concluant au niveau de significativité α= 0.01, à condi-tion que le nombre absolu de décès observés dans la populacondi-tion soit supérieur à 5’000. Si l’on se restreint à des populations comptant au moins 5’000 décès tous âges confondus, il est donc possible de fixer un seuil de significativité fixeα= 0.01 applicable à toutes les populations.

2.4 Synthèse

Le premier objectif de ce chapitre était d’identifier les approches paramétriques de la mortalité modélisant l’évolution du taux de décès au cours de la vie et com-portant un terme capable de capter la bosse de surmortalité des jeunes adulte. Cet objectif a été atteint en mettant en évidence le modèle de Heligman-Pollard (HP) et celui de Kostaki (HPK), dans une version légèrement modifiée. L’expérience a démontré que ces deux solutions permettent de modéliser une bosse de mortalité symétrique (HP) ou non (HPK) de manière efficace, tout en préservant une qualité d’ajustement générale sur le reste des groupes d’âge.

Nous avons également formulé un troisième modèle, HPS, qui est un hybride entre le modèle de Siler et celui de Heligman et Pollard. En effet, afin de préserver l’emboîtement des modèles (nested models), nous avons légèrement reformulé le modèle de Siler afin qu’il corresponde à celui de Heligman-Pollard en tout point, sauf en ce qui conerne la bosse de surmortalité des jeunes adultes, qui est absente dans le premier.

Le deuxième objectif était de contrôler la procédure d’estimation des modèles de mortalité paramétriques, notamment dans l’usage des pondération et la défi-nition de l’algorithme d’optimisation. Concernant le premier point, il est apparu que l’usage des pondérations cubiques défendu par Heligman et Pollard est exces-sif et qu’il est plus indiqué de se contenter de pondérations simples équivalentes à l’inverse du quotient de décès. Quant au second point, l’usage de bornes sur les para-mètres, permis par les algorithmes "port" et de Levenberg-Marquardt, est fortement conseillé afin de limiter les problèmes d’identification en cas de sur-paramétrisation.

Enfin, le troisième objectif était de proposer une procédure capable de com-parer la qualité d’ajustement des différents modèles (HPS, HP et HPK) et de sélectionner celui qui propose le meilleur équilibre entre qualité d’approximation et simplicité. Après une revue des indicateurs possibles et la prise en compte des effets confondants de la variabilité aléatoire, nous avons sélectionné le test de Fisher pour déterminer la force avec laquelle les données supportent l’existence d’une bosse de surmortalité. L’usage d’un seuil de significativité α= 0.01 est possible sur toutes les populations enregistrant au moins 5’000 décès par an.

En conclusion de ce chapitre, nous proposons d’identifier les populations dans lesquelles la surmortalité des jeunes adultes existe de la manière suivante. Premiè-rement, pour chaque population, les modèles HPS, HP et HPK seront tous estimés en utilisant la même procédure standard décrite ci-dessus. Deuxièmement, la qua-lité d’ajustement de HPS sera comparée à celle de HP et HPK. Si ni HP ni HPK ne permettent une amélioration significative de la qualité d’ajustement au seuil de significativité α= 0.01, alors nous en déduirons que la bosse de surmortalité des jeunes adultes n’est pas significative dans cette population. Dans le cas contraire, nous en déduirons que la bosse de surmortalité est suffisamment supportée par les données pour que l’on puisse affirmer qu’elle existe (avec moins de 1% de risque de se tromper).

Quantifier la surmortalité