• Aucun résultat trouvé

Généralisation des résultats de Hagiwara (2002) :

Dans son article : "Regularization learning, early stopping and biased estimator" (2002), Hagiwara présente une interprétation statistique unifiée pour la méthode de l’apprentissage par régularisation et la méthode de l’arrêt prématuré pour les réseaux linéaires, dans le cadre du modèle linéaire. Il démontre que ces deux concepts sont équivalents à l’utilisation d’estima-teurs biaisés qui résulteraient de réseaux conçus pour avoir une erreur de généralisation plus faible que celle de l’estimateur des moindres carrés. Il a également démontré que cet estimateur biaisé est un estimateur rac-courci.

Il a démontré en outre que le paramètre optimal de régularisation ainsi que le temps optimal d’arrêt, au sens de la meilleure qualité de généralisation, sont obtenus en résolvant le dilemme biais-variance.

L’auteur a finalement donné les estimations, à partir des données d’entraî-nement, du paramètre optimal de régularisation et le temps optimal d’arrêt. L’article s’achève avec des simulations numériques pour tenter de montrer que ces estimations sont susceptibles d’améliorer la qualité de généralisation comparativement à la méthode des moindres carrés.

Le travail élaboré tout le long de cette thèse démontre que tous ces résultats peuvent être substantiellement étendus et améliorés.

Tout d’abord, en ce qui concerne l’interprétation statistique unifiée, elle n’est plus seulement relative aux deux méthodes neuronales évoquées ci-dessus, mais elle s’étend aussi à bon nombre d’estimateurs biaisés, connus comme concurrents de l’estimateur des moindres carrés.

En outre, notre interprétation ne se restreint pas uniquement au cadre du modèle linéaire, mais elle s’étend à toute forme de modélisation (non nécessai-rement linéaire) ayant été investie auparavant par la méthode des moindres carrés.

Nous avons souligné, d’autre part, que le principe du raccourcissement est commun à tous les estimateurs biaisés.

Au sujet du paramètre optimal de régularisation et du temps optimal d’arrêt, dans la mesure où la notion d’optimalité est comprise au sens de la moindre erreur de généralisation, nous avons démontré au chapitre 1 en toute généra-lité que, quelle que soit la méthode d’estimation, la réalisation du minimum de l’erreur de généralisation ne peut pas être autre que par la résolution du

dilemme biais-variance.

Le surplus de généralisation des résultats réside dans le fait que l’espérance est prise par rapport à tout l’ensemble d’entraînement (variables explica-tives et variable expliquée). Dans les travaux de Hagiwara, elle n’est prise que par rapport à la variable expliquée. Elle ne tient donc compte que de l’erreur aléatoire incluse dans le modèle sans tenir compte de la fluctuation d’échantillonnage dans les valeurs des variables explicatives ayant contribué à la construction de cet estimateur.

MISE EN APPLICATION

6.1 Résumé

Dans ce travail nous proposons une nouvelle méthode pour l’estimation du délai postmortem. Nous utilisons en cela des réseaux de neurones arti-ficiels à propagation avant et à apprentissage supervisé. Nous avons mené une étude comparative sur un échantillon de 257 individus pour souligner, par rapport aux méthodes traditionnelles, l’avantage considérable qu’apporte cette nouvelle technique dans la précision des estimations.

6.2 Introduction

Un problème important qui se pose en médecine légale est celui de l’esti-mation du délai postmortem. Une recherche a été développée sur de longues décades et a produit des méthodes très diverses, élaborées dans le but d’abou-tir à des estimations acceptables (Naumenko VG, 1984 ; Kaliszan M et al., 2009). Différentes voies ont été explorées, aussi diverses que l’entomologie médicolégale ou les analyses des liquides organiques (Amendt J et al., 2011 ; Lin X et al., 2011). La méthode thermométrique, qui est l’un des princi-paux outils pour l’évaluation de l’intervalle postmortem dans les premières heures qui suivent la mort, a été l’objet d’un intérêt soutenu (Berent J, 2006 ; C.Henssge et al., 2002). Son avantage repose sur le fait qu’elle soit construite sur la base de mesures quantitatives. Des d’hypothèses successives telles que :

– Le refroidissement cadavérique est proportionnel au temps.

– Le flux thermique est proportionnel à la différence de température entre le corps et l’air ambiant ont conduit à l’évolution de la méthode ther-mométrique.

La méthode de Henssge (Henssge C et al., 2002), bien que meilleure que celles qui l’ont précédé, ne résout pas tout à fait le problème, l’intervalle d’estima-tion (plus de trois heures) reste trop large pour répondre correctement à l’exigence des considérations pratiques.

Le problème est que la loi sous jacente au phénomène doit être beaucoup trop complexe pour être saisie par cette formule. Le modèle est manifestement hautement non linéaire, et il n’existe pas encore de connaissances théoriques suffisantes pour déterminer sa structure. Il semble qu’il n’y ait pas encore d’avancées décisives, bien que plusieurs tentatives de modélisation mathéma-tique du phénomène de refroidissement corporelle soient entreprises (Henssge C et al., 1984 ; Biermann FM et Potente S, 2011).

Malheureusement, les observations réelles montrent que les modèles qui en ont résulté, linéaire pour la première hypothèse et exponentiel pour la se-conde, demeurent très imprécis. Le modèle le plus récent et le plus utilisé actuellement est bâti sur la formule proposée par (C.Henssge, 2002). Cette formule tient compte de trois facteurs : La température ambiante, la tempé-rature du corps et la masse corporelle.

Dans ce travail, nous proposons une nouvelle méthode pour estimer délai postmortem. Cette méthode est basée sur les réseaux de neurones artificiels. Elle sera comparé à celle de Henssge, adoptant les mêmes variables prédic-tives