• Aucun résultat trouvé

4.5 Application à la survie

Nous avons étudié précédemment les forêts aléatoires de Breiman et médiane dans le cadre de la régression pour des données non censurées, ceci afin de faciliter l’émergence de leurs propriétés. Revenons maintenant aux forêts de survie aléatoires (RSF). On rappelle que, dans cette procédure, à chaque nœud de chaque arbre, on coupe sur un sous-ensemble aléatoire de directions et en maximisant la différence de survie entre chaque cellule fille. Comme pour les forêts de Breiman, un échantillon bootstrappé est utilisé dans la construc-tion de chacun des arbres. On peut retrouver la construcconstruc-tion de ces arbres en détails dans

Ishwaran et al.(2008).

Nous illustrons maintenant les résultats présentés en Section4.3et4.4sur les forêts de survie aléatoires avec les données de cancer du sein collectées à l’Institut Curie introduites en Section2.6. Nous commençons par comparer les ereurs L2d’une forêt de survie classique

(Ishwaran et al.,2008) et d’une forêt de survie semi-développée. En effet, nous avons vu

en Section4.4que ces deux forêts semblaient posséder des risques quadratiques similaires quand le paramètre de profondeur des arbres imposait une profondeur de 30%. La Figure

4.5présente ces erreurs en fonction du nombre d’arbres qui la composent (de 1 à 500). Les covariables considérées ici pour la régression sont l’âge, le grade histologique, le stade du cancer, le statut du récepteur de progestérone et la taille de la tumeur.

Figure 4.10 – Comparaisons de l’erreur L2 de la forêt de survie classique et celle de la forêt de survie semi-développée à 30%

Comme pour les forêts de Breiman et médianes, on constate que les performances de la forêt de survie semi-développée sont similaires à celles de la forêt de survie classique, voire un peu meilleur ici. Pour ajouter un point de comparaison entre ces deux forêts, nous les avons étudiées du point de vue de la classification. La Figure4.11présente donc l’importance de chaque covariable pour les deux forêts. Ici, l’importance d’une variable x est la différence entre l’erreur de prédiction quand x est bruité par permutation aléatoire de sa valeur et l’erreur de prédiction sous le prédicteur original (Breiman,2001;Liaw and

Wiener,2002;Ishwaran,2007). On constate encore une fois, grâce à la Figure 4.5, que la

forêt de survie classique et la forêt de survie semi-développée donnent à peu près la même importance aux mêmes variables. On remarque que le grade histologique et le stade du cancer semblent être les covariables qui expliquent le mieux le temps de décès. Ceci n’est pas surprenant au regard des résultats obtenus en Section2.6.

104

Chapitre 4. Une approche non paramétrique : les forêts de survie aléatoires

(a) Forêt de survie classique (b) Forêt de survie semi-développée à 30%

Chapitre 5

Méthode semi-paramétrique en

essais cliniques de phase I dans les

cas d’ordre partiel

Ce chapitre est issu d’un article en cours de rédaction réalisé en collaboration avec M. Mathieu Clertant, doctorant du LSTA, et peut également être trouvé dans sa thèse

(Clertant,2015).

5.1 Introduction

This study puts itself in the context of dual-agent Phase I clinical trials. The place of these trials in drugs development is more and more important because of the increasing use of drugs combination in therapies. The practical benefits of drugs combination are numerous : several modes of action can be combined or side effects of a drug can be lightened by another one for example. The aim of Phase I trials, typically in oncology, is to find the one or several drug combinations having the toxicity probability the closest to a threshold α, fixed in advance by clinicians. In general, this threshold is around 25%. We name these combinations the maximum tolerated dose (MTD).

There exist some publications about algorithmic designs used to identify the MTD within a discrete set of doses for Phase I trialsStorer(1989);Skolnik et al.(2008) for single-agent trials, Huang et al. (2007) for dual-agent trials. These designs have no modeling, and the escalation, de-escalation rules are determined as a function of some set of the most recent observations, that is why they are used so often. Furthermore they have a Markov property, sometimes referred to in this context as a lack-of-memory property. However such models are flawed and so not fit for purpose, such as almost sure convergence. Multiple model-based designs have been suggested, but they are hardly used in practice. This is even more the case with dual-agent trials because of the complexity and lack of interpretability of the proposed models, but also because of the difficulty to implement these designs with software.

Existing model-based designs can be sorted in two categories. The first one is the class of parametric models. For dual-agent trials, we can cite Wages et al. (2011) with the partial ordering continual reassessment method (CRM), Wang and Ivanova (2005)

and Braun and Jia (2013) with extensions of the CRM, Yin and Yuan (2009a) and Yin

and Yuan(2009b) with copula models, Thall et al. (2003) with a six-parameter

106

Chapitre 5. Méthode semi-paramétrique en essais cliniques de phase I dans les cas d’ordre partiel models. The second one is the class of non-parametric models. For dual-agent trials, we can citeMander and Sweeting(2015) with the product of independent beta probabilities escalation design (PIPE).

In Phase I trials, we are interested in several criteria. Here we consider three of them. Two of them are well explained byAzriel et al.(2011). The first one is called the treatment principle : we want to treat patients at the MTD as often as possible. The second one is called the experimentation principle : we want to obtain a good estimate for the MTD at the end of the study. We know (Azriel et al., 2011) that if the first principle is verified, then the second cannot be, in the sense that we do not have almost sure convergence to the MTD. So there is a trade-off to make, but ideally, we want a design who outperforms the others for these two criteria. The last one is called the coherence, was introduced by

Cheung(2005) and can be explain that way : if we observe a dose-limiting toxicity (DLT)

for the n-th patient, we do not want the design to recommend a higher dose to the (n + 1)-th patient ; in 1)-the same way, if we do not observe a DLT for 1)-the n-1)-th patient, we do not want the design to recommend a lower dose to the (n + 1)-th patient. This last criterion is essential to be confident in the design.

In this chapter, we introduce a new model-based design for dual-agent trials. It is based on the semi-parametric method (SPM) introduced by Clertant (2015) for single-agent trials. In Section 5.2, we recall some useful notations and results presented in Clertant

(2015). In Section5.3, we present our design and some theoretical results, when the target of the trial is the MTD. In Section5.4, we recall the definition of the Maximum Tolerated Contour (MTC) introduced byMander and Sweeting(2015) and extend the SPM in order to target the MTC. Section5.5is dedicated to illustrations of our results for combinations of two drugs and comparisons with other dual-agent trials designs (Wages et al., 2011;

Mander and Sweeting,2015). The proofs are available in Appendix B.

Documents relatifs