Influence et modèles de survie en présence de compétition 

Télécharger le fichier pdf d’un mémoire de fin d’études

Diagnostics basés sur l’approche delete-One

Les premières mesures d’influence dites case deletion diagnostics fournissent une mesure de l’influence de chaque individu sur chacun des p coefficients de régression [16, 8]. Leur principe est simple. Il consiste à exclure un individu de l’échantillon, ré-estimer les p coefficients de régression du modèle et comparer les estimations obtenues à celles réalisées avec l’ensemble des individus (delete-one approach).
Si on note ˆ(i) l’estimation des coefficients du modèle en excluant l’observation i (on gardera par la suite cette notation pour toutes les estimations faites sans l’observation i), on obtient un p vecteur mesurant les variations de l’estimation des coefficients pour chaque individu i. Cette mesure est connue sous le nom de dfbetai = ˆ−ˆ(i) [16, 17]. On définit aussi dfbetasi = ˆ−ˆ(i) SE(ˆ(i)) qui correspond à la mesure précédente standardisée. Tracer le graphe des dfbetasi contre le rang des observations i ou contre les valeurs xi permet de détecter graphiquement les observations influençantes [10, 15]. Cependant, si ces mesures apportent de l’information sur l’impact d’un individu sur les estimations, elles ont l’inconvénient de fournir une mesure multidimensionnelle de l’influence individuelle.
On définit également les dffiti = yˆ − yˆ(i) qui correspondent aux différences des prédictions effectuées avec ou sans le sujet i [16]. On définit de façon similaire dffitsi en standardisant les dffiti. Là encore, il est recommandé une détection graphique des individus influençants. Néanmoins,l’influence est souvent mesurée par |dffitsi| > 2 q p+1 n−p−1 [16, 15]. Ces mesures présentent l’avantage de résumer l’influence de l’individu i par un scalaire, malheureusement la standardisation dépendant de l’individu i (comme pour les dfbetasi), les comparaisons entre individus sont difficiles.

Modèles de survie en présence de compétition

Données de survie

Dans de nombreuses situations d’épidémiologie clinique, la survie, c’est à dire le délai de survenue du décès, est le critère d’intérêt mesurant le devenir des malades. Son analyse nécessite de recueillir non seulement l’information concernant la survenue ou non du décès, mais surtout le délai de survenue T du décès, calculé depuis une date d’origine (diagnostic ou début du traitement, par exemple) [10, 30].
Le terme « données de survie », devenu générique, s’est secondairement étendu à tout délai de survenue d’un événement en « tout ou rien », tel par exemple une rechute, un sevrage médicamenteux, ou une sortie de l’hôpital. A noter que si les anglo-saxons utilisent le terme de survival data pour décrire ces données, ils emploient également des termes plus généraux tels time to event data ou time to failure data.

Loi de probabilité

Une donnée (un délai) de survie est décrit(e) par une variable aléatoire T positive, dont la particularité est d’avoir en règle une distribution asymétrique à droite. Soit f(t) sa densité.
La loi de probabilité de T est décrite préférentiellement par une fonction de survie S(t) (survival fonction), qui est définie en t comme la fraction d’individus encore en vie en t. C’est donc le complémentaire à 1 de la fonction de répartition de T, F(t) : S(t) = P(T > t) = 1 − F(t) (3.1).

Données de survie en présence de compétition

Dans certains cas, le patient peut être exposé simultanément à la survenue de plusieurs événements, la survenue de l’un annulant ou modifiant la probabilité de survenue des autres [31, 32, 33]. Cette situation où un sujet est exposé simultanément à plusieurs risques exclusifs définit une situation dite de risques compétitifs ou en compétition (Competing risks) (Figure 3.2). C’est par exemple le cas en cancérologie où la rechute avant décès peut entrer en compétition avec le décès avant rechute, mais aussi en réanimation où la sortie vivant de réanimaton peut être considérée comme un risque en compétition du décès en réanimation.

Illustration : Modèle à risques compétitifs pour la mortalité en réanimation

La mortalité des malades admis en réanimation est importante, atteignant en France environ 15% en réanimation et 6 à 25% après la sortie de réanimation [35], soit une mortalité hospitalière d’environ 20 à 40%. Pour mieux établir et comprendre le devenir de ces malades, de nombreux auteurs ont tenté de déterminer les facteurs explicatifs de cette mortalité, c’est à dire rechercher les facteurs qui contribuent à la survenue (ou à la non survenue) du décès, parfois bases de construction de classifications pronostiques [36, 37, 38, 39, 40, 41]. Ces études pronostiques ont ainsi pour objectif de déterminer, parmi les facteurs liés au sujet (notamment en termes de démographie ou de gravité), à la maladie sous jacente, ou aux interventions médicales (par exemple, un traitement antibiotique ou une technique de ventilation assistée), ceux qui sont associés à une sur(sous)-mortalité ou à la survenue d’un événement d’intérêt tel qu’une infection nosocomiale, l’arrêt de la ventilation mécanique ou le sevrage en inotrope.
Si, le plus souvent, l’étude de la mortalité à 28 jours et la modélisation de sa probabilité par un modèle logistique sont privilégiées, l’intérêt se porte parfois sur le délai de survenue du décès ou de tout autre événement d’intérêt. L’utilisation de modèles adaptés aux données de survie parait alors souhaitable. Longtemps, les techniques statistiques proposées en réanimation ont utilisé des approches classiques telles que l’estimateur de Kaplan-Meier et le modèle de Cox en considérant les observations des malades sortis vivants comme des observations censurées à droite non informatives.
Ces données sont cependant un exemple d’une situation de risques compétitifs dans la mesure où chaque sujet est exposé simultanément à deux événements exclusifs, le décès en réanimation et la sortie vivant de réanimation, la survenue de l’un modifiant la probabilité de survenue de l’autre. L’utilisation d’une fonction d’incidence cumulée pour décrire la probabilité de survie en réanimation au cours du temps est alors adaptée. Fonction de sous-répartition, elle permet ainsi de décrire au mieux le fait que lorsque le temps tend vers l’infini, la proportion de sujets admis en réanimation qui décèdent ne tend pas vers 1.
L’estimateur des fonctions d’incidence cumulée spécifiques proposé par Gray [31] et le modèle à risques compétitifs de Fine et Gray [12] sont alors les méthodes adaptées à l’inférence sur la mortalité. Nous avons illustré une telle approche dans un article publié en 2006 dans Critical Care.

Comparaison des modèles pour risques compétitifs via leur mesure d’influence locale

Dans le cadre des risques compétitifs, nous avons vu que l’approche basée sur un modèle de Cox pour la fonction de risque cause-spécifique et l’approche basée sur le modèle de Fine et Gray pour la fonction de risque de sous-répartition [12] étaient deux approches alternatives.
Pour mieux appréhender les différences de modélisation issues de ces deux stratégies, nous avons étudié l’influence individuelle des observations dans ces deux modèles. Les mesures d’influence locale sont en effet un outil intéressant pour identifier les observations ayant une influence importante et pour évaluer les effets sur l’inférence de modifications des données [5, 49]. Ainsi, l’intérêt principal de ces mesures n’est pas de définir le meilleur modèle, mais de fournir une meilleure compréhension de la structure des données dans les deux modèles de régression [6].

Influence individuelle en fonction du rang

La figure 3.3 illustre, pour = 1, n = 200 (effectif associé à une puissance théorique d’environ 0.8) et p′ = 0.7, l’influence locale en fonction du rang pour le modèle de Cox et celui de Fine et Gray. On constate que l’influence locale dépend du rang d’observation pour tous les individus dans un modèle de Cox, mais uniquement pour les individus ayant présenté l’événement d’intérêt dans le modèle de Fine et Gray. En effet, pour les individus n’ayant pas présenté l’événement 1, il n’y a pas de modification de l’influence locale selon le rang d’observation pour une même valeur de X dans le modèle de Fine et Gray. Dans un modèle de Cox, ces mêmes observations ont une influence locale qui croît lentement avec le rang de l’observation, mais avec une augmentation très importante et brutale pour les derniers rangs.
Dans les deux modèles, l’influence locale des observations ayant développé un événement 1 décroît dans un premier temps avec le rang. Elle remonte de façon brutale dans le modèle de Cox pour les derniers rangs. Pour le modèle de Fine et Gray, elle continue de décroître, avec une augmentation terminale uniquement pour des prévalences de l’événement 1 élevées (figure 3.4). D’une manière plus générale, comme pour les individus ayant présenté l’événement 2, le modèle de Cox donne aux derniers individus ayant présenté l’événement 1 une importance beaucoup plus grande que celle accordée dans le modèle de Fine et Gray.

Essais séquentiels de recherche de dose

Les essais de phases précoces, essais de phase I et/ou II, sont les premiers essais cliniques réalisés chez les êtres humains, en règle des sujets volontaires sains, par opposition aux études pré-cliniques réalisées in vitro ou chez l’animal. L’objectif majeur de ces essais, encore appelés essais de recherche de dose, est de définir une dose médicamenteuse sur des critères de tolérance et/ou d’efficacité permettant la poursuite des investigations thérapeutiques par des essais de phase III. En pratique, ils estiment, sur des échantillons de petite taille, en fonction de la dose, la probabilité de survenue d’une réponse en tout ou rien mesurée en règle en termes de toxicité ou de tolérance, et parfois d’efficacité thérapeutique [54].
Les essais de phase I sont centrés sur l’étude de la relation dose-toxicité du nouveau médicament. Ils sont conduits chez le volontaire sain, avec pour objectif principal l’étude de la tolérance du médicament, sur des critères en règle pharmacocinétiques ou pharmacodynamiques. En hémato-cancérologie, pour des contraintes éthiques évidentes, les essais de phase I sont conduits chez le sujet malade. La toxicité est alors considérée comme le pré-requis à l’efficacité. Du fait de l’hypothèse sous-jacente d’une relation dose-toxicité monotone croissante, l’objectif est de choisir une dose dont la toxicité est suffisamment élevée pour espérer une efficacité et suffisamment faible pour pouvoir être évaluée de façon plus large dans un essai de phase II. Cette dose recherchée est dite « dose maximale tolérée » (DMT) (Maximum Tolerated Dose, MTD). La détermination de la DMT doit se faire en exposant le minimum de patients à des doses trop toxiques voire, plus récemment, en exposant le plus de patients possible aux doses efficaces [54].

Schémas de conduite et d’analyse

Comme l’ont souligné Gatsonis et Greenhouse [55], petites tailles des échantillons et considérations éthiques sont les caractéristiques les plus contraignantes des essais de recherche de dose.
Elles expliquent le développement de schémas séquentiels et adaptatifs pour ces essais, selon un double principe : (i) inclure les patients séquentiellement dans l’essai en les traitant à des doses croissantes, et (ii) adapter pour chaque nouvelle inclusion la dose à administrer aux informations disponibles. A partir des observations (doses et toxicités éventuelles) réalisées, une règle d’administration des doses est établie.
Ces schémas se sont développés essentiellement pour les essais de phase I en cancérologie. Le plus ancien et le plus simple, toujours très utilisé, est connu sous le nom de schéma standard’3+3’ [56, 57]. Les français l’appellent volontiers (à tort) schéma de Fibonacci. Cette méthode est non-paramétrique, car elle ne fait aucune hypothèse sous la forme de la relation sous-jacente entre dose et toxicité (en dehors d’une relation monotone croissante). Les doses sont administrées par cohorte de 3 patients et l’essai débute par la dose la plus faible. La règle d’escalade des doses est empirique : en absence de toxicité observée au sein de la cohorte, la dose est augmentée au niveau immédiatement supérieur pour la cohorte suivante ; si une toxicité est observée au sein de la cohorte, une cohorte supplémentaire de 3 patients reçoit la même dose et on évalue l’ensemble des toxicités observées sur les 6 patients inclus : si au moins deux toxicités sont observées, l’essai est arrêté. La DMT est alors définie comme la dernière dose expérimentée, voire parfois la dose immédiatement inférieure (qui prend parfois le nom de « dose recommandée pour les essais de phase II »). On a montré que la DMT ainsi définie avait une probabilité associée de toxicité comprise entre 10 et 29%, avec une moyenne de 20% [56].
Si cette approche et ses multiples variations (schémas ’A+B’, schémas up and down [58]) ont connu et connaissent encore un certain succès, elles ont été peu à peu abandonnées au profit de méthodes de modélisation paramétrique, c’est à dire décrivant la relation dose-toxicité par un modèle mathématique connu à un (ou plusieurs) paramètre(s) près. Ces méthodes ont, en effet, rapidement montré qu’elles étaient plus efficientes [13, 59], nécessitaient moins de sujets et permettaient une plus grande souplesse dans le choix de la probabilité de toxicité ciblée. Elles définissent alors spécifiquement la DMT comme un percentile de la relation dose-toxicité. De l’inférence sur le(s) paramètre(s) du modèle, qu’elle soit bayesienne [13, 60, 61] ou par maximum de vraisemblance [62]), on définit une règle d’administration des doses basée sur l’optimisation d’une fonction dépendant des estimations et de la probabilité visée (typiquement la distance entre les probabilités de toxicité estimées et la probabilité de toxicité ciblée). Parmi ces méthodes, la première proposée, la plus utilisée (et la plus simple à implémenter) est la méthode de réévaluation séquentielle (MRS) proposée dans sa version initiale par John O’Quigley en 1990 (ou Continual Reassessment Method, CRM) [13]. La relation dose-toxicité ne dépend que d’un seul paramètre et la règle de choix de la dose suivante se fait par minimisation de la distance à la probabilité cible. En 1995, Whitehead proposa une méthode séquentielle bayesienne où la relation dose-toxicité est décrite par un modèle logistique à 2 paramètres et l’optimisation se fait via la variance a posteriori des paramètres [60].

Méthode de Réévaluation Séquentielle (MRS) ou Continual Reassessment Method (CRM)

L’objectif de laMéthode de Réévaluation Séquentielle ou Continual Reassessment Method [13] est de déterminer la dose maximale tolérée (DMT), définie comme le (100 × )e percentile de la relation dose-toxicité. Son principe est de modéliser de façon paramétrique la relation dosetoxicité, de réévaluer après chaque sujet ou cohorte le(s) paramètre(s) du modèle, de déterminer (parmi un choix prédéterminé de k doses) la dose ayant la probabilité de toxicité estimée la plus proche de la cible () et de l’administrer à la cohorte suivante (Figure 4.1). L’essai s’arrête après un nombre prédéterminé d’inclusions.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction 
2 Mesure d’influence individuelle pour les modèles de régression linéaire 
2.1 Rappels
2.2 Mesures d’influence individuelle
2.2.1 Diagnostics basés sur l’approche delete-One
2.2.2 Distance de Cook
2.2.3 Influence locale
3 Influence et modèles de survie en présence de compétition 
3.1 Modèles de survie en présence de compétition
3.1.1 Données de survie
3.1.1.1 Loi de probabilité
3.1.1.2 Censure à droite
3.1.1.3 Modèle de régression semi-paramétrique de Cox
3.1.2 Données de survie en présence de compétition
3.1.2.1 Notations
3.1.2.2 Loi de probabilité
3.1.3 Modèles de régression en présence de compétition
3.1.3.1 Modèle pour la fonction de risque cause-spécifique
3.1.3.2 Modèle pour la fonction de risque de sous-répartition
3.2 Illustration : Modèle à risques compétitifs pour la mortalité en réanimation
3.2.1 Evaluating mortality in intensive care units : contribution of competing risks analyses
3.3 Mesure d’influence pour la fonction de risque cause-spécifique
3.4 Mesure d’influence pour le modèle de Fine et Gray
3.4.1 Développement d’une mesure d’influence locale
3.4.2 Etude du modèle par une étude de simulation
3.4.3 Local influence for the subdistribution of a competing risk
3.5 Comparaison des modèles pour risques compétitifs via leur mesure d’influence locale
3.5.1 Méthodes
3.5.2 Résultats
3.5.2.1 Influence individuelle en fonction du rang
3.5.2.2 Implications
3.6 Conclusions
4 Influence individuelle et essais séquentiels 
4.1 Essais séquentiels de recherche de dose
4.1.1 Contexte
4.1.2 Schémas de conduite et d’analyse
4.1.3 Méthode de Réévaluation Séquentielle (MRS) ou Continual Reassessment Method (CRM)
4.1.3.1 Formulation et modélisation de la relation dose-toxicité
4.1.3.2 Inférence
4.1.3.3 Choix de la dose
4.1.3.4 Arrêt de l’esssai
4.1.4 Extension aux essais de Phase II
4.2 Exemple initiateur
4.3 Influence et MRS
4.3.1 Influence individuelle dans les essais séquentiels
4.3.2 Etude de simulation
4.3.3 Adaptive dose-finding designs for non cancer phase II trials : Influence of early unexpected outcomes
4.4 MRS pondérée
4.4.1 Vraisemblance pondérée pertinente Relevance weighted likelihood
4.4.2 Méthode de réévaluation séquentielle pondérée
4.4.2.1 Vraisemblance pondérée pertinente pour la MRS
4.4.2.2 Etude de simulation
4.4.3 Weighted Continual Reassessment Method
4.5 Conclusions
5 Conclusion 

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *