Données de validité en efficacité et reproductibilité des échelles de fragilité dans la population générale

Le vieillissement est un phénomène planétaire. Il reflète une amélioration de la santé et des conditions socio-économiques mais il s’accompagne aussi de difficultés particulières auxquelles tous les pays devront faire face. Il est essentiel de préparer les soignants et les sociétés à répondre aux besoins des personnes âgées. Entre 2015 et 2050, la proportion des 60 ans et plus dans la population mondiale va presque doubler, passant de 12% à 22% .

L’intégration des mesures de fragilité dans la pratique clinique semble important pour le développement des interventions contre les événements indésirables chez les personnes âgées.

De nombreux instruments ont été développés au cours des dernières années afin de dépister les personnes fragiles [3] Une revue systématique de la littérature a été effectuée sur la base de données PubMed en 2015 par le Département Universitaire de Médecin Générale de Brest. Seuls les articles de qualité scientifique indiscutable et axés sur la fragilité ont été inclus. Cette recherche a permis d’extraire 71 échelles de fragilité. Les échelles étaient nombreuses car souvent basées sur des théories semblables, mais différaient sur leurs méthodes de mesure. Deux grandes approches de la fragilité ont été mises en évidence : un phénotype de fragilité physiologique, et une théorie basée sur l’accumulation de déficits. Ces concepts étaient menés par deux principaux auteurs : Fried [4] pour le premier et Rockwood pour le second .

L’objectif de cette étude a été de rechercher les données d’efficacité et de reproductibilité des échelles de fragilité dans la population générale afin de mettre en évidence l’outil le plus adapté pour la population générale.

Cette thèse fait suite à une revue systématique de la littérature effectuée dans la base de donnée PubMed. Seuls les articles publiés et axés sur la fragilité y ont été inclus. L’extraction de données a été réalisée selon la méthode PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-analyses)[7]. Au total 71 échelles de fragilité ont été extraites, basées souvent sur des théories semblables mais avec des méthodes de mesure différentes.

L’étape suivante de cette étude consistait à rechercher les données de validité en efficacité et reproductibilité sur les échelles extraites. La recherche bibliographique additionnelle a été effectuée dans la base de données PubMed avec comme critères d’exclusion l’absence de données sur la reproductibilité de l’échelle, article hors sujet, pas de format IMRAD, échantillon ne représentant pas la population générale (ont été exclus les échantillons de patients hospitalisés, institutionnalisés ou ayant tous une même pathologie), langue : article non disponible en anglais, français, espagnol, échelle non répertoriée dans la revue systématique de la littérature qui n’a retenu que les articles de qualité scientifique indiscutable selon la méthode PRISMA.

La reproductibilité caractérise la validité interne et ainsi la stabilité d’une échelle. Elle a été estimée par l’alpha de Cronbach et par le Kappa de Cohen. L’alpha de Cronbach traduit un degré d’homogénéité (une consistance interne) d’autant plus  élevé que sa valeur est proche de 1. Les résultats se situent entre 0 et 1. Dans la pratique, on considère généralement que l’homogénéité de l’instrument est acceptable si >0,70, satisfaisante lorsque la valeur du coefficient est au moins égale à 0.80. Un alpha > 0,90 indique que les items mesurent des dimensions très semblables.

Le Kappa de Cohen est un indice statistique variant entre 0 et 1 (théoriquement, car dans certains cas il peut assumer des valeurs négatives), utilisé notamment pour évaluer le degré d’accord (de concordance) entre deux juges, évaluateurs ou observateurs quant à la manière de classer un ensemble d’individus ou d’objets dans un certain nombre de catégories définissant les modalités d’une variable nominale (catégories non ordonnées). Pour l’essentiel, ce coefficient peut s’interpréter comme la proportion d’accord (ou de jugements concordants): proportion d’éléments classés de la même manière par les deux juges. Ce qui le différencie du simple calcul d’une proportion (rapport entre le nombre d’éléments identiquement classés et le nombre total d’éléments à classer), est le fait qu’il introduit une sorte de correction pour prendre en compte le fait qu’une certaine proportion d’accord peut (au sens probabiliste du terme) être imputée au seul fait du hasard.

Cet indice traduit un niveau d’accord (de concordance) d’autant plus élevé que sa valeur est proche de 1. L’accord inter-juge est excellent si l’indice se situe entre 0,81 et 1, il est satisfaisant s’il se situe entre 0,61 et 0,80, il est moyen entre 0,41 et 0,60 il est faible entre 0,21 et 0,40 et il est mauvais si inférieur à 0,20. Cette interprétation reste discutable en fonction du nombre de variables. Plus elles sont nombreuses plus l’indice risque d’être faible.

Les équations de recherche comprenaient le nom de chaque échelle de fragilité associé aux termes alpha, kappa, cohen, cronbach, reproductibility of results, internal consistency, reliability. Les échelles ne comprenant pas de données de reproductibilité ont été exclues puis de nouvelles équations de recherche ont été effectuées pour extraire les données de validité en efficacité et les données de faisabilité des échelles conservées. Le modèle de rockwood a été conservé pour la seconde phase malgré l’absence de données de reproductibilité au regard de l’importance de l’école qu’il représente.

Les équations de recherche réalisées dans un second temps comprenaient le nom des échelles conservées associé aux termes : sensitivity, specificity, youden index, predicitve value, efficiency, correlation, ease of use, validity. La sensibilité ou sensitivity en anglais correspond à la fréquence des tests positifs chez les malades.[11] La spécificité ou specificity en anglais correspond à la fréquence des tests négatifs chez les sujets sains. La sensibilité et la spécificité sont indépendantes de la prévalence de la maladie.[11] L’index de Youden est une mesure de la précision de la méthode de diagnostic. Il dépend de la spécificité et de la sensibilité du test mais pas de la prévalence de la maladie. L’addition des deux qualités d’un test (sa sensibilité et sa spécificité) conduit à un indice synthétique tel que : Y = Sensibilité + Spécificité – 1. L’indice de Youden varie entre – 1 et 1. Un indice égal à 0 traduit un test qui n’a aucune efficacité d’orientation diagnostique. Sa valeur diagnostique est maximale lorsque l’indice est proche de 1.[12] Predictive value correspond à la valeur prédictive positive (VPP) : probabilité d’avoir la maladie quand le test est positif et à la valeur prédictive négative (VPN) : probabilité de ne pas avoir la maladie quand le test est négatif. VPP et VPN dépendent de 3 paramètres : la sensibilité, la spécificité et la prévalence.[11] Efficiency correspond à l’efficacité : Le concept d’efficacité dans l’estimation statistique a été créé par Fisher en 1921, c’est une tentative de mesurer objectivement les avantages relatifs à plusieurs estimateurs. Le critère adopté par Fisher était celui de la variance, un estimateur est considéré comme plus «efficace» qu’un autre si il a une variance plus faible. L’estimateur doit obéir à certains autres critères tels que la cohérence. Pour les petits échantillons, où d’autres considérations entre en jeu comme des biais, le concept d’efficacité peut exiger des modifications.

L’efficacité statistique est aussi utilisée pour désigner les propriétés de modèles expérimentaux, un modèle est plus efficace qu’un autre si il garantit la même précision avec moins de dépense de temps ou d’argent.

Corrélation : indice statistique qui exprime l’intensité et le sens (positif ou négatif) de la relation linéaire entre deux variables quantitatives. C’est une mesure de la liaison linéaire, c’est à dire de la capacité de prédire une variable x par une autre y à l’aide d’un modèle linéaire. Il permet de mesurer l’intensité de la liaison entre deux caractères quantitatifs. C’est donc un paramètre important dans l’analyse des régressions linéaires (simples ou multiples). En revanche, ce coefficient est nul (r = 0) lorsqu’il n’y a pas de relation linéaire entre les variables (ce qui n’exclut pas l’existence d’une relation autre que linéaire). Par ailleurs, le coefficient est de signe positif si la relation est positive (directe, croissante) et de signe négatif si la relation est négative (inverse, décroissante). Ce coefficient varie entre -1 et +1 ; l’intensité de la relation linéaire sera donc d’autant plus forte que la valeur du coefficient est proche de +1 ou de – 1, et d’autant plus faible qu’elle est proche de 0.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Avant-propos
Résumé
Introduction
Méthode
Résultats
Discussion
Conclusion
Bibliographie

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *