L’importance de la qualité de l’information

Les acteurs d’un système d’information

  Un système d’information est en contact permanent avec une multitude d’utilisateurs ayant différents rôles, responsabilités et/ou expertises dans le cadre d’une organisation. Il existe trois types principaux d’acteurs : l’utilisateur, l’expert et l’analyste du système. Définition 1 : Un utilisateur est une personne (un humain) qui fait appel à un système d’information afin d’obtenir des informations nécessaires pour produire quelque chose, pour résoudre un problème ou bien effectuer une tâche liée à son activité quotidienne [Turban 05]. Les utilisateurs sont les bénéficiaires directs du déploiement du système d’information. En plus d’être les initiateurs des requêtes vers le système d’information, les utilisateurs sont aussi responsables pour déterminer :
– les problèmes à résoudre,
– les opportunités à exploiter,
– les besoins à satisfaire,
– les contraintes à surmonter par le système,
– si le système est facile / difficile à utiliser.
Très souvent il existe une confusion entre l’utilisateur d’un système d’information et l’expert du domaine. Bien sûr il est possible que l’utilisateur soit la même personne que l’expert. Mais pour éliminer toute confusion, une définition de l’expert est donnée. Dans la littérature, il n’y a pas une définition standard d’un expert. La performance de ces décisions et son niveau d’expertise dans son domaine sont les critères de base dans l’identification d’un expert. Définition 2 : Un expert est une personne (un humain) qui possède des connaissances des jugements, des expériences et des méthodes spécifiques ainsi que la capacité d’appliquer ceux-ci afin de donner des conseils et de résoudre des problèmes [Turban 05]. Ainsi, suite à cette définition, un expert est capable de résoudre un problème et d’atteindre un meilleur niveau de performance qu’une personne ad-hoc. Cependant, les experts sont relatifs à un domaine spécifique, c’est-à-dire ils sont spécialisés dans un domaine restreint. Deux types particuliers d’experts peuvent être identifiés : le designer du système et le développeur du système  . Le designer du système est un expert dans le domaine technique qui a pour rôle de concevoir un système qui répond aux besoins des utilisateurs. Un développeur du système est un expert dans le domaine technique qui a la responsabilité de développer, tester et délivrer un système répondant aux spécifications fournies par les designers du système. Donc les développeurs du système utilisent des outils technologiques (logiciels, langages de programmation, méthodologies, etc.) pour développer le système d’information. En fonction des ressources humaines allouées par l’organisation pour le déploiement du système d’information, il se peut que le designer du système soit également le développeur du système. Une autre entité très importante dans le déploiement du système d’information est l’analyste du système. Définition 3 : L’analyste du système est une personne responsable de la planification, l’analyse et l’implémentation du système d’information. Il a l’expertise nécessaire pour pouvoir cordonner l’activité des autres acteurs : d’élargir la vision des utilisateurs du système d’information, de s’assurer que les designers et les développeurs du systèmes ont les connaissances techniques et technologiques nécessaires pour répondre aux besoins de l’organisation. Maintenant, nous présenterons ce qu’est un système d’information complexe utilisé dans le processus d’aide à la décision. Premièrement, la notion de système d’information sera définie. Puis, les caractéristiques indiquant la présence d’un système complexe seront présentées.

Définitions de données, de l’information et de la connaissance dans le contexte d’un SIC

  Les notions de données, information et connaissance, adaptées à notre étude sont maintenant définies dans le contexte d’un système d’information complexe d’aide à la décision. Ainsi, dans un premier temps, sont identifiées ces notions par rapport au système et puis, dans un deuxième temps, sont étudiées les interactions entre ces notions, toujours dans ce même contexte. Afin de positionner ces notions dans le contexte d’un système d’information complexe d’aide à la décision, nous garderons la description d’un SI, présentée dans la figure 1.1, avec une modélisation des données, de l’information et de la connaissance sous forme pyramidale (figure 1.4a) et sous forme d’interactions (figure 1.4b). En analysant la structure générique d’un système d’information, quatre domaines d’abstraction différents peuvent être identifiés. Ces domaines représentent respectivement l’environnement du système d’information, les données, l’information et les connaissances (figure 1.6). La première observation est que la structure de cette représentation suit le modèle pyramidal. Également ont été ajoutées les diverses interactions entre ces quatre domaines, identifiées dans [Aamodt 95]. Ces interactions sont représentées par des flèches numérotées. Ce type de représentation générale d’un système d’information peut couvrir un large spectre de contextes d’application, des plus simples jusqu’aux plus complexes. Ainsi, si nous considérons l’exemple d’un système d’information utilisé pour la gestion d’un conflit militaire, ce schéma peut balayer toutes les entités du champ de bataille jusqu’à l’évaluation et la conscientisation de la situation  . Pourtant, dans ce type d’application les deux acteurs du conflit ont, généralement, deux visions différentes de la même réalité, qui est unique et qui est représentée par le terme situation. Cette différence de vision est due aux trois domaines (correspondant aux données, aux informations et aux connaissances) qui ne sont pas traités de la même façon par les deux côtés. Maintenant, chaque domaine ainsi que ses interactions avec les autres domaines seront présentés,afin de donner les définitions des données, de l’information et de la connaissance. Le domaine physique décrit les entités constituant l’environnement. Il contient également des entités abstraites comme par exemple les plans, les intentions, etc. des entités physiques.

LA QUALITÉ D’UN PRODUIT

  Il n’y a pas une seule définition de la notion de qualité. Au fur et à mesure du temps plusieurs chercheurs (appelés très souvent « gourous de la qualité ») ont essayé de donner des définition génériques. Ainsi, selon [Feigenbaum 91] la qualité est définie comme étant « La composition totale de caractéristiques de produits et services de marketing, ingénierie, fabrication et maintenance à travers lesquels les produits et les services vont répondre aux attentes des clients. » À partir des études de Deming [Deming 82] et de Juran [Juran 89] la notion de qualité estvue comme étant directement liée au contexte. Juran introduit l’expression « fitness for use » pour décrire la qualité. Deming et Juran ont été les premiers à s’intéresser à l’augmentation de la productivité des entreprises et ils ont défini la qualité par rapport aux produits développés par ces dernières. Dans ce cas, la qualité d’un produit physique est généralement définie d’une façon unique. Cette forme unique de la qualité est donnée par les caractéristiques qui, grâce à la naturetangible du produit, sont facilement mesurables et comparées à des étalons (standard de qualité). [Juran 89] avance également une liste (non-exhaustive) de dimensions possibles de la qualité (Cf. tableau 1.1). Selon [Juran 89], la qualité d’un produit devrait être analysée par rapport à quatre aspects :
1. Le processus de production
2. Les caractéristiques du produit
3. La concurrence : (c’est-à-dire par rapport aux autre produits sur le marché)
4. Les employés au processus de production, aux caractéristiques du produit, à la concurrence et aux employés. [Hunt 92] fait une classification des dimensions de la qualité d’un produit en mettant l’accentsur deux aspects : l’aspect factuel et la perception (Cf. tableau 1.2). La qualité factuelle décrit ce que le produit ou le service doit faire, tandis que la qualité de la perception concerne la vision du produit ou du service dans les yeux des clients, c’est-à-dire ce que les clients doivent croire sur le produit ou le service. Qualité factuelle Qualité de la perception
• Soit le bon • Est le bon
• Fonctionne correctement • Répond aux besoins
• Fonctionne correctement dès la première foi • Satisfait les attentes
• Soit délivré en temps • Est délivré avec intégrité et respect
Par opposition avec un produit physique, les données et les informations ont un caractère fortement fongible, c’est-à-dire en ayant des significations différentes en fonction du contexte de définition. Cette différence fait que la qualité des données et des informations et fortement dépendante de l’utilisateur et du contexte d’application. La même information pourrait être d’une très bonne qualité pour un utilisateur et mauvaise pour un autre. Prenons par exemple le cas d’un signal reçu de l’espace, un bruit cosmique. Pour un système de communication par satellite il est un simple bruit qui doit être filtré, mais pour un système d’observation de l’espace il porte toute l’information utile pour les astronomes.

CONSISTANCE DES BASES DE DONNÉES

   Ce paragraphe présente un état de l’art sur les différents types de contraintes d’intégrité existantes dans la littérature. La première classification de ce type de contraintes a été proposée par Codd dans les années 70 [Codd 70]. Dans la théorie des bases de données, la qualité de données peut être modélisée au niveau déclaratif sous la forme d’une série de conditions appelées contraintes d’intégrité. Ces contraintes ont pour rôle de garder une conformité sémantique des données enregistrées. Prenons le cas d’une donnée représentant l’âge d’une personne. Un exemple de contrainte d’intégrité pour ce type de donnée est la restriction de valeurs acceptable aux entiers positifs et inférieurs à 130. Ainsi, à l’aide de ces contraintes d’intégrité, la qualité de données peut être contrôlée, leur violation indiquant une mauvaise qualité. Les contraintes d’intégrité sont des conditions spécifiées lors de la définition du schéma de la base de données et restreignent les données qui peuvent y être enregistrées.Une base de données n’est pas une ressource statique ainsi, au fur et à mesures du temps, des nouvelles contraintes d’intégrité sont spécifiées et renforcées [Ramakrishnan 03] :
– Quand l’administrateur de la base de données ou l’utilisateur final définissent un nouveau schéma ;
– Quand une application sur la base de données est en train de s’exécuter, le système de management de la base de données vérifie pour les violations de contraintes d’intégrité et refuse les changements susceptibles de les violer.Même si le contrôle de contraintes d’intégrité se fait d’une manière automatique, la consistance des données est très souvent compromise dans la pratique. Parmi les pratiques responsablesde cette dégradation de la qualité de données, se retrouvent [Decker 09] :
– l’ajout sans vérification de nouvelles contraintes ;
– l’arrêt temporaire de la vérification des contraintes d’intégrité pour télécharger un backup ou pour augmenter l’accessibilité de données ;
– l’intégration (la fusion) de plusieurs bases de données.

L’IMPORTANCE DE LA QUALITÉ DE L’INFORMATION

   Dans la littérature, il y a beaucoup d’exemples qui présentent les effets désastreux de l’utilisation des données et des informations de mauvaise qualité. Ainsi, le 28 janvier 1986 la navette spatiale Challenger lancée par la NASA a explosé après quelques secondes. La commission d’investigation a conclu que cette tragédie a été la conséquence d’un processus d’aide à la décision basé sur des informations incomplètes et confuses. Une autre tragédie ayant à la base l’utilisation d’information de mauvaise qualité est la destruction d’un avion commercial iranien par l’USS Vincennes en juillet 1988. Ces deux accidents ont été pris comme études de cas par [Fisher 01]. Un autre exemple est celui de la fusée Ariane 5, développée par ESA et lancée en 1996. Elle devait transporter des charges utiles sur l’orbite terrestre sans aucun humain à bord. Après 40 secondes, la procédure d’autodestruction de la fusée a été initialisée et l’Ariane 5 a été complètement détruite. L’analyse après cet incident [Lions 96] a montré que le système inertiel de référence (IRS) a cessé de fonctionner. Ce système IRS utilisait 7 variables pour l’enregistrement de données en provenance de différents capteurs. Les données envoyées par les capteurs était codées sur 64 bits en point flottant. Le système IRS travaillait sur des nombres entiers signés codés sur 16 bits. Ainsi, les données enentrées du système IRS n’étaient pas compatibles à son fonctionnement et une conversion aurait du être effectuée avant de procéder à l’exécution du traitement. Malheureusement, chaque fois que la conversion n’était pas possible à réaliser, une erreur était levée et le système cessait de fonctionner. Ce problème est apparu parce que les ingénieurs ont voulu utiliser le software présent dans le projet Ariane 4 et en réalisant le minimum de changements dans le système IRS. De plus,si le système IRS avait été testé avec les autres composants, ce type d’erreurs aurait été facilement repéré et réparé. La conséquence est :
– La perte de 500 millions dollars investis dans la construction de la fusée ;
– La perte de la charge transportée ;
– Une mauvaise image du programme spatiale européen ;
– Une perte de temps.
Les systèmes utilisés dans la défense et dans l’aéronautique ne sont pas les seuls à être affectés par la qualité des données et des informations. Il en est de même pour ceux utilisés dans notre vie quotidienne. Ainsi, une étude faite en 2006 par l’ « Institute of Medicine » [Weise 06] montre qu’aux États-Unis plus de 1,5 millions de patients reçoivent une fausse médication. Ce même rapport montre aussi que les surcoûts de traitements provoqués par une mauvaise médication dans les hôpitaux s’élèvent à plus de 3,5 milliards de dollars. Une étude faite en 1999 [Charatan 99b] montre que presque 100000 patients meurent chaque année aux États-Unis à cause d’un dysfonctionnement du système médical. Une autre [James 13], plus récente, présente des chiffres beaucoup plus alarmants avec une limite inférieure de 210000 décès annuels. Selon ces deux dernières études, une des causes principales est la mauvaise implémentation du système d’information médical. Ainsi, dans beaucoup de cas, les informations dont le médecin a besoin ne lui sont pas accessibles. De plus, si le système d’information mis en place n’accompagne pas les informations par un niveau de qualité, le médecin est dans l’impossibilité de savoir la confiance qu’il peut avoir dans ces informations. Toujours dans le cadre médical, un autre exemple typique concerné par des problèmes de qualité est l’utilisation des prescriptions pharmaceutiques écrites à la main par les médecin. Comme il y a des médicaments avec des noms très proches, mais avec une composition chimique très différente, le pharmacien peut se tromper et donner une mauvaise médication au patient. Les conséquences d’une telle confusion peuvent être tragiques dans certains cas [Charatan 99a].Les problèmes auxquels sont confrontés les organisations, dus à un manque d’information sur la qualité des données et des informations, ont été largement présentés dans la littérature. Ainsi, dans [English 09] est avancé le chiffre de 1212 milliards de dollars de pertes ou des coûts provoqués par 122 des plus grandes entreprises du monde. Cette estimation est beaucoup plus étonnante sion considère le fait que ces entreprises ont alloué des ressources importantes et qu’elles étaientconscientes de cette situation. Ci-dessous sont présentées d’autres conclusions issues de différentes études :
– Plus de 60% des 500 entreprises de taille moyenne se sont retrouvées avec des problèmes de qualité des données et d’information [Wand 96] ;
– Entre 1% et 10% des données enregistrées dans les bases de données des organisations sont imprécises, selon [Klein 97] ;
– Un taux d’erreur sur les données allant jusqu’à 30% est souvent considéré comme normal dans l’industrie et ce taux peut aller dans certains situation jusqu’à 70% [Redman 96] ;
– L’étude de [Wang 96], proposant un des premières méthodologies d’évaluation de la qualité de l’information, a pris comme point de départ la situation d’une banque new-yorkaise identifiéecomme ayant 40% de données incomplètes sur des données de management des crédits à risque ;
– Entre 50% et 80% des casiers judiciaires américains contiennent des données imprécises, incomplètes ou ambigües [Strong 97] ;
– En moyenne, la faible qualité des données et des informations implique des pertes de revenusentre 8% et 12% pour une entreprise. Elle est également responsable de 40% à 60% de dépenses supplémentaires pour une entreprise de services [Redman 98]. En analysant tous ces exemples, on peut déduire que les problèmes de qualité concernent toutes les organisations, qu’ils sont très coûteux et qu’ils peuvent avoir des conséquences catastrophiques. Également, on peut conclure que la procédure traditionnelle d’inspection et de correction des défauts des données et des informations, bien que très utile et importante, a des limitations. Ainsi,il est nécessaire d’avoir une méthodologie capable d’évaluer la qualité et de la faire parvenir au divers modules de traitement, pour augmenter leurs performances, et au final, informer l’utilisateur sur la qualité des informations qui lui sont proposées. De plus, il est intéressant de pouvoir expliquer ce niveau de qualité afin d’offrir à l’utilisateur une image de l’évolution de la qualité de l’information dans le système, c’est-à-dire de l’informer sur sa provenance. Comme les principaux effets de la qualité de l’information impactent la qualité du processus de prise de décisions, le prochain sous-paragraphe va introduire la corrélation entre la qualité de l’information et le résultat de la prise de décisions.

L’utilisateur et la qualité de l’information

  Si dans le passé les utilisateurs avaient des difficultés à mener à bien leurs tâches à cause d’un manque d’information, de nos jours les utilisateurs sont bombardés d’informations de différents types et provenant de différentes sources. Ce basculement a été réalisé grâce aux progrès technologiques du domaine de l’informatique, software et hardware, et aux déploiements de réseaux très haut débit. De nos jours, les responsabilités d’un opérateur humain sont le monitoring et l’accès à l’information, la prise de conscience de la situation actuelle, l’inférence des futures conséquences et en final la prise de décision [Atoyan 10]. L’implémentation des systèmes d’information comme systèmes d’aide à la prise de décisions par les utilisateurs a beaucoup amélioré la capacité des utilisateurs à discerner les informations utiles dans cet amalgame d’informations dontils ont accès. Dans le cas de situations critiques, l’utilisateur qui doit pouvoir prendre des décisions, pouvant avoir des conséquences catastrophiques, a besoin de vite comprendre les informations qui lui sont proposées par le système. Cette compréhension s’exprime non seulement par la façon de présenter les informations et la précision de celles-ci, mais également en indiquant la confiance qu’il peut avoir dans le système et dans les informations fournies. Ces caractéristiques traduisent la qualité de l’information et elles sont en directe corrélation avec les attentes de l’utilisateur vis-à-vis du système qu’il utilise. L’utilisation des systèmes d’information peut se faire selon différents niveaux d’automatisation. Ainsi en fonction de la tâche à réaliser un système d’information peut aider l’utilisateur humain ou il peut le remplacer et faire la tâche lui même. En fonction du niveau d’automatisation, les systèmes d’information peuvent être classifiés [Sheridan 05] :
– l’utilisateur humain fait tout, c’est-à-dire le système d’information n’est pas utilisé ;
– le système d’information offre des alternatives ;
– le système d’information élimine une grande partie des alternatives possibles et propose à l’utilisateur un ensemble restreint d’alternatives ;
– le système d’information propose une seule alternative ;
– le système d’information exécute l’alternative si l’humain est d’accord ;
– le système d’information exécute l’alternative, mais l’humain a un droit de véto ;
– le système d’information exécute l’alternative et il informe l’humain ;
– le système d’information exécute un ensemble d’alternatives sélectionnées et il informe l’humain seulement s’il est demandé ;
– le système d’information exécute un ensemble d’alternatives sélectionnées et il informe l’humain seulement s’il le décide ;
– le système d’information fonctionne d’une façon complètement autonome. A l’exception du premier et des deux derniers, dans tous les autres cas d’utilisation il est nécessaire d’évaluer les performances du système d’information, plus précisément la qualité de chaque information proposée par le système afin de permettre à l’utilisateur d’avoir à sa disposition l’information et le degré de confiance qu’il peut y avoir. Pour que l’utilisateur soit confiant dans un système d’aide à la décision il est nécessaire qu’il comprenne l’ensemble des opérations subies par les données et les informations dans le système. Cependant, du fait d’un nombre important de traitements, la représentation visuelle n’est pas une solution car elle est très complexe. Dans ce but, [Shankaranarayanan 06] propose d’utiliser des métadonnées, comme indicateurs de qualité, à chaque niveau de traitement du système d’information. Cette étude montre que l’utilisation de ces méta-données rend l’utilisateur plus conscient de la qualité des données et des informations et donc finalement augmente sa confiance dans le système d’aide à la décision. La théorie cognitive sociale dit que dans les situations où l’utilisateur est confiant dans ces actions, il est en moyenne plus performant. Par conséquent, la qualité de l’information joue un rôle très important dans l’adoption d’un système d’information par un utilisateur, dans son utilisation et dans son réutilisation [Laudon 11]. Quand les informations proposées à l’utilisateur ne sont pas argumentées, l’utilisateur peut rapidement perdre la confiance dans le système d’information. Ainsi, le système d’information est en danger de ne plus être utilisé. Mais lorsque les informations sont expliquées, c’est à-dire accompagnées par de coefficients de confiance, l’utilisateur sera intéressé par les processus qui les ont produites. Dans ce cas, la qualité finale des décisions est enrichie et l’utilisateur aura plus de confiance dans les décisions proposées, c’est-à-dire dans le système d’aide à la décision

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
I Qualité des données et de l’information 
1 Contexte général 
1.1 Système d’information complexe (SIC)
1.1.1 Les acteurs d’un système d’information
1.1.2 Système d’information
1.1.3 Système d’information complexe
1.2 Modélisation du contexte
1.3 Données, information et connaissance dans un SIC
1.3.1 État de l’art des définitions : contexte général
1.3.2 Définitions de données, de l’information et de la connaissance dans le contexte d’un SIC
1.4 La qualité d’un produit
1.5 Conclusion
2 Qualité des données 
2.1 Consistance des bases de données
2.1.1 Définition
2.1.2 Mesures de l’inconsistance dans les bases de données
2.1.3 Catégories de contraintes d’intégrité
2.2 Les imperfections des données
2.2.1 Les données erronées
2.2.2 Les données incomplètes
2.2.3 Les données imprécises
2.3 Taxonomie de la qualité des données
2.4 Modélisation des imperfections des données dans le modèle relationnel
2.4.1 Le modèle probabiliste de bases de données
2.4.2 Le modèle possibiliste de bases de données
2.5 Conclusion
3 Qualité de l’information 
3.1 L’importance de la qualité de l’information
3.1.1 L’utilisateur et la qualité de l’information
3.2 Introduction sur la qualité de l’information
3.3 La qualité de l’information dans les MIS
3.3.1 Le modèle de Wang et Strong
3.3.2 Les relations entre les dimensions de la qualité
3.4 La qualité de l’information dans les WIS
3.4.1 Conclusion
3.5 La qualité de l’information dans les IFS
3.5.1 Modélisation des incertitudes
3.5.2 L’évaluation de la qualité d’un module de fusion
3.5.3 Les performances d’un IFS complexe
3.5.4 Conclusion
3.6 Utilisation des modèles de qualité de l’information dans la pratique
3.7 Synthèse sur les modèles de qualité de l’information
II Méthodologie d’évaluation de la qualité de l’information 
4 Qualité locale versus Qualité globale 
4.1 Présentation du SI décomposé
4.2 Évaluation de la qualité locale de l’information
4.2.1 Formalisation du concept de qualité des données et de l’information
4.2.2 Processus d’analyse de l’information en sortie d’un module
4.2.3 Modélisation informatique de la qualité
4.3 Conclusion
5 Modélisation de l’influence d’un module de traitement sur la qualité de l’information
5.1 Fonction de transfert de qualité
5.2 Évaluation analytique de la fonction de transfert de qualité
5.3 Évaluation non-analytique de la fonction de transfert de qualité
5.4 Conclusion
6 Évaluation de la qualité globale de l’information 
6.1 Passage de la qualité locale à la qualité globale
6.2 Évaluation du score de qualité totale de l’information
6.2.1 Vers l’agrégation de mesures de qualité
6.2.2 Exemple d’agrégation de critères de qualité
6.3 Conclusion
III Validation de la méthodologie
7 Étude d’un système de reconnaissance automatique de cibles radar 
7.1 Introduction
7.1.1 Le besoin pour la défense et pour le domaine civil
7.1.2 Description d’un système de reconnaissance de cibles radar
7.2 Validation de la méthodologie par un système multi-capteurs de reconnaissance automatique de cibles
7.2.1 Évaluation de la qualité locale
7.2.2 Construction de la fonction de transfert de qualité pour chaque module de traitement
7.2.3 Évaluation de la qualité globale du système
7.3 Conclusions
8 Étude d’un système d’information hospitalier 
8.1 La qualité des sources de données
8.2 La stratégie d’étude
8.2.1 L’étude de la qualité des bases de données
8.2.2 L’étude de la qualité de l’entrepôt
8.2.3 L’étude de l’extracteur d’informations
8.3 Système d’aide au codage des actes médicaux et des diagnostiques
8.3.1 Évaluation de la qualité locale
8.3.2 Construction de la fonction de transfert de la qualité
8.3.3 Évaluation de la qualité globale du système
8.4 Conclusion
IV Conclusion générale et perspectives 
9 Conclusions et perspectives
9.1 Conclusions
9.2 Perspectives
Annexes
A Les théories mathématiques de l’incertain
A.1 La théorie des probabilités
A.1.1 Discussion sur la fonction de vraisemblance
A.2 La théorie des possibilités
A.3 La théorie de Dempster-Shafer
A.4 La théorie de l’information généralisée
A.5 Information basée sur l’incertitude
A.6 La mesure du flou
A.7 Les mesures de la non-spécificité
A.7.1 La mesure de spécificité
A.7.2 L’information Hartley
A.7.3 L’information de Hartley
A.7.4 La non-spécificité dans la théorie de l’évidence
A.7.5 La non-spécificité pour les possibilités graduelles
A.7.6 La fusion des informations en intégrant la notion de spécificité
A.7.7 Sur la confiance
A.8 Les mesures basées sur l’entropie
A.8.1 L’entropie de Shannon pour les distribution des probabilités
A.8.2 L’entropie de Rényi pour les distribution des probabilités
A.8.3 La mesure de divergence
A.8.4 Les mesures basées sur l’entropie pour la théorie de l’évidence
A.8.5 Agrégation des incertitudes dans le cadre de la théorie de l’évidence
A.9 Méthodologies pour les traitements avec des incertitudes
A.9.1 Le principe de minimum d’incertitude
A.9.2 Le principe du maximum d’incertitude
A.9.3 Le principe de la généralisation exigée
B Introduction aux techniques de fusion d’informations
B.1 Le vote
B.2 Exploitant le réseau des sources
B.3 La fusion probabiliste (bayésienne)
B.4 La fusion des croyances dans la théorie de Dempster-Shafer
B.4.1 La règle de Dempster
B.4.2 La règle de disjonctive (Dubois et Prade 1986)
B.4.3 La règle de Murphy
B.4.4 La règle de Smets
B.4.5 La règle de Yager
B.4.6 La règle de Dubois et Prade
B.4.7 La règle de Dezert et Smarandache (DSm)
B.4.8 Fusion des évidences imprécises dans le cadre de la théorie DSm
B.5 Fusion dans la théorie des possibilités

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *