Détection automatique de lésions malignes en mammographie 3D 

La tomosynthèse du sein

La tomosynthèse du sein est une nouvelle méthode d’imagerie qui peut potentiellement pallier les différentes limitations de la mammographie conventionnelle notamment en produisant une représentation 3D du sein. Après avoir récapitulé les limitations de l’imagerie 2D, nous rappellerons le principe général de la tomosynthèse ainsi que les méthodes de reconstruction couramment décrites dans la littérature. Nous finirons enfin par un descriptif des limitations de ce type d’imagerie.

Motivation

Comme on l’a vu précédemment, la mammographie 2D est une imagerie de projection. En effet on projette une structure 3D (le sein) sur une surface 2D (le détecteur), résultant en une perte potentielle d’information. Plus concrètement, il existe deux problèmes majeurs qui peuvent être rencontrés. Le premier se traduit par la non détection d’une lésion qui est masquée par les tissus présents dans la trajectoire du faisceau passant par cette dernière. Ce cas est très problématique dans la mesure où ne pas détecter un cancer implique de ne pas le traiter de manière précoce. Le second problème susceptible d’être rencontré est la détection d’un signe radiologique construit par accumulation de différentes structures normales et indépendantes, alignées sur une même trajectoire de rayons X et formant, une fois projetées, un motif laissant penser à la présence d’une lésion. Bien que ce type de fausse alarme ait des conséquences moins graves que la non détection, le fait de devoir subir d’autres examens voire même une biopsie pour infirmer la présence d’un cancer est une procédure stressante pour la patiente qu’il est souhaitable d’éviter. Ces problèmes sont donc essentiellement causés par la projection de l’information lors de la formation d’une image de mammographie. L’idée la plus simple pour contourner ce problème est de travailler sur une représentation tridimensionnelle du sein. Des méthodes de formation d’image 3D sont couramment utilisées en médecine. Ainsi, le scanner par tomographie est utilisé pour imager divers organes du corps. Néanmoins son utilisation pour le sein peut poser problème essentiellement pour des raisons de dose délivrée à la patiente (Chang et al., 1979; Gisvold et al., 1979; Chang et al., 1982; John et Ewen, 1989).
En effet pour être capable d’imager le tronc de la patiente, il faut des rayons X capables de le traverser de part en part ce qui impose une dose beaucoup plus importante que pour une mammographie standard (Muller et al., 1983; Sibala et al., 1981). Des scanners dédiés où seul le sein est imagé peuvent aussi être considérés (Boone et al., 2001; Kwan et al., 2004; Yang et al., 2007). Dans ce type d’imageurs, le tube fait le tour complet du sein et non plus du tronc permettant de pallier les précédentes limitations. Cependant, la région axillaire du sein n’est généralement pas radiographiée à cause de contraintes physiques. D’autres types d’acquisition s’appuyant sur d’autres modalités existent et sont quant à eux réellement employés dans des routines de diagnostic. Ainsi on peut mentionner l’imagerie par résonance magnétique IRM du sein. Cependant pour des raisons de coûts et de disponibilité, ce type d’imagerie est généralement réservé aux patientes à risque dans le cadre du dépistage aux Etats Unis (Saslow et al., 2007).
D’autres causes de non détection sont possibles comme par exemple la non atténuation d’une opacité par les rayons X. La cause de cette limitation est principalement due à la similarité entre les propriétés radiométriques de ces lésions et de celles des structures saines plutôt qu’au processus de formation d’image.
Dans le cas de lésions faiblement discernables, des méthodes d’imagerie nécessitant l’injection d’un produit de contraste existent comme l’angiomammographie (Jeunehomme, 2005; Puong, 2008) ou l’IRM (Rankin, 2000) qui permettent la mise en évidence de lésions hypervascularisées.

Principe général

Le principe de la tomosynthèse est de reconstituer l’information tridimensionnelle de l’objet imagé à partir de plusieurs radiographies à faible dose acquises sous différents points de vue (Dobbins III et Godfrey,2003). En effet, en prenant différents clichés à des positions diverses d’un même objet, la position relative des structures qui le composent, une fois projetées sur le détecter, change. Pour accéder à une information 3D de l’objet imagé. L’étape de reconstruction fournit une série de coupes parallèles au détecteur à différentes hauteurs par rapport à ce dernier qui représentent l’atténuation radiologique des structures qui composent le sein. De manière générale, l’apparence des systèmes de tomosynthèse du sein est assez similaire à celle des appareils de mammographie. Le sein de la patiente est positionné en contact avec le support patient et comprimé à l’aide d’une pelote de compression. La position du tube évolue selon une trajectoire généralement circulaire dont le centre de rotation se situe au niveau du détecteur. Comme évoqué précédemment, une série de projections 2D à faible dose est acquise pour différentes positions du tube à rayon X autour du sein.
Le nombre de projections varie généralement entre 9 et 45 sur une ouverture angulaire variant de 30 à 90 degrés. La dose allouée à chaque projection est telle que la dose totale délivrée à la patiente est comprise entre une et deux fois la dose d’une mammographie standard. Pour cette raison, la qualité des images servant de données d’entrée à la reconstruction est beaucoup plus médiocre que celle d’une mammographie conventionnelle, notamment en termes de rapport contraste à bruit. Cependant l’étape de reconstruction permet généralement d’obtenir des coupes reconstruites avec de meilleures propriétés.

La détection automatique de cancers en mammographie conventionnelle

Le passage à la mammographie numérique a ouvert la porte à de nouvelles possibilités en termes d’outils visant à extraire de manière optimale l’information dans l’image. Ainsi, des traitements visant à améliorer l’image, ou encore des outils d’aide à la détection sont couramment utilisés par les radiologues. Dans cette section nous allons nous intéresser à cette deuxième classe d’outils. Après un bref rappel sur les motivations de ces derniers, nous détaillerons les différentes manières dont ils peuvent être construits. Nous insisterons aussi sur les points clés qui sont récurrents dans les approches proposées dans la littérature, à savoir, le conditionnement des images, la détection des calcifications et des opacités ainsi que la prise de décision.

Motivations

La détection de signes radiologiques dans une campagne de dépistage est une tâche délicate de par la quantité de données à observer et la subtilité des signes radiologiques. Ainsi il peut être intéressant de fournir au radiologue un outil qui pourrait avoir une sensibilité de détection élevée et constante dans le temps, lui permettant ainsi de détecter plus de cancers.
Des études récentes confortent l’idée de l’utilité d’un tel outil. En effet, Karssemeijer et al. (2003) présentent par exemple une étude comparative entre lecture seule aidée ou non d’un système de détection et la double lecture classique. Bien qu’il en ressorte qu’une double lecture de radiologues expérimentés reste la référence, un système de CAD permet d’améliorer les performances d’un lecteur seul. Ce dernier point était déjà exposé dans des travaux plus anciens (Freer et Ulissey, 2001).
Une étude plus récente (Gilbert et al., 2006) a montré sur un plus grand nombre de cas, qu’une lecture simple associée à l’utilisation d’un CAD augmentait la détection de cancers de manière statistiquement significative par rapport à une double lecture. Néanmoins le taux de rappel se voit, dans cette étude, lui aussi augmenté.

Différents composants d’un système de détection automatique

De manière globale un système de détection automatique de cancers en mammographie se compose de deux branches : une dédiée à la détection des microcalcifications et l’autre à la détection des opacités. Chacun de ces modules peut se décomposer comme une étape de marquage suivie d’une prise de décision. Le marquage peut selon les cas être composé d’une détection rapide suivie d’une segmentation. La prise de décision se compose quant à elle d’une étape d’extraction de caractéristiques suivie d’une étape de classification. Certains de ces éléments peuvent apparaître de manière plus ou moins implicite. Dans certains cas, un pré-traitement des données permettant de mettre en évidence les signes recherchés peut être utilisé. Néanmoins, cette étape montre généralement rapidement ses limitations dans la mesure où, pour vraiment mettre en évidence un motif, il faut être capable de le détecter, or c’est le but de cette étape de pré-traitement.

Détection des opacités

La détection des opacités est une tâche un peu plus complexe que pour les microcalcifications,  notamment à cause de la variabilité qui existe entre différents types de lésions.

Extraction de marqueurs

La détection des zones de sur-densité est une première étape pour la détection de zones suspectes dans le sein. Ainsi Heath et Bowyer (2000) proposent d’utiliser une mesure de détection des sur-densités en calculant la proportion de pixels situés autour d’une lésion qui ont une intensité inférieure au minimum de l’intensité à l’intérieur. Dans la même optique de détection de sur-densités, d’autre approches tentent de détecter les zones contrastées à l’aide d’un chapeau mexicain de la même manière que pour les microcalcifications. Néanmoins ce genre d’approche ne semble pas être bien adapté à la taille des objets à détecter (te Brake et Karssemeijer, 1999; Peters, 2007). En effet, une opacité est généralement beaucoup plus étendue qu’une microcalcification, avec une variabilité en termes de forme plus importante. Ce dernier point met à mal le noyau de filtre utilisé qui fait généralement l’hypothèse d’un objet circulaire à détecter. A cela s’ajoute un contraste pouvant être moins élevé rendant de telles étapes de marquage délicates. Des variantes où le contraste est calculé à partir des cercles, l’un tournant autour de l’autre, ont été proposées (Peters et al., 2006a) permettant de pallier certaines des précédentes limitations. Vachier (1995) a proposé l’utilisation d’outils de morphologie mathématique pour l’extraction automatique d’opacités. L’idée utilisée est de se servir d’algorithmes de ligne de partage des eaux combiné à un critère de dynamique modélisant le contraste des structures contenues dans l’image. D’autres approches reposent sur le fait que les lésions malignes présentent souvent une forme irrégulière voire des spicules. Ainsi, Bornefalk (2005) propose l’utilisation de filtres en quadrature pour la détection de ces spicules. Zou et al. (2008) quant à eux proposent une décomposition en ondelettes sur deux niveaux permettant le calcul de mesures dérivées du flot de gradient (Xu et Prince, 1997) combinées à d’autres mesures reposant sur l’analyse locale des histogrammes d’orientations de contour. D’autres travaux se placent dans un autre domaine de représentation pour pouvoir travailler plus facilement sur les spicules. Ainsi, Sampat et Bovik (2003) proposent de se placer dans le domaine de Radon où les lignes ont la propriété d’être représentées par des points pour rehausser les spicules. De retour dans le domaine classique de représentation de l’image le filtrage à l’aide de filtres dont le noyau est un anneau où les intensités sont calculées à partir de sinus ou de cosinus, permet de détecter les zones suspectes qui sont centres de convergence de spicules. D’autres travaux définissent des critères de convergence à partir de cercles emboîtés (Karssemeijer et te Brake, 1996; te Brake et Karssemeijer, 1999). En pratique la considération des spicules est un critère pertinent qu’il est intéressant de considérer lors de l’élaboration d’un système de détection car il est très fréquemment associé à des lésions malignes. Les lésions variant aussi du point de vue de la taille, des approches multi-résolution sont souvent proposées (Liu et al., 2001; Zou et al., 2008). Néanmoins une étude sur la pertinence de telles approches (te Brake et Karssemeijer, 1999) a mené à la conclusion que le choix de l’approche multiéchelle se justifiait surtout pour des méthodes destinées à la détection de lésions dans un faible intervalle de taille. En effet, si la réponse d’un filtre décroit rapidement lorsque l’on s’éloigne de la taille a priori de la structure recherchée, il est nécessaire de considérer plusieurs échelles. D’un autre côté, si l’approche est peu sensible aux variations par rapport à la taille supposée de l’objet, alors l’intérêt de plusieurs échelles est plus relatif. D’autres méthodes plus marginales existent aussi. Ainsi, l’analyse fractale a été proposée comme première étape pour la détection de marqueurs (Zhen et Chan, 2001). La granulation qui consiste globalement à sous-quantifier les niveaux de gris pour extraire des composantes connexes emboîtées vérifiant un critère de concentricité a aussi été proposée comme étape de marquage par Eltonsy et al. (2007). Dans tous les cas, les méthodes proposées permettent de sélectionner de manière grossière, c’est-à-dire avec beaucoup de faux positifs, les zones qui seront analysées plus finement par la suite.

Segmentation

Les approches précédentes sont généralement conçues pour la détection de zones potentiellement suspectes. Néanmoins bien souvent pour vérifier si ces dernières contiennent une lésion maligne, il est nécessaire d’extraire la forme de lésion potentiellement détectée. Les approches les plus simples reposent sur des seuillages globaux de l’image (Martinez et al., 1999; Brzakovic et al., 1990). Une autre approche souvent usitée fait appel aux méthodes de croissance de région (Kallergi et al., 1992). L’idée est de faire croître un masque représentant la lésion en agrégeant des pixels voisins de la région qui ont des propriétés semblables à cette dernière (Lee et al., 2000). La difficulté avec ce type d’approche est la définition d’un critère d’arrêt pertinent pour obtenir des régions segmentées de manière optimale.
De manière plus générale des méthodes de segmentation générique utilisant de la morphologie mathématique (Vachier, 1995; Bruynooghe, 2006) ou des outils de détection de contours (Torre et Poggio, 1986; Canny, 1986; Mallat et Zhong, 1992) peuvent être appliquées en mammographie (Abdel-Mottaleb et al., 1996). Cependant ces outils assez simples ne permettent bien souvent d’obtenir des résultats satisfaisants qu’en combinaison avec des approches plus évoluées.
De manière similaire, les méthodes de segmentation par contour actifs (Kass et al., 1988) ou ensembles de niveaux(Osher et Sethian, 1988) ont aussi été utilisées pour la segmentation de lésions. L’idée est de formuler une énergie sur une représentation d’un contour (ensemble de points, forme paramétrique ou fonction implicite d’ordre supérieur) de telle manière qu’elle prenne en compte des informations a priori sur ce que l’on cherche à segmenter (la régularité du contour par exemple) ainsi que des informations d’attache aux données (la segmentation doit correspondre aux zones de transition présentes dans l’image par exemple). Certains travaux (Ball et Bruce, 2007a,b,c) présentent une utilisation intensive des modèles déformables. Ainsi ils proposent une première segmentation du noyau de la lésion, puis une segmentation de sa périphérie et le cas échéant une troisième segmentation des spicules (Ball et Bruce, 2007a) en utilisant des ensembles de niveaux. Dans d’autres méthodes, les contours actifs sont utilisés pour affiner une première segmentation assez grossière (Sahiner et al., 1996b, 2001). La qualité des segmentations obtenues avec ce type d’approche dépend beaucoup de l’énergie utilisée pour juger de la qualité des contours. Cette dernière comporte souvent beaucoup de paramètres et sa minimisation est bien souvent locale.
D’autres approches reposant sur l’expression du problème encore sous forme d’énergie, mais cette fois avec un formalisme de chemins optimaux ont aussi été présentées (Timp et Karssemeijer, 2004). L’idée est d’utiliser des méthodes de programmation dynamique pour trouver le contour optimal de la lésion. L’avantage de ce type d’approches est d’offrir des outils efficaces pour optimiser l’énergie, cette fois ci de manière globale. Cependant l’espace de recherche des contours est quant à lui limité, interdisant ainsi de considérer certains contours que les modèles déformables peuvent trouver.
Comme bien souvent dans d’autres champs applicatifs, la piste des méthodes de segmentation par régions a aussi été investiguée. Ainsi les champs de Markov aléatoires peuvent aussi être utilisés pour obtenir une segmentation des lésions (Zhen et Chan, 2001). Dans ces derniers travaux, les champs de Markov sont combinés à une segmentation multirésolution.
Des méthodes plus spécifiques du problème de segmentation de lésions dans le sein ont aussi été proposées. Ainsi Kupinski et Giger (1998) proposent de considérer des partitions de la zone à segmenter et de considérer que la meilleure segmentation correspond à celle qui maximise un indice de gradient radial. Les mêmes auteurs proposent aussi une modélisation statistique pour trouver la partition optimale. La difficulté dans l’utilisation de ces approches est d’obtenir un ensemble de partitions de qualité indépendamment de la structure à segmenter.

Aide à la détection pour des volumes de tomosynthèse

Les travaux présentés dans la section précédente portaient essentiellement sur l’aide à la détection en mammographie standard. Certains de ces éléments peuvent plus ou moins directement être adaptés pour le traitement de volumes de tomosynthèse. Dans un premier temps nous reviendrons sur les motivations d’un outil de détection en 3D, puis nous présenterons de manière haut niveau les schémas de détection proposés dans la littérature. Nous poursuivrons par une description des approches de détection de microcalcifications et de masses. Nous finirons par une présentation sommaire de notre approche.

Motivations

Bien que la tomosynthèse ait le potentiel de réduire les problèmes de superpositions de structures que l’on retrouve en mammographie standard, les motivations pour la création d’un outil de détection automatique de signes radiologiques qui étaient valables en 2D sont toujours d’actualité. De plus, comme la quantité de données que le radiologue doit observer augmente de manière non négligeable (un volume 3D comptant dix à cinquante fois plus d’images à lire que deux clichés 2D), un tel système est plus que jamais utile afin d’assister le spécialiste dans sa tâche de lecture.

Différents designs de système de détection

Dans le cadre de la tomosynthèse, le choix de la structure de la chaîne de traitement n’est pas direct. En effet, différentes possibilités peuvent être envisagées. Ainsi on peut choisir de travailler dans le volume reconstruit , ou dans les projections , ou encore de faire des allers retours entre 2D et 3D. Dans le premier cas, la chaîne de traitement peut se présenter d’une manière haut niveau comme la détection de marqueurs dans le volume, suivie d’une analyse plus en détails reposant par exemple sur la segmentation et la caractérisation des opacités, pour finir avec la prise de décision. Chacune de ces étapes peut se faire en 3D ou en pseudo-3D, c’est-à-dire en considérant tous les voisins des voxels dans l’espace ou en travaillant sur les coupes reconstruites de manière presque indépendante (on ne s’occupe pas des coupes adjacentes). En effet, contrairement aux images 3D plus classiques comme celles acquises en CT, la limitation de la géométrie du système menant à la distorsion en Z des objets peut rendre difficile la modélisation d’algorithmes de détection. Cette approche a le défaut majeur d’être dépendante de la reconstruction.
Néanmoins, les techniques de reconstruction en tomosynthèse du sein semblent se stabiliser ce qui permet d’envisager ce type de traitements.
La deuxième approche consiste à travailler sur les projections s’affranchissant ainsi de la méthode de reconstruction. Ce genre d’approche permet d’exploiter directement les méthodes conçues pour les mammographies standard. Néanmoins, deux problèmes se posent lorsque l’on choisit une telle approche. Premièrement, la dose de chacune des projections en tomosynthèse est inférieure à celle de mammographies standard. Cela a pour effet principal de diminuer le rapport signal à bruit dans les images, rendant les tâches de détection et de caractérisation plus difficiles. Le deuxième point à prendre en compte est la fusion d’informations. En effet, dans un tel schéma, chacune des projections est traitée de manière indépendante, ainsi si on prend une décision trop tôt dans une de ces dernières, il peut être difficile voire impossible de rattraper l’erreur dans la suite du traitement. La troisième approche peut être vue comme une approche hybride des deux premières. L’idée est de commencer l’analyse dans les projections en faisant le moins de prise de décision possible. Une fois cela fait, une étape d’agrégation permet de regrouper tous les éléments que l’on a pu rassembler de manière indépendante jusque là. Ensuite, une analyse 3D peut avoir lieu, soit à partir du volume, soit à partir de la fusion des informations 2D. Éventuellement on peut retourner dans les domaines des projections dans le but de rechercher de l’information que l’on aurait pu manquer, comme par exemple une lésion non détectée dans une des projections car elle y apparaît de manière subtile. Les itérations entre 2D et 3D peuvent permettre d’obtenir toutes les informations nécessaires pour prendre la meilleure décision.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction 
1 Le sein, la mammographie, et la détection automatique de cancers 
1.1 Le cancer du sein 
1.1.1 La mammographie
1.1.2 Caractérisation des différents types de cancer
1.2 La tomosynthèse du sein 
1.2.1 Motivation
1.2.2 Principe général
1.2.3 Méthodes de reconstruction
1.2.4 Limitations et bénéfices
1.3 La détection automatique de cancers en mammographie conventionnelle 
1.3.1 Motivations
1.3.2 Différents composants d’un système de détection automatique
1.3.3 Pré-traitement des images
1.3.4 Détection des microcalcifications
1.3.5 Détection des opacités
1.3.6 Prise de décision
1.3.7 Autres approches
1.4 Aide à la détection pour des volumes de tomosynthèse 
1.4.1 Motivations
1.4.2 Différents designs de système de détection
1.4.3 Microcalcifications
1.4.4 Densités
1.4.5 Approche proposée
1.5 Conclusion 
2 Filtres connexes flous 
2.1 Les filtres connexes 
2.1.1 Opérateurs connexes binaires
2.1.2 Extension aux images à niveaux de gris et filtres de nivellement
2.1.3 Ouvertures d’attribut et filtres d’amincissement (thinning)
2.2 Représentation de l’imprécision dans les images
2.2.1 Ensembles flous
2.2.2 Les image floues
2.2.3 Images d’ombres floues
2.2.4 Images d’intervalles flous et images de nombres flous
2.2.5 Autres utilisations du flou en traitement d’image
2.3 Les filtres connexes flous 
2.3.1 Connexité des ensembles flous
2.3.2 Régions homogènes et zones plates floues
2.3.3 Familles d’opérateurs connexes flous
2.3.4 Persistance d’un ensemble flou
2.3.5 Opérateurs connexes flous pour les images à niveaux de gris flous
2.3.6 Lien avec les opérateurs connexes classiques
2.3.7 Définition de filtres dans un contexte de reconnaissance
2.4 Utilisation pratique des filtres connexes 
2.4.1 Outils
2.4.2 Filtre de détection de lésions circonscrites
2.4.3 Extraction à partir d’une IOF
2.4.4 Extraction à partir d’une IIF
2.5 Conclusion 
3 Mise en œuvre des filtres connexes flous 
3.1 Notations et définitions 
3.2 Croissance d’un arbre représentant un ensemble flou 
3.3 Décroissance d’un arbre associé à un ensemble flou 
3.4 Application au filtrage d’image de quantités floues 
3.4.1 Images floues et représentation des niveaux de gris
3.4.2 Croissance d’un ensemble flou
3.4.3 Réduction d’un ensemble flou
3.4.4 Filtrage et discussion
3.5 Conclusion 
4 Construction d’images floues 
4.1 Méthodes générales de construction 
4.1.1 Construction d’images d’ombres floues nettes
4.1.2 Construction en utilisant un patron
4.2 Construction d’image et débruitage 
4.2.1 Débruitage d’images et construction d’image floues
4.2.2 Construction d’image floues à partir de filtres de rang
4.2.3 Application du principe d’extension pour construire des images floues
4.3 Débruitage flous par ondelettes 
4.3.1 Décomposition en ondelettes
4.3.2 Seuillage des coefficients d’ondelettes
4.3.3 Coefficients flous
4.3.4 Génération d’une image floue
4.3.5 Quantité de flou
4.3.6 Expérimentations sur images synthétiques
4.3.7 Expérimentation sur une image réelle
4.4 Conclusion 
5 Segmentation floue 
5.1 Intérêt des contours flous 
5.1.1 Interprétation d’une image : imprécision contre incertitude
5.1.2 Formalisme des contours flous
5.2 Segmentation par seuillages multiples 
5.2.1 Principe
5.2.2 Lien avec les images d’ombres floues
5.2.3 Illustration et limitations
5.3 Formulation du problème dans le cadre des ensembles de niveaux 
5.3.1 Ensemble de niveaux
5.3.2 Méthode originale
5.3.3 Segmentation par ensembles de niveaux flous
5.3.4 Limitations
5.4 Approche par programmation dynamique 
5.4.1 Travaux existants .
5.4.2 Obtentions de contours flous
5.4.3 Résultats
5.5 Conclusions et perspectives 
6 Utilisation des contours flous pour la caractérisation de lésions 
6.1 Schéma global 
6.1.1 Marqueurs
6.1.2 Hypothèses multiples
6.2 Segmentation et conditionnement de l’information 
6.2.1 Extraction de contours flous
6.2.2 Conditionnement de l’information
6.3 Classification à l’aide d’arbres de décision flous
6.3.1 Description d’un arbre flou
6.3.2 Utilisation d’un arbre flou
6.3.3 Construction d’un arbre
6.3.4 Prise de décision
6.4 Résultats
6.4.1 Base de données
6.4.2 Extraction de contours
6.4.3 Extraction de caractéristiques
6.4.4 Classification
6.5 Conclusion 
7 Détection de motifs de convergence 
7.1 Motifs de convergence et cancers 
7.2 Approches courantes
7.2.1 Détection de densité et analyse de la périphérie
7.2.2 Détection de convergences
7.3 Discussion sur la définition de convergence d’un point vers un autre 
7.3.1 Définitions possibles
7.3.2 Comparaison des définitions
7.4 Modélisation a contrario pour la détection de zones de convergence 
7.4.1 Variables aléatoires et modèle naïf
7.4.2 Convergences ǫ-significatives
7.4.3 Détection de convergence ǫ-significatives
7.5 Mise en œuvre rapide 
7.5.1 Décomposition du problème
7.5.2 Complexité
7.6 Réduction de faux positifs 
7.6.1 Agrégation des événements ǫ-significatifs
7.6.2 Différenciation lésion/croisement de fibres
7.6.3 Illustration
7.7 Conclusion 
8 Détection automatique de lésions malignes en mammographie 3D 
8.1 Description globale de la méthode 
8.1.1 Approche
8.1.2 Base de données
8.2 Détection des lésions à noyaux denses 
8.2.1 Détection des densités
8.2.2 Extraction de marqueurs à partir de la carte de détection floue
8.2.3 Segmentation
8.2.4 Caractéristiques
8.2.5 Séparateur à Vaste Marge
8.2.6 Résultats
8.3 Détection des lésions sans noyau dense 
8.3.1 Détection de convergence
8.3.2 Réduction de faux positifs
8.3.3 Performance
8.4 Performances globales de la chaîne
8.4.1 Fusion des deux canaux
8.5 Conclusion
9 Conclusions et perspectives 
A Quelques notions sur les filtres en traitement d’images
A.1 Image d’ombres
A.2 Connexité
A.3 Différence filtre/opérateur
A.4 Rappels sur les filtres connexes
A.4.1 Ouverture d’attribut, amincissements
A.4.2 Opérateur d’extinction
B Quelques notions sur les ensembles flous 
B.1 Opérateurs d’agrégation
B.2 Quantités floues
C Preuves sur les mises à jour d’arbres
C.1 Différents cas de l’opérateur M
C.2 Preuve du théorème 3.2.1
C.3 Preuve du théorème 3.2.4
C.4 Preuve du théorème 3.2.5
C.5 Preuve du théorème 3.3.2
D Nombre d’éléments dans Bγ et Bγ 
D.1 Cardinal de Bγ
D.2 Cardinal de Bγ
Liste des publications 
Bibliographie

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *