Le besoin d’observer ce qui est invisible à l’œil nu

Le besoin d’observer ce qui est invisible à l’œil nu 

L’idée d’entités invisibles responsables de maladies épidémiques avait déjà été formulée en 36 av. J.-C. par Varron dans son traité d’agriculture, mentionnant qu’il était préférable de ne pas développer une ferme proche de marécages, « parce qu’il s’y développe certaines créatures minuscules que les yeux ne peuvent voir, qui flottent dans l’air et entrent dans le corps par la bouche et le nez, et causent de graves maladies. » [Cato & Varro, 36 av. J.-C.]. L’existence de ces créatures a également été supposée par Girolamo Fracastoro en 1546, qui les avait alors baptisées « seminaria contigionis ». La confirmation de leur existence n’a toutefois pu être possible qu’au XVIIe siècle grâce à l’invention du microscope, permettant de franchir la barrière d’un monde invisible. La première description formelle de l’existence de micro-organismes a été rapportée à la Royal Society de Londres par Antoni van Leeuwenhoek dès 1673. Ce drapier avait fabriqué un microscope lui-même, permettant d’agrandir jusque 300 fois, dans le but de vérifier la pureté des étoffes qu’il vendait. En y observant des échantillons d’eau, il a décrit ce qu’il appelait des « animalcules », et a détaillé les premières représentations précises de bactéries, champignons et protozoaires, inaugurant ainsi le domaine de la microbiologie.

Ces observations n’étaient à l’époque que d’un intérêt descriptif, les micro organismes étant considérés comme issus de génération spontanée. Cette théorie a été remise en question pour la première fois par Francesco Redi en 1668, démontrant que des larves n’émergeaient pas spontanément de viande avariée si cette dernière était couverte pour empêcher la ponte des mouches.

L’expérimentation pour cultiver et isoler afin de mieux pouvoir étudier

Louis Pasteur a mené de nombreuses expériences vers la fin du XIXe siècle pour discréditer définitivement la théorie de génération spontanée. Il a en outre associé pour la première fois en 1857 les bactéries à la fermentation lactique, justifiant qu’une contamination bactérienne pouvait faire tourner le vin. Pasteur a également formulé la théorie pathogénique en 1878, indiquant que les micro-organismes sont à l’origine des maladies infectieuses (confirmant ainsi l’hypothèse de Girolamo Fracastoro), en mettant en parallèle l’idée que si les bactéries peuvent altérer le vin, elles peuvent peut-être affecter l’humain de la même manière. Robert Koch a réussi à démontrer cette théorie en 1884, montrant que des souris inoculées par des souches cultivées de Bacillus antracis sont systématiquement atteintes d’anthrax.

Cette découverte a engendré ce qu’on appelle l’âge d’or de la microbiologie, durant lequel de nombreux pathogènes ont été identifiés et liés à différentes maladies infectieuses. Julius Petri a permis, sur la base des travaux de Koch, l’isolement et la culture de colonies bactériennes par l’invention de la boîte éponyme en 1887. Le développement des méthodes culturales a été précieux pour l’étude de ces micro organismes de façon isolée, afin de pouvoir décrire leurs caractéristiques phénotypiques. En parallèle, l’amélioration de la résolution des microscopes a permis à Ferdinand Cohn de classifier les premières cellules bactériennes par forme (sphérique, allongée, en bâtonnet, ou en spirale) en 1876, posant les fondations de la classification des micro-organismes par caractéristiques phénotypiques, qui a été la méthode de classification de référence jusqu’à la moitié du XXe siècle.

L’utilisation de l’ADN pour identifier, comparer et classer de nouveaux microbes 

La découverte de l’ADN comme support de l’information génétique (par Franklin & Gosling en 1952 et Watson & Crick et 1953 [Franklin & Gosling 1952, Watson & Crick 1953]) et son séquençage permis par Frederick Sanger vingt ans plus tard [Sanger 1977] ont révolutionné l’étude du vivant en la basculant d’observations phénotypiques vers des observations génotypiques. La théorie d’horloge moléculaire (définie par Zuckerkandl et Pauling en 1965 [Zuckerkandl & Pauling 1965]) a été pour la première fois appliquée à l’étude des relations évolutives entre les organismes par Woese & Fox, après 10 ans de lectures de séquences de la petite sous-unité d’ARN ribosomique sur gels d’électrophorèse. En effet, cet ARN avait été identifié par Woese comme étant indispensable à la machinerie cellulaire de tout être vivant, tout en étant assez long pour pouvoir observer des différences de séquences entre différents organismes. Sur la base de ces séquences, Woese & Fox ont séparé l’arbre du vivant en trois domaines majeurs en 1977, proposant pour la première fois une étude de la phylogénie des organismes sur la base d’une séquence d’ARN ubiquitaire [Woese & Fox 1977]. Cette approche a été étendue à une cible génomique par Grimont & Grimont, qui ont défini en 1986 le ribotypage, comparaison de profils de restriction de l’ADN ribosomique 16S (abrégé ADNr 16S), comme méthode de classification taxonomique des bactéries [Grimont & Grimont 1986]. L’automatisation du séquençage Sanger (1986) croisée au développement des techniques de réaction en chaîne par polymérase (PCR, envisagée par Kjell Kleppe en 1971 et mise au point par Kary Mullis en 1983) ont permis à Weisburg et al. (1991) de standardiser cette approche en utilisant la séquence d’ADNr 16S comme marqueur phylogénétique bactérien, démarche qui s’est imposée comme standard dans l’étude phylogénétique bactérienne [Weisburg et al. 1991]. Cette approche a engendré une augmentation drastique de séquençages d’ADNr 16S chez la plupart des bactéries cultivables.

Toutefois, de nombreuses divergences étaient observées entre les microorganismes révélés par culture, et une observation directe par microscope d’une communauté microbienne complexe issue d’un échantillon environnemental [Staley & Konopka, 1985]. Cette révélation a fait émerger l’idée que certains micro-organismes ne pouvaient se développer que dans certaines conditions, associant leur environnement à leur fonctionnement. Begon et al. ont ainsi défini en 1986 une communauté microbienne comme un ensemble de microorganismes coexistant à un instant donné dans un même environnement [Begon et al. 1986]. Il a été estimé que les méthodes culturales classiques rendent compte de moins d’1 % de la diversité bactérienne de la plupart des échantillons environnementaux [Amann et al. 1995], ce qui laisse une immense quantité de « matière noire » [Filée et al. 2005] inaccessible à l’étude.

Les débuts de la métagénomique 

Pace et al. ont proposé en 1985 l’idée de cloner de l’ADN directement extrait d’échantillons environnementaux afin de pouvoir accéder aux organismes non cultivables [Pace et al. 1985]. Leur technique impliquait l’extraction de l’ADN total présent dans un échantillon, le clonage de cet ADN dans des organismes cultivables, et le séquençage des inserts pour rechercher de nouveaux gènes. Cette idée a été mise en application pour la première fois en 1991 sur une communauté bactérienne de picoplancton marin [Schmidt et al. 1991]. Le terme « métagénomique » a été utilisé pour la première fois par Jo Handelsman et al. en 1998, le définissant comme la « collecte de tous les génomes des membres d’une communauté microbienne à partir d’un certain environnement », et appliquant cette approche de clonage à des microbiotes du sol [Handelsman et al. 1998]. Le microbiote, défini par Joshua Lederberg en 2001, est « la communauté écologique des micro-organismes commensaux, symbiotiques et pathogènes qui se partagent littéralement notre corps» [Lederberg 2001]. Cette définition a ensuite été étendue aux communautés présentes dans un environnement donné (le microbiome), à un temps donné.

La généralisation du concept par le séquençage hautdébit

La société Lynx Therapeutics a proposé en 2000 la première technologie de séquençage haut-débit, le MPSS (massively parallel signature sequencing) basé sur du séquençage par ligation, bien qu’elle n’ait jamais été commercialisée. L’arrivée du séquençage haut-débit par synthèse vers 2005 a été permise par la découverte du pyroséquençage et la commercialisation de pyroséquenceurs haut-débit par la société 454. Cette technologie a provoqué une nouvelle révolution dans l’étude des micro-organismes, permettant de séquencer de nombreux fragments d’ADN physiquement isolés de façon parallèle, et donc une augmentation drastique du volume de séquences générées. Ce principe s’est ainsi substitué à la fastidieuse nécessité de multicloner un échantillon, et permet également de s’affranchir d’une obligation de culture.

Cette adaptation technologique a provoqué une augmentation considérable des études métagénomiques, en permettant le séquençage direct d’une population hétérogène de différents génomes issus d’un même échantillon. Poinar et al. ont ainsi publié, en 2006, les premières séquences environnementales issues d’un séquençage métagénomique haut-débit d’échantillons de mâchoires de mammouth préservé dans de la glace [Poinar et al. 2006]. La même année, Edwards et al. ont séquencé par pyroséquençage 454 le microbiote d’échantillons d’eau prélevés au fond de mines de fer [Edwards et al. 2006]. Dans cette dernière étude, les auteurs ont identifié les séquences d’ADNr 16S présentes dans ces données en les comparant à une banque de séquences d’ADNr 16S de référence, afin de pouvoir les identifier. La métagénomique telle qu’on la connaît aujourd’hui rassemble en réalité deux méthodes bien distinctes, nommées métagénomique WGS (whole genome shotgun), et la métagénomique ciblée. La métagénomique WGS consiste au séquençage de l’ensemble de l’ADN contenu dans un échantillon donné, générant ainsi une importante quantité de données mélangeant des fragments génomiques de tous les organismes en présence. Une panacée serait de pouvoir reconstruire le génome individuel de chaque organisme à partir d’un tel mélange, mais la complexité de telles données rend inapplicables les algorithmes d’assemblages de génomes actuels, et difficile le développement de nouveaux algorithmes d’assemblage. Ces derniers doivent en effet être capables de gérer un mélange de fragments de génomes bactériens, eucaryotes et/ou viraux, dans des proportions variables et comprenant de nombreuses régions répétées, similaires, et/ou de faible complexité [Ghurye et al. 2016]. Sans être assemblés, les génomes séquencés peuvent tout de même être identifiés, en y recherchant des signatures propres à différents taxons afin de pouvoir les étiqueter.

Actuellement, l’objectif principal de la métagénomique WGS n’est toutefois pas d’identifier les organismes en présence, mais plutôt d’identifier les gènes qu’ils expriment potentiellement. La métagénomique WGS est ainsi principalement utilisée pour reconstruire des voies métaboliques présentes dans un microbiote, en recherchant et/ou prédisant des séquences de gènes et leurs fonctions associées parmi les données séquencées. Cette approche ne permet toutefois pas de sélectionner les gènes effectivement exprimés, ne permettant pas de ce fait l’étude différentielle d’expression de gènes sur un même microbiote soumis à des conditions environnementales différentes. La métatranscriptomique pourrait répondre à cette problématique, en séquençant non pas l’ensemble des génomes en présence, mais l’ensemble des transcrits exprimés dans un microbiote. Néanmoins, cette approche est restreinte par de nombreuses limitations techniques : par exemple, l’isolement d’ARN messager à partir d’une matrice biologique et son court temps de demi-vie rendent sa manipulation très complexe [Bashiardes et al. 2016].

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
Le besoin d’observer ce qui est invisible à l’œil nu
L’utilisation de l’ADN pour identifier, comparer et classer de nouveaux microbes
Les débuts de la métagénomique
La généralisation du concept par le séquençage haut-débit
Une application qui sort des laboratoires de recherche
Les limites de la métagénétique
Chapitre 1 – Des échantillons à la description des microbiotes
1.1 – Déroulement global d’une étude métagénétique
1.2 – Technologies de séquençage haut-débit de seconde génération
1.3 – De l’échantillonnage aux données séquencées
1.4 – Analyse primaire des données séquencées
1.5 – Normalisation des tables de comptages
1.6 – Analyse secondaire
Chapitre 2 – Expertise du pipeline d’analyse métagénétique développé sur la plate-forme PEGASE-biosciences
2.1 – Évaluation du pipeline PEGASE v1 sur une communauté microbienne artificielle générée in vitro
2.2 – Évaluation du pipeline PEGASE v1 sur une communauté microbienne artificielle générée in silico
2.3 – Améliorations du pipeline PEGASE
Chapitre 3 – Évaluation formelle de pipelines d’analyse de données métagénétiques
3.1 – Mise en place d’un protocole d’évaluation de pipelines et contexte d’utilisation
3.2 – Évaluation des pipelines selon différentes variables du plan d’expérience
3.3 – Bilan de l’étude et perspectives
Chapitre 4 – Impact de la variation de pipeline d’analyse dans les conclusions d’une étude métagénétique du microbiote intestinal humain
4.1 – Contexte biologique
4.2 – Description des données de séquençage et analyses associées
4.3 – Évaluation de l’impact du changement de pipeline sur l’interprétation biologique des résultats
4.4 – Conclusion
Chapitre 5 – Harpon : Design de novo d’amorces dégénérées à façon selon un microbiote d’intérêt
5.1 – Problématique du design d’amorces dans un contexte métagénétique
5.2 – Méthodes intégrées à Harpon
5.3 – Validation de Harpon sur différents contextes métagénétiques
5.4 – Conclusion et perspectives
Chapitre 6 – Recommandations d’analyse de données métagénétiques issues d’un séquençage de librairies bidirectionnelles Ion Torrent PGM
6.1 – Première évaluation des lectures
6.2 – Pré-traitement des lectures par QIIME
6.3 – Pré-analyse assignment-first
6.4 – Élimination des lectures contaminantes (optionnel)
6.5 – Élimination des échantillons aberrants (optionnel)
6.6 – Exécution de l’analyse QIIME
6.7 – Normalisation des données
6.8 – Conclusion
Conclusions

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *