Les épithéliums sensoriels auditif et vestibulaire

Généralités 

Le signal acoustique

Le signal acoustique ou « son » est une perturbation de l’état d’équilibre des particules composant un milieu, qu’il soit liquidien ou aérien, et se propageant longitudinalement dans ce même milieu. Le son se caractérise par trois principaux paramètres, sa durée exprimée en seconde (s), sa fréquence exprimée en hertz (Hz) et son intensité exprimée en décibels SPL (dB SPL, Sound Pressure Level; Fig. 1).

➤ La durée de l’onde sonore est directement reliée au temps nécessaire aux particules entrées en vibration pour rejoindre leur état d’équilibre.
➤ La fréquence de l’onde sonore représente le nombre de vibrations par unité de temps. Plus la fréquence sonore est élevée plus le son est perçu comme aigu et inversement pour un son grave. La gamme fréquentielle perçue par l’oreille humaine s’étend de 20 Hz (sons graves) à 20 kHz (sons aigus).
➤ L’intensité sonore représente l’amplitude des vibrations sonores. Plus cette amplitude est élevée plus l’intensité sonore est forte. L’oreille humaine est capable de percevoir des sons allant de 0 à 120 dB SPL. Cependant pour des sons équivalents ou supérieurs 100-110 dB SPL, représentant le seuil de douleur, des dommages au niveau de l’oreille interne commencent à apparaître.

Pathologies de l’oreille interne et interêt de la recherche

Epidémiologie
Ces dernières années, la prise en charge des personnes souffrant de troubles auditifs n’a fait qu’augmenter. De plus la moyenne d’âge des personnes souffrant de surdités légères ou profondes va en diminuant. En effet, il est important de prendre conscience que l’oreille est en permanence soumise à des stimulations sonores plus ou moins agressives tout au long de la vie d’un individu. En plus des bruits extérieurs, certains comportements sociaux comme l’écoute de baladeurs à de très fortes intensités, les discothèques et les concerts, font que de plus en plus de surdités apparaissent précocement chez les jeunes adultes reflétant un enjeu majeur en terme de santé publique. A l’heure actuelle, on estime à environ 360 millions, le nombre de personne souffrant de surdités dans le monde (source OMS). En France, le nombre de personnes sourdes ou malentendantes est estimé à 5 millions dont environ 500 000 âgées de moins de 18 ans. Le dépistage précoce de la surdité chez l’enfant est important pour prévenir les problèmes de développement de l’organe auditif et des relais centraux, les problèmes d’acquisition du langage et d’interaction sociale pouvant être engendrés par ces déficits auditifs.

La surdité (ou hypoacousie) est définie comment une baisse de l’acuité auditive pouvant être d’origine génétique et/ou acquise. Celles-ci sont classées en deux sous catégories:
– Les surdités de transmission impliquant l’oreille externe (pavillon et conduit auditif) et/ou l’oreille moyenne (tympan et chaine des osselets).
– Les surdités neurosensorielles (ou de perception) ayant principalement pour origine un dysfonctionnement de l’oreille interne (la cochlée) et plus particulièrement les cellules ciliées sensorielles ou le nerf auditif.

Ce sont à la fois les paramètres génétiques et environnementaux qui vont conditionner le vieillissement de l’appareil auditif. La presbyacousie se définie comme le vieillissement normal et progressif de l’appareil auditif entrainant une diminution de l’acuité auditive pour certaines fréquences (fréquences sonores supérieur à 4 kHz). Contrairement à de nombreux types cellulaires dans notre organisme, les cellules ciliées sensorielles auditives de l’Homme et des mammifères en général, sont incapables de se diviser et de se renouveler. Autrement dit, chaque individu nait avec un capital de cellules ciliées qu’il est nécessaire de protéger.

Les surdités neurosensorielles
Un des premiers tests auditifs effectués à la naissance est celui de la mesure des produits de distorsion des otoémissions acoustiques (OEAs), reflétant l’activité mécanique active de la cochlée et son pouvoir d’amplification. Lorsque ce test se révèle négatif, ce dernier devient un candidat potentiel pour l’implant cochléaire qui stimulera directement les fibres nerveuses. Cet implant consiste en un processeur qui, recevant l’onde sonore via un microphone, permet sa transduction en un signal électrique qui est ensuite envoyé jusqu’à une série d’électrodes directement connectées sur les fibres afférentes du nerf auditif permettant leur stimulation.

Cependant, il apparaît dans certains cas, que ces tests fonctionnels ne permettent pas toujours d’établir un diagnostic correct. C’est par example le cas de la surdité autosomique récessive DFNB9. Celle-ci est liée à des mutations sur la protéine otoferline, une protéine impliquée dans la transmission synaptique des cellules ciliées internes impliquées dans la transduction du signal acoustique. Les OEAs sont normaux mais l’enfant présente une surdité profonde. Les médecins considèrent alors que les fibres nerveuses sont non fonctionnelles, et donc que l’implant cochléaire n’est pas envisageable. Les études portant sur le fonctionnement des cellules sensorielles cochléaires et vestibulaires ont permis de mieux comprendre comment celles-ci sont capables de traiter les signaux qu’elles reçoivent. Par exemple, l’étude sur des modèles murins n’exprimant plus la protéine otoferline, a permis d’établir que la surdité observée est liée à un défaut d’exocytose au niveau des cellules ciliées internes (Roux et al., 2006). Ces résultats montrent donc que les enfants atteints de la surdité DFNB9 sont de bons candidats pour la pose d’un implant cochléaire.

Les antibiotiques aminoglycosidiques
De nombreuses infections d’origines bactériennes, nécessitent la prescription d’antibiotiques aminoglycosidiques. Cependant de nombreuses études ont montré que certains de ces antibiotiques ont un effet délétère sur les cellules sensorielles de l’oreille interne aussi bien cochléaires que vestibulaires, en induisant la mort cellulaire par des mécanismes toxiques. Les antibiotiques aminoglycosides sont connus pour cibler les ribosomes bactériens empêchant la synthèse protéique. De nombreuses recherches ont mis en évidence plusieurs mécanismes moléculaires, par lesquels ces antibiotiques agissent au niveau de l’oreille interne. A partir du compartiment sanguin, une des voies d’entrée des antibiotiques est la strie vasculaire. Cette dernière est indispensable à la genèse et au maintien du potentiel électrochimique endocochléaire par l’action des pompes ioniques dépendantes de l’ATP. En ciblant les ARN ribosomaux des mitochondries, les aminosides préviennent la synthèse d’ATP nécessaire au fonctionnement cellulaire et notamment au fonctionnement des pompes Na/K ATPase. L’arrêt de leur fonctionnement, entraîne une chute du potentiel endocochléaire à l’origine des surdités progressives chez l’Homme. En plus de toucher la strie vasculaire, les antibiotiques aminoglycosidiques pénètrent dans les cellules ciliées, en passant par les canaux de mécanotransduction de la touffe ciliaire, où ils bloquent la synthèse protéique. Ils entraînent ainsi la formation d’espèces réactives de l’oxygène (ROS) et induisent la mort cellulaire par l’activation de la voie des caspases. Pour répondre à ce problème, certaines stratégies ont été mises en place pour continuer à utiliser ces traitements efficaces tout en protégeant les cellules sensorielles (voir revue: Huth et al., 2011). Les deux grandes stratégies mises en place sont: 1) le blocage de la voie des caspases en bloquant certains partenaires protéiques et 2) la neutralisation des ROS par l’utilisation de chélateurs ioniques tels que les antioxydants.

L’organisation générale de l’oreille

L’oreille est l’organe qui nous permet de percevoir les ondes sonores et de traduire ces signaux mécaniques en signaux électriques, capables d’être décodés et interprétés par les centres nerveux supérieurs. L’oreille humaine, comme celle des rongeurs, se divise en trois parties distinctes, l’oreille externe, l’oreille moyenne et l’oreille interne, chacune jouant un rôle particulier dans le traitement de l’information sonore.

L’oreille externe 

L’oreille externe, comprenant le pavillon et le conduit auditif externe (CAE; Fig. 2A), constitue la partie visible de l’oreille. Le pavillon est cartilagineux et sa forme est propre à chaque individu, comme le sont les empreintes digitales. Le pavillon a pour rôle d’amortir et d’amplifier l’onde sonore avant son entrée dans le CAE, mais aussi de participer à la localisation d’une source sonore dans l’espace. En effet, le retard de détection d’un son entre l’oreille droite et l’oreille gauche, encore appelé différence de temps interaurale, permet au cerveau d’estimer la position d’une source sonore dans l’espace, pour des fréquences inférieures à 1,5 kHz, c’est-à-dire dans les fréquences conversationnelles (0,5 à 2 kHz). Le CAE a une longueur d’environ 23 mm et un diamètre d’environ 7 mm. Il a pour rôle de transmettre l’onde sonore jusqu’à la membrane tympanique représentant la limite physique entre l’oreille externe et moyenne.

L’oreille moyenne

L’oreille moyenne (ou caisse tympanique) est une cavité remplie d’air dans laquelle se retrouve articulée, par des ligaments, la chaîne des osselets (ou chaîne ossiculaire; Fig. 2B). Elle fait suite au tympan, une membrane d’une épaisseur d’environ 0,1 mm et d’un diamètre de 10 mm chez l’Homme. Le tympan réceptionne les vibrations sonores provenant du CAE et les transmet à la chaîne ossiculaire. Celle-ci est composée des plus petits os du corps humain, les osselets. Ils sont au nombre de trois: le marteau relié au tympan, l’enclume et pour finir, l’étrier, en connexion avec l’oreille interne, via la membrane de fenêtre ovale de la cochlée (Fig. 2B). Les vibrations du tympan entraînent un déplacement de la chaîne ossiculaire l’étrier. Il en résulte la stimulation des cellules sensorielles localisées dans l’oreille interne. Le principal rôle de l’oreille moyenne est de convertir le signal sonore aérien en mouvements liquidiens à l’origine des vibrations de la membrane basilaire au niveau de l’oreille interne. L’oreille moyenne est importante pour l’amplification de l’onde sonore et joue aussi le rôle d’adaptateur d’impédance, limitant ainsi la perte d’énergie de l’onde acoustique entre le tympan et la fenêtre ovale de la cochlée. Un rôle important de l’oreille moyenne est de protéger les cellules sensorielles de la cochlée par le réflexe ossiculaire encore appelé réflexe stapédien. Il met en jeu le nerf vestibulo-cochléaire ainsi que le nerf facial. Ce réflexe se met en place en réponse à des sons de fortes intensités (> 80 dB SPL) et de fréquences inférieures à 2 kHz. Cet arc réflexe nécessite la contraction de certains muscles attachés à la chaîne ossiculaire, entraînant une augmentation de sa rigidité et donc limitant le transfert de l’énergie acoustique entre le tympan et l’oreille interne. Néanmoins, ces muscles se caractérisent par leur fatigabilité faisant que leur rôle de protection est extrêmement limité en cas de stimulations agressives répétées. La latence entre l’activation et la mise en place de ce réflexe étant d’environ 10 ms, certains dommages de l’oreille interne ne peuvent être évités.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1. Généralités
1.1 Le signal acoustique
1.2 Pathologies de l’oreille interne et interêt de la recherche
a. Epidémiologie
b. Les surdités neurosensorielles
c. Les antibiotiques aminoglycosidiques
2. L’organisation générale de l’oreille
2.1 L’oreille externe
2.2 L’oreille moyenne
2.3 L’oreille interne
a. La cochlée : organe de l’audition
b. Le vestibule: organe de l’équilibre
3. Les épithéliums sensoriels auditif et vestibulaire
a. L’organe de Corti
b. L’épithélium vestibulaire
3.1 Les cellules ciliées sensorielles
a. L’organe de Corti
b. L’utricule
3.2 Morphologie des cellules sensorielles
a. Les cellules sensorielles auditives
b. Les cellules sensorielles utriculaires
3.3 Les cellules sensorielles: des cellules polarisées
a. Pôle apical des CCIs et CCEs
b. Pôle apical des cellules utriculaires
c. Pôle baso-latéral et zones actives
4. La membrane basilaire: un résonateur mécanique
5. Voies nerveuses auditives et vestibulaires
5.1 Fibres afférentes et efférentes de l’organe de Corti
5.2 Fibres afférentes et efférentes du vestibule
5.3 Les voie nerveuses centrales
5.4 Techniques d’exploration fonctionnelle du système auditif
a. Enregistrement unitaire des fibres afférentes auditives
b. Mesure des potentiels cochléaires composites
c. Enregistrements des PAEs
6. Les récepteurs post-synaptiques glutamatergiques
6.1 Les familles de récepteurs au glutamate
6.2 Structure des récepteurs glutamatergiques
6.3 Les récepteurs glutamatergiques des fibres afférentes auditives et vestibulaires
6.4 Les récepteurs glutamatergiques de la rétine
7. Transmission synaptique: transduction du potentiel microphonique en impulsions nerveuses
7.1 Mécanisme général
7.2 Les étapes de l’exocytose synaptique
7.3 Les acteurs moléculaires de l’exocytose
a. Le système nerveux central
b. Les photorécepteurs et les cellules bipolaires de la rétine
c. Les cellules ciliées sensorielles: des synapses non-conventionnelles
7.4 Les vésicules à glutamate
a. Mécanisme de chargement vésiculaire en glutamate
b. La pompe à proton vésiculaire: V-ATPase
c. Les transporteurs vésiculaires glutamatergiques: V-GLUT
7.5 Le signal calcique et sa modulation
8. Fusion multi-vésiculaire ou fusion uni-vésiculaire ?
9. L’endocytose des cellules ciliées sensorielles
10. Les senseurs calciques: la « gâchette » de l’exocytose
10.1 Les synaptotagmines
10.2 Les ferlines
10.3 Les senseurs calciques des cellules sensorielles
a. Les photorécepteurs et les cellules bipolaires
b. L’otoferline: le senseur calcique des cellules ciliées ?
10.4 Quelles sont les étapes de l’exocytose contrôlées par l’otoferline ?
11. Les canaux calciques voltage-dépendants
11.1 La famille des canaux calciques voltage-dépendant
11.2 Structure moléculaire des canaux calciques
a. La sous-unité α1
b. Les sous-unités auxiliaires du canal calcique
11.3 L’inactivation des canaux calciques
a. L’inactivation dépendante du voltage
b. L’inactivation dépendante du calcium
c. L’inactivation dépendante des protons
d. Les isoformes courtes et longues des canaux calciques Cav1.3
11.4 Les canaux calciques des cellules sensorielles de la rétine et de l’oreille interne
a. Les photorécepteurs et les cellules bipolaires
b. Les cellules sensorielles auditives
c. Les cellules sensorielles vestibulaires
d. Les isoformes du canal calcique Cav1.3 dans les cellules ciliées sensorielles
Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *