Corrections radiatives en Supersymétrie et applications au calcul de la densité relique au-delà de l’ordre dominant

Le Modèle Standard de la Physique des Particules s’est construit tout au long du XXème siècle pour unifier et décrire sous un même formalisme la mécanique quantique et la relativité restreinte, la théorie quantique des champs. Les mesures de précision effectuées au LEP et au TeVatron l’ont confirmée comme étant la théorie décrivant les interactions des particules subatomiques jusqu’à des échelles d’énergie de la centaine de Gigaélectron-volt (GeV). Le principe de jauge a permis de représenter les interactions, au nombre de trois, par l’échange de particules médiatrices, les bosons, aux particules de matière, les fermions. Les bosons sont au nombre de quatre et les fermions se classent en deux grandes familles : les leptons et les quarks. Cependant, un certain nombre de problèmes demeurent, en particulier, l’autre théorie révolutionnaire du siècle dernier, la relativité générale, n’y trouve toujours pas sa place en tant que théorie quantique de la gravitation. Ensuite, la construction du Modèle Standard nécessite une masse nulle pour toutes les particules en faisant partie, or, cela est contredit par un bon nombre d’observations. Il se pose ainsi le problème théorique de la génération des masses aux particules au sein du Modèle Standard. Au niveau cosmologique, il apparaît que la matière que nous savons décrire à l’aide de cette théorie forme seulement une petite partie de la composition de la matière de l’Univers, le reste se trouvant sous une forme invisible et non prédite, appelée Matière Noire. De façon surprenante il semble que ce problème et celui de la génération des masses sont liés, permettant de mettre en relation la dynamique de l’histoire de l’Univers avec celle du monde subatomique. De nombreux modèles, allant au-delà du Modèle Standard, ont alors été élaborés pour répondre à ces deux interrogations. L’un des modèles les plus étudiés, la Supersymétrie, permet d’apporter une solution élégante à ces questions en proposant un nouveau type de symétrie, reliant les bosons aux fermions. À l’heure actuelle cette théorie n’en est encore qu’à l’état spéculatif, aucune observation expérimentale n’a pu la mettre en évidence malgré son impressionnante phénoménologie. En particulier elle contient plusieurs particules pouvant prétendre à constituer la Matière Noire, dont la plus plausible est le neutralino. Le collisionneur hadronique situé au CERN, le Large Hadron Collider (LHC) produit actuellement des collisions proton-proton à 7 Téraélectron-volts (TeV) dans le but de donner une réponse expérimentale à ces interrogations théoriques et de sonder la physique au delà de l’échelle électrofaible, limite actuelle du Modèle Standard. De plus, des expériences embarquées, comme le satellite PLANCK, ont été envoyées dans l’espace pour sonder l’Univers aux grandes échelles et améliorer la précision d’observables cosmologiques. Nous sommes donc à l’aune d’une ère de mesures de précision expérimentales impliquant que du côté des prédictions théoriques, au minimum le même niveau de précision soit atteint.

Pour le calcul d’observables reliées à la Matière Noire Supersymétrique, la renormalisation et la bonne implémentation du secteur des neutralinos/charginos dans SloopS a été indispensable pour produire des résultats fiables et rigoureux. Nous avons implémenté une méthode de diagonalisation de la matrice 4 × 4 des neutralinos avec des paramètres complexes du fait de l’apparition de valeurs propres négatives si une matrice de diagonalisation purement réelle est utilisée, ce qui rendait impossible le calcul de certains processus, en particulier la désintégration de la particule dont la masse physique était négative. Une autre difficulté technique est survenue lors du calcul des processus d’annihilation de neutralinos à très faible vitesse relative, cette cinématique particulière rend la procédure de réduction des intégrales de boucles tensorielles sur une base d’intégrales scalaires inopérante et conduit à des instabilités numériques. L’ingrédient clé qui contrôle la réduction est le déterminant de Gram, qui permet de tester l’indépendance linéaire des impulsions entrantes dans le diagramme de boucle. Dans le cas où les vitesses relatives sont faibles les impulsions ne sont plus indépendantes et le déterminant s’annule. C’est pourquoi une routine spéciale utilisant une méthode de segmentation des intégrales a été implémentée directement dans le code SloopS. Cette technique nous a aussi permis d’étudier analytiquement le comportement proche du seuil de certaines intégrales scalaires. Le calcul de la densité relique à proprement parler a ensuite été effectué en interfaçant les résultats de SloopS avec le programme automatique de calcul de la densité relique micrOMEGAs, ce qui est une amélioration importante par rapport à notre méthode précédente, basée sur des approximations. Pour le calcul de la densité relique nous nous sommes penchés sur des scénarios où la contribution au terme de collision de l’équation de Boltzmann était dominé par des processus comportant des bosons de jauge dans l’état final, où l’invariance de jauge joue un rôle de premier plan. Concernant les corrections radiatives plusieurs schémas de renormalisation furent comparés ainsi que le comportement proche du seuil de certains diagrammes de boucle scalaires, comme les fonctions Triangle ou Boîte. L’étude de ce comportement a été d’une importance cruciale pour la compréhension des corrections radiatives sur l’annihilation à faible vitesse relative des neutralinos lourds, dues à la manifestation à l’ordre d’une boucle de l’effet Coulomb/Sommerfeld. Un autre type de comportement infrarouge est apparu lors de l’analyse de l’annihilation de neutralinos lourds en bosons de jauge : les corrections de type Sudakov, émergeant lorsque des particules ultra-relativistes rayonnent un boson de jauge supplémentaire. Nous allons maintenant exposer le plan de cette thèse.

La cosmologie décrit l’évolution thermique de l’Univers, qui, dans l’état actuel de nos connaissances, est basée sur le modèle du Big-Bang élaboré au cours du XXème siècle. Ce modèle reproduit avec succès et de façon simple un très grand nombre d’observations, à tel point qu’il a acquis le nom de modèle standard de la cosmologie. Plusieurs étapes furent nécessaires à sa construction, sa vision moderne naît en 1915 avec la théorie de la relativité générale d’Albert Einstein. Un an plus tard, Karl Schwarzschild trouve une solution à symétrie sphérique des équations d’Einstein puis les premiers modèles cosmologiques dynamiques apparaîtront en 1922 avec Alexander Friedmann. La construction de ces modèles s’appuie sur les équations d’Einstein et le principe cosmologique, qui stipule que l’homme n’occupe pas une place privilégiée dans l’Univers, impliquant que l’Univers doit être isotrope et spatialement homogène, conduisant à la métrique de Friedmann-Lemaître-Robertson-Walker. Les équations de la relativité induisent, quant à elles, une géométrisation de l’espace-temps qui est encodée dans l’expression de la métrique. L’espacetemps est alors un champ comme un autre, avec une dynamique. Cette description s’est ensuite enrichie et affinée tout au long du XXème siècle grâce à de nouvelles observations de plus en plus précises. Le modèle du Big-Bang suppose que dans son état initial l’Univers était très dense et très chaud, puis, étant en expansion, il s’est refroidi et sa densité a diminué. Ce modèle permet, en outre, de décrire le fond diffus cosmologique, l’abondance des éléments légers, la formation des grandes structures (galaxies, amas de galaxies) et le contenu de l’Univers actuel.

Cependant, plusieurs interrogations restent encore en suspens et non-résolues : déterminer la nature et l’origine de ce qui est appelé communément l’énergie noire et la matière noire. En 1998, deux équipes américaines, à partir de l’observation de la luminosité des supernovæ, tirèrent la conclusion que l’Univers était en expansion accélérée [1, 2]. Cela suppose l’existence d’une force répulsive à grande échelle pouvant être obtenue à partir d’une nouvelle énergie, appelée énergie noire. Concernant la constitution en matière de l’Univers, les données observationnelles nous indiquent que la plus grande partie nous est invisible. Par définition, cette matière est appelée “noire”, c’est à dire qu’il n’y a pas de radiation “détectable” qui lui est associée. Une fois encore de nombreuses observations expérimentales confirment indirectement la présence de cette matière noire, comme par exemple l’observation du fond diffus cosmologique par la sonde WMAP [3] ou de l’effet de lentillage gravitationnel [4, 5].

Le modèle standard de la physique des particules décrit trois des interactions entre les particules subatomiques : les interactions électromagnétique, faible et forte (l’interaction gravitationnelle est négligeable à l’échelle subatomique), et rend compte d’une grande quantité d’observations. Au début des années soixante, il a été réalisé que la recherche des symétries au sein des particules élémentaires pouvait jouer un grand rôle pour déterminer la forme de leurs interactions, basée sur l’échange de quantas, les bosons vecteurs. Le principe de symétrie a aussi permis de classifier les particules élémentaires sous différentes familles (leptons, quarks, bosons vecteurs). Les théories basées sur ce rôle accordé aux symétries sont connues sous le nom de théories de jauge de Yang-Mills [25]. La théorie de jauge décrivant l’interaction des quarks et des leptons pour des énergies inférieures au TeV est basée sur le groupe de jauge non-abélien SU(3)C⊗SU(2)L⊗U(1)Y . L’interaction forte ou chromodynamique quantique (QCD pour Quantum ChromoDynamics en anglais) est décrite par le groupe SU(3)C (où le C réfère à la charge de couleur) et le groupe SU(2)L ⊗ U(1)Y (où le symbole Y signifie l’hypercharge et L le caractère chiral de l’interaction faible) unifie les interactions faible et électromagnétique (Quantum ElectroDynamics ou QED en anglais) sous une même interaction/description, dite électrofaible (Electro-Weak Interactions ou EW ), grâce aux travaux de Glashow, Weinberg et Salam [26]. L’utilisation de ce groupe de symétrie locale a non seulement permis de décrire l’interaction électrofaible mais aussi de prédire trois nouvelles particules, les bosons Z 0 et W±, qui ont plus tard été découverts par l’expérience UA1 au CERN, formant ainsi l’un des succès les plus retentissants du modèle standard. Celui-ci a depuis été testé jusqu’au pour mille aux LEP et TeVatron. Les physiciens des particules auraient pu se contenter de cette élégante théorie si elle ne soulevait pas un problème majeur : la symétrie SU(2)L ⊗ U(1)Y prédit des bosons de jauge Z 0 et W± de masse nulle pour être respectée, or il s’avère que ce sont des particules lourdes, posant donc le problème de l’origine de cette masse. Le mécanisme le plus simple pouvant en rendre compte en respectant la symétrie de jauge est le mécanisme de Higgs, qui confère une masse aux particules du modèle standard par l’introduction d’un champ scalaire, le champ de Higgs. Ce mécanisme permet de briser la symétrie du vide quantique tout en laissant la théorie invariante sous les transformation de jauge. La symétrie SU(2)L ⊗ U(1)Y du vide est ainsi brisée par le mécanisme de Higgs, ne laissant que la symétrie U(1)em de la QED et donnant une masse aux particules sensibles à l’interaction électrofaible .

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Table des matières
Introduction
Introduction (English)
1 Le modèle cosmologique standard
1.1 Introduction
1.2 Le Modèle du Big Bang
1.2.1 Équations de la théorie
1.2.2 Métrique de Robertson-Walker
1.2.3 Contenu de l’Univers
1.2.4 Équations de Friedmann-Lemaître
1.2.5 Paramètres cosmologiques
1.2.6 Évolution du paramètre d’échelle
1.3 Histoire thermique de l’Univers
1.3.1 Notion de découplage
1.3.2 Distributions à l’équilibre
1.3.3 Quantités thermodynamiques
1.3.4 Nombre de degrés de libertés relativistes
1.3.5 Entropie
1.3.6 Le scénario standard
1.3.7 Observations
1.4 Le problème de la matière noire
1.4.1 Mise en évidence
1.4.2 Densité relique
1.4.3 Candidats
2 Le modèle standard de la physique des particules
2.1 Introduction
2.2 Quarks et leptons
2.3 Les interactions du modèle standard
2.3.1 Le secteur de jauge
2.3.2 Le secteur fermionique
2.3.3 Secteur de Higgs
2.4 Les limites du Modèle Standard
3 La Supersymétrie
3.1 Introduction
3.2 Algèbre supersymétrique
3.3 Superchamps
3.3.1 Superchamps chiraux
3.3.2 Superchamps de jauge
3.4 Le Modèle Standard Supersymétrique Minimal (MSSM)
3.4.1 Supersymétriser le Modèle Standard
3.4.2 Lagrangien du MSSM
3.5 Les différents secteurs du MSSM
3.5.1 Le secteur des Higgs et la brisure électrofaible dans le MSSM
3.5.2 Le secteur sfermionique
3.5.3 Le secteur des neutralinos charginos
3.5.4 Le secteur de fixation de jauge
3.6 Phénoménologie mSUGRA
3.7 Une solution au problème de la Matière Noire
4 Divergences, Régularisation
4.1 Introduction
4.2 Régularisation des intégrales de boucles
4.2.1 Analyse générale des divergences ultraviolettes
4.2.2 Procédures de régularisation
4.2.3 Techniques de réduction
4.3 Réduction des intégrales
4.3.1 Réduction à la Passarino-Veltman
4.3.2 Intégrale scalaire à trois points
4.3.3 Exemple de réduction de la fonction vectorielle à trois points
4.4 Régularisation des divergences infra-rouges
4.4.1 Forme du facteur universel fsof t
4.4.2 Divergence infra-rouge de la fonction C0
4.5 Segmentation des fonctions C0 et D0
4.5.1 Segmentation de la fonction Triangle
4.5.2 Segmentation de la fonction Boîte
4.5.3 Étude numérique
5 La renormalisation du MSSM
Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *