Co-simulation redondante d’échelles de modélisation hétérogènes pour une approche phénoménologique

Qu’est-ce qu’un modèle ?

   La démarche de modélisation est une approche scientifique qui a pour but de produire de la connaissance sur des phénomènes naturels ou artificiels. Cette démarche est utilisée pour comprendre, prédire voire contrôler des objets ou des phénomènes, qu’ils soient déjà existants ou encore au stade de la conception. Le principe est de créer une représentation simplifiée, appelée « modèle », d’un phénomène pour pouvoir l’étudier. Quand on aborde le sujet de la modélisation, en informatique du moins, il est d’usage de citer Minsky [Minsky, 1965], qui définit un modèle comme suit : Pour un observateur B, un objet Aú est un modèle d’un objet A (ou d’un phénomène) si B peut utiliser Aú pour répondre à des questions sur A Généralement, on distingue deux grandes familles de modèles :
Û les modèles analogiques sont une représentation physique du système réel, par exemple un modèle réduit, un prototype ou un échantillon.
Û les modèles numériques décrivent le système sous la forme d’équations mathématiques, et éventuellement d’une simulation informatique.

Pourquoi modéliser ?

  La modélisation trouve son intérêt lorsqu’il s’agit d’étudier des phénomènes ou des objets qui sont dicilement manipulables ou observables, de par leur taille, leur dangerosité, ou tout simplement parce qu’ils n’existent pas. En fonction du contexte, la modélisation peut revêtir des importances diérentes. Par exemple, pour un chercheur, l’objectif est en général de comprendre le système réel et d’obtenir de nouvelles connaissances théoriques sur celui-ci. Dans un cadre industriel, plus que de comprendre, il s’agit le plus souvent d’optimiser le système étudié. La modélisation représente plus une contrainte qu’un véritable choix, principalement à cause du coût d’expérimentations sur le système réel. La démarche de modélisation consiste alors en l’élaboration de prototypes ou maquettes sur lesquels sont effectuées des études paramétriques à des fins de dimensionnement et d’optimisation.

In virtuo

  Plus récemment, la possibilité d’interagir avec un programme en cours d’exécution, grâce notamment à la réalité virtuelle [Fuchs et al., 2003], a ouvert la voie à une véritable expérimentation in virtuo des modèles numériques. Il est désormais possible de perturber un modèle en cours d’exécution, de modifier dynamiquement les conditions aux limites, de supprimer ou d’ajouter des éléments en cours de simulation. Ceci confère aux modèles numériques un statut de maquette virtuelle, infiniment plus malléable que les modèles classiques ou même que le système réel. Dépassant la simple observation de l’activité du modèle numérique en cours d’exécution, l’utilisateur peut tester la réactivité et l’adaptabilité du modèle en fonctionnement. Une expérimentation in virtuo est donc une expérimentation conduite dans un univers de modèles numériques en interaction et à laquelle l’homme participe. A l’instar du biologiste qui réalise des expérimentations in vitro, l’expérimentation in virtuo permet d’observer le phénomène comme si l’on disposait d’un microscope virtuel déplaçable et orientable à volonté, et capable de mises au point variées. L’utilisateur spectateur – acteur – créateur peut ainsi se focaliser sur l’observation d’un type de comportement particulier, observer l’activité d’un sous-système ou bien l’activité globale du système. A tout moment, l’utilisateur peut interrompre le phénomène et faire un point précis sur les corps en présence et sur les interactions en cours ; puis il peut relancer la simulation là où il l’avait arrêtée. A tout moment, l’utilisateur peut perturber le système en modifiant une propriété d’un élément (état, comportement), en retirant des éléments ou en ajoutant de nouveaux éléments. Il peut ainsi tester un comportement particulier, et plus généralement une idée, et immédiatement en observer les conséquences sur le système en fonctionnement. Nous avons vu que la construction même du modèle permettait l’acquisition de connaissances sur le modèle et sur le système étudié, et qu’au delà du modèle, c’était sa construction qui était féconde. Dans une approche in virtuo qui augmente les interactions entre le système et le modélisateur, on peut penser que cette activité de modélisation est favorisée, parce que l’expérimentation in virtuo d’un modèle numérique lui assure une véritable présence et implique un véritable vécu de l’expérimentation que ne suggère pas la simple analyse de résultats numériques [Tisseau, 2001]. Nous allons à présent nous intéresser aux systèmes multi-agents, qui achent des caractéristiques qui nous permettent d’envisager la mise en œuvre des expérimentations in virtuo telles que nous venons de les décrire.

Dynamique des plaques

  De nombreuses études se sont attachées à décrire les forces exercées sur une plaque et à évaluer leur intensité relative. Nous en retiendrons les principales, qui sont présentées sur la figure 2.3. Ces forces peuvent être réparties en deux catégories. D’un côté nous avons des forces motrices qui tendent à déplacer une plaque lithosphérique : la traction gravitaire de la plaque plongeante (Slab pull), la force de succion (Suction) et la résultante des forces de pression au niveau des dorsales (Ridge push). De l’autre coté, les forces résistives suivantes vont s’opposer au mouvement de la plaque : les frottements visqueux avec le manteau (Drag force, Slab force) et la résistance visqueuse intra-plaque (Bending), non représentée sur la figure. Toutes les études s’accordent à dire que la force motrice la plus importante est la traction gravitaire de la plaque plongeante immergée dans le manteau. Le poids de la plaque plongeante (slab) est parfois décomposé en deux contributions. On retrouve correctement les vitesses des plaques terrestres actuelles si l’on considère que le poids de la partie plongeante située dans le tectoniques sont soumises à un ensemble de forces motrices et résistives [Grigné et al., 2012] manteau supérieur est supporté par la plaque horizontale en surface, et que le poids du reste de la plaque est supporté par le manteau inférieur, ce qui a pour  conséquence d’entraîner la plaque horizontale via la circulation résultante du manteau [Conrad et Lithgow-Bertelloni, 2002]. Cette seconde contribution sera appelée force de succion (suction force) dans la suite de cette étude. Notons que cette force entraîne la circulation du manteau visqueux dans les deux cellules adjacentes, ce qui peut contribuer significativement au déplacement d’une plaque qui ne dispose pas de traction gravitaire de plaque plongeante. La troisième force motrice considérée est la résultante des forces de pression au niveau d’une dorsale. Elle résulte d’un déséquilibre de pression existant à des profondeurs de moins de 100 km, du fait de l’élévation de l’axe de la dorsale jusqu’à 2000 m  au dessus des fonds océaniques. En eet, la répartition de masse dans les enveloppes superficielles de la Terre montre que les bosses et les creux de la surface topographique (montagnes, nappes phréatiques, etc.) sont pour l’essentiel compensés par des déficits ou des excès de masse, conduisant à un équilibrage des forces de pression sous une ligne imaginaire appelée « niveau de compensation isostatique ». La lithosphère se situant au-dessus de ce niveau, la pression produite à une profondeur donnée par l’excès d’élévation de la ride océanique est plus forte que la pression exercée par la partie plus vieille de la lithosphère. L’amplitude de cette force est toutefois évaluée à un ordre de grandeur en dessous de la traction gravitaire exercée par une plaque plongeante. Le frottement visqueux exercé par le manteau sur la plaque horizontale et sur la plaque plongeante est en première approximation considéré comme newtonien, c’est-à-dire que le taux de déformation du manteau est proportionnel à la contrainte appliquée. Cette force étant aussi proportionnelle à la surface de friction, une plaque sera d’autant plus freinée qu’elle sera étendue. Enfin, une dernière force résistive est associée à la déformation visqueuse interne à la plaque, au niveau des zones de subduction. Dans ce contexte, la plaque plie sous son propre poids, et la puissance développée par la traction gravitaire de la plaque plongeante est partiellement consommée par la dissipation visqueuse due à la déformation de la lithosphère. On considère, pour exprimer cette force, que la lithosphère est un fluide extrêmement visqueux. La résultante de cette force est connue sous le nom anglais de bending et son intensité varie selon les auteurs, de celle du ridge push à celle de la force de succion (jusqu’à 40% de la traction gravitaire).

Histoire thermique de la Terre

   Un scénario généralement admis consiste à dire qu’au cours de son histoire thermique, la Terre a d’abord vu son manteau se solidifier sous l’effet de la pression, et donc se réchauffer, laissant un océan de magma en surface. La cristallisation progressive de cet océan a conduit à la création de plaques solides qui se déstabilisaient régulièrement pour participer à la convection du système. L’énergie thermique produite par la radioactivité du manteau et la chaleur du noyau est libérée au niveau des dorsales et à travers la lithosphère, ce qui a pour effet de faire chuter la température du manteau. On estime que le manteau tel qu’il est décrit ici (fluide visqueux recouvert d’une lithosphère rigide) a atteint sa température maximale il y a 3 milliards d’années, et que celle-ci était plus élevée de seulement 200K [Jaupart et al., 2007]. Pour étudier la capacité de la Terre à évacuer son énergie radioactive, il est pratique de définir le nombre d’Urey comme le rapport de l’énergie radioactive produite dans le manteau sur l’énergie diffusée en surface. Ce rapport vaut actuellement 0, 33 ± 0, 15, ce qui illustre un régime de refroidissement du manteau de l’ordre de 120K/Ga 1. Dans ces conditions, il semble que le taux de refroidissement est aujourd’hui plus fort que sa valeur moyenne dans le passé car sinon la température du manteau aurait été plus élevée dans le passé. Les modèles classiques ne parviennent pas à expliquer cette différence et conduisent à une « catastrophe thermique » [Labrosse et Jaupart, 2007] lorsqu’on remonte le temps à partir de la valeur actuelle des pertes de chaleur en surface. Il semble donc que d’autres phénomènes doivent être pris en compte pour compléter les études de refroidissement du manteau. En premier lieu, il a été démontré que la présence des continents est une donnée importante du problème. Les mesures de terrain indiquent que le flux géothermique à travers les continents est 5 à 10 fois plus faible que le flux à travers le plancher océanique. Les continents jouent donc un rôle d’isolants thermiques [Grigné et al., 2007]. Ensuite, toujours à partir de mesures, nous pouvons armer que la distribution du flux de chaleur n’est pas uniforme selon l’âge de la lithosphère océanique. Le flux surfacique est beaucoup plus élevé pour une lithosphère très jeune, puis décroît rapidement jusqu’à 30 M a 2, avant de stagner après 80 M a [Erickson et al., 1975]. Il apparaît donc que l’étude des mécanismes de refroidissement du manteau doit tenir compte des processus à court terme de la tectonique des plaques. Cependant, nous avons vu que la lithosphère est composée d’un nombre variable de plaques, et que si leur dynamique est relativement bien décrite, la mobilité de leurs frontières reste mal comprise. En particulier, nous ne pouvons que formuler des hypothèses à propos de leurs formation et disparition, à défaut d’avoir pu les observer dans l’histoire récente. Cette remarque s’applique également aux continents. Si nous savons qu’il existe des cycles continentaux dans l’histoire de la Terre, conduisant à des ouvertures et des fermetures régulières des océans [Wilson, 1966], nous ne pouvons que présumer des mécanismes de ces événements. Cependant, les outils de modélisation utilisés classiquement en géophysique ne nous permettent pas d’intégrer facilement de tels événements structurels. C’est à ce problème que veut répondre le modèle MACMA en s’appuyant sur les atouts des systèmes multi-agents et particulièrement de l’approche phénoménologique.

Le Modèle MACMA : MultiAgent Convective MAntle

   Les simulations numériques classiques de la géodynamique terrestre sont confrontées à un obstacle qui caractérise la plupart des systèmes complexes : bien que les processus mécaniques et thermiques impliqués dans le refroidissement de la planète soient relativement bien décrits à l’échelle du laboratoire, plusieurs processus majeurs de la tectonique des plaques restent mal compris à l’heure actuelle. À ce constat s’ajoute le fait que nous ne sommes pas toujours en mesure d’exprimer nos hypothèses sous la forme d’une équation mathématique. Ceci constitue un obstacle notamment pour l’étude de l’histoire thermique de la Terre par des approches classiques. Nous devons donc changer de point de vue concernant la simulation des systèmes complexes qui est classiquement réalisée à partir d’équations différentielles de plus en plus élaborées, résolues sur des maillages de plus en plus fins. Nous proposons une alternative qui consiste à simuler le système en superposant des modèles analytiques et phénoménologiques qui ajoutent aux équations classiques de conservation la connaissance empirique que nous avons du système. D’un point de vue informatique, la mise en œuvre de cette démarche passe par l’emploi de systèmes multi-agents en adoptant une approche mixte. En effet, l’utilisation conjointe d’agents-entité, dotés de comportements individuels, et d’agents-interaction, plus à même d’exprimer la dynamique des phénomènes en jeu, nous offre la liberté de mêler différents paradigmes de modélisation. Ainsi, les objectifs du modèle MACMA (MultiAgent Convective Mantle) sont au nombre de trois :
• étudier le couplage entre tectonique des plaques et convection mantellique, à partir de mécanismes explicites qui peuvent être examinés indépendamment,
• simuler une tectonique à la surface du manteau avec des frontières de plaques mobiles, et par conséquent, un nombre de plaques qui n’est pas fixé a priori,
• superposer des lois analytiques, empiriques et phénoménologiques pour décrire la dynamique terrestre en tenant compte des phénomènes observés qui restent pour l’heure mal compris.

Influence des paramètres

   Le plus souvent, les modèles sont construits pour servir de support à des études paramétriques. Une étude paramétrique est une suite de tests du modèle pour lesquels on fait varier un ou plusieurs paramètres, comme par exemple des propriétés de matériaux, des températures, etc. Dans le cas d’un système complexe, du fait des nombreux liens directs ou indirects entre les phénomènes, nous savons que la variation, même minime, d’un paramètre peut entraîner des résultats de simulation complètement différents. C’est ce que nous avons voulu démontrer par cette deuxième expérimentation. Entre autres paramètres, nous nous sommes intéressés à la valeur du seuil de rupture continentale Flim utilisée par l’agent-énaction « brisure de continents ». En effet, cet agent permet de garantir une tectonique active à la surface du manteau par la création de dorsales et l’ouverture d’océans. Pour autant, ce mécanisme doit être paramétré avec précaution, car il contrôle par conséquent le taux de renouvellement de plancher océanique. Nous remarquons que le comportement du système semble similaire au début des simulations mais qu’à partir de 2 Ga années, les cycles continentaux se raccourcissent et que la taille moyenne des continents diminue. Ce seuil temporel s’explique par le fait que l’agent-énaction prend aussi en compte les propriétés du manteau, telles que sa viscosité et sa température, pour décider de briser un continent. Cette expérience met en évidence la nature de l’impact de Flim sur le comportement thermique du système : quand le seuil de rupture continentale diminue, l’ouverture des océans est facilitée, ce qui rend l’appartion des nouvelles dorsales plus facile et plus fréquente. Ces événements favorisent grandement la production de plancher océanique jeune, qui va de pair avec un flux de chaleur important et un refroidissement ecace. Nous avons montré ici l’intérêt de l’expérimentation in virtuo de maquettes numériques, notamment à des fins d’études paramétriques qui révèlent les intrications et les liens de causalité entre les phénomènes. Il faut cependant garder à l’esprit que comme toutes les études paramétriques, celle que nous avons présentée ici n’est évidemment valable que dans le cadre de notre modèle, car elle dépend dans une large mesure des lois empiriques utilisées pour décrire les processus d’océanisation et de déstabilisation de la lithosphère océanique.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction
1 Systèmes et expérimentation 
1.1 Systèmes et complexité
1.2 Modéliser 
1.2.1 Qu’est-ce qu’un modèle ?
1.2.2 Pourquoi modéliser ?
1.2.3 Comment construire un modèle ?
1.2.4 Comment valider un modèle ?
1.3 Expérimenter 
1.3.1 In vivo
1.3.2 In vitro
1.3.3 In silico
1.3.4 In virtuo
1.4 Systèmes multi-agents
1.4.1 Définitions
1.4.2 Autonomies
1.4.3 Approche phénoménologique
1.5 Simulation 
1.5.1 De temps en temps
1.5.2 Politiques d’ordonnancement
1.5.3 Méthodes numériques pour les systèmes diérentiels
1.5.4 Méthodes numériques et systèmes multi-agents
1.6 Synthèse
2 Approche phénoménologique et Systèmes multi-agents 
2.1 Éléments de géophysique 
2.1.1 Mécanique interne du système Terre
2.1.2 Dynamique des plaques
2.1.3 Histoire thermique de la Terre
2.2 Le Modèle MACMA : MultiAgent Convective MAntle 
2.2.1 Vue d’ensemble
2.2.2 Agents-interaction pour le bilan des forces
2.2.3 Agents-entité pour la cinématique
2.2.3.1 Modifications structurelles
2.2.4 Agents-énaction pour les phénomènes thermiques
2.2.5 Bilan
2.3 Expérimentations in virtuo
2.3.1 Influence des lois empiriques
2.3.2 Influence des paramètres
2.4 Synthèse 
3 Échelles de modélisation 
3.1 Niveaux de description 
3.1.1 Modèles macroscopiques
3.1.2 Modèles microscopiques
3.1.3 Hiérarchie
3.2 Méthodes numériques multi-échelles 
3.2.1 Phénomènes critiques ou séparation des échelles
3.2.2 Super-paramétrisation
3.2.3 Méthode quasicontinuum
3.2.4 Approche « sans-équation »
3.2.4.1 Définitions
3.2.4.2 Opérateurs
3.2.4.3 Time-stepper macroscopique
3.2.4.4 Méthodes d’intégration projectives
3.2.4.5 Patch dynamics
3.2.5 Méthodes multi-échelles hétérogènes
3.2.6 Bilan
3.3 Approches de multi-modélisation
3.3.1 Paradigmes de modélisation
3.3.2 Intégration formelle
3.3.3 Couplage de simulateurs et co-simulation
3.3.4 Synchronisation de co-simulation
3.3.4.1 Modèle maître-esclave
3.3.4.2 Modèle parallèle ou distribué
3.3.5 Bus de co-simulation
3.4 Synthèse
4 Simulations redondantes d’échelles de modélisation hétérogènes 
4.1 Exemple : le phénomène de diffusion
4.1.1 Modèle macroscopique
4.1.1.1 Éléments théoriques
4.1.1.2 Implémentation
4.1.2 Modèle microscopique
4.1.2.1 Éléments théoriques
4.1.2.2 Implémentation
4.1.3 Détermination du coefficient de diffusion
4.1.4 Détermination de paramètres en cours de simulation
4.2 Architecture pour la co-simulation redondante d’échelles de modélisation hétérogènes
4.2.1 Vue générale
4.2.2 Mécanisme de contrôle
4.2.3 Requêtes de paramétrage
4.2.4 Bus de co-simulation et modèles auxiliaires
4.2.5 Discussions
4.2.6 Bilan
4.3 Détermination implicite d’un jeu de paramètres 
4.3.1 Stratégie de co-simulation
4.3.2 Implémentation
4.3.3 Exemple d’application : diffusion de deux molécules antagonistes
4.3.4 Discussions
4.4 Synthèse
5 Application à la conception de structures oshores 
5.1 Structures oshore et milieux polaires
5.1.1 Contexte
5.1.2 Interactions glace-structure
5.1.2.1 Modes de rupture
5.1.2.2 Phénomène d’empilement
5.1.3 Synthèse
5.2 Ice-MAS : Ice Multi-Agent Simulator
5.2.1 Approche multi-modèles
5.2.1.1 Interactions solide/solide
5.2.1.2 Hydrodynamique
5.2.1.3 Rupture de la plaque de glace
5.2.2 Bilan
5.3 Co-simulation explicite de la dynamique du courant 
5.3.1 Rôle de l’agent-watchdog
5.3.2 Traitement de la requête
5.3.3 Intégration de la requête
5.3.4 Résultats et discussion
5.3.5 Bilan
5.4 Co-simulation implicite du phénomène d’empilement 
5.4.1 Abstraction de l’empilement des blocs
5.4.2 Rôle de l’agent-watchdog
5.4.3 Traitement de la requête
5.4.4 Résultats et discussion
5.4.5 Bilan
5.5 Synthèse 
Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *