Evaluation de l’aléa sismique : étude d’un cas simple, application aux données du catalogue de Constantine

Définition du PSA

L’accélération spectrale (SA) décrit l’accélération maximale d’un mouvement sismique sur un oscillateur harmonique amorti dans une dimension physique. Cela peut être mesuré à différentes fréquences d’oscillation et avec différents degrés d’amortissement, bien qu’un amortissement de 5%soit couramment appliqué(D. M. Boore, Stewart, Seyhan, & Atkinson, 2014). La SA à différentes fréquences peut être tracée pour former un spectre de réponse. Ce dernier est représenté par une courbe sur laquelle on lit les valeurs maximales de l’amplification du mouvement sismique.
L’accélération spectrale, avec une valeur liée à la fréquence structurelle de vibration du bâtiment, est utilisée dans le génie parasismique et peut donner une approximation plus proche du mouvement d’un bâtiment ou d’une autre structure dans un tremblement de terre que la valeur maximale d’accélération et de la vitesse sismique dans un site donnée.
Les PGA, PGV et les ordonnées spectrales sont les proxies qui représentes le mouvement sismique que nous allons prédire dans le chapitre 3. Quelles sont les approches de prédiction du mouvement sismique (PGA, PGV et SA) préconisées par la communauté scientifique ?

Approches d’estimation du mouvement sismique

Caractérisation du mouvement sismique

Nous savons pertinemment que le mouvement sismique est la convolution de l’effet de source sismique, effets de propagations d’onde et les effets de site. Afin d’élaborer une équation de prédiction du mouvement sismique, il suffit donc de relier l’un des proxies du mouvement sismique (ex PGA, PGV ou SA) avec les proxies décrivant la source sismique, propagation d’onde et les effets de site en utilisant, dans le cas générale, une fonction prédéfinie :
Mouvement sismique = (effet de source) x(propagation d’onde) x (effets de site)
Nous pouvons trouver différents proxies pouvant présenter la source sismique (séisme Crustal ou de subduction) à savoir la magnitude (magnitude local : ML, magnitude de surface Ms et magnitude du moment MW), le mécanisme au foyer (faille normal et faille inversefaille coulissante) et directivité…etc.
Ce qui concerne l’effet de propagation d’onde, nous pouvons utiliser généralement la distance. Ils existent plusieurs définitions de la distance : distance épicentrale (Repi), distance hypocentrale (Rhyp), distance de Joyner & Boore (Rjb), distance de rupture (Rrup), la plus grande distance horizontale entre la faille et le site (Rx) :(Figure 1-3)
Pour l’effet de site, le proxy le plus fréquentent utilisé est la vitesse moyenne des ondes de cisaillement sur les premiers trente mètre de profondeur Vs30.
Dans le présent travail (chapitre 3), nous utiliserons Mw, RJB et Vs30 pour représenter les trois effets sismiques précités.
La base sur laquelle les modèles sont dérivés revienne principalement aux choix de la forme fonctionnelle, éventuellement de la base de données et de la méthode utilisé.

Méthodes stochastique

La méthode stochastique est une méthode de simulation du mouvement sismique, consiste à combiner des descriptions fonctionnelles du spectre des amplitudes du mouvement sismique avec un spectre à phase aléatoire. Et de le décomposer suivant différents facteurs affectant les mouvements sismiques (source, propagation d’onde et de site) en formes fonctionnelles simples.
Plusieurs auteurs, ont utilisé des représentations stochastiques(Papageorgiou et Aki 1983a, Zeng et al. 1994). Il existe aussi d’autres auteurs qui ont montré la méthode stochastique de diverses façons est notamment : Hanks and MCGuire(1981), (D. Boore & Joyner, 1997; D. M. Boore, 2003; Brillinger & Preisler, 1984; Joyner & Boore, 1981)Boore and Joyner (1984), Joyner and Boore (1988), Boore et Atkinson, 1987; Boore (2003), Hao et Gaull, 2004. Le plus utilisé est celuide Boore 2003 fondé essentiellement sur les travaux de Hanks et McGuire 1980, 1981 ces derniers ont combiné des modèles sismologiques de l’amplitude spectrale du mouvement du sol avec la notion technique selon laquelle les mouvements à haute fréquence sont fondamentalement aléatoires. Le spectre de réponse Y est caractérisé par l’équation 1-1.
Où M0 est le moment sismique, R est la distance et f est la fréquence. Le premier filtre E (M0, f) dans l’équation ( 1-1) représente le spectre de la source. P (R, f) décrit le spectre atténuation d’amplitude à la distance la plus proche de la surface de rupture. G (f) représente l’effet du site et I(f) est lié au type de mouvement du sol.
L’approche stochastique est plutôt complémentaire et est utilisée pour faire compléter le manque des enregistrements du mouvement sismique. En cas où les données existent, nous favorisons plutôt les approches dites empiriques.

Approcheempirique : GMPE

Les paramètres décrivant le mouvement du sol peuvent être prédits de manière empirique en fonction des métadonnées d’une base de données (ex. RESORCE, KiK-Net, NGA-West). Ce type de prédiction est assuré classiquement par des équations de prédiction du mouvement sismique (GMPE). Les GMPEs renseignent, donc, sur la valeur attendue d’un paramètre choisi (ex. PGA, PGV, PSA…) en fonction, entre autres, de la magnitude du séisme (M), de la distance à la source sismique (R) et classe de site ou un proxy de condition de site (ex. Vs30), voir aussi d’autres paramètres (Derras, 2017).
La robustesse de la GMPE utilisée dépend essentiellement de sa forme fonctionnelle et du jeu de données utilisé pour son élaboration. C’est pour cette raison que nous donnons dans ce qui suit des notions sur les bases de données et nous présentons la base de données NGA-West 2 que nous utiliserons dans cette thèse pour élaborer notre GMPE.

Base de donnée

Il existe multitude de bases de données accéléromtriques (BDA) à travers le monde. Ces BDA contiennent plusieurs informations sur le nom d’identification de l’évènement, latitude et longitude; la date de l’évènement, nom de station, magnitude, le type de magnitude, la ou les distances et leurs types, les vitesses de cisaillement à différentes profondeur , la profondeur focale et d’autre paramètres secondaire comme le dip le Z0 etc. et plus des proxies du mouvement sismique tel que les PGV, PGA et les PSA a différentes période.
Nous citons quelques bases de données. A titre d’exemple la base de données Kik-Net : c’est une base de donnée japonaise qui a été utilisé par (F Cotton, Pousse, & Bonilla, 2008; Derras, Bard, Cotton, & Bekkouche, 2012; Kokusho & Sato, 2008; Pousse, 2005)). La base de donnée PEER (N. A. Abrahamson, Silva, & Kamai, 2014; N. Abrahamson & Silva, 2008; Ancheta et al., 2012; Ancheta, Darragh, & Stewart, 2014) Aussi la base de donnée RESORCE (Akkar et al., 2014; Bard, Cotton, & Assessment, n.d.; Bindi et al., 2014; Derras, Bard, & Cotton, 2016; Douglas et al., 2014).

Base de données NGA-West2

En 2011, un travail d’élaboration d’une base de données récente a été mis en oeuvre sur la base du projet PEER (Pacific Earthquake Engineering Research Center) qui a été actualisé et renforcer par d’autre évènements importants. Cette nouvelle compilation de données est intitulée NGA-West 2 (N. A. Abrahamson, Silva, & Kamai, 2013; Ancheta, Darragh, Stewart, et al., 2014; D. M. Boore et al., 2014; Campbell & Bozorgnia, 2014; B. S.-J. Chiou & Youngs, 2014; Nick Gregor et al., 2014; Idriss, 2014; Kamai, Abrahamson, & Silva, 2014; Stewart, Boore, Seyhan, & Atkinson, 2016)
En fait, NGA-West1 c’est le projet original de NGA PEER.(Ancheta, Darragh, & Stewart, 2014) ont compilé des données du mouvement du sol enregistrés pourdes séismes crustaux.
Dans la Figure 1-5 : Comparaison entre la base de données NGA-west1 et NGA-west2 : montrent le développement et l’évolution des donnée de PEER 1997, NGA-West1 en 2003 et NGA-West2 en 2011 respectivement.
Parmi les donnée qui ont enrichi la base de donnée NGA-West2, on trouve les seisme de Japan : 2000, 2004, 2007 et 2008 avec des magnitude 6.61, 6.63, 6.8 et 6.9 respectivement, les séismes de New Zerland en 2010 et 2011 avec une magnitude de 7 et 6.1, les séismes de la Chine en 2008 d’une magnitude enregistrer de 7.9 et aussi le séisme de L’Italie en 2009 de magnitude égale à 6.3.
La Figure 1-5, montre que la base données NGA –West2, été la plus grande dans le monde vis-à-vis a la base de donnée NGA-West1 avant l’apparition du projet GEM, les metadonnées de NGA-West 2 comporte une gamme de magnitude M = 3 à 7,9; RRUP = 0,7 à 1500 km; et VS30 allant de 90 à 2100 m/s.

C’est quoi une GMPE?

La quantification de la décroissance de l’énergie libérée d’un scénario sismique avec la disatnce représente un élément clépour l’évaluation de l’aléa sismique, il s’agit de la relation d’atténuation du mouvement sismique ou GMPE. Ces GMPEs permettent de trouver une certaine corrélation entre le paramètre caractérisant le mouvement sismique et les différentes métadonnées telle que la magnitude et la distance : (Figure 1-6)
Les GMPEs peuvent prendre plusieurs appellations, notamment : Relations d’atténuation, les équations d’atténuation ou bien les modèles d’atténuation.Ce sont des équations qui peuvent être utilisée pour prédire des valeurs possibles du mouvement sismique dans un site donnée pour un évènementfutur. La plupart de ces GMPEs sont « empiriques » et sont développé à partir d’un ensemble de données (Ex. NGA-West 2) etpour une région d’étude spécifique avec une signification physique appropriée.

Partie expliquée

La médiane des équations d’atténuations ( 1-2) décrivent le phénomène physique sous-jacent et notamment l’atténuation du mouvement sismique avec distance, l’effet de l’échelle lié à la magnitude : un exemple est donnée sur la Figure 1-7. Les GMPEs doivent aussi capter d’autres effets tels que l’effet de site et de directivité.
Chaque terme de cette équation représente un comportement physique :
1. Les valeurs maximales des paramètres de mouvement fort sont approximativement distribuées en loi log normale. En conséquence, la régression est généralement effectuée sur le logarithme de Y plutôt que sur Y lui-même.
2. La magnitude est généralement définie comme le logarithme de certains paramètres de mouvement. Par conséquent, ln devrait être approximativement proportionnelle à M.
3. Les ondes de volume lorsqu’elles s’éloignent de la source sismique engendre une atténuation du Y de l’ordre de 1/R et de 1/√ R lorsqu’il s’agit des onde de surface. Il s’agit de l’atténuation géométrique.
4. La taille de la faille en mouvement est proportionnelle à la magnitude : l’apparition de phénomène de saturation en champ proche.
5. Une partie de l’énergie transportée par les ondes est absorbée par les matériaux constituant le mieux de propagation. Cet amortissement du matériau provoque un mouvement sismique décroissent avec R : atténuation inélastique
6. Les paramètres de mouvement sismique sont influencés par les caractéristiques de la source et du site.
Il est à noter que cette forme fonctionnelle représente seulement exemple parmi d’autre.
L’objectif de toutes les GMPEs est de converger le plus possible des observations. Une convergence complete, donc, n’existe pas. Pour mesurer la robustesse d’une GMPE nous devons calculer sa VAMS. C’est ce que nous allons voir dans la section suivante.

Partie inexpliqué : variabilité aléatoire

Les paramètres suscités (ex. M, R et Vs30) restent des indicateurs qui représentent partialement les différents effets sur le mouvement sismique. Les effets non pris en compte engendrent les effets aléatoires du mouvement sismique (Derras 2017). En résumé, le paramètre caractérisant le mouvement du sol « Y » peut être écrit de la manière suivante :
Où Y est le mouvement sismique observé, f (Xes,θ) est la médiane du modèle,Xes est le vecteur de paramètres explicatifs (par exemple, magnitude,distance, style de failles, conditions du site), θ est le vecteur decoefficients à ajuster du modèle, et Δ représente la VAMS. Généralement elle est décomposée en deux termes :la variabilité inter-évènement noté δBe (Atik, Abrahamson, & Bommer, 2010), et la variabilité intra-évènement noté δWes.La moyenne de δBe et δWes est nulle, indépendante et normalement distribuée et avecdes écarts-types τ etφ, respectivement.

Complexité et limitation des GMPEs classique

Afin de visualisé la complexité et limitation des GMPEs classique nous allons poser la question suivante : Existe-t-il un consensus autour d’une forme fonctionnelle ?
Pour repondre à cette question nous proposons l’etude de comparaison faite pour les 5 GMPEs utilisent plus au moins le même jeu de données avec différentes formes fonctionnelles et paramètres (Derras, 2017) ; dont nous exposons un exemple de forme fonctionnelle (B. S.-J. Chiou & Youngs, 2014). Cette GMPE est parmi les plus complètes, mais aussi les plus complexes. Les auteurs tiennent compte de tout les paramètres qui tiens en compte dans la médiane du mouvement du sol (GMPE). Les 4 autres formes fonctionnelles sont aussi complexes que celle de Chiou et Youngs.
A partir de cette comparaison nous pouvons constater l’absence d’un consensus en termes de forme, de valeurs spectrales (PSA) et contenu fréquentiel (1/T). À titre d’exemple, le modèle ASK donne une valeur de PSAmax=0.09 g pour T=0.2 s, tandis que le modèle CB présente un PSAmax=0.13 g pour une période égale à 0.1 s.
A ce niveau la il convient de posé une autre question : es ce qu’on pourrait penser que les GMPEs sont devenues assez performantes et robustes pour prédire les chargements sismiques à venir ?
Pour repondre a cette derniere, nous présentons un autre exemple dans le but de montrer la différence entre les formes fonctionnelles et les données sismiques en termes de PGA enregistrées lors du mégaséisme (ex : de Tohoku 11/03/2011). La Figure 1-11 : représente les différentes allures de GMPEs établies récemment pour les zones de subductions japonaises. Les indices Zea06, Kea06, AB03, Yea97 et Gea02 représentent les GMPEs élaborées par (D. M. Boore, 2003; NJ Gregor, Silva, & Wong, 2002; Kanno, Narita, Morikawa, & Fujiwara, 2006; Youngs, Chiou, & Silva, 1997; Zhao, Zhang, Asano, & Ohno, 2006).
En comparant ces modèles d’atténuation d’une part et les enregistrements (PGA) pour différents sites d’autre part, nous pouvons remarquer que l’ensemble des modèles sous-estiment le mouvement sismique en champ proche et le sur estiment en champ lointain. Suite à cette comparaison dédiée à la partie expliquée de l’équation de prédiction, il reste à mesurer la robustesse de ces modèles. Autrement dit, mesurer la capacité des GMPEs à intégrer le maximum d’effets pour réduire l’incertitude donnée par la partie inexpliquée de l’équation (la variabilité aléatoire).
Dans ce cas une autre question sera pose: comment peut-on réduire l’incertitude de la variabilité aléatoire des GMPEs?
En répondant sur cette question par un exemple illustrative de tel sorte que nous gardants les mêmes modèles utilisés en dessus, les auteurs on supposés que la variabilité aléatoire du mouvement sismique dépend de la magnitude (la variabilité apparente diminue avec la magnitude) et de la distance (la variabilité apparente augment avec la distance). En outre, les modèles issus de la base de données NGA-West 2 dépendent tous de la période. La comparaison entre ces 5 modèles est illustrée sur la Figure 1-12. Il est à noter que, les valeurs de l’écart type total  des modèles sont différentes. Dans la these de (Derras, 2017) à montrer l’influence de la base de donnée et la forme fonctinelle sur la la variabilité aléatoire apparente ; justufiant ça par la comparaison entre les deux modeles CY2014 et CY2008 (Chiou and Youngs 2008) representer sur la Figure 1-13, les auteurs comparent les deux modèles. Dans le dernier modèle, les auteurs utilisent la base de données NGA-west 1 avec moins de paramètres. Ce qui est remarquable dans cette comparaison c’est que CY2008<CY2014 pour T < 3 s et ce, malgré l’existence d’un modèle de variabilité aléatoire complexe. Cette comparaison montre donc qu’on n’aura pas forcément une réduction de la variabilité aléatoire en augmentant la taille de la base de données. Le fait d’avoir plus d’informations de différents sites/régions et événements sismiques engendre plus de disparités qui ne sont pas prises en compte par la forme fonctionnelle.
Malgres ces modeles evolutives GMPEs qui sont developper et reconus par ces auteurs, le problemes de la reduction des incertitudes sigma reste en question, (Bommer et al. 2010) a montré que, le nombre de coefficients utilisés pendant les 40 dernières années pour l’obtention des PGA est en nette croissance. Cette croissance qui n’a pas aporter une réduction significative de l’écart type.
Nous cherchons donc des méthodes alternatives qui sont basé seulement par les données, pour cela nous allons exposé en bref une méthode qui s’appele reseau de neurone artificiel (RNA) qui a été utilisé beaucoup dans les travaux de (Derras, 2017) a fin d’introduire au chapitre 2.

Approche totalement dirigé par les données

Nous avons eu la curiosité de chercher d’autres alternatives qui ne nécessitent pas de formes fonctionnelles a priori. Les approches totalement conduites par les données à cet atout. L’approche de Réseaux de Neurones Artificiels (RNA) est la plus connues, dans laquelle un seul type fonction (nommée fonction d’activation) est à considérer. Quelques notions de base relatives à cette approche vont être présentées dans le chapitre 2. Malgré la célébrité de cette approche, son implémentation reste plus au moins difficile :
1. Choix de nombre de couches cachées, neurones par couches cachées, surtout qu’il n’existe pas vraiment de règles derrière ces choix.
2. La convergence vers un minimum globale nécessite quant à lui un temps considérable.
3. L’ajustement du modèle, pour éviter le sur ou le sous apprentissage, ne se fait pas automatique : un autre choix de la méthode d’ajustement s’impose.
Pour contourner ces insuffisances (le choix, temps de convergence et l’ajustement) nous pouvons utiliser l’approche par logique floue où le seul choix à faire est la spécification de la fonction d’appartenance (voir chapitre 2).
Un système hybrides qui combine la logique floue et les réseaux de neurones (algorithme d’apprentissage), vont être utilisé dans le chapitre 3, afin d’estimer le mouvement sismique en utilisant la base de données NGA-West 2.

Conclusion

Les modeles GMPEs souvent sont devellopés par la méthode stochastique, et la méthode emperique, dont on trouve une infinité de forme fonctionnelle, malgrés l’utilisation de la majorité multitudes variable d’entrées qui represente un mouvement sismique sa forme devienne de plus en plus complexe ainsi que le probleme de la reduction de la variabilité aléatoire reste en question. La selection et le choix de la base de données lors d’une évaluation des GMPEs par les méthodes emperique (Boore et al. 2014) est une demarche tres importante (Ancheta et al. 2014) d’une part, d’autre part la methode stochastique utilisé pour l’obtentien des GMPEs comme indiquer dans (Boore 2003),necessite de bien comprendre la physique qui contrôle le mouvement sismique cependant le choix de la forme fonctionnel est indisponsable dans ce contexte. En se refere des résultats obtenus par les travaux anterieur de (Derras et al. 2012, 2014, 2016 et 2017) d’autre part, nous avons decidé d’aller plus loin pour le cadre de développement d’un modele GMPE à effets-aléatoire en rattrapants les insuffisances des travaux déjà effectué en essayant d’appliquer d’autre méthode qui estdirigée par les données seulement pour réduisé la variabilité aléatoire. Finalement nous allons presenter dans le chapitre 2 les differents approches evolutifsapartenant des methodes d’intelligence artificiel a fin d’appliquer une parmis ces eux dans le chapitre 3.

Notions sur les systèmes adaptatifs d’inférence floue à base neuronale: ANFIS

Introduction

La théorie des réseaux de neurones et les systèmes flous ont eu naissances depuis une soixantaine d’années, ils ont connu untrès grand succès dans les domaines de l’engineering et notamment dans le domaine de l’électronique et les robotiques.Ces dernières années plusieurs auteursessayent d’intégrer ces méthodes dans d’autres domaines. Pour nous il s’agit de les utilisées dans l’élaboration des équations de prédiction du mouvement sismique (chapitre 3). Les Systèmes hybrides qui combinent la logique floue (LF), et les réseaux de neurones (RNA), prouventleur efficacité vis-à-vis des méthodes classiques (ex. régressions empiriques). Les insuffisancesque représentent cesméthodes ont été une raison derrière la création des systèmes hybrides intelligents.Les RNA et les systèmes d’inférence flous ont un atout par rapport aux méthodes classiquesils sont des approximateurs universels.La LF a pour but de raisonner à partir de connaissances imparfaitesqui opposent à la logique classique. La LFse propose de remplacer les variablesbooléennes de la logique classique par des variables floues.Quant au RNA, leurs architectures et apprentissage sont inspirés de l’architecture et du fonctionnellement des neurones biologiques interconnectés. Les RNA sont connues par leur capacité d’apprentissage et la LF par sa capacité descriptive élevée due à l’utilisation de variables linguistiques (Zadeh, 1965). La combinaison des avantages des deux méthodes : RNA et LF conduite à des systèmes hybrides.Plusieurs techniques ont étéutilisées de telle sorte à fortifier les points faibles de LF et des RNA.Ils existent de nombreux modèle de systèmes Neuro-flous qui ont été conçu différemment selonleurs typologies. Le plus connue est sûrementles systèmes adaptatifs d’inférence floue à base neuronale pour l’anglais : Adaptive Neuro-FuzzyInference System (ANFIS) : (J. C. Jang & Sheen, 1997).ANFISsont des approximateurs universels, qui n’ont pas besoin d’une forme fonctionnelle a priori pour décrire le modèle physique sous-jacent.Le but de ce chapitre est de donner des notions de base sur les RNA, les LF ; afin de tirer profit de chaque méthodes. Ensuite nous décrivant l’ANFIS qui va être utilisé pour prédire le mouvement sismique (chapitre 3).

Travaux antérieurs sur RNA, LF et Neuro-Floue

Plusieurs auteurs ont utilisé les méthodes d’intelligence artificielleest notamment la logique flous (LF), les réseaux de neurones artificiels (RNA) etl’approche combinées (LF-RNA) pour la prédiction. Nous présentons quelques travaux dans le domaine de la sismologie ; le domaine qui a un lien direct avec la thématique de cette thèse :
 Kamath and Kamat 2017ont utilisél’adaptative neuro-floue par grappes soustractiveà l’aide des données de Centre Sismologique Européen-Méditerranéen (CSEM) pour la prédiction de la magnitude au niveau des îles d’Andaman-Nicobar.
 Kalita et al. 2012ontintroduit une détection de algorithme maximale, une approche de filtrage automatiquepar réseau neuronal artificiel pour le traitement du signal GPS généré par le contenu électronique total(TEC) pour l’extraction du paramètre pré – sismique.
 (Karimi & Meskouris, 2006) ont étudié la gestion des risques liés aux catastrophes naturelles, dans ce travail Karimia choisi la méthode floue et probabilistepour déterminer le risque sismique.
 (Mirrashid, 2014)aétudié la prédiction des séismes futurs pour des magnitudes supérieurs à 5,5, pour ce faire Mirrashida utilisé le système d’inférence neuro-floue adaptative (ANFIS) avecdes données enregistrées entre 1950 et 2013 dans la région d’Iran.
 (Mittal, Sharma, & Kanungo, 2012)ont fait une comparaison entre ANFIS et ANN pour la prédiction de l’accélération maximale du sol (PGA) dans la région indienne de l’Himalaya ; ils ont pris comme variables independnates : la magnitude,la distance épicentrale, la profondeur focale et les conditions du site.
 Shibli 2011 qui a travaillé sur la prédiction de l’emplacementtemps d’occurrence et l’ampleur des tremblements de terreà l’aide du système (ANFIS). Pour cela l’autre a choisi latitude, la longitude et la date comme des entréeset ce pour prédirele moment sismique en montrantl’efficacité de l’approche ANFIS.
 Derras et al. 2010, 2012, 2014, 2016, 2017 ont utilisé le perceptron multi-couche pour la prédiction du mouvement sismique, pour la détermination des proxiespertinents de site et pour étudier les effets de sources sismique : chute de contrainte et mécanisme au foyer.
 Stambouli et al. 2017 et avec le GRNN et par le biais des profils de sol réels et par le modèle de viscoélastique, les auteurs ont déterminé l’amplification linéaire de site.

La logique-floue

Définition

Le terme « logique floue » a été introduit pour la première fois par Zadeh 1965, sa théorie sebaseprincipalement sur le concept fondamental des sous-ensembles flousreprésenté dans un univers de discours en variables linguistique.Cesous-ensemble flouest caractérisé par les fonctions d’appartenance ou (degrés de vérités) f(x)  [0-1], contrairement ce qu’on trouve dans la logique classique soit 0 ou 1. Son raisonnement est issu du cerveau humain prérequis de l’expérience quotidienne, sans avoir pris en compte desmodèle mathématique, ni des fonctions a priori, en utilisant ce que l’on appelle lesrègles flousd’où elle vienne la notionsdes opérateurs flous.

Sous-ensembles flous et Univers de discours

Un ensemble flou A est caractérisé par une fonction d’appartenanced’une variable x noté μA(x), dans un univers de discours U, autrement dit c’est le domaine de définition del’ensemble flou A.
Un ensemble flou peut êtredistribué en deux ou plusieurs sous-ensembles flous. La figure suivante montre la différence entre un ensemble flou A et les sous-ensembles flous A1, A2 et A3.

Fonctions d’appartenance

Les fonctions d’appartenance μA(x) mesure le degré sur lequel un élément x appartient à l’ensemble A. Ils existent plusieurs formes des fonctions d’appartenance notamment : gaussien, trapèze, triangle…. etc.Ces dernières sont représentées sur la Figure 2-2, leurs formules sont illustrées sur le Tableau 2-1.

Variables linguistiques

Un ensemble flous est divisé en plusieurs sous-ensembles en se basant sur les variables ou les termes linguistiques, cela dit que la logique floue utilise la notion des termes ou des phrase ou encore on peut dire des symboles pour définir une variables d’entrés en langage naturel. Les variables linguistique peut s’exprimés soit en phrase comme par exemple (petite, moyenne et grande) ou bien sous formes des symboles (A1, A2 et A3).

Règles floues et operateur floue

Lesrèglesflouesjouentunrôletrès important en termes de combinaisonentre les sousensembles des variables d’entrées du système.Cette étape est effectuéeà l’aide des opérateursflous. En outre,les règles floues assurent aussi la jonction entre les principales phases lors d’un processus de calcul en raisonnement floue. Autrement dit une règle floue transforme les termes linguistiques issus d’un raisonnement humain(variables d’entrées) en variables flous (sortie), et elles peuvent être écrite sous l’expression suivante :

Raisonnement par la logique floue

L’intérêt de cette méthode réside principalement sur le faite d’avoir une sortie en fonction de ces entrées, il y a donc un lien forte entre sortie-entrée. La LF peut présenter n’importe quel événement d’une manière très proche de la réalité. Le processus du raisonnement de cette approche est basé sur 3 principales parties qui sont définies commesuit :

Fuzzification

La fuzzification permet de transformer les variables d’entrées en variables floue dans un univers de discours. Elletraduit les termes linguistiques utilisés par le cerveau humain en termes flou.Afin d’avoir des bons résultats il est préconisé de respecter une intersection entres les sous ensemble de telle sorte que les valeurs ou les données serons distribué d’une manièrecohérente et continue.

Inférence floue

L’inférence a pour objectif de présenter les variables linguistiques sous forme de règles.A ce niveau-là nances, les opérateurs et les règles floues se manifeste entre eux pour donner des sorties floues. Il est ànoterque, le nombre des règles floues dépend directement du nombre de la fonction d’appartenance « m » et du nombre des variables d’entrées « i », entre autre, par la relation suivante (Tong-Tong 1995, Elqaq 2005) :

Max-min

Cette méthode réalise l’opérateur « ET » par la fonction « Min », la conclusion « ALORS » de chaque règle par la fonction « Min » et la liaison entre toutes les règles (opérateur « OU ») par la fonction Max (Figure 2-3).
La dénomination de cette méthode, dite Max-Min ou « implication de Mamdani »est due à la façon de réaliser les opérateurs ALORS et OU de l’inférence.
Dans l’exemple traité sur une commande de régulation illustré par (Baghli, 1999) ; il a utilisé deux ensemble flous : la température et la vitesse respectivement noté T et V , qui en été eux-mêmes décomposés en sous ensemble floues faible (F) moyenne (M) élevé (E) pour la temperature, et forte (F) élevé (E) pour la vitesse ; deux règles floues sont activées. En sortie on a la tension noté (U) et décomposé en sous ensemble zéro (Z) positif (P) et grande positif (GP) (Figure 2-3).

 

 

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

ملخص
Resumé 
Abstract
Liste des tableaux 
Liste des figures
Introduction générale
Chapitre 1 Aperçu sur les approches utilisées pour l’estimation des mouvements sismiques forts 
1.1 Introduction
1.2 Les paramètres caractérisant le mouvement fort: PGV, PGA, PSA
1.2.1 Définition du PGA
1.2.2 Définition du PGV
1.2.3 Définition du PSA
1.3 Approches d’estimation du mouvement sismique
1.3.1 Caractérisation du mouvement sismique
1.3.2 Méthodes stochastique
1.3.3 Approche empirique : GMPE
1.4 Base de donnée
1.4.1 Base de données NGA-West2
1.5 C’est quoi une GMPE?
1.5.1 Partie expliquée
1.5.2 Partie inexpliqué : variabilité aléatoire
1.6 Approche à effet aléatoire
1.7 Complexité et limitation des GMPEs classique
1.8 Approche totalement dirigé par les données
1.9 Conclusion
Chapitre 2 Notions sur les systèmes adaptatifs d’inférence floue à base neuronale: ANFIS 
2.1 Introduction
2.2 Travaux antérieurs sur RNA, LF et Neuro-Floue
2.3 La logique-floue
2.3.1 Définition
2.3.2 Sous-ensembles flous et Univers de discours
2.3.3 Fonctions d’appartenance
2.3.4 Variables linguistiques
2.3.5 Règles floues et operateur floue
2.4 Raisonnement par la logique floue
2.4.1 Fuzzification
2.4.2 Inférence floue
2.4.3 Defuzzification
2.4.4 Types d’inférences floues
2.5 Les réseaux de neurones (RN)
2.5.1 Historique
2.5.2 Définition
2.5.3 Structure d’un réseau de neurone
2.5.4 Type de structure d’un réseau de neurone
2.5.5 Principe de fonctionnement du RNA
2.5.6 Apprentissage des RNA
2.6 Vers un modèle de prédiction de type Neuro-Floue
2.6.1 Neuro-floue : pourquoi ?
2.6.2 Quelques typesde combinaisons Neuro-Flou
2.6.3 Structure d’ANFIS
2.6.4 Procédure et raisonnement
2.6.5 Apprentissage ANFIS
2.7 Conclusion
Chapitre 3 Modele de prediction du movement sismique par ANFIS: un exemple basé sur un jeu de données NGA-West 2 
3.1 Introduction
3.2 Jeu de données
3.2.1 Distributiondu jeu de données
3.3 Methodologie
3.3.1 Modèle fixe
3.3.2 Modèle à effet aléatoire
3.4 Analyse de variabilité aléatoire du mouvement sismique
3.4.1 Analyse des résidus
3.5 Analyse des courbes médianes
3.5.1 Forme fonctionnelle
3.5.2 Robustesse du model ANFIS
3.5.3 Intervalle d’applicabilité du modèle ANFIS
3.6 Comparaison de la mediane obtenue par ANFIS avec Celle de Boore et al. 2014
3.6.1 Effet de la distance
3.6.2 Éffet de la magnitude
3.6.3 Effetde Vs30
3.7 Spectre de réponse
3.8 Comparaison de
3.9 Conclusion
Chapitre 4 Evaluation de l’aléa sismique : étude d’un cas simple, application aux données du catalogue de Constantine
4.1 Introduction
4.2 Approches pour l’évaluation de l’aléa sismique
4.2.1 Concept de base
4.2.2 Principe d’évaluation de l’aléa sismique
4.3 Evaluation de l’aléa sismique : cas de la region de Constantine
4.3.1 Description du modèle de sismicité
4.3.2 Description des probabilités des fonctions cumulatives
4.3.3 Description des Lois d’attenuations
4.4 Conclusion
Conclusion génèrale
Perspectives
ANNEXE -A-
ANNEXE -B-
ANNEXE -C-
Réfèrences bibliographique

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *