DONNEES D’IRRADIATION GLOBALE PAR LES RESEAUX DE NEURONES ARTIFICIELS

Soleil

                         Le Soleil, Sol en latin ou Helios en grec, est l’étoile centrale du système solaire. Il est constitué d’une sphère de plasma, une matière complètement ionisée où la pression varie considérablement entre le centre et la surface. Cette étoile est le siège de réactions thermonucléaires transformant des noyaux d’hydrogène en noyaux d’hélium avec une émission d’énergie qui donne naissance à un rayonnement électromagnétique réparti sur un très large spectre de longueur d’onde comprise entre 0,3 µm (domaine de l’ultraviolet) et 2,5 µm (domaine de l’infrarouge). La puissance rayonnée, d’environ 3,8.1026 W, peut être considérée comme constante depuis son existence. Le Soleil a un diamètre moyen égal à 1,39.106 km. Sa masse est de l’ordre de 2.1030 kg.

Diagramme solaire

                 Une bonne connaissance de la course solaire durant l’année et des diagrammes solaires est très importante pour l’élaboration d’un projet solaire. Les diagrammes solaires qui sont des représentations graphiques de la course du Soleil, constituent un moyen pratique et facile à comprendre pour repérer le trajet du Soleil à travers le ciel, en tout point sur la Terre. Ces diagrammes permettent de visualiser l’azimut a et l’hauteur h du Soleil suivant les heures de la journée et les saisons. Nous illustrons ici le diagramme en projection orthogonale et le diagramme en coordonnées rectilignes avec l’azimut a en abscisses et la hauteur h en ordonnées.

Atmosphère [18]

                   L’atmosphère qui entoure la Terre joue un rôle très important, vis-à-vis du rayonnement solaire tant par ses constituants fixes que par ses constituants variables. Les constituants fixes sont surtout l’azote et l’oxygène et parmi celles variables, nous pouvons citer, entre autres, l’eau sous forme de vapeur ou de gouttelettes ou de cristaux de glace et les poussières. Avant d’atteindre la surface terrestre en traversant l’atmosphère, chaque radiation solaire, subit les effets d’absorption et de diffusion provoquant ainsi son atténuation. En outre, l’atmosphère peut être claire ou couverte de nuages. Physiquement, elle est caractérisée par les teneurs en composants variables. Ainsi, la notion d’une atmosphère idéale de référence est introduite, c’est-à-dire l’atmosphère la plus pure qui puisse exister (sans eau, ni aérosols). Dans cette atmosphère idéale, les seuls effets d’atténuation du rayonnement direct seraient la diffusion de Ray1eigh par les molécules d’oxygène et de l’azote et puis la faible absorption par une teneur minimale d’ozone. La pression atmosphérique est la somme de la pression exercée par l’air sec et de la pression exercée par la vapeur d’eau contenue dans l’atmosphère. Par ailleurs, l’atmosphère réelle est décrite par un paramètre dit facteur de trouble rapporté à l’atmosphère idéale sous l’influence des différents paramètres tels que l’humidité relative.

Réseaux bouclés ou réseaux dynamiques

                       L’architecture la plus générale pour un réseau de neurones est celle des réseaux bouclés, dont le graphe des connexions est cyclique. En se déplaçant dans le réseau et en suivant le sens des connexions, il est possible de trouver au moins un chemin qui revient à son point de départ et un tel chemin est désigné sous le terme de « cycle ». La sortie d’un neurone du réseau peut être fonction d’elle-même ; cela n’est évidemment concevable que si la notion du temps est explicitement prise en considération. En effet, à chaque connexion d’un réseau de neurones bouclé ou à chaque arête de son graphe est attaché un poids ou un retard qui est un multiple entier ou nul de l’unité de temps choisie comme pour les réseaux non bouclés. A un instant donné, une grandeur ne pouvant pas être fonction de sa propre valeur au même instant, ainsi, tout cycle du graphe du réseau doit avoir un retard non nul. [28] [29]

Early stopping

              Comme nous l’avons vu précédemment, l’apprentissage consiste à minimiser, grâce à un algorithme itératif, une fonction de coût calculée sur la base d’apprentissage. La méthode de « early stopping » consiste à arrêter les itérations avant la convergence de l’algorithme. Si la convergence n’est pas menée à son terme, le modèle ne s’ajuste pas trop finement aux données d’apprentissage : le surapprentissage est limité. Pour mettre en œuvre cette méthode, il faut déterminer le nombre d’itérations à utiliser pendant l’apprentissage. La méthode la plus classique consiste à suivre l’évolution de la fonction de coût sur une base de validation, et à arrêter les itérations lorsque le coût calculé sur cette base commence à croître (voir figure 2.19). Cette base de validation dont généralement représentée par 10 à 25% tirée à partir de l’ensemble d’apprentissage est utilisée à la fin de chaque apprentissage.

Approche probabiliste appliquée à l’apprentissage neuronal [46]

                  D’après Mac Kay, les techniques bayesiennes et la modélisation neuronale sont deux outils complémentaires. L’apprentissage bayesien consiste à déterminer les valeurs optimales des paramètres neuronaux (poids et biais), en leur attribuant des f.d.p. Ainsi, au lieu d’un jeu unique (supposé optimal) de paramètres obtenu par les méthodes classiques à travers la minimisation d’une fonction d’erreur, la méthode bayesienne fournit et associe une fonction de distribution de probabilité aux poids du RNA. L’estimation des paramètres neuronaux par inférence bayesienne consiste à déterminer la distribution de probabilité à posteriori des paramètres, p w D ( | ) , à partir de la distribution de probabilité a priori, p w( ) et de la fonction de vraisemblance p D w ( | ) .

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Introduction Générale
Chapitre I : Notions générales sur le gisement solaire
I.1. Donnés astronomiques
I.1.1. Soleil
I.1.2. Terre
I.1.3. Mouvements de la Terre
I.1.3.1. Révolution autour du Soleil
I.1.3.2. Rotation sur elle-même
I.1.3.3. Conséquence
I.1.4. Position du Soleil
I.1.4.1. Coordonnées célestes horizontales
I.1.4.2. Coordonnées célestes horaires
I.1.4.3. Passage d’un système de coordonnées à un autre
I.1.5. Fuseaux horaires
I.1.5.1. Latitude et longitude
I.1.5.2. Fuseaux horaires
I.1.6. Problème du temps
I.1.6.1. Définitions
I.1.6.1.1 Temps Universel TU
I.1.6.1.2. Temps légal
I.1.6.2. Equation du temps ET
I.1.7. Durée du jour entre les lever et coucher du Soleil
I.1.8. Course du Soleil dans le ciel
I.1.9. Diagramme solaire
I.2. Donnés météorologiques
I.2.1. Atmosphère
I.2.2. Humidité
I.2.2.1. Humidité absolue
I.2.2.2. Humidité relative
I.2.3. Rayonnement incident au sol
I.2.4. Rayonnement global
Chapitre II : Réseaux de neurones artificiels
II.1. Historique
II.2. Neurone formel
II.2.1. Structure des réseaux de neurones
II.2.1.1 Différentes types de fonctions de transferts
II.2.2. Architectures des réseaux de neurones
II.2.2.1. Réseaux non bouclés
II.2.2.2. Réseaux bouclés ou dynamique
II.2.2.3. Perceptrons Multicouches
II.2.2.3.1. Mise en œuvre du perceptron multicouche
II.2.2.3.2. Approximation universelle
II.2.2.3.3. Propriété de parcimonie
II.3. Phase d’apprentissage
II.3.1. Mode non supervisé
II.3.2. Mode supervisé
II.3.3. Algorithmes de minimisation
II.3.3.1. Principe des algorithmes utilisés
II.3.3.2. Erreur quadratique
II.4. Généralisation
II.5. Problème de surapprentissage
II.5.1. Définition de surapprentissage
II.5.2. Biais et variance
II.5.3. Early stopping
II.5.4. Weight decay
II.6. Approche neuronal bayesienne
II.6.1. Théorème de Bayes
II.6.2. Approche probabiliste appliquée à l’apprentissage neuronal
II.6.3. Distribution de probabilité a priori
II.6.4. Fonction de vraisemblance
II.6.5. Distribution de probabilité a posteriori
II.6.6. Approximation gaussienne du posterior
II.6.7. Détermination des hyperparamètres α et β
Chapitre III : Résultats et interprétations
III.1. Présentation du logiciel
III.2. Problématique de la prédiction de l’irradiation globale
III.3. Présentation du réseau classique et du réseau neuronal bayesien
III.3.1. Modèle neuronal classique
III.3.1.1. Organigramme du réseau classique
III.3.1.2. Résultats
III.3.2. Modèle neuronal bayesien
III.3.2.1. Organigramme de l’apprentissage bayesien
III.3.2.2. Résultats
III.4. Optimisation
III.4.1. Recherche de la valeur des hyperparamètres
III.4.2. Recherche du nombre des neurones cachés
III.4.3. Résultats d’optimisation
III.5. Interprétation
III.6. Expérimentation
III.7. Construction d’une base de données d’irradiation globale
III.7.1. A partir des réseaux de neurones artificiels
III.7.2. A partir du système d’information géographique
Conclusion générale
ANNEXES
REFERENCES

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *