Etat de l’art des méthodes d’optimisation monoobjectif et multi-objectif

CONTEXTE

L’optimisation est au coeur de tout problème lié à la prise de décison, que ce soit en ingénierie ou en économie. Le but ultime de toutes ces décisions est soit de minimiser l’effort requis et/ou maximiser le bénéfice désiré. Les problèmes d’optimisation rencontrés en pratique sont rarement mono-objectif ; plusieurs paramètres contradictoires à satisfaire sont présents. L’optimisation multiobjectif est disponible depuis environ trois décennies, et son application dans les problèmes du monde réel ne cesse d’augmenter. Son but est de chercher à optimiser plusieurs composantes de la fonction objectif. La solution du problème n’est pas un vecteur unique, mais un ensemble de solutions connu comme l’ensemble de solutions Pareto optimales. Il n’existe pas de méthode unique disponible pour résoudre efficacement tous les problèmes d’optimisation. Plusieurs algorithmes d’optimisation ont été proposés, examinés et analysés dans les dernières décennies. Cependant, l’optimisation dans le domaine de l’ingénierie demeure un champ actif de recherches, puisque plusieurs problèmes réels d’optimisation restent très complexes en réalité et difficiles à résoudre par les algorithmes existants.

ÉTAT DE L’ART DES MÉTHODES D’OPTIMISATION MONO-OBJECTIF ET MULTI-OBJECTIF

L’OPTIMISATION est le fait d’obtenir le meilleur résultat dans des circonstances données. Au niveau de la conception, la construction et l’entretien d’un système d’ingénierie, les ingénieurs doivent prendre de nombreuses décisions techniques et de gestion à plusieurs niveaux. Le but ultime de toutes ces décisions est soit de minimiser l’effort requis et/ou maximiser le bénéfice désiré. Puisque l’effort nécessaire ou la prestation souhaitée dans une situation concrète peut s’exprimer en fonction de certaines variables de décision, l’optimisation peut être définie comme le processus de recherche des conditions qui donnent la valeur maximale ou minimale d’une fonction. Il n’existe pas de méthode unique disponible pour résoudre efficacement tous les problèmes d’optimisation. D’où un certain nombre de méthodes d’optimisation ont été développées pour résoudre différents types de problèmes d’optimisation.

L’existence de méthodes d’optimisation peut remonter à l’époque de Newton, Lagrange et Cauchy. Le développement de méthodes de calcul différentiel d’optimisation a été possible grâce à la contribution de Newton et de Leibniz. Les bases de calcul des variations, qui traite de la minimisation de fonctionnelles, ont été portées par Bernoulli, Euler, Lagrange, et Weirstrass. La méthode d’optimisation pour les problèmes avec contraintes, ce qui implique l’addition des multiplicateurs inconnus, est devenue connue sous le nom de son inventeur, Lagrange. Cauchy a fait la première application de la méthode de la plus forte descente pour résoudre les problèmes de minimisation sans contraintes(Rao 2009). En dépit de ces premières contributions, très peu de progrès a été fait jusqu’au milieu du XXe siècle, quand les ordinateurs ont permis de mettre en oeuvre les procédures d’optimisation et de stimuler de nouvelles recherches sur de nouvelles méthodes. Des progrès spectaculaires ont suivi, produisant une littérature considérable sur les techniques d’optimisation. Ce progrès a également donné lieu à l’émergence de plusieurs domaines de recherche théorique sur les techniques d’optimisation. La volonté d’optimiser plus d’un objectif ou un but tout en satisfaisant les contraintes physiques a conduit à la mise au point de méthodes de programmation multicritères(Rao 2009).Dans ce chapitre, nous dressons un état de l’art non exhaustif des méthodes d’optimisation mono-objectif et multi objectif en accordant une importance particulière aux méthodes utilisées dans nos travaux de recherche ; notamment la méthode de Nelder Mead, l’algorithme génétique, la méthode d’optimisation par essaim des particules, ainsi que les méthodes d’optimisation multiobjectif NBI, NNC, SPEA, NSGA. D’autres méthodes bien connues seront brièvement décrites en faisant référence à la documentation pour tout besoin d’informations ou de détails supplémentaires.

OPTIMISATION MONO-OBJECTIF

Le développement de la méthode du simplexe par Dantzig en 1947 pour des problèmes de programmation linéaire et l’énoncé du principe d’optimalité de Bellman en 1957 pour des problèmes de programmation dynamique a ouvert la voie pour le développement des méthodes d’optimisation sous contraintes. Les travaux de Kuhn et Tucker en 1951, sur les conditions nécessaires et suffisantes pour la solution optimale de problèmes de programmation ont posé les bases d’un grand nombre de recherches plus tard dans la programmation non linéaire. Les contributions des Zoutendijk et Rosen à la programmation non linéaire au cours des années 1960 ont été considérables. Même si aucune technique n’a été trouvée pour être universellement applicable pour les problèmes de programmation non linéaire, les travaux de Carroll et Fiacco et McCormick ont permis de résoudre de nombreux problèmes difficiles en utilisant les techniques bien connues de l’optimisation sans contrainte. La programmation géométrique a été développée dans les années 1960 par Duffin, Zener, et Peterson. Gomory a fait oeuvre de pionnier en programmation en nombres entiers, l’un des domaines les plus passionnants de d’optimisation qui se développent rapidement. La raison en est que la plupart des applications du monde réel entrent dans cette catégorie de problèmes. Dantzig et Charnes et Cooper ont développé des techniques de programmation stochastique et résoudre les problèmes en supposant que les paramètres de conception sont indépendants et distribués normalement(Rao 2009).

Les problèmes d’optimisation peuvent être classés de plusieurs manières, en fonction de la nature de la fonction, des variables de décision et des contraintes :
1. Classification basée sur l’existence de contraintes : qui concerne l’existence ou non de limitations sur les variables (contraintes) qui peuvent être simplement des bornes géométriques ou des égalités ou inégalités non linéaires.
2. Classification basée sur la nature des variables de conception : Dans certains problèmes d’optimisation, les variables n’ont un sens que si elles sont entières, on parle dans ce cas d’optimisation discrète. L’optimisation continue -objet de cette thèse- a pour objectif de chercher la solution dans un ensemble continue tel que l’ensemble des nombres réels.
3. Classification basée sur la nature des équations impliquées : Une classification importante est basée sur la nature des expressions pour la fonction objectif et des contraintes. Selon cette classification, les problèmes d’optimisation peuvent être classés comme des problèmes de programmation linéaire, non-linéaire, géométrique, et quadratique.
4. Classification basée sur la nature déterministe des variables : Les problèmes d’optimisation peuvent être classés comme des problèmes de programmation déterministes et stochastiques.

Ainsi, il est important de savoir situer le problème d’optimisation posé, afin de choisir la méthode appropriée pour le résoudre. Il y a trois grandes familles de méthodes d’optimisation : les méthodes énumeratives, les méthodes déterministes, et les méthodes stochastiques.

Méthodes énumeratives

L’évaluation de la valeur de la fonction objectif est faite en chaque point de l’espace des solutions qui peut être fini ou infini mais discrétisé. Cette méthode est intéressante dans le cas où le nombre de points n’est pas très important ce qui n’est pas le cas dans la pratique. Ces méthodes ont deux inconvénients majeurs :

– Inadaptation aux problèmes de grande taille.
– Absence de processus intelligent qui guide la recherche vers un sous espace sans parcourir l’ensemble des solutions possibles.

Méthodes déterministes 

Ces méthodes n’utilisent aucun concept aléatoire, et se caractérisent par une exploration systématique de l’espace de recherche. Elles requirent en générale des hypothèses sur la fonction objectif, telles que la continuité et dérivabilité en tout point du domaine de recherche. Les méthodes déterministes se divisent en deux classes principales : les méthodes d’exploration directes et les méthodes d’exploration indirecte. Ces derniers cherchent à atteindre les extrema locaux en résolvant les systèmes d’équations, souvent non linéaires, obtenus en annulant le vecteur gradient de la fonction étudiée. Les méthodes d’exploration directes recherchent les optima locaux en se déplaçant dans une direction qui dépend du gradient de la fonction. Deux inconvénients majeurs se présentent pour ces méthodes :
– Dans la pratique les fonctions à optimiser peuvent ne pas être dérivables et souvent même pas continues.
– Risque de convergence prématurée vers un optimum local, l’optimum global n’est obtenu que lorsque le point initial de départ choisi est proche de cet optimum.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

INTRODUCTION
CONTEXTE, OBJECTIF ET ORGANISATION DE LA THÈSE
1 ÉTAT DE L’ART DES MÉTHODES D’OPTIMISATION MONOOBJECTIF ET MULTI-OBJECTIF
1.1 OPTIMISATION MONO-OBJECTIF
1.1.1 Introduction
1.1.2 Formulation
1.1.3 Méthodes énumeratives
1.1.4 Méthodes déterministes
1.1.4.1 Les méthodes de gradient
1.1.4.2 La méthode de Newton
1.1.4.3 La méthode multistart
1.1.4.4 La méthode de Nelder Mead
1.1.5 Méthodes stochastiques
1.1.5.1 Les algorithmes génétiques
1.1.5.2 La méthode du recuit simulé
1.1.5.3 La méthode de Recherche Tabou (RT)
1.1.5.4 Algorithme de colonie de fourmis
1.1.5.5 Algorithme d’essaim de particules
1.1.6 Optimisation avec Contraintes
1.2 OPTIMISATION MULTI-OBJECTIF
1.2.1 Introduction
1.2.2 Concepts de base et terminologie
1.2.2.1 Définition du POM
1.2.2.2 Relations
1.2.2.3 Domination de Pareto
1.2.2.4 Optimalité de Pareto
1.2.2.5 Ensemble optimal local et global
1.2.3 Classification des méthodes
1.2.4 Méthodes Agrégées
1.2.4.1 Méthodes d’Agrégation
1.2.4.2 Méthode ε-contrainte
1.2.4.3 Programmation par but
1.2.4.4 Discussion sur les méthodes d’agrégation
1.2.5 Méthodes Non Agrégées et Non Pareto
1.2.5.1 Méthode VEGA
1.2.5.2 La Méthode lexicographique
1.2.6 Méthodes Pareto
1.2.6.1 Méthode MOGA(Multiple Objective Genetic Algorithm)
1.2.6.2 Méthode NPGA(Niched Pareto Genetic Algorithm)
1.2.6.3 Méthode SPEA(Strength Pareto Evolutionary Algorithm)
1.2.6.4 Méthode PAES(Pareto Archived Evolution Strategy)
1.2.6.5 Méthode NSGA(Non dominated Sorting Genetic Algorithm)
1.2.6.6 Méthode NBI(Normal Boundary Intersection)
1.2.6.7 Méthode NNC(Normalized Normal Constraint)
1.3 CONCLUSION
2 REPRESENTATION DE SOLUTION : CONTRIBUTION À L’OPTIMISATION GLOBALE
2.1 INTRODUCTION
2.2 FORMULE DE REPRÉSENTATION
2.2.1 Introduction
2.2.2 Hypothèses et notations
2.2.3 Le résultat central
2.2.4 Choix de la fonction
2.3 HYBRIDATION DE LA MÉTHODE DU SIMPLEXE AVEC LA FORMULE DE REPRÉSENTATION ET L’ALGORITHME GÉNÉTIQUE
2.3.1 Introduction
2.3.2 La Formule de Representation
2.3.3 Algorithme
2.4 FONCTIONS TEST
2.5 RÉSULTATS NUMÉRIQUES
2.5.1 Influence du choix de la distribution de probabilité
2.5.2 Influence de la fonction g
2.5.3 Influence de la taille de la population pour GA
2.5.4 Influence de la taille de l’échantillon pour RF
2.5.5 Comparison entre méthodes
2.5.6 Comparison avec d’autres algorithmes
2.6 CONCLUSION
3 APPLICATIONS : PROBLÈMES DU PILIER DE PONT ET D’UNE STRUCTURE EN TREILLIS
3.1 INTRODUCTION
3.2 CONCEPTION D’UN PILIER
3.3 CONCEPTION DE LA STRUCTURE DE TREILLIS
3.4 EFFICACITÉ ET EFFICIENCE DE RFNM
3.4.1 Influence de la fonction de Pincus
3.4.2 Comparaison avec GA, PSO et NSGA II
3.5 CONCLUSION
4 NNC AMÉLIORÉ POUR LA CONCEPTION D’UN DISPOSITIF FIABLE DE SUSPENSION DYNAMIQUE AVEC RIGIDITÉ DYNAMIQUE ALÉATOIRE ET UNIFORME
4.1 INTRODUCTION
4.2 GÉNÉRALITÉS SUR LA CONCEPTION MÉCANIQUE LORS DE L’EXAMEN DE LA FIABILITÉ DES STRUCTURES
4.3 EQUATIONS DU PROBLÈME DE VIBRATION MÉCANIQUE
4.4 FORMULATION DU PROBLÈME D’OPTIMISATION SOUS CONTRAINTE FIABILISTE
4.5 PROPAGATION DES INCERTITUDES POUR LE SYSTÈME MÉCANIQUE
4.6 AMÉLIORATION DE LA MÉTHODE NNC
4.6.1 Introduction
4.6.2 Formulation et amélioration de la méthode NNC
4.7 APPLICATIONS
4.7.1 Premier Problème d’optimisation
4.7.2 Le deuxième problème d’optimisation
4.8 COMPARAISON AVEC D’AUTRES MÉTHODES D’OPTIMISATION MULTIOBJECTIF
4.9 CONCLUSION
5 APPROXIMATION NUMÉRIQUE DE LA SOLUTION EN OPTIMISATION EN DIMENSION INFINIE EN UTILISANT LA FORMULE DE REPRESENTATION
CONCLUSION

Lire le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *