Avec le contexte mondial actuel où la concurrence ne cesse de s’accroître d’une part et la majoration sans cesse du prix des ressources et de la main d’œuvre d’autre part, l’extension de la production ne s’avère plus la seule solution pour avoir le maximum de profit. En effet, pour avoir de l’avantage sur le marché, l’unique solution est d’essayer de réviser le rendement dans un but de répondre à un double objectif visant l’amélioration de la qualité des produits proposés tout en préservant le bon fonctionnalité et la réduction des coûts de production pour en profiter l’augmentation du bénéfice. Mais cette tâche est difficile, en effet son but est de trouver un compromis entre plusieurs facteurs : besoins à satisfaire, l’efficacité, la rentabilité…
Les entreprises opérant dans le domaine de la production et de la répartition de l’énergie électrique sont vraiment touchées par ce problème. En effet, le rendement faible du réseau de transport et de distribution en est souvent la cause, ce fait est constaté par les manques à gagner dans le bilan de l’entreprise. Ce rendement faible est parfois causé par l’augmentation des pertes de puissance dans les lignes de transports, ce qui conduit à l’insuffisance de l’énergie arrivée aux abonnés. La solution pour ce problème est alors d’optimiser le rendement en minimisant les pertes dans les lignes de transport.
ETAT DE L’ART SUR L’OPTIMISATION
L’optimisation est un sujet qui préoccupe les chercheurs, c’est pourquoi, nous allons donner quelques généralités pour avoir une idée sur le concept de l’optimisation, Le but de ce chapitre est donc de donner un survol rapide de quelques questions liées aux problèmes d’optimisation. On va répondre dans ce chapitre ce qu’on appelle optimisation, son histoire et par la suite, on va donner les critères qui permettent de classifier chaque problème d’optimisation et on terminera ce chapitre par donner quelques problèmes d’optimisation et d’énumérer les méthodes permettant de résoudre ces problèmes.
Historique du problème d’optimisation
IIIe siècle : Les premiers problèmes d’optimisation auraient été formulés par Euclide dans son ouvrage historique Éléments.
VI siècle : Dans son recherche sur le domaine de l’optique, Héron d’Alexandrie a énoncé dans Catoptrica le principe du plus court chemin.
XIIe siècle : L’apparition du calcul différentiel entraîne l’invention de techniques d’optimisation, ou du moins en fait ressentir la nécessité.
XVIe siècle : Issue de ses travaux avec Leibniz, Newton met au point une méthode itérative permettant de trouver les extrémums locaux d’une fonction en faisant intervenir la notion de dérivée. Cette nouvelle notion permet de grandes avancées dans l’optimisation de fonction car le problème est ramené à la recherche des racines de la dérivée.
Durant le XVIIIe siècle, les travaux des mathématiciens Euler et Lagrange mènent au calcul des variations, une branche de l’analyse fonctionnelle regroupant plusieurs méthodes d’optimisation. Ce dernier a inventé une technique d’optimisation sous contraintes: Les multiplicateurs de Lagrange.
XIXe siècle est marqué par l’intérêt croissant des économistes pour les mathématiques. Ceux-ci mettent en place des modèles économiques qu’il convient d’optimiser, ce qui accélère le développement des mathématiques. Depuis cette période, l’optimisation est devenue un pilier des mathématiques appliquées et le foisonnement des techniques est tel qu’il ne saurait être résumé en quelques lignes.
En 1947 : L’algorithme du simplexe fut proposé par G. B. Dantzig comme méthode de résolution générale des programmes linéaires. La solution optimale est approchée par étapes ou itérations successives.
1950 a été marqué par l’invention de la méthode du gradient conjugué par Cornelius Lanczos et Magnus Hestenes.
1960 : Rosenbrock à inventé les méthodes de recherche dans une famille de directions consistant à minimiser successivement la fonction coût dans une famille de n directions, par une suite d’évaluations. Cette approche a été modifiée par Powell en 1964 et par Swann la même année.
1965 : La méthode de Nelder-Mead qui est un algorithme d’optimisation non-linéaire a été publiée par Nelder et Mead. C’est une méthode numérique qui minimise une fonction dans un espace à plusieurs dimensions. Et cette méthode a été revisitée récemment par Dennis et Torczon en 1991 .
1975 : Holland a posé les bases de la technique d’optimisation appelée “algorithmes génétiques”. Mais c’est Goldberg (1989) qui, par la suite s’est investi dans l’étude des AG et a développé la forme actuelle que nous connaissons.
1983 : inspirée d’un processus utilisé en métallurgie, les 3 chercheurs de la société IBM, S. Kirkpatrick, C.D. Gelatt et M.P. Vecchi ont mis au point la méthode du recuit simulé et indépendamment par V. Cerny en 1985.
1990 : remarquant le comportement des fourmis, Marco Dorigo et al proposé le premier algorithme de colonies de fourmis pour résoudre le problème de recherche de chemins optimaux dans un graphe .
1995 : Russel Eberhart, ingénieur en électricité et James Kennedy, socio-psychologue, s’inspirent du monde du vivant pour mettre en place une méta-heuristique : l’optimisation par essaim particulaire.
1986 : Glover a développée dans un cadre particulier la méthode de recherche tabou. (et indépendamment par Hansen en 1986), c’est une méthode heuristique de recherche locale utilisée pour résoudre des problèmes complexes et/ou de très grande taille.
Exemple d’utilisation de l’optimisation
➤ En physique : les problèmes d’optimisations physiques qui se posent souvent sont la minimisation d’une énergie;
➤ En finance : dans ce domaine, le problème majeur est qu’on veut optimiser les gains (ou minimiser les risques) sous certaines contraintes (puisque la caisse n’a pas une taille infinie) ;
➤ Dans l’industrie :
● Optimiser la taille et l’emplacement de composants électroniques sur un circuit occupe actuellement l’attention des chercheurs;
● Minimiser les chutes lors du découpage d’éléments dans un morceau de tissu ;
● Gérer les stocks de façon optimale ;
➤ Analyse de données : faire passer une courbe ayant certaines propriétés (par exemple ayant une pente positive) au plus proche de certains points occupe la principale utilisation de l’optimisation.
Ce sont des exemples d’utilisation de l’optimisation dans la vie courante .
|
Table des matières
INTRODUCTION GENERALE
Chapitre 1. ETAT DE L’ART SUR L’OPTIMISATION
1.1. Introduction
1.2. Historique du problème d’optimisation
1.3. Définition du problème d’optimisation
1.3.1. Appellation
1.3.2. Exemple d’utilisation de l’optimisation
1.3.3. Notion de minimum
1.4. Classification des problèmes d’optimisation
1.4.1. Les variables
1.4.2. La fonction objective
1.4.3. Formulation du problème
1.5. Exemple de quelques problèmes d’optimisation rencontré fréquemment
1.5.1. Problème d’optimisation linéaire avec contrainte
1.5.2. Problème non-linéaire avec contrainte
1.5.3. Problèmes convexes
1.5.4. Problèmes non-convexes
1.6. Résolution du problème d’optimisation
1.7. Conclusion
Chapitre 2. LES METHODES CLASSIQUES
2.1. Introduction
2.2. Les problèmes d’optimisation linéaire
2.2.1. Existence de solution
2.2.2. Condition d’optimalité
2.2.3. Méthode du simplexe
2.2.4. Méthode du Tableau
2.3. Les problèmes d’optimisation non linéaire
2.3.1. Problèmes sans contraintes
2.3.2. Problèmes avec contraintes
2.4. Conclusion
Chapitre 3. LES METHODES MODERNES
3.1. Introduction
Les métaheuristiques
3.2. Recuit simulé
3.2.1. Le traitement thermique
3.2.2. Principe du recuit simulé
3.2.3. Algorithme du Recuit Simulé
3.3. Recherche tabou
3.3.1. Le randonneur malchanceux
3.3.2. Principe de la Recherche Tabou
3.3.3. Techniques d’améliorations de l’algorithme de base
3.3.4. Algorithme de la Recherche Tabou
3.4. Optimisation par essaims particulaires
3.4.1. Les vols d’oiseaux
3.4.2. Principe de l’algorithme d’optimisation par essaims particulaires
3.4.3. Algorithme de l’optimisation de l’Essaim Particulaire
3.5. Colonie des fourmis
3.5.1. Les fourmis réelles
3.5.2. La fourmi artificielle
3.5.3. Principe de l’algorithme de colonie des fourmis
3.5.4. Algorithme
3.6. Algorithme génétique
3.6.1. Notion de génétique des populations
3.6.2. Principe de l’algorithme génétique
3.6.3. Algorithme
3.7. Conclusion
Chapitre 4. APPLICATION : OPTIMISATION DE LA PUISSANCE ACTIVE DANS LE RESEAU ELECTRIQUE
4.1. Introduction
4.2. Généralités sur le réseau d’énergie électrique
4.2.1. Les éléments constitutifs d’un réseau
4.2.2. Les fonctions du réseau
4.2.3. Structure des réseaux électriques
4.3. L’écoulement de puissance
4.3.1. Classification des nœuds
4.3.2. Equations du réseau électrique en régime permanant
4.3.3. Résolution des équations
4.4. Optimisation de la puissance active d’un réseau
4.4.1. La fonction objective de l’optimisation de la puissance active
4.4.2. Les contraintes du réseau correspondantes à l’optimisation de la puissance active
4.5. Représentation du réseau
4.6. Résultat
4.6.1. Résultat du calcul de la répartition de puissance (load flow)
4.6.2. Résultat de l’optimisation de la puissance active
4.6.3. Comparaison des résultats
4.7. Conclusion
CONCLUSION GENERALE