Systèmes de Classeurs et Communication dans les Systèmes Multi-Agents

Parmi toutes les possibilités qui lui étaient offertes, l’évolution a choisi de créer le cerveau humain. Elle a tout d’abord créé les “dinosaures” qui n’ont pas réussi à “optimiser” leur environnement autrement que par le gigantisme et dont le cerveau primitif ne permettait pas d’évolution rapide. D’un coup de “baguette magique”, la nature a tout effacé et recommencé avec des êtres plus “adaptés”, cela se passait il y a 65 millions d’années. L’évolution se trouvant trop lente à améliorer la vie, elle a décidé que le cerveau évoluerait pendant sa vie. Ce merveilleux outil a fini par dépasser sa nature “réactive” originelle pour atteindre la “conscience”. Depuis lors, il n’a de cesse de résoudre les problèmes qu’il rencontre afin d’essayer d’améliorer sa condition humaine. Cette accélération soudaine de l’évolution, qui a permis à un singe de voyager dans l’espace en moins de 100 000 années alors qu’il a fallu 2 milliards de ces mêmes années pour créer un micro-organisme, semblait avoir atteint un pallier difficilement franchissable. Pourtant l’accélération exponentielle que subit l’évolution continue. Des cerveaux (Neuman, Turing) ont créé un outil capable d’effectuer pour eux certaines tâches automatiques fastidieuses. Dès le début de cet âge, en 1956 et à Dartmouth pour être plus précis, des penseurs (cf. [Crevier, 1993]) se sont réunis afin de discuter sur le thème :

Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.

De leurs discussions, et plus particulièrement de John McCarthy, est né le terme d’intelligence artificielle. Malgré toute cette belle énergie dépensée à évoluer encore et encore plus vite, l’outil de l’évolution, l’ordinateur, est encore aujourd’hui incapable de raisonner [Abelson et al., 2000] tel que nous le faisons sur des problèmes complexes. L’ordinateur peut-il, va-t-il, doit-il nous remplacer ? [Colburn, 2000] .

Intelligence Artificielle (I.A.) 

Après le point de vue philosophique, regardons la position des chercheurs en intelligence artificielle. La résolution de problèmes complexes à l’aide de l’outil informatique a permis à la communauté scientifique de se poser de nombreuses questions fondamentales. Durant une assez longue période l’ordinateur a été considéré comme apte à résoudre des problèmes que seul le cerveau humain avait été capable d’aborder jusque là. Le test de Turing qui doit permettre de reconnaître une “machine intelligente”, a été vaincu par Elisa, pourtant son créateur ne reconnaît aucune intelligence à son système. Nous savons grâce à Hilbert que la plupart des problèmes complexes sont indécidables à l’aide d’une machine de Turing. Pourtant l’intelligence artificielle veut repousser les limites du modèle et étudier d’autres aspects. Le danger étant que l’ajout d’axiomes au modèle d’origine risque de rendre celui-ci incomplet au sens de Gödel. Nous risquons d’obtenir des réponses justes à partir de bases fausses : f→v. Pourtant lorsqu’on y réfléchit, seule l’introduction de la logique floue a permis de faire une avancée dans le domaine du raisonnement sans pour autant répondre à l’attente des chercheurs. L’approche centralisatrice qui consiste à utiliser un système logique pour raisonner ne semble pas la meilleure approche. C’est pourquoi, après un constat d’échec, il a fallu reconsidérer l’approche de ces problèmes difficiles à l’aide d’ “Intelligences Artificielles” [Bonabeau et Theraulaz, 1994].

Aujourd’hui, on étudie, en scindant les problèmes complexes en sous-problèmes plus simples, comment on peut arriver à construire une entité qui va relier les différents sous-problèmes afin de résoudre le problème principal. Le but de cette décomposition est également de trouver, pour le chercheur en intelligence artificielle, les briques de base qui permettent à des entités simples de s’organiser afin de raisonner .

Les Systèmes Multi-Agents

L’étude d’un problème complexe amène à la décomposition de celui-ci en sous problèmes plus faciles à appréhender. Cette décomposition en un ensemble de sous-problèmes se nomme système multiagents. De cette décomposition, parfois arbitraire, apparaissent des difficultés. Comment pouvonsnous être sûr que la résolution de ces sous-problèmes répond bien au problème complexe posé au départ ? Nous avons donc choisi de prendre l’image d’une pyramide à l’envers en partant de l’agent simple et en étudiant comment celui-ci pouvait évoluer pour résoudre des problèmes qui dépassent ses simples besoins. Notre démarche a consisté à étudier un type d’agent particulier et de voir comment nous pouvions l’aider à résoudre des problèmes plus difficiles.

Définition d’agent 

Comme nous le rappelle le livre de [Ferber, 1995], l’agent ne peut exister qu’au travers d’un environnement ou d’un autre agent avec lequel il interagit et le reconnaît comme tel. Cet état de fait permet de parler d’identité de l’agent. Elle permet de dégager plusieurs caractéristiques propres à l’individu :
– L’agent à des buts, des intentions et des croyances qui lui sont propres.
– Ses buts, intentions et croyances sont en partie modelés par l’apprentissage et le raisonnement ainsi que les compétences de l’agent.
– Ses compétences sont reconnues par les autres agents.
– Sa capacité d’apprendre et de raisonner est directement liée à son interaction avec l’environnement mais aussi à sa capacité à interagir avec les autres. L’interaction avec l’environnement se fait à travers des effecteurs et des capteurs. Le but d’une population d’agents est de s’auto-organiser afin d’atteindre des buts collectifs. L’interaction de l’agent avec la collectivité l’oblige au niveau social à savoir :
– communiquer avec les autres afin d’augmenter par l’apprentissage sa vision du monde qui l’entoure et de mieux reconnaître l’individualité des autres agents.
– définir son rôle au sein de la communauté et de prévoir, anticiper l’avenir. Les croyances de l’agent émergent de son apprentissage et finissent par devenir des certitudes. Sa capacité à raisonner l’aide également à mieux définir son rôle, ses buts et ses intentions. Le mécanisme d’intention sert à accomplir un but ou à effectuer une action dans l’immédiat ou le futur. L’intention d’accomplir un but permet de définir le rôle de l’agent. Par conséquent, ce rôle, décidé par raisonnement, permet de comprendre les intentions et progressivement le but. Il n’est donc pas toujours nécessaire d’attribuer un rôle à un agent [Sigaud et Gérard, 2000]. Toutefois en fonction de son individualité, l’agent pourra décider d’être autonome et d’interagir avec l’environnement afin d’apprendre et de survivre. Dans le cas contraire, il a décidé de communiquer avec les autres. L’agent qui communique a pour but d’étendre la perception qu’il a du monde qui l’entoure ou encore de partager ses compétences et/ou des informations.

Ce dernier point nous amène à parler de la notion de compétence. Celle-ci est propre à un système multi-agents. La compétence d’un agent est sa capacité à résoudre une tâche bien définie. Partager une compétence revient à enseigner celle-ci à des élèves. Elle implique de définir un cadre homogène d’échange de la compétence entre l’enseignant et ses élèves. En effet, il est impératif que la compétence soit transmise avec le moins d’erreurs possibles même si elle doit être adaptée par l’élève ensuite. Implicitement, cet échange doit amener les agents à être valorisés pour leur effort. L’échange d’informations implique qu’une correspondance doit pouvoir être établie entre le monde et sa représentation par l’apport d’une analyse sémantique ou tout au moins d’une analyse lexicale. En effet, un agent communique une information qu’il a “capté”, l’information est alors codée puis transmise à un ou plusieurs agents qui devront décoder le message. Les agents communicants peuvent alors être hétérogènes. L’échange d’informations permet une normalisation de la perception du monde ainsi que l’apparition d’un langage au sein de la communauté d’agents. Dans ce cas aussi, l’échange doit permettre aux deux communicants d’être revalorisés. Comme dans le cas de l’échange de compétences, l’agent peut “communiquer” une information malgré lui ou en recevoir une sans pour autant l’avoir voulu. Pourtant on ne peut pas parler de communication, il s’agit plutôt dans le premier cas d’actions sur l’environnement qui peuvent être perçues par des agents qui sont dans le second cas.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction
2 S’inspirer de la Nature pour Communiquer : Pourquoi ?, Comment ?
2.1 Les Systèmes Multi-Agents
2.2 Modèles de la Nature
2.2.1 Les étourneaux
2.2.2 Les fourmis
2.2.3 Les singes
2.2.4 Conclusion
2.3 Modèles Simulés
2.3.1 Éthologie synthétique
2.3.2 Animat
2.3.3 Robots
2.3.4 Conclusion
2.4 Bilan
3 Systèmes de Classeurs
3.1 Généralités
3.1.1 Structure
3.1.2 Environnement
3.1.3 Résolution
3.1.4 Évolution
3.2 Systèmes de Classeurs avec Algorithme Génétique
3.2.1 L’algorithme génétique
3.2.2 Systèmes de classeurs de type Michigan
3.2.3 Systèmes de classeurs de type Pittsburgh
3.2.4 XCS
3.3 Autres Systèmes de Classeurs
3.3.1 Q-Learning
3.3.2 Anticipatory Classifier System (ACS)
3.3.3 Systèmes de classeurs flous
3.4 Conclusion
4 Coordination “spontanée”
4.1 Définitions
4.2 El-Farol Problem
4.3 Expérimentations
4.3.1 Fonction de fitness
4.3.2 Mesures
4.3.3 Pittsburgh Simplifié
4.3.4 Paramètres
4.3.5 Résultats
4.4 Conclusion
5 Communiquer avec des SMA Homogènes
5.1 Problématique des SMA Homogènes
5.2 Quelques exemples
5.3 Distribuer la connaissance
5.3.1 Cloner
5.3.2 Application à un contrôle de carrefours routiers
5.3.3 Élitisme
5.3.4 Robustesse
5.4 Conclusion
6 Communiquer avec des SMA Hétérogènes
6.1 Problématique des SMA hétérogènes
6.2 Définition d’un modèle minimal
6.2.1 Structure d’un agent
6.2.2 Mesurer la Communication
6.2.3 Conclusion
6.3 Application
6.3.1 Systèmes de classeurs de type Pittsburgh simplifié
6.3.2 Systèmes de classeurs de type XCS
6.3.3 Le robot Khepera
6.3.4 Conclusion
6.4 Extension du modèle minimal
6.4.1 Vers la complexité
6.4.2 Analyse du lexique
6.4.3 Combinaisons de lexiques
6.5 Conclusion
7 Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *