Traitement Automatique de la Langue Naturelle et interprétation

Coopération Homme / Machine

   Avec la chute du paradigme cognitiviste premier, dont l’apogée pragmatique (ou plutôt applicative) fut atteinte avec les systèmes experts, et l’insuffisance de leur puissance inférentielle pour la modélisation d’un comportement cognitif simple, d’autres aspects de l’outil informatique furent pris en compte. La modélisation complète et fidèle de la cognition devrait en effet être abandonnée, au profit d’une véritable collaboration, en reconnaissant l’irréductibilité des activités mentales à un calcul symbolique (ni même subsymbolique). C’est en ce sens que Y.-M. Visetti [65] commente le passage des systèmes experts aux systèmes à base de connaissances, première amorce de ce mouvement vers la coopération. Se situant à un niveau plus général que le nôtre (du point de vue des domaines d’application), il reconnaît les nuisances d’une préconception logique majoritaire, dont les contraintes dans les systèmes dits cognitifs bloquent la communication entre la machine et son utilisateur. Ainsi, en restreignant la place de structures logiques complexes et par trop figées, et en accordant une priorité à la coopération plutôt qu’à une automatisation utopique, il trace les grandes lignes d’un nouveau type d’outil. Ce dernier, qu’il nomme «système interactif d’aide à la modélisation et à la validation des raisonnements» doit abandonner l’exigence de l’autonomie. En réduisant la complexité et l’importance de la formalisation logique, il limite l’application de celle-ci à certaines parties restreintes d’un processus de raisonnement. Pour cet aspect, il faut entendre simplement une économie cognitive de l’utilisateur, exigeant par là même de celui-ci une connaissance suffisante du domaine et des limites même de ce type de coopération. Mais d’un autre côté, en appliquant une rigueur logique (qui d’après l’auteur ne peut guère provenir de logiques non-standard, d’où une position affirmée dans la logique du premier ordre), il est envisageable de prendre en compte certaines suggestions de la part de l’automatisation comme Y.-M. Visetti l’énonce dans l’élégante analogie suivante : Ils ont donc le statut ambigu d’oracles : qu’on prenne ou non le parti de les suivre, ce n’est pas d’eux que l’on attend véritablement un développement de la rationalité des organisations […] Concrètement, ces approches nécessitent une moins grande complexité technique (dans l’appareil logique), et une plus grande souplesse aussi, ainsi que la possibilité de rejeter l’adéquation de la représentation formelle avec une réalité intangible des structures cognitives supposées. Schématiquement, et donc idéalement, un tel outil comporterait deux couches principales, auxquelles s’ajouterait bien entendu l’utilisateur si central. Une première couche logique, support des représentations internes,d’une complexité réduite, et véhicule de rigueur et de robustesse. Une couche sémiotique, sorte d’intermédiaire, où se projettent les actions et conceptions humaines, qui doit donc être porteuse de grande souplesse, et d’interaction forte avec l’utilisateur. Mais cette structure des couches logiques et sémiotiques ne peut se concevoir que sous une thématisation de la composante humaine. Elle doit être recherchée à tous les niveaux et à toutes les périodes de la constitution d’un tel outil. La couche sémiotique n’est qu’une abstraction, son véritable statut est celui que lui confère l’utilisateur. Pour terminer, la notion même de subjectivité, et de reconnaissance de la centralité humaine trouve des échos, puisqu’au moins des intentions transparaissent de reconnaître, et non plus de craindre, la variabilité interindividuelle, mais également les variations temporelles intra individuelles [67]. Les travaux en ergonomie dans le développement des interfaces hommemachine en témoignent également.

Quelles applications ?

   Ce point de vue, centré sur la subjectivité dans la langue, si attrayant qu’il soit, limite tout de même, outre les objectifs concrets d’une application, ses domaines d’applications. Reprenons un argument de F. Rastier à propos des exemples littéraires qui illustrent ses travaux : «… Outre que ces textes [littéraires] sont des plus agréables à étudier, on peut prétendre que leur complexité met à rude épreuve les instruments descriptifs utilisés. Mais au contraire, choisir des textes littéraires, ne serait-ce pas une solution de facilité ? Leur cohésion guide le scholastique.» [50]. Pour reprendre la première réponse que l’auteur apporte ici à une critique, nous ne pourrons que la renforcer en y ajoutant le statut socialement stabilisé des méthodes exhaustives d’analyse quand elles s’appliquent aux textes. Nombre de travaux littéraires mettent en exergue la rigueur nécessaire à une étude dans ce domaine, et une transversalité des études quant au niveau des entités linguistiques manipulées. Il devient donc plus acceptable de solliciter un utilisateur qui, lui, n’a pas besoin de la machine pour comprendre le texte, pour un poème ou un roman que pour une recette de cuisine ou pour une notice de montage d’un moteur d’avion. Pour ce qui est du deuxième argument, ne nous leurrons pas, l’application à de tels textes garantit également des résultats non triviaux, simplement parce que le style (au sens large) est important. Cependant, des méthodes similaires semblent trouver un écho appliqué à des textes techniques, lorsque les considérations pragmatiques sont l’extraction de connaissance, couplée aux systèmes de représentations plus classiques [2]. Bien sûr, nous ne pouvons prétendre en tout cas à une complète originalité des applications du TALN à la littérature. Au contraire, nous rejoignons en ce sens un mouvement assez riche de collaboration entre l’informatique et les sciences humaines. En effet, nombre de travaux en lexicométrie sont informatiquement appliqués à des études littéraires, pour lesquels l’outil automatique est parfaitement justifié. Un exemple d’une telle mise en œuvre est le programme TACT (Text Analysis Computer Tools) du Center for Computing in the Humanities de l’Université de Toronto . Constitué d’une grande famille d’outils d’analyse statistique des fréquences de mots, il permet d’extraire des structures stylistiques de textes, basées essentiellement sur la syntaxe (en fait, sur la seule forme des chaînes de caractères), et sur quelques traits sémantiques essentiellement définis comme des classes abstraites d’occurrences syntaxiques. Le principal reproche que nous pourrions porter à ces approches est la reprise de ce fameux principe issu des modèles cryptographiques, de ne regarder qu’une petite «fenêtre» pour expliciter un terme dans un corpus. La théorie initiale cherchait à définir le nombre de mots nécessaires dont il faut tenir compte avant et après l’occurrence considérée pour la cerner complètement. Il s’agit du fameux KWIC (Key Word In Context) des anglo-saxons, que la coutume a fixé à une taille de 11 mots (5 avant et 5 après). De telles considérations semblent donc peu respectueuses de l’intégrité du texte analysé. Malgré le caractère essentiellement formel de ces analyses, nombreuses sont les applications de cet outil par des chercheurs en littérature. Il y a donc un besoin (ou du moins un besoin à créer) de l’autre côté de la barrière sciences dures / sciences humaines, de tels outils scientifiques. Ce que nous proposerons ici sera en comparaison un accompagnement de la machine au long d’un acte d’interprétation. Nous avons déjà énoncé un intérêt d’une telle situation dans la gestion de la cohérence de cette interprétation, et dans un pouvoir limité de suggestivité. Mais nous envisagerons également d’autres aspects, liés aux outils précédemment cités, dans la capacité de mémoire et de présentation de la machine. Mais pas de précipitation dans ce domaine, dont les fondements mêmes sont remis en cause, comme l’explique Mark Olsen dans [43]. Dans cet article, il constate tout d’abord le manque d’innovation et de résultats probants dans le domaine de l’analyse littéraire informatisée, malgré les progrès technologiques et le nombre de travaux croissant. En résumé, rien n’est découvert via ces méthodes technologiques qui ne le serait par une lecture attentive d’une œuvre. Ses conclusions sont doubles : tout d’abord il prône une utilisation de l’ordinateur pour ce qu’il sait faire de mieux que l’homme : manipuler de grandes quantités de données, donc de nombreux textes. Mais surtout, il insiste sur le besoin de corrélation entre théories d’analyse et développements informatiques, indiquant par là un mouvement dans lequel nous estimons nous situer. Nous expliciterons en effet, lors du prochain chapitre les inspirations théoriques qui ont guidé ce travail.

La lignée structuraliste, le problème de l’identité

   À la base du structuralisme se trouve la recherche de points de comparaison entre langues, issue des grammaires comparées. Que ces langues soient séparées par l’espace, le temps ou les deux, la méthode consiste en la recherche de stabilités entre figures d’expressions et idées véhiculées (par exemple le proto-morphème pe- dans les diverses expressions de «pied» et de ses dérivés dans les langues indo-européennes). La grande idée de Saussure [56] fut donc de considérer dans ce cas la nature de l’élément de base de la comparaison. Reconnaissant la langue comme système, il exprime que c’est la présomption de connaissance de ce dernier qui permet d’aboutir à l’identification de ses constituants (et donc de commencer véritablement la description). Même si l’on isole le signe dans un schéma de relations entre ses parties (signifié et signifiant), il faut toujours considérer que l’élément est indissociable du tout systémique auquel il appartient et qu’il constitue. L’importance n’est donc pas seulement portée sur la nature et la signification des relations entre les parties du signe, mais surtout sur les relations entre les signes. Un autre exemple de cette difficulté réside dans la notion même de paradigme. Toujours dans le cadre des comparaisons entre langues, on doit identifier des classes de comparaison pour les termes. Par exemple, pour identifier le «sens» du préfixe dé-, il faut considérer un ensemble de termes comme défaire, démonter, démolir, etc. Bien des classes de comparaison sont pourtant disponibles pour chacun de ces termes, comme faire, refaire, défaire, mais c’est avant tout la présomption de l’objet à mettre en évidence, et du rôle qu’il joue dans le système de la langue qui détermine les effets locaux utilisés pour mettre en évidence sa nature et même son existence. Quand nous énonçons le terme de présomption, il faut en fait avouer que l’on s’intéresse à l’identité de l’élément. Plus qu’une évidence, cette identité doit en fait être construite. Les relations paradigmatiques qu’entretient une unité signifiante se basent sur son identité, mais en fait elles la forment par là-même. Un mot (comme signification), par exemple, va pouvoir être classé dans diverses classes sémantiques (et supporter des relations au sein de celles-ci) parce qu’il a été identifié, mais cependant ce sont les classes admises et les classes injustifiées (plus qu’impossibles, puisque l’on peut toujours s’amuser à regrouper un ensemble aléatoire de termes et les unifier par un contexte ou même un texte) qui vont construire ou peut-être simplement traduire cette identité. À un autre niveau, si l’on décompose cette entité à classer, c’est sur la base du partage d’un de ses composants avec d’autres entités que son appartenance à une classe sera justifiée. Le morphème ‘faire’ dans l’exemple précédent est «le même» dans tous les verbes énoncés, alors que d’autres composants y entretiennent des relations de différence (‘re’ et ‘dé’ par exemple). Ainsi, dans une approche formelle, un point de départ est nécessaire dans la description d’une unité sémantique (un signifié). Celle-ci peut n’être que partielle, comme l’identification d’une classe qui contient cette unité. À partir d’une spécification minimale, l’ensemble de la notion peut ainsi se construire, cette construction faisant partie d’un processus interprétatif. Ainsi, la fameuse notion de généricité – spécificité n’est donc qu’une conséquence de ces deux principes fondamentaux (identité et différence). L’organisation paradigmatique repose sur la notion de substitution, et suppose donc une identité de l’unité transposée à travers les contextes. Cet apparent paradoxe n’a, en fait, pas tant d’hermétisme, si l’on considère la double identité du «mot». La première est une identité de forme (une simple chaîne de caractères), la seconde une identité de contenu, du moins pour ce qui est des classes et des relations sémantiques.

Exemples d’utilisation de la microsémantique

   Les plus célèbres noms associés à une mise en pratique de ce paradigme sont les célèbres Katz et Fodor [29]. Auparavant, et également après eux, la notion de marqueur sémantique fut utilisée pour guider l’analyse syntaxique (par exemple pour exprimer la nécessité d’avoir un sujet animé pour certains verbes). Mais Katz et Fodor vont plus loin, car ils tentent de repérer toutes les caractéristiques sémantiques d’un mot par l’énumération de ces marqueurs. Leur plus célèbre exemple traduit leur intérêt comme centré autour du problème de la polysémie. En effet, ils utilisent les marqueurs sémantiques pour distinguer les différents sens (ou acceptions ?) de bachelor, qui couvrent des domaines divers, du diplômé à l’otarie mâle. Les marqueurs sémantiques forment donc un arbre de signification, dont la racine est le mot lui-même, et chaque branche supporte un marqueur dans le but de distinguer les différents sens (/humain/, /animal/, /mâle/, etc.) ou de décrire le nœud terminal d’un sens (comme /privé de femelle à la saison des amours/ 2). Comme on peut le voir à la lueur de cet exemple, il s’agit bien d’une polysémie forte qui est traitée ici (voire une homonymie). Cependant, l’intention est louable, puisqu’elle donne aux marqueurs sémantiques (du moins à certains d’entre eux) un rôle différenciateur. Le principal problème de cette méthode est que les sens qui doivent être distingués n’ont pas leurs relations validées sur des critères proprement sémantiques, puisqu’il s’agit d’une identité de forme. Une autre mise en place d’un système de marqueurs microsémantiques est celle de Paul Guiraud et de ses sèmes [21]. La tâche est plus audacieuse, puisqu’il s’agit de la constitution d’un système de primitives pouvant couvrir toutes les significations. Cette démarche prend un caractère gênant quand l’auteur entreprend de compter les sèmes, et d’extraire une loi numérique liant le nombre de sèmes attribués à une entrée lexicale au nombre de syllabes que celle-ci contient, démontrant ainsi la loi de Zipf (les mots les plus courts sont les plus polysémiques). Ainsi, répondant à un principe structuraliste classique, les sèmes sont bien utilisés pour distinguer différentes unités sémantiques, mais exclusivement pour résoudre les problèmes de polysémie. C’est-à-dire que les unités que l’on souhaite distinguer n’ont pas de proximité interprétative, où la prépondérance du global empêche justement le rapprochements de significations disparates dont le seul point commun est celui de la forme. De plus, dans l’hypothèse d’une effective description par ce moyen de l’ensemble des significations des unités lexicales, leur assemblage et mise en cohésion au niveau d’un énoncé atteint des complexités opératoires exponentielles. La sémantique interprétative, qui elle aussi met en place un système de description reposant sur des sèmes, permet avant tout de préciser le rôle de ceux-ci dans un objectif interprétatif. Elle s’ancre bien dans un paradigme différentiel, mais encore doit-elle bien construire cette notion de différence.

Relations entre les différents types de sèmes

   Nous allons ici nous contenter d’un simple schéma afin de regrouper les différents types de sèmes que nous avons répertoriés. L’exemple traduit une interprétation reconnue du titre du roman de Stendhal, «Le rouge et le noir», comme métaphore colorée des aspirations carriéristes du héros. La description nécessite donc deux taxèmes, //couleur// et //carrière//, contenant chacun deux sémèmes, entre lesquels se mettent en place des relations de spécificité, généricité, inhérence et afférence (voir figure 2.6, inspirée de [49] p. 54, pour laquelle le signe | représente la relation d’incompatibilité entre sèmes, et = celle d’identité). Le problème se pose en fait quand on cherche à attribuer un statut spécifique ou générique aux sèmes afférents. Dans l’exemple précédent, /carrière/ est générique afférent pour ’rouge’, alors que /armée/ est spécifique afférent. Faut-il en conclure que le statut des sèmes afférents dépend directement du statut que possède ce sème dans ses occurrences inhérentes ? Sans doute, mais alors, y a-t-il seulement une justification pratique de ces statuts rapportés ? Dans le cas cité, /carrière/ apparaît effectivement dans les deux sémèmes du taxème des couleurs, mais si l’on étend aisément ce dernier, en y rajoutant les sémèmes ’jaune’ et ’violet’, il est peu probable que l’on repère une afférence carriériste sur ces deux notions. Donc, le sème afférent ne joue guère de rôle générique stricto sensu dans ce taxème, puisqu’il n’a pas de couverture suffisante pour cela. Cette constatation, ajoutée au fait que la notion d’afférence ne permet pas toujours  d’expliciter clairement son origine, nous conduira dans notre formalisation à différencier simplement les sèmes spécifiques et génériques (inhérents par défaut), des sèmes afférents. De plus, puisque nous avons vu que la forme du sème afférent était en fait, du moins dans le cas des afférences de forte stabilité, celle de la lexie du sémème-source, nous pourrons dans ces cas précis nous passer de l’expression directe de la relation d’afférence elle-même. Exprimer la métaphore carriériste du titre de Stendhal peut se faire par la simple expression des trois sèmes afférents, sans avoir à exprimer directement le taxème qui les possède comme inhérents. Enfin, nous rappellerons ici une autre origine des sèmes afférents, de teneur purement locale. Les cas concernés sont entre autres les énumérations ou les coordinations syntaxiques. Si nous reprenons le taxème des gourmandises cité précédemment, il est utilisé dans le cadre d’une énumération : «…du café, du chocolat, du sucre, du poivre en grains, du sel fin, de la confiture, un sac de cassonnade, cinq morues sèches, de l’estoquefiche». La notion de gourmandise couvre à un niveau dialectal une sous-partie seulement des sémèmes énumérés. Cependant, l’unité syntaxique qu’est l’énumération semble induire une unité sémantique traduisible par des sèmes communs (ce que nous ne pourrons bientôt plus nous priver de nommer une isotopie), d’où la solution pratique d’attribuer le sème /gourmandise/ à ‘morue’, avec le statut de sème afférent. L’interprétant de cette afférence est donc syntaxique, et la relation va du taxème repéré via l’énumération vers un sémème de cette même énumération. C’est donc une afférence relevant de ce que nous pouvons appeler une norme locale, ou textuelle. L’expression formelle de la relation est donc la suivante : d’un taxème vers un sémème. L’expression du sème afférent est donc le sème microgénérique initial, et non un sémème. Ainsi, la multiplicité des formes initiales des sèmes afférents nous conduira à ne pas rechercher une trop grande systématicité dans l’expression des relations d’afférence.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Problématique au sein du Traitement Automatique de la Langue Naturelle  
1 Introduction
2 Place de la syntaxe dans le TALN
2.1 Prédominance de la syntaxe dans le TALN
2.2 Syntaxe linguistique et syntaxe formelle
2.3 La syntaxe pour la sémantique
2.4 Premier principe
3 De la nature du formalisme sémantique 
3.1 Langage et information
3.2 Sens situé et interprétation
3.3 L’autre sémantique
3.4 Deuxième principe
4 Le texte, l’homme et la machine 
4.1 Coopération Homme / Machine
4.2 Informatique et interprétation
4.3 Quelles applications ?
5 Conclusion
2 Une approche linguistique du TALN : La Sémantique Interprétative
1 Approche structuraliste et herméneutique
1.1 La lignée structuraliste, le problème de l’identité
1.2 Le problème du global et du local. L’alternative herméneutique
1.3 La sémantique du local
1.3.1 Diverses possibilités
1.3.2 Exemples d’utilisation de la microsémantique
1.3.3 La microsémantique différentielle
1.3.4 Les sèmes de F. Rastier
1.4 Sèmes et informatique
2 Vers une formalisation de l’interprétation 
2.1 Les phénomènes à prendre en compte
2.2 Le processus interprétatif
2.3 La notion d’interprétant et le problème de la norme
3 Concepts et outils de base 
3.1 Les sémèmes
3.1.1 Leur forme : la lexie
3.1.2 Signifiant ou signifié ?
3.2 Limiter les éléments distinctifs : classes et oppositions
3.3 Taxèmes : classes minimales
3.3.1 Justifications des taxèmes
3.3.2 Le taxème comme focalisation de l’interprétation
3.3.3 Taxème et sème micro-générique
3.4 Les sèmes spécifiques : de la différence à l’opposition
3.4.1 Forme des sèmes spécifiques
3.5 Le taxème comme typologie des sèmes : l’inhérence et l’afférence
3.5.1 Actualisation et virtualisation
3.5.2 Relations entre les différents types de sèmes
3.5.3 Pour en finir avec l’afférence
3.6 Domaines : vers la référence
3.7 Dimensions : une porte vers les effets métaphoriques
4 Globaliser l’interprétation : les isotopies et leurs présomptions 
4.1 Deux façons de voir l’isotopie
4.1.1 L’isotopie comme constat
4.1.2 L’isotopie comme processus : de la présomption à la validation
4.2 L’isotopie approfondie
4.2.1 Syntagmatique et paradigmatique
4.2.2 Isotopie et niveaux sémantiques
4.2.3 Caractérisation d’une isotopie
4.2.4 Caractérisation de plusieurs isotopies
4.3 Remaniement de la notion
4.3.1 Isotopie et ordre syntagmatique
4.3.2 Isotopie et ordre paradigmatique
4.3.3 Le cas des isotopies spécifiques
4.3.4 Isotopie et processus
5 Conclusion 
3 Description formelle de la structure sémantique 
1 Les sémèmes
2 Les taxèmes 
3 Les spécèmes 
3.1 Les spécèmes en général
3.2 Spécèmes et graphes d’opposition
4 Les sèmes 
5 Isotopies
5.1 Définition
5.2 Réflexions sur la fonction I
5.3 Justification des principes
5.4 Contraintes sur les composantes d’une isotopie
5.4.1 Spécèmes – partie spécifique
5.4.2 Taxèmes – Partie générique
5.4.3 Sémèmes – Partie afférente
6 Les relations entre entités
6.1 Notations
6.2 Identité et différence définitoires
6.3 Propagation de l’identité des sémèmes
6.4 Propagation de l’identité des sèmes
6.5 Compatibilités entre S-identité et SE-identité
6.5.1 Taxèmes
6.5.2 Spécèmes
6.5.3 Isotopies
6.5.4 Sémèmes
7 Vers une forme manipulable de l’isotopie
7.1 Projection de l’isotopie sur S
7.2 Introduction de la notion d’épisémème
7.3 Définition de l’ordre sur E
7.4 Ordres induits
7.4.1 Ordre sur S
7.4.2 Ordre des isotopies
4 Évolution de la structure 
1 Vision générale du protocole
1.1 Première étape : pré-interprétation
1.2 Seconde étape : établissement des classes
1.3 Spécification des classes
1.4 Modifications ultérieures
2 Outils formels de manipulation 
2.1 Opérateurs d’ajout et de retrait
2.1.1 Cas des épisémèmes
2.1.2 Ajout et retrait d’un sémème
2.1.3 Ajout et retrait d’un spécème
2.1.4 Ajout et retrait d’un taxème
2.1.5 Ajout et retrait d’un sème
2.2 Instauration et suppression des relations entre entités
2.2.1 Cas des épisémèmes
2.2.2 Sémème – taxème
2.2.3 Sémème – spécème
2.2.4 Sémème – sème
2.2.5 Taxème – sème
2.2.6 Spécème – sème
2.3 Opérateurs évolués
2.3.1 Activation d’un spécème
2.3.2 Cas particulier pour l’identité des sémèmes
2.3.3 Complétude du graphe d’opposition d’un taxème
2.3.4 Contrainte de l’afférence pure
2.4 Conclusion
3 La pré-interprétation
3.1 Pré-isotopies
3.2 De l’épisémème au sémème
3.3 Parcours interprétatif
4 De la pré-interprétation à l’interprétation
4.1 Point de départ
4.2 Identification des sémèmes
4.3 Partie générique
4.3.1 Création des taxèmes et isotopies associées
4.3.2 Création des domaines et isotopies associées
4.3.3 Gestion des contraintes sur T
4.3.4 Résultat du traitement générique de la préinterprétation
4.4 Partie spécifique
4.4.1 Création de SP
4.4.2 Traitement des caractérisations positives
4.4.3 Traitement de la complétude faible
4.5 Conclusion
5 Modification locales
5.1 Repérage d’un sémème et placement dans un taxème
5.2 Élimination d’un sémème
5.3 Création d’un nouveau taxème
5.4 Identification d’un nouveau sème spécifique
5.5 Déclaration d’une afférence
6 Modifications globales 
6.1 Généricisation d’une isotopie spécifique : l’opérateur igen
6.1.1 Premier cas : pas d’isotaxémie
6.1.2 Deuxième cas : avec isotaxémie
6.1.3 Récapitulatif
6.1.4 Un exemple pour clarifier
6.2 Généricisation d’une isotopie quelconque : igen étendu
6.2.1 Cas d’une isotopie déjà générique
6.2.2 Cas d’une isotopie afférente
6.3 Généricisation de plusieurs isotopies
6.4 Spécification d’une isotopie générique : le nonopérateur ispec
7 Conclusion 
7.1 Relations et transformations intra-structurelles
7.2 Relations et transformations inter-structurelles
5 Une application : PASTEL 
1 Codage de la structure 
1.1 Sémèmes
1.2 Taxèmes
1.3 Spécèmes
1.4 Isotopies
1.5 Sèmes
1.6 Pré-isotopies
2 Organisation de l’interface 
2.1 Fenêtre principale
2.2 Fenêtres des pré-isotopies
2.3 Fenêtre des taxèmes
2.4 Fenêtre des sémèmes
2.5 Fenêtre des isotopies
2.6 Qualification de l’analyse
3 Conclusion et perspectives sur PASTEL .
1 Concessions passées et futures sur les principes initiaux
2 Aspects formels de l’approche
3 Autres aspects de la sémantique interprétative
4 Ouvertures applicatives
Bibliographie

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *