Mécanismes de prise de décision dans des environnements conflictuels

Paramètres du DDM et processus cognitifs

    Le DDM contient quatre paramètres principaux, chacun étant relié à une composante de traitement (pour une validation empirique de l’interprétation de ces quatre paramètres, voir Voss, Rothermund, & Voss, 2004). Comme expliqué précédemment, le taux de dérive (v) représente l’incrément moyen d’évidence supportant le choix correct. Il est donc déterminé par les propriétés physiques du stimulus: un stimulus fortement bruité (par exemple un feu rouge dans une condition de brouillard intense ou un faible pourcentage de cohérence dans la tâche RDK) provoquera un taux de dérive beaucoup plus faible par rapport à un stimulus peu bruité (un feu rouge dans une condition de beau temps ou un pourcentage de cohérence élevé dans la tâche RDK; e.g., Ratcliff & McKoon, 2008). Dans des extensions récentes du DDM que nous développerons plus tard, le taux de dérive est aussi régulé par des paramètres attentionnels (Hübner, Steinhauser, & Lehle, 2010; White, Ratcliff, & Starns, 2011). Les seuils ±a régulent l’échange vitesse/précision (e.g., Ratcliff & Smith, 2004). Pour un taux de dérive donné, plus la valeur du paramètre a est élevée, plus les réponses sont lentes et précises. Inversement, plus a diminue, plus les réponses sont rapides et la probabilité d’erreur augmente. Le point de départ du processus d’accumulation z permet de modéliser un biais potentiel en faveur d’une des deux réponses. Enfin, les latences non-décisionnelles Ter sont supposées comprendre un temps d’encodage sensoriel Te et un temps d’exécution motrice Tr (Ratcliff & McKoon, 2008). Dans la mesure où le DDM peut séparer et quantifier toutes ces composantes de traitement, il peut être utilisé pour analyser et expliquer les effets de manipulations expérimentales. Il peut aussi être utilisé dans une variété de domaines de recherche, par exemple pour étudier les effets de l’âge (e.g., Ratcliff, Thapar, Gomez, & McKoon, 2004; Ratcliff, Thapar, & McKoon, 2001, 2003) ou de psychopathologies (e.g., White, Ratcliff, Vasey, & McKoon, 2010b) sur les processus décisionnels. Dans la mesure où le taux d’accumulation v est positif, la plupart des trajectoires aboutissent à une décision correcte (seuil +a; une de ces trajectoires correctes est représentée en vert). A cause de la composante stochastique de l’équation différentielle (8), certaines trajectoires génèrent une erreur (seuil -a; une de ces trajectoires incorrectes est représentée en bleu). B) Histogramme des temps de décision prédits par le DDM pour les essais corrects et incorrects. Le modèle a été simulé 40000 fois avec les paramètres v = .25, a = .06, s = .01, dt = 0.001s. Le coefficient d’asymétrie des distributions prédites est positif (i.e., les distributions sont décalées à gauche de leur médiane et leur queue est étalée vers la droite). Les temps de décision sont similaires pour les réponses correctes et les erreurs. Si les réponses sont équiprobables, les paramètres du DDM peuvent être obtenus en ajustant les équations (11) et (12) à un jeu de données comportementales. Par exemple, Palmer, Huk et Shadlen (2005) ont simultanément ajusté ces équations aux fonctions psychométriques et chronométriques obtenues dans la version à réponse libre de la tâche RDK chez l’homme (Figure 5A). La fonction psychométrique relie la précision des réponses au pourcentage de cohérence, la fonction chronométrique relie le TR moyen au pourcentage de cohérence. Dans cette tâche, le taux de dérive v est le seul paramètre plausiblement affecté par la variation du pourcentage de cohérence. Cette unique variation paramétrique explique les changements de TR moyen et TE à travers les conditions de cohérence (Palmer et al., 2005). Il est également possible d’ajuster la fonction chronométrique et utiliser les paramètres de meilleur ajustement pour prédire la fonction psychométrique (e.g., Kiani, Corthell, & Shadlen, 2014).

DDM et distributions de TR

   Au delà des TR et TE, le DDM prédit la forme des distributions de TR pour les essais corrects et les erreurs (Ratcliff, 1978; Ratcliff & McKoon, 2008). Pour faciliter lavisualisation et mieux apprécier la qualité d’ajustement du DDM à toutes ces variables comportementales, celles-ci sont typiquement représentées sous la forme d’une fonction quantile-probabilité (quantile probability function QPF; Ratcliff, 2001). Afin d’illustrer ce type de représentation des données, considérons la performance comportementale d’un sujet dans deux conditions expérimentales d’une tâche de TR de choix, une condition facile (associée à une proportion de réponses correctes p et réponses incorrectes 1-p) et une condition difficile (associée à une proportion de réponses correctes q et réponses incorrectes 1-q). Ces conditions sont associées aux distributions de TR représentées dans la Figure 7A. Toutes les variables dépendantes sont résumées dans les QPFs représentées dans la Figure 7B (points noirs). La forme de chaque distribution de TR est résumée par cinq quantiles délimitant respectivement 10%, 30%, 50%, 70% et 90% des TR de la distribution (axe y). Ces quantiles sont alignés sur la proportion de réponses associées (axe x). En superposant les QPFs prédites par le DDM (traits verts) sur celles issues des données observées, il est possible d’apprécier la qualité d’ajustement des différentes conditions expérimentales par le modèle. Le défi pour le DDM est d’expliquer comment toutes les variables dépendantes résumées dans les QPFs varient conjointement en fonction des manipulations expérimentales. Les deux principaux types de manipulation expérimentale sont les manipulations inter- et intra-sujets. Les manipulations intra-sujets sont beaucoup plus contraignantes pour le DDM dans la mesure où elles n’autorisent pas d’ajustements stratégiques des seuils décisionnels (le sujet ne connaît pas la nature de l’essai a priori). Les manipulations intra-sujets de discrimination perceptive, en particulier, apparaissent comme un vrai défi: le modèle doit capturer les modulations conjointes des TE et des distributions de TR avec un seuil paramètre (le taux de dérive) pouvant varier en fonction de la difficulté perceptive. Lorsque celle-ci augmente, l’augmentation des moyennes des TR corrects provient essentiellement de l’augmentation de la queue droite des distributions (i.e., les réponses les plus lentes), la queue gauche étant beaucoup moins affectée. Les TR des erreurs sont généralement plus lents que les essais corrects. C’est le cas par exemple dans la version à réponse libre de la tâche RDK, à la fois chez le singe (Shadlen & Kiani, 2013) et l’homme (Figure 8A; Ratcliff & McKoon, 2008). Cette différence dans les distributions de TR entre essais corrects et erreurs réfute la forme élémentaire du DDM développée jusqu’ici. Rappelons que le modèle prédit des TR identiques pour les deux types de réponse (Figure 4B et Figure 8B). Cet échec a un conduit à un rejet du DDM pendant de nombreuses années, et peu de pénétration du modèle dans les neurosciences (Shadlen & Kiani, 2013). Des solutions ont pourtant été proposées très tôt dans le développement du modèle (Laming, 1968; Ratcliff, 1978), solutions qui ont abouti à la version dite “complète” du DDM (full DDM; Ratcliff & Rouder, 1998).

Accumulateurs neuronaux dans la tâche RDK

   Le choix du site d’enregistrement de neurones susceptibles d’accumuler de l’évidence sensorielle dans la tâche RDK est soumis à deux contraintes importantes (Shadlen & Newsome, 1996). (i) Les neurones de ce site doivent montrer une activation persistante dans le temps qui n’est ni purement sensorielle, ni purement motrice. (ii) Ces neurones doivent recevoir des inputs de l’aire MT, et envoyer des projections sur les structures cérébrales qui contrôlent les mouvements oculaires (champs oculomoteurs frontaux, frontal eye fields FEF; colliculi supérieurs, superior colliculi SC). L’aire intrapariétale latérale (lateral intraparietal area LIP) semble remplir ces conditions. LIP montre des réponses neuronales persistantes lorsqu’un animal doit mémoriser la localisation d’une cible vers laquelle il devra émettre une saccade ultérieurement (tâche de saccades guidées par la mémoire; e.g., Gnadt & Andersen, 1988). De plus, LIP reçoit des inputs de MT et envoie des projections vers FEF et SC (e.g., Blatt, Andersen, & Stoner, 1990; Fries, 1984; Lewis & Van Essen, 2000). Roitman et Shadlen (2002) ont enregistré l’activité de neurones dans LIP alors que les singes effectuaient les deux versions de la tâche RDK. Un essai commençait avec l’apparition d’un point de fixation central. Après un délai variable sélectionné à partir d’une distribution exponentielle de moyenne M = 700 ms, le kinématogramme de points apparaissait. Six niveaux de cohérence étaient introduits (0%, 3.2%, 6.4%, 12.8%, 25.6%, 51.2%). Dans la version à réponse libre, les singes devaient produire une saccade vers la cible appropriée dès que leur décision était prise. Dans la version interrogative, le stimulus était présenté pendant 1 s. Les singes devaient communiquer leur décision lors de l’extinction du point de fixation central, après un délai variable de 500 ms ou 1500 ms suivant l’extinction du stimulus. Ils étaient récompensés pour les choix corrects. La Figure 11A montre les réponses moyennées de 54 neurones LIP dans la version à réponse libre pour des choix corrects. L’emplacement des deux cibles a été choisi de telle sorte qu’une cible était dans le champ de réponse (response field) 12 des neurones étudiés, l’autre cible se situant dans l’hémichamp opposé, symétriquement au point de fixation central. Alignées sur l’apparition du stimulus, les réponses neuronales montrent initialement une brève diminution suivie par une augmentation, ce pattern étant indépendant du pourcentage de cohérence. A partir d’environ 220 ms, elles divergent en fonction de la cohérence et de la position de la cible. Lorsque la cible choisie se situe dans le champ de réponse des neurones (traits pleins), les taux de décharge moyens augmentent graduellement et proportionnellement avec le niveau de cohérence, formant des rampes. Lorsque la cible choisie se situe en dehors du champ de réponse des neurones (traits pointillés), les taux de décharge moyens tendent à diminuer, et cette diminution est d’autant plus importante que le pourcentage de cohérence augmente. Alignés sur l’initiation de la saccade, les traits pleins témoignent d’une activité neuronale stéréotypée, avec l’atteinte d’un même seuil (~68 potentiels d’action/seconde) quelque soit le niveau de cohérence ~50 ms avant l’initiation de la saccade. Ces données sont en accord avec les principes de base des modèles de décision, à savoir une accumulation vers un seuil associé à un choix, le taux de dérive de cette accumulation étant déterminé par la qualité de l’évidence sensorielle. Une inspection plus profonde de ces données permet de contraindre les différents modèles introduits dans la section précédente.

E pluribus unum

   L’ensemble des travaux en neuroscience et psychologie sur la prise de décision perceptive soulève un problème fondamental. Comment l’intégration d’évidence réalisée par des milliers de neurones s’articule pour produire une distribution de TR pouvant être prédite par un modèle contenant un seul accumulateur? Cette question contient deux corollaires relatifs aux deux paramètres fondamentaux des modèles, le taux de dérive et le seuil décisionnel. (i) Comment les taux de dérive de chaque neurone se coordonnent-ils au sein de l’ensemble neuronal? Une corrélation parfaite n’est pas plausible, tout comme une absence de corrélation (Cohen & Kohn, 2011). (ii) Comment le seuil de décision est-il implémenté au sein de l’ensemble neuronal? Zandbelt, Purcell, Palmeri, Logan et Schall (2014) ont récemment adressé ces questions à l’aide de simulations d’un réseau d’accumulateurs (modèle “e pluribus unum”). Ces chercheurs ont déterminé comment les distributions de TR étaient influencées par les paramètres suivant: le nombre d’accumulateurs n (1 ≤ n ≤ 1000), la corrélation des taux de dérive des accumulateurs (0.0 ≤ r ≤ 1.0), et le type de règle de décision appliqué à l’ensemble neuronal. Pour ce dernier paramètre, deux options étaient envisagées: chaque accumulateur neuronal projette vers une entité évaluant la proportion d’accumulateurs ayant franchit le seuil décisionnel (mécanisme de “polling”), ou le taux de décharge moyen de l’ensemble neuronal (mécanisme de “pooling”). Lorsque cette entité enregistre une proportion critique pn d’accumulateurs ayant franchit un seuil ou un taux de décharge moyen critique, une réponse est déclenchée. Différents types d’accumulation ont été testés (DDM, LBA et LCA), conduisant à des conclusions similaires. Premièrement, un accumulateur unique et une assemblée d’accumulateurs produisent des distributions de TR virtuellement identiques si les taux de dérive partagent une corrélation r ≥ 0.6 combinée à une règle de décision intermédiaire (10% ≤ pn ≤ 90%). Deuxièmement, la distribution de TR prédite par un ensemble neuronal n ≥ 10 est identique si r ≥ 0.3 et 10% ≤ pn ≤ 90%. Enfin, le seuil décisionnel moyenné à travers les essais ART d’un neurone accumulateur sélectionné au hasard dans l’assemblée est constant à condition que r ≥ 0.3 et pn ≥ 1/n. Avec un mécanisme de pooling, l’invariance de ART n’est jamais violée. Ce dernier résultat explique l’invariance de ART observée par les enregistrements unitaires (e.g., Hanes & Schall, 1996; Roitman & Shadlen, 2002). Ces simulations démontrent que les distributions de TR prédites par une assemblée d’accumulateurs neuronaux sont invariantes avec la taille de l’assemblée sauf si la corrélation r entre les taux de dérive des neurones est inférieure à 0.6 et que la règle de décision est déterminée par des conditions extrêmes (e.g., pn ≥ 90%). Bien que la valeur de r paraisse élevée, elle pourrait naturellement émerger des inputs communs et des connections récurrentes entre les accumulateurs (Cohen & Kohn, 2011). Il est toutefois impossible de la vérifier empiriquement avec les moyens techniques actuels. Ces données offrent ainsi un éclairage important sur un problème d’échelle largement ignoré, et renforcent le lien entre modèles d’accumulation et neurophysiologie. On notera toutefois que les simulations de Zandbelt et al (2014) ne concernent que le TR. Nul ne sait à ce jour si leurs conclusions sont valides pour la précision des réponses.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

1 Introduction générale
1.1 De la perception à la décision 
1.1.1 Perception du mouvement et enregistrements unitaires chez le singe
1.1.2 Evidence sensorielle et théorie de la détection du signal
1.2 Mécanismes d’accumulation d’évidence
1.2.1 Principes statistiques de l’analyse séquentielle
1.2.2 Modèle de diffusion
1.2.3 Accumulateurs neuronaux dans la tâche RDK
1.2.4 Accumulateurs neuronaux et logarithme du ratio de vraisemblance
1.2.5 Accumulateurs neuronaux et confiance en la décision
1.2.6 Accumulation d’évidence et encodage sensoriel
1.2.7 Accumulation d’évidence et système moteur
1.3 Généralisation au delà du RDK
1.3.1 Discrimination vibrotactile
1.3.2 Recherche visuelle
1.3.3 E pluribus unum
1.3.4 Mécanismes neuronaux d’accumulation d’évidence chez l’homme
1.4 Décisions perceptives et contrôle cognitif 
1.4.1 Paradigme du conflit et modèles de double route
1.4.2 Faiblesses et extensions du modèle de diffusion
1.4.3 Questions scientifiques
2 Conflict tasks and the diffusion framework: Insight in model constraints based on psychological laws
3 Using covert response activation to test latent assumptions of formal decision-making models in humans
4 Exploring decision-making dynamics in conflict tasks: a modelbased cognitive neuroscience study in humans
5 Discussion générale
5.1 Vers une nouvelle taxonomie des tâches de conflit inspirée par le couplage entre modèles computationnels et neurophysiologie
5.1.1 Tâche de Simon
5.1.2 Tâche d’Eriksen flanker
5.1.3 Autres tâches de conflit
5.2 Prise de décision et exécution motrice: une histoire de confiance?
5.2.1 Transformation continue, transmission hybride
5.2.2 Mécanisme(s) régulant la transmission hybride
5.3 Mimétisme entre modèles computationnels: le rôle de la neurophysiologie
5.4 Mécanismes neuronaux d’accumulation d’évidence: un artefact de moyennage?
5.5 Perspectives, travaux futurs et applications
5.5.1 N-40 et CPP: autres marqueurs électrophysiologiques du processus décisionnel?
5.5.2 Application des nouvelles extensions du DDM au développement
5.5.3 Application des nouvelles extensions du DDM à la clinique

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *