La mise en place d’un dispositif hybride de positionnement à GEM

Les acteurs

Le personnel

GEM est certes très complexe au niveau du nombre de programmes et des niveaux d’études.
Il est toutefois possible de tracer les grandes lignes de sa hiérarchie. Depuis 2011, Monsieur Loïc Roche est directeur de GEM. Par rapport aux langues étrangères, Monsieur Abdelkrim Belkheiri est à la tête du département des langues vivantes et cultures étrangères (désormais, LVCE). Quant à ma tutrice de stage, Madame Carole Gally, elle coordonne l’organisation de toutes les langues étrangères à GEM et gère celle des cours de FLE à GGSB.
Nous pouvons compter une quinzaine de professeurs de FLE à l’école. Il s’agit en général de professeurs expérimentés et ayant enseigné à l’étranger avant de revenir en France pour poursuivre leur carrière. Ils sont de même diplômés d’une maîtrise ou d’un master FLE et, parfois, un Phd . La majorité travaille à temps partiel et la plupart assurent des cours dans d’autres établissements à Grenoble, notamment au CUEF ou à l’Alliance Française de Grenoble. Enfin, hormis deux enseignants, les professeurs sont natifs.

Le public d’apprenants

Sur une année scolaire, environ 6 500 étudiants étudient à GEM dont 2 500 étrangers. Ces derniers représentent près de 120 nationalités différentes. De même, la diversité linguistique du public d’apprenants est remarquable ; 20 langues étaient, en effet, dénombrées lors de la rentrée de janvier 2015. Nous pouvons citer, entre autres, la plupart des langues romanes (mis à part le roumain), le chinois, le hindi, le néerlandais, l’allemand, le serbe, l’anglais et le kannada.
Étant donné cette diversité des langues et des nationalités, il est important de noter la spécificité du public qui suit les cours de FLE à GEM. En effet, il s’agit d’un public plurilingue car ils parlent tous une langue maternelle et l’anglais, et dont l’apprentissage du français avant d’arriver à Grenoble varie. Par là-même, certains étudiaient le français juste avant d’arriver à Grenoble, certains l’ont étudié auparavant avant d’arrêter pendant un certain temps, et d’autres n’ont jamais fait d’études de français.
Toujours concernant le public d’apprenants, il est important d’évoquer la différence du nombre d’étudiants entre ESC et GGSB. De fait, les étudiants de français à GGSB sont plus nombreux qu’à ESC, ce qui fait que les premiers constituent le groupe principal auquel je m’adresse dans le cadre de mon projet. Cela dit, les étudiants à ESC sont également à prendre en compte, mais leurs caractéristiques risquent de moins influencer la mission du stage. Il s’agit donc de prendre en compte ces faits afin d’être familiarisé avec les caractéristiques du public et de savoir sur quel contexte je dois me concentrer pour que mon travail y soit le mieux adapté.
Enfin, nous remarquons une différence du nombre d’étudiants entre la rentrée de septembre et celle de janvier. En septembre, le département de FLE accueille environ 300 nouveaux étudiants, tandis qu’en janvier, ce chiffre n’atteint qu’environ quatre-vingt-dix. De ce fait, la rentrée de septembre représente un enjeu plus important pour le département quant à l’accueil et la gestion des nouveaux étudiants, notamment leurs placements dans les différents groupes de niveau. Quant aux motivations, aux besoins, aux objectifs et aux attentes des apprenants, ceux-ci varient selon le programme. Pour les étudiants à ESC, nous pouvons citer l’obtention du Diplôme d’Études Supérieures en Management (DESMA), qui est un diplôme de niveau master, et donc équivalent à un bac + 5. Afin d’obtenir ce diplôme, les candidats doivent être capables de réaliser une présentation de vingt minutes en français sur un sujet d’actualité. Ils ont cinq semaines pour préparer cet exposé. Ils doivent évidemment aussi valider les autres cours du cursus. Quant aux étudiants à GGSB, ils doivent réussir l’examen final qui évalue les quatre compétences langagières principales : compréhension orale et écrite, et production orale et écrite. La note globale pour le cours est prise en compte lors du calcul de la moyenne. La réussite des cours de français représente ainsi un enjeu important pour les apprenants à ESC et à GGSB.
Quant aux cours de français, bien que ce dernier ne soit pas leur matière principale, les étudiants se montrent généralement motivés, ce que j’ai appris auprès des professeurs. D’ailleurs, même s’ils ne possèdent pas les compétences requises pour changer de niveau, ils souhaitent souvent changer de groupe de niveau afin de progresser plus rapidement en français. Cela met en évidence de nouveau leur motivation pour apprendre cette langue. La raison de cette grande volonté vient sans doute de leur envie de profiter du séjour en France pour découvrir la culture et la langue, et pour pouvoir se débrouiller aisément dans la sphère publique. De plus, étant donné le coût de l’école, qui peut aller de 9.000 et 25.000 euros par an, l’on peut croire que les étudiants souhaitent tirer le plus de profit possible de leurs études à GEM.
Enfin, étant donné que ce sont des étudiants qui ont choisi de venir étudier à Grenoble et donc en France, il n’est pas surprenant que beaucoup choisissent le français comme langue étrangère. Il s’agit en effet d’un choix logique d’un point de vue pratique, car cette langue leur permettra de profiter au mieux de leur séjour à Grenoble.

La commande

Ce stage, effectué dans le cadre du master 2 FLE professionnel, est basé sur un projet d’ingénierie, c’est-à-dire une mission de conception d’un produit pédagogique pour l’institution d’accueil. Ainsi, une commande de la part de GEM, et plus particulièrement de Madame Gally et du département du FLE, est le socle de cette expérience. C’est en effet grâce à cette commande que j’ai pu organiser mon travail pour satisfaire un besoin de GEM en élaborant un outil pédagogique dont se servira l’école. En l’occurrence, il s’agit de la conception d’un dispositif hybride de positionnement en français.
Dans cette partie, j’évoquerai, dans un premier temps, l’origine de la commande.
J’expliciterai ensuite la première formulation de celle-ci. Enfin, l’explication de la commande finale suivra.

L’origine de la commande

Cette commande vient principalement de Madame Gally qui, au cours des dernières années, a constaté des problèmes avec le test existant au niveau du fond, de la forme, de la passation et de la notation. De fait, le test actuel nécessite une amélioration, d’une part pour le rendre davantage valide et fiable et, d’autre part, pour réduire son coût pour l’école. En effet, la passation et la correction du test actuel représentent un travail pour le département de FLE à la fois fastidieux et onéreux. Il était par ailleurs nécessaire de consacrer à ces deux tâches un temps important étant donné le nombre d’étudiants accueillis dans le département de FLE, surtout à la rentrée de septembre. Faire passer un test oral, ainsi qu’un test écrit, à près de 300 étudiants fait l’objet d’un travail véritablement chronophage et, de ce fait, extrêmement dispendieux pour l’école. En effet, le nombre d’heures nécessaires pour faire passer et pour corriger le test en septembre s’élève jusqu’à 150 heures rémunérées à vingt-cinq euros chacune, et en janvier ce chiffre monte à quarante heures rémunérées.
Le test actuel coûte donc environ 4 700 euros par an à l’école, sans compter le coût des photocopies nécessaires. En prenant conscience de ces chiffres, nous ne nous étonnons pas que la motivation principale pour me confier cette mission soit la réduction des heures nécessaires à ce travail, et donc le coût de ce test pour GEM.
Cependant, ce ne sont pas que la passation et la correction qui ont motivé la commande.
Madame Gally a également noté que le test ne fournissait pas toujours une image juste du niveau de l’étudiant, ce qui provoquait des changements de groupe parfois problématiques pour le département . En effectuant un changement de niveau, de fait, il faut trouver un groupe qui n ’est pas complet et dans lequel l’étudiant puisse être intégré, ce qui n’est pas toujours évident. Ainsi, la conception d’un nouveau test vise également la réduction des changements de groupes. Il est ici question du fond, c’est-à-dire de sa pertinence au niveau linguistique et thématique, et de la forme du test, à savoir son organisation, les consignes et la rédaction d ’items. Les questions qui se posent sont, entre autres, le contenu linguistique et les thématiques correspondent-ils aux niveaux donnés ? Est-ce que le test évalue ce qu’il est censé évaluer en restant fidèle au niveau ciblé ?
L’ensemble des professeurs se dit plutôt satisfaits du test écrit, bien que certains aient pu ponctuellement évoquer quelques lacunes . De même, l’école n’a jamais interpellé le département de français par rapport au coût du test. Aussi pouvons-nous conclure que la commande est venue principalement de Madame Gally. Pour clore la présentation de la commande, il est important de souligner que celle-ci concerne à la fois une question d’ingénierie politique (réduire le coût du test en diminuant le nombre d’heures nécessaire) et pédagogique (à savoir la conception d’un test de positionnement en assurant l’utilité pour l’institution).

La première formulation de la commande

L’articulation de la commande a été définie suite à une série de négociations entre Madame Gally et moi-même. Après avoir évoqué les éventuelles missions à entreprendre, nous nous sommes mis d’accord sur le projet suivant : la conception et la mise en ligne d’un test de positionnement autocorrectif dont la passation se fait à distance, c’est-à-dire que les étudiants le passent chez eux, avant d’arriver à Grenoble. Je vise donc premièrement à réaliser une étude et une analyse du test qui existe actuellement afin de repérer ses points positifs et négatifs et, dans un deuxième temps, la conception d’un nouveau test de positionnement autocorrectif. Madame Gally m’a en outre accordé la liberté d’apporter au test n’importe quel changement jugé nécessaire pour l’améliorer. Elle a d’ailleurs précisé que des parties du test pouvaient être conservées, transformées, remplacées ou bien complètement supprimées.

Étape 1 : l’intention de l’évaluation

Tout d’abord, il est nécessaire de décider de l’intention de l’évaluation qui sera mise en place. Autrement dit, qu’est-ce que nous voulons tirer de l’évaluation ? À quoi sert-elle ? Les objectifs de l’évaluation varient selon plusieurs facteurs dont le moment où elle se déroule, ainsi que l’impact qu’elle produit sur l’étudiant, sur l’enseignant ou bien sur le cursus. Comme nous l’avons vu dans la partie 2 (2.2.) de ce mémoire, l’évaluation peut se réaliser pour évaluer le professeur et son enseignement, les acquis ou non des apprenants, le programme d’études ou l’institution. De même, l’évaluation peut se mettre en place pour attribuer une note aux étudiants ou pour déterminer le passage ou non à un niveau d’études supérieur.
Quelle que soit l’intention, ce qui est primordial à cette étape est que le formateur décide clairement de la finalité de l’évaluation avant de commencer à l’élaborer. Une telle décision est indispensable pour que l’examen soit adapté à la situation évaluative, et qu’il fournisse à l’enseignant des informations utiles pour lui et pour ses étudiants.

La praticabilité

Un facteur lié à l’évaluation est sa praticabilité. Appelé aussi « faisabilité », il s’agit de la facilité avec laquelle l’on fait passer et corrige une évaluation. En d’autres termes, pour que l’évaluation soit économique, il est important que le correcteur ne doive pas consacrer trop d’énergie ni de temps à la tâche, y compris au niveau de la conception de l’évaluation (Noël-Jothy & Sampsonis, 2006). En effet, la question de son coût entre en jeu puisqu’un examen exigeant trop de temps devient trop dispendieux pour l’institution.De même, Lussier & Turner (1995) expliquent que la faisabilité de l’examen relève de l’efficacité des instruments, c’est-à-dire du type de questions, de leurs formes et du dispositif à travers lequel on fait passer l’évaluation. Pour s’assurer de l’efficacité des instruments, il est important de penser au contexte et à l’objectif de l’épreuve.
Il faut par ailleurs que l’instrument soit facile à noter, ce qui est un autre élément de la praticabilité. L’exemple d’un exercice d’appariement met en évidence l’importance de cette caractéristique pour l’évaluateur. De fait, ce type d’item demande à l’apprenant de relier un élément de la colonne de gauche avec un élément de la colonne de droite. S’il se trompe, il doit barrer le trait qui les relie et en redessiner un nouveau, ce qui veut dire que l’évaluateur peut avoir des difficultés à repérer la vraie réponse et donc à corriger l’exercice. Ainsi, un test difficile à noter est une épreuve d’une mauvaise praticabilité.
Cependant, il n’est pas seulement question de la facilité pour l’évaluateur, mais également pour les apprenants. En effet, pour assurer la praticabilité d’une évaluation, il faut que les consignes soient claires, que la durée et la longueur soient cohérentes avec le contexte dans lequel s’insère le test et qu’il soit adapté au niveau prédéterminé. De plus, lorsque c’est possible, l’ajout d’exemples contribue également à une bonne praticabilité de l’évaluation (Noël-Jothy & Sampsonis, 2006).

L’équité

Comme la praticabilité, l’équité est l’une des caractéristiques de l’évaluation qui être prise en compte lorsque nous décidons de l’intention de l’épreuve. Cet aspect sous-entend une implication de la part du concepteur et de l’établissement dans les impacts de l’évaluation (McNamara, 2000).
L’institution, le créateur du test et les correcteurs sont en effet tous concernés par l’équité de l’évaluation.
En préservant l’équité de l’examen, il faut se demander si les candidats ont tous les mêmes chances de le réussir, si l’on a mis en place des conditions physiques et psychologiques favorables à tous, et si les conditions de l’examen sont identiques pour tous (Noël-Johny & Sampsonis, 2006). De plus, il est nécessaire que les apprenants soient informés des conditions de l’examen y compris du temps alloué, du nombre d’items et de l’impact de l’évaluation (ibid.). Autrement dit, il faut donner aux évalués toutes les informations relatives à l’examen.

Étape 2 : la mesure

Lors de cette étape, l’objectif est que l’examinateur recueille des données qui l’aident à porter un jugement lors de l’étape suivante. Il s’agit en effet de collecter des données, de les organiser en vue de faciliter les deux prochaines étapes de ce processus (Lussier, 1992). Cette étape nous renvoie aux théories de Hadji (1997), qui évoque la notion d’indicateurs ou d’indices.
Plus spécifiquement, ces données sont liées à ce que nous voulons mesurer. Par exemple, estce que nous nous intéressons à une performance ou à une compétence spécifique ? Pour obtenir ces données, il est possible de se servir de plusieurs outils évaluatifs dont l ’observation, l’autoévaluation, l’évaluation formelle ou informelle, ou bien le questionnement. En d’autres termes, il est possible d’évaluer de plusieurs points de vue afin d’avoir un échantillon de données représentatif des compétences de l’apprenant (Bonboir, 1972).
De plus, l’évaluateur peut se servir d’une grille d’évaluation afin de guider la mesure. D’après Lussier (1992), ainsi que d’autres chercheurs dans ce domaine (Huver & Springer, 2011 ; Tagliante, 2005 ; McNamara 2000), il est impératif que la mesure réponde à l’objectif de l’évaluation de départ et qu’elle soit en lien avec la prise de décision qui suivra. Autrement dit, il faut mesurer ce qu’on veut évaluer en fonction des objectifs d’apprentissage visés.
Une fois que nous avons ces informations, il faut les organiser en vue de leur interprétation.
De fait, il s’agit de regrouper ou de codifier les données en fonction des objectifs de l’examen, c’est à-dire ce que l’on veut évaluer, afin d’aboutir à une appréciation « brute » de l’évalué. Ensuite, l’évaluateur analyse les données pour en tirer d’éventuelles significations. D’après Lussier (1992), nous pouvons interpréter ces informations soit de manière normative en comparant les résultats des étudiants, soit de manière critériée en comparant les données à une grille d’évaluation conçue en amont de l’évaluation.

La validité

Une explication de l’évaluation en langue ne serait pas complète sans évoquer la notion de la validité, car cette notion est centrale dans le domaine d’évaluation en langues. D’ailleurs, certains chercheurs estiment que cet enjeu est primordial dans la conception d’un examen quel que soit son objectif (Lussier & Turner, 1995 ; Bonboir, 1972). Mothe (1975, p. 23) nous fournit une définition complète de la validité en expliquant que celle-ci est « …la qualité qui fait que l’épreuve mesure effectivement ce qu’elle est censée mesurer et non autre chose. C’est donc d’abord une qualité qui n’est pas absolue ni intrinsèque au test, mais relative à son objectif. » Ainsi pouvons-nous constater que la validité va au-delà de l’évaluation ellemême. Elle renvoie à la cohérence entre l’intention de l’examen et le contenu que l’on trouve dans l’évaluation. En somme, afin que l’instrument évaluatif soit valide, il est essentiel qu’il réponde à l’usage pour lequel il a été conçu, et qu’il y ait une cohérence entre ses finalités et les contenus développés (Lussier & Denis, 1995 ; Tagliante, 2005).
Il est également possible de distinguer différents types de validité. Il y a d’abord la validité faciale ou superficielle qui fait référence à la validité globale de l’évaluation. Est-ce que sa forme et son organisation sont pertinentes par rapport au contexte ? Est-ce que les items sont adaptés au type d’évaluation et à son objectif ? McNamara (2000) explique la validité faciale comme l’acceptabilité faciale de l’examen par ceux qui sont impliqués dans sa conception, sa passation et sa correction.
Ensuite, nous pouvons évoquer la validité du contenu qui s’applique aux détails de l’évaluation. Il s’agit de se demander si le contenu linguistique est adapté au niveau des apprenants, à la situation, aux objectifs et au contexte (Lussier & Turner, 1995 ; Bonboir, 1972). De même, « On dit d’un test qu’il a une validité de contenu si les items ou les tâches dont il est composé constituent un échantillon représentatif des items ou des tâches pour une capacité ou un domaine de connaissance précis » (Noël-Johny & Sampsonis, 2006, p. 43). Pour s’assurer de la validité du contenu, il faut donc un éventail divers d’items, et le contenu doit être cohérent avec l’objectif et la finalité de l’évaluation.
Par ailleurs, au cours de mes lectures, j’ai constaté une différence dans l’explication de la notion de validité entre les publications datant d’avant le 21ème siècle et celles suivant cette date. De fait, la définition est plus complexe de nos jours. Par exemple, si nous nous appuyons sur le Manuel pour l’Élaboration et la Passation de Tests et d’Examens de Langue conçu par ALTE (Association of Language Testers in Europe), nous remarquons une définition davantage approfondie. En effet, les auteurs incluent également l’interprétation des résultats et l’impact social de ces derniers comme des facteurs de validité. C’est d’ailleurs l’analyse des résultats par le candidat qui fait aussi preuve, ou non, de la validité du test. Cependant, ils tiennent à préciser qu’en partant de ce principe, aucun test n’est valide de manière absolue (ALTE, 2011). C’est pour cela qu’il est important de se rapporter également à la définition simple de la validité.
Enfin, je souhaite évoquer la validité telle qu’elle est décrite dans le CECRL étant donné l’importance de cet ouvrage dans l’enseignement des langues à l’heure actuelle. D’après cette référence, la validité d’un examen est en lien direct avec les niveaux décrits. Ainsi, un test de niveau A2 est valide lorsque ses contenus reflètent ceux du descripteur de ce niveau. Autrement dit, quand les résultats d’un test de positionnement donnent une représentation exacte du niveau de l’évalué, l’épreuve est valide (Conseil de l’Europe, 2001).

Étape 3 : le jugement

Une fois que les données sont recueillies en fonction de l’intention de l’évaluation et de sa finalité, il s’agit de porter un jugement sur l’atteinte ou non des objectifs d’apprentissage des apprenants en examinant les résultats de mesure. En d’autres termes, c’est à cette étape que le formateur donne du sens aux données collectées lors de l’étape précédente. Comme Lussier (1992: 29) le précise, une grande importance doit être accordée à cette étape. « Le jugement doit s’appuyer sur des faits, sur des observations recueillis en cours d’apprentissage et sur des résultats de mesure. Le jugement est d’autant plus important qu’il sert d’assise à la prise de décision. » Le jugement est en effet ce qui relie la mesure à la prise de décision. Sans lui, l’acte d’évaluer perdrait tout son sens, et c’est pour cette raison que c’est une étape clé du processus.
D’après Lussier (1992), il est important que l’enseignant se fixe des règles afin d’arriver à un jugement juste et précis. Ici, il est question de savoir ce sur quoi nous allons baser notre jugement. Il faut en effet des critères ainsi qu’une échelle d’appréciation pour classer les niveaux de performance possibles, et pour établir le seuil de performance attendue. À cette fin, l’enseignant doit utiliser ces critères pour déterminer le degré de maîtrise des apprenants de tel ou tel objectif d’apprentissage.
Puis, en observant la performance de l’étudiant, l’évaluateur se réfère à ces critères pour situer l’apprenant parmi les différents niveaux de maîtrise. S’il s’agit de l’évaluation d’une performance, par exemple une production orale ou écrite, la détermination de critères est d’autant plus importante pour réduire la subjectivité. Cette citation de Lussier (1992, p. 31) met en évidence l’utilité et la nécessité des critères lorsque nous portons un jugement.

Questionnaire auprès des étudiants sur le test existant

Toujours concernant l’analyse du test existant, j’ai voulu recueillir les opinions des étudiants qui l’ont passé à la rentrée de janvier 2015. La prise en compte de leurs opinions était importante pour l’élaboration du nouveau test car ils représentent le public auquel il se destine. De plus, comme je cherchais à démontrer que le profil des étudiants influence la nature du dispositif, il était important de prendre en compte ces informations dans le travail d’élaboration du nouveau test. J’ai donc réalisé un questionnaire auprès des étudiants, et ai obtenu 17 réponses (cf. Annexe 2 [p. 9]). Bien que ce questionnaire soit court et ne contienne que quatre questions, les réponses se sont révélées suffisantes pour obtenir des informations utiles pour concevoir un nouveau test mieux adapté à GEM.
J’avais plusieurs objectifs lors de cette récolte de données. Je voulais premièrement savoir si les étudiants trouvaient le test cohérent avec leur niveau de langue (cf. Annexe 2 [p. 9], question 1 et 2), et deuxièmement, si les items étaient valides (cf. Annexe 2 [p. 10]. questions 3 et 4). Les deux premières questions montrent que les étudiants n’ont pas toujours trouvé que les tests débutant et avancé étaient adaptés à leur niveau. Dans le processus de positionnement existant, les étudiants choisissaient le test débutant ou avancé en fonction de leur ressenti par rapport au français, ainsi que de leur apprentissage ou non de cette langue. Par exemple les questions « Êtes-vous débutant ou avancé ? », et « Avez-vous déjà étudié le français ? » leur ont été posées. Les résultats des deux premières questions du sondage montrent qu’ils n’avaient pas forcément reçu le bon test, ce qui a provoqué de mauvais placements et, de ce fait, des changements de groupes parfois compliqués. J’ai effectivement observé ce problème lors de la rentrée de janvier 2015, avec un changement qui a dû être effectué car un étudiant avait eu le test avancé au lieu de débutant. Compte tenu de ce problème, j’ai conclu que la nouvelle procédure de positionnement devait éliminer la possibilité qu’un étudiant passe le test avancé au lieu du test pour débutant, et vice versa.
Ce questionnaire m’a ensuite permis de savoir si les questions étaient claires pour les étudiants, c’est-à-dire s’ils comprenaient chaque question (cf. Annexe 2 [p. 10], questions 3 et 4). Les résultats de la 3ème question montrent qu’ils avaient trouvé les items plutôt clairs. Cependant, les réponses à la 4ème question montrent que, d’après les étudiants, plusieurs réponses étaient possibles pour certains items. Cela est problématique puisque ces derniers ne savaient pas quelle réponse choisir. Nous pouvons ainsi conclure que le test n’était pas complètement valide puisqu’il n’évaluait pas toujours ce qu’il était censé évaluer.
Pour terminer, j’ai récolté deux commentaires sur le test grâce à la question 5 qui ont permis d‘adapter le test aux étudiants de GEM. La première remarque prouve la nécessité de mesurer plusieurs compétences en évaluant un niveau de langue au lieu de se concentrer uniquement sur la grammaire.

L’analyse du contenu linguistique

Dans un deuxième temps, j’ai voulu examiner le contenu linguistique du test afin de savoir si ce dernier était cohérent avec le niveau associé. Cette étude a permis de déterminer la validité du test car s’il demandait des connaissances à un niveau donné qui sont normalement abordées dans un niveau supérieur ou inférieur, alors sa validité était réduite. De plus, j’ai souhaité vérifier la progression de la difficulté, puisque cela est une caractéristique importante d’un test de positionnement .Tout d’abord, nous remarquons que le test original évalue principalement les connaissances grammaticales. De fait, il demande que les étudiants fassent preuve de savoirs sur des éléments précis et isolés de la langue. Mises à part les productions écrites du test avancé qui se rapproche davantage d’une évaluation de la performance, il s’agit principalement d’évaluer des connaissances grammaticales telles que les conjugaisons, l’utilisation des compléments et des articles définis et indéfinis, ou la maîtrise de la phrase interrogative. Ainsi, ce test représente plutôt une approche mécaniste similaire à une évaluation de la période psychométrique structuraliste.
Ensuite, dans le but de vérifier la cohérence entre les contenus linguistiques et les niveaux du test, il a été indispensable que je m’appuie sur des outils de référence de langue. Ainsi, j’ai choisi le Référentiel de programmes pour l’Alliance Française, les référentiels des niveaux A1, A2 et B1 de Beacco (ouvrage publié par le Conseil de l’Europe), la méthode de français À Propos A1 et, évidemment, le référentiel du programme de français à GEM ( cf. Annexe 18 [p.75]). J’ai choisi ces deux premiers car ils sont basés sur le CECRL et détaillent ce que l’on doit aborder sur le plan linguistique (grammaire, lexique, actes de parole) aux niveaux A1 à C1. Ensuite, j’ai voulu examiner la méthode À propos A1, d’une part car elle est basée sur le CECRL et, d’autre part, pour avoir une idée de ce qui est enseigné au niveau A1 du point de vue d’une méthode. Enfin, l’étude du référentiel du programme de français à GEM était nécessaire pour m’assurer de la cohérence entre le test de positionnement et ce qui est enseigné dans les cours de cette institution.
En examinant ces outils, je me suis d’abord aperçu que dans la méthode À propos A1, le contenu linguistique était très avancé. En d’autres termes, nous trouvons à la fin de cette méthode des contenus qui figurent au niveau A2 selon les autres référentiels. Par exemple, elle aborde la distinction entre le passé composé et l’imparfait en fin A1, tandis que, d’après les trois autres outils, ce sont des temps verbaux à enseigner en A2. De même, à GEM la différence entre ces temps verbaux n’est pas encore abordée au niveau A1. Aussi ai-je pu conclure que les méthodes de français incluent parfois plus de contenus que ceux qui peuvent être abordés lors d’un semestre de cours à GEM. Les méthodes ne représentaient donc pas une ressource assez fiable pour déterminer ce que le nouveau test de positionnement devait évaluer, en termes de grammaire et de syntaxe, par niveau. Face à ce constat, j’ai décidé de me baser uniquement sur les trois référentiels pour analyser le contenu linguistique du test existant.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières
Introduction 
PARTIE 1. PRÉSENTATION DU CONTEXTE 
1. L’ORGANISME D’ACCUEIL
2. LES COURS DE LANGUE, ET SPÉCIFIQUEMENT DE FLE, À GEM
3. LES ACTEURS
4. CONCLUSIONS SUR LE CONTEXTE ET LE PUBLIC
5. LA COMMANDE
PARTIE 2 : L’ÉTAT DE L’ART 
1. L’ACTE D’ÉVALUER EN LANGUES : LES DESTINATAIRES ET LES FINALITÉS
2. LES DIFFÉRENTS TYPES D’ÉVALUATIONS ET LEURS FINALITÉS
3. LES QUATRE ÉTAPES DU PROCESSUS ÉVALUATIF ET LES ENJEUX ASSOCIÉS
4. LES ITEMS POSSIBLES DANS UN TEST AUTOCORRECTIF
5. L’HISTOIRE DE L’ÉVALUATION EN LANGUE : DE 1950 À AUJOURD’HUI
PARTIE 3. LA MISE EN PLACE D’UN DISPOSITIF HYBRIDE DE POSITIONNEMENT À GEM 
1. L’ÉLABORATION DU NOUVEAU TEST DE POSITIONNEMENT
2. LA CONCEPTION DE LA FICHE POUR LE TEST ORAL
3. LA CONCEPTION DE L’AUTO-ÉVALUATION
Conclusion

Rapport PFE, mémoire et thèse PDFTélécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *