Les aléas de la distribution sociale des savoirs statistiques 

Télécharger le fichier pdf d’un mémoire de fin d’études

Un changement « en franche contradiction »

Le fascicule hors série no 6 du Bulletin officiel de l’Éducation nationale qui paraît le 12 août 1999 rend public le texte du nouveau programme de mathématiques applicable en seconde à compter de l’année scolaire 2000-2001. L’année 1999-2000 est une année de transition : le programme antérieur fait provisoirement l’objet de simples allègements qui, s’agissant de la partie statistique, consistent en la suppression, sans commentaire, des notions d’effectifs cumulés et de fréquences cumulées 1. Le programme qui s’applique à la rentrée 2000 se veut à plusieurs égards novateur. Il est composé de trois grands « chapitres », intitulés respectivement Statistique, Calcul et fonctions et Géométrie. Pour chacun d’eux, le texte du programme comporte trois rubriques : un « rappel des programmes antérieurs », des « objectifs », et une rubrique tripartite, intitulée « Contenus ; Capacités attendues ; Commentaires ». À cela s’ajoute, pour chacun des trois chapitres, une liste de « thèmes d’étude », disposition du programme sur laquelle nous reviendrons plus loin. La présence du rappel des programmes de collège est ici assez fortement significative : les auteurs du nouveau programme de seconde ont dû travailler en tenant compte de programmes qu’ils n’avaient pas faits eux-mêmes et qui, sans doute, sur plusieurs points, ont mis des bornes à la libre élaboration d’un programme de statistique selon leur coeur. Ainsi en va-t-il avec les notions d’effectifs cumulés et de fréquences cumulées, inscrites au programme de quatrième, et dont on a dit que les auteurs se hâtent de les rayer du programme de seconde dès l’année de transition 1999-2000. Le motif de ce rejet est, au reste, bien illustratif de ce que seront les difficultés de réception de ce nouveau programme par les professeurs ; on ne le trouve ni dans le programme proprement dit, ni dans son document d’accompagnement, mais dans une « annexe commune aux classes de première des séries L, ES et S » publiée par le GTD de mathématiques 2 pour éclairer quelques points touchant à la question des « boîtes et quantiles ». À propos de la détermination de la médiane d’une série statistique, ce texte contient en effet l’observation suivante : La procédure qui consiste à tracer une courbe dite de fréquences cumulées croissantes, continue, obtenue par interpolation linéaire à partir des valeurs F(ai) définies ci-dessus et à définir la médiane comme l’intersection de cette courbe avec la droite d’équation y = 0,5, ou avec une courbe analogue dite des fréquences cumulées décroissantes n’est pas une pratique usuelle en statistique et ne sera pas proposée au lycée.
On note ici le souci d’éliminer des pratiques que les auteurs jugent inactuelles et, de ce fait, indésirables, tout en ne s’en expliquant auprès des professeurs que de façon fort concise, périphérique, ou même sans s’en expliquer du tout, comme il en va s’agissant de l’allègement apporté à l’ancien programme pour l’année de transition 1999-2000.
D’une façon plus générale, les programmes de collège, à l’instar des programmes de lycée examinés dans le précédent chapitre, se sont stabilisés autour de notions réputées emblématiques de la « méthode statistique » : tableaux statistiques et représentations graphiques (diagrammes à barres, diagrammes circulaires, etc.), calcul de moyennes simples ou pondérées, détermination de l’étendue « de la série ou de la partie de la série obtenue après élimination de valeurs extrêmes », cela, en troisième, « avant toute introduction d’indice de dispersion ». Par rapport à l’inventaire des notions étudiées au collège, le nouveau programme de seconde apparaît alors comme un affaiblissement, voire une édulcoration du « cours de statistique » traditionnel. On l’a vu avec la notion de fréquences cumulées ; le phénomène se reproduit avec la suppression d’un objet jusqu’alors inamovible du cours de statistique : l’écart type. Dans une intervention devant le bureau national de l’APMEP 3 le 4 décembre 1999, la présidente du GTD de mathématiques, Claudine Robert, précise 4 que c’est simplement « par manque de temps que ni l’écart type ni l’écart interquartile ne sont au programme de seconde ». Sans doute parce qu’elle n’ignore pas l’irritation que provoque chez les professeurs le remplacement d’une notion mathématiquement un peu plus complexe par celle, beaucoup plus simple, d’étendue, elle fait l’apologie de cette dernière : L’étendue est un critère fruste de dispersion mais il ne faut pas oublier qu’elle donne les valeurs extrêmes et que ce sont ces valeurs qui sont causes de catastrophes : crues… Il ne faut pas non plus oublier qu’il peut ne pas y avoir de limite à l’étendue.
Elle explicite plus au long encore sa remarque dans un article qui paraît dans le numéro 425 (novembre-décembre 1999) du Bulletin de l’APMEP, écrivant à ce propos : La mesure de dispersion retenue est l’étendue. Signalons que cette mesure, bien que grossière, figure sur toutes les cartes de contrôle industriel et est systématiquement calculée par tous les grands logiciels de statistique. Enfin cette mesure intervient pour l’estimation d’un écart type théorique lorsqu’on a moins de 10 données (et cela arrive aussi bien dans l’industrie pour des expériences coûteuses qu’en médecine pour des résultats d’examens invasifs ou concernant des maladies rares).
En vérité, le retrait de l’écart type du programme de seconde n’a pas seulement des raisons contingentes. Dans le même article, Claudine Robert use d’un argument que, à l’époque, la culture statistique moyenne des professeurs de mathématiques ne leur permet sans doute pas de bien contrôler : … n’est-il pas plus parlant de résumer une petite série de notes d’un élève ou d’une classe par l’étendue plutôt que par l’écart-type ? En fait, en dehors d’un ordre de grandeur de référence ou de la connaissance du caractère gaussien des données, l’écart-type est un paramètre peu interprétable.
Cet argument sera discrètement repris dans le programme de seconde, en un passage où celui-ci est situé dans la perspective des classes suivantes : En classe de première et de terminale, dans toutes les filières, on réfléchira sur la synthèse des données à l’aide du couple moyenne, écart-type qui sera vu à propos de phénomènes aléatoires gaussiens et par moyenne ou médiane et intervalle interquartile sinon.
Les évictions assumées (effectifs cumulés et fréquences cumulées, écart type) renvoient donc in fine à des raisons plus profondes touchant à la pratique d’une science statistique voulue authentique, qui ne peut se satisfaire de techniques désuètes ou d’une conceptualisation trop tôt arrêtée. C’est dans l’article donné au Bulletin de l’APMEP que Claudine Robert énonce sans doute le plus nettement son rejet d’une statistique scolaire ainsi fossilisée 5 : Il y avait, jusqu’à présent, dans les programmes de Seconde, de Première et Terminale L et ES, un chapitre dont le titre était statistique. L’esprit de ces chapitres est celui « des statistiques » et non de « la statistique » et témoigne d’une époque où stocker un grand nombre de données était réservé aux instituts spécialisés. Dans le cadre de ce programme et avec le relais des manuels, s’est développée une statistique propre à l’enseignement secondaire et qui s’est peu à peu dissociée de celle que pratiquent les analystes et ingénieurs statisticiens (ainsi, dans de nombreux manuels, la médiane d’une série de données est calculée à partir d’une interpolation linéaire de la fonction de répartition, ce que les statisticiens ne font jamais).
Trois grandes questions sont mises au coeur du travail statistique en seconde. La première suppose une réflexion sur le choix des « résumés numériques d’une série statistique quantitative » : nous venons de suggérer ce que, sous des dehors familiers, peut cacher de novateur cette demande. La deuxième est entièrement neuve : s’articulant franchement au fait cardinal de la variabilité, fondement de la science statistique, le programme introduit la notion de fluctuation d’échantillonnage, qui fait sortir de l’univers clos des séries statistiques examinées isolément une à une, ce qui était le lot de l’ancien cours de statistique. La troisième question est, si l’on peut dire, plus neuve encore : c’est celle de la simulation, « à l’aide du générateur aléatoire d’une calculatrice ». Cette question, que le programme associe formellement à celle des fluctuations d’échantillonnage, « ne doit pas faire l’objet d’un cours », mais donner lieu à diverses « études statistiques », dont les sujets seront « fonction de l’intérêt des élèves, de l’actualité » et des goûts de l’enseignant. L’élève est invité à consigner les principaux éléments de telles études dans un « cahier de statistique » où apparaîtront notamment les traitements de données et les expériences de simulation, ainsi que les « raisons qui conduisent à faire des simulations ou traiter des données ».
Un tel projet est d’emblée voué à rencontrer un obstacle de taille, dû à l’inadéquation de la transposition didactique ainsi voulue avec les praxéologies professorales les plus prégnantes – qui tendent notamment à mettre au premier plan les structures au détriment des fonctions, en faisant préférer par exemple le calcul d’un écart type à une interrogation sur les motifs de recourir à la notion d’écart type. Bien entendu, les auteurs du programme ne sont pas dupes de l’existence d’un tel obstacle, même s’ils le ramènent classiquement à n’être que l’effet d’un manque provisoire de formation dans la matière enseignée, ainsi que Claudine Robert l’explicite dans son article du Bulletin de l’APMEP déjà cité : Le programme que nous proposons est sans doute déroutant pour un corps professoral compétent, mais qui, dans son ensemble, n’a jamais fait de statistique, ou alors en annexe d’un cours de probabilité. Les enseignants de mathématiques devront se former dans un domaine qu’ils n’ont en général pas travaillé dans leurs études.

Les fondements de la réforme

Le nouveau programme de seconde est un élément d’un vaste chantier de refonte des programmes du lycée ouvert par Claude Allègre, qui est depuis le 4 juin 1997 le ministre de l’Éducation nationale, de la recherche et de la technologie du gouvernement de Lionel Jospin. L’élaboration des nouveaux programmes des lycées est à la charge des groupes techniques disciplinaires (GTD), dont le ministre nomme les présidents en janvier 1999. Pour les mathématiques, il s’agit de Claudine Robert, professeure à l’Université Joseph Fourier (Grenoble I). Un communiqué de presse du 14 janvier 1999 précise : Les présidents des GTD ont été réunis le 12 janvier 1999 au ministère pour définir les axes de leurs travaux et arrêter le calendrier.
Les programmes de mathématiques, de sciences physiques et de biologie feront l’objet d’une profonde rénovation visant à éviter l’empilement de connaissances parfois obsolètes ; l’objectif ne sera pas de rechercher l’exhaustivité mais de choisir un nombre restreint de thèmes essentiels qui feront l’objet d’un travail approfondi.
De nouvelles pratiques pédagogiques et l’utilisation de supports variés, en particulier les nouvelles technologies, seront encouragées dans les autres disciplines.
Les nouveaux programmes entreront en vigueur en septembre 2000 pour la classe de seconde, en 2001 et 2002 pour les classes de première et de terminale.
Le BOEN no 28 du 15 juillet 1999 précise la composition des GTD. Outre Claudine Robert, le GTD de mathématiques est composé de Philippe Clarou, professeur au lycée Pablo Neruda de Saint Martin d’Hères et formateur à l’IUFM de Grenoble, d’André Laur, professeur au lycée Emmanuel Mounier de Grenoble (les deux lycées sont jumelés), de Claudine Ruget, inspectrice générale de l’Éducation nationale, et de Rémi Langevin, professeur à l’université de Bourgogne (Dijon). Chaque GTD a été voulu par le ministre peu nombreux. Le travail attendu de ces groupes techniques ne souffre pas de délai. Présenté, suivant la procédure prévue, au Conseil supérieur de l’Éducation en juillet 1999, le projet de programme de mathématiques fait ainsi l’objet d’un arrêté le 4 août, est publié au Journal officiel de la République française le 8, et paraît au BOEN, ainsi que nous l’avons vu, le 12. L’effort accompli l’est donc dans un temps remarquablement resserré. Plusieurs facteurs ont permis une telle rapidité. Pour les deux chapitres baptisés respectivement Calcul et fonctions et Géométrie, « le futur programme s’inspire largement du contenu des programmes antérieurs », précise le GTD à l’occasion d’une rencontre avec les animateurs de la revue Réciproques 6, qui en publie un compte rendu dans son numéro 11 paru en mars 2000. Tout d’abord, le travail a été, si l’on peut dire, facilité par l’obligation de procéder à des coupes. Le compte rendu déjà cité l’explicite ainsi : Mais le GTD a dû répondre à la demande ministérielle d’un programme pour un horaire en réduction sensible par rapport au précédent. Il a donc fallu faire des coupes qui concernent légèrement l’analyse et beaucoup la géométrie : si, en s’appuyant sur ce qui a été fait en géométrie au collège, on peut « faire des mathématiques », des allégements un peu conséquents dans les autres parties auraient par contre conduit à des champs disciplinaires vides de contenu. Il semble indispensable de maintenir la variété des champs dans lesquels l’élève exerce ses capacités mathématiques au cours d’une véritable formation dans cette discipline.
De fait, le texte du programme proprement dit est relativement bref, ce que, dans la rencontre déjà citée, le GTD assume cette fois comme son choix propre : Nous avons voulu laisser l’initiative aux enseignants : en dire suffisamment sur les capacités attendues pour que tous les élèves aient les mêmes acquis de base, mais laisser pour le reste la plus grande liberté aux enseignants dans leurs choix pédagogiques.

Trois leçons de statistique

On s’arrête ici sur les trois premières leçons. La première, Le tir à l’arc, on l’a dit, conduit à introduire et à interroger la notion d’histogramme. L’objectif général est d’explorer l’art de « faire parler » des données. La leçon évoque une compétition de tir à l’arc sur une cible de 80 cm de diamètre, où neuf tireurs ont effectué chacun 60 tirs. Sur ces 540 tirs à la cible, 519 seulement ont atteint la cible. Pour chacun d’eux, la distance du point d’impact au centre de la cible a été relevée et arrondie au centimètre inférieur, en sorte qu’à chacun des 519 tirs est associé un entier compris entre 0 et 39. Un première question peut en ce point être posée, qui nous permettra d’illustrer un problème essentiel de la diffusion de la culture statistique : pourquoi relever ces distances ? La leçon mentionne le problème, mais comme un problème des organisateurs de la compétition, et non comme un problème que le lecteur pourrait se poser. La réponse apportée, de ce point de vue, reste vague : « Les organisateurs, nous dit-on simplement, souhaitent avoir une vue synthétique claire de la compétition. » Le recueil des données paraît donc ici insuffisamment explicité : pourquoi ces données-là, par exemple, et que pouvons-nous attendre qu’elles nous révèlent sur la compétition ? Pour le contraste, explicitons de façon un tant soit peu formelle le type de situations que l’on pourrait voir pris en compte dans une telle leçon. Supposons une question Q relative à la compétition invoquée. Quel ensemble D de données doit-on recueillir pour espérer pouvoir en induire une réponse R à Q ? Cette question fondamentale n’est pas posée ; et si question Q il y a, elle n’est pas véritablement communiquée au lecteur. Le lecteur peut bien sûr supposer que les organisateurs se sont posé une certaine question Q (ou un ensemble de questions Q) et que la volonté d’y répondre les a conduit à recueillir un ensemble D de données – les distances au centre de la cible. La situation est donc plutôt celle-ci : un ensemble D de données ayant été recueilli, quels éléments de réponse permet-il d’apporter à quelles questions Q ? Quels types de traitement de ces données permettent d’apporter ces éléments de réponse à ces questions ? Une certaine analyse de ces données ayant été réalisée, quels éléments de réponse permet-elle d’apporter ? De façon générale, l’une des faiblesses dans la diffusion de la statistique tient, nous semble-t-il, à ce que chacune des questions énoncées ici conserve un sens même lorsque les questions qui les précèdent dans cette suite de questions n’ont pas été posées – ce qui peut aisément conduire à ne pas les poser. Si en effet l’on se pose une question Q et que, pour y répondre, on recueille un ensemble D de données, il est toujours possible que le choix de D ne soit pas tout à fait le bon ; en sorte que la question devra toujours être posée, au moins à titre de contrôle, de savoir à quelles questions l’ensemble D permet d’apporter des éléments de réponse. Un ensemble D de données ayant été collecté et un traitement de ces données ayant été réalisé en vue de répondre à une certaine question Q qui paraît « à la portée » des données D, si l’on peut dire, il se peut encore que le traitement mis en oeuvre ait été mal choisi, et il faudra alors se demander ce qu’il nous apprend réellement sur l’ensemble D et, en conséquence, quels éléments de réponse il permet raisonnablement d’induire. Le processus d’étude statistique peut ainsi être amputé de ses premières étapes sans pour autant perdre toute signification. Mieux, la science statistique se doit d’apporter réponse aux questions « partielles » résultant de la dissociation de la chaîne de questions en laquelle se déploie normalement une étude statistique complète. Un certain traitement ayant été réalisé sur un 86 certain ensemble de données, que peut-on tirer des résultats de ces traitements à propos de ces données ? Un résultat d’analyse de données ayant ainsi été obtenu, à quelles questions permet-il d’apporter des éléments de réponse, et lesquels, à propos du phénomène dont ces données sont issues ? À cet égard, on va le voir, la leçon proposée est certainement instructive – plus sans doute que ce qu’offriront les manuels scolaires qui « mettront en texte » le nouveau programme de statistique.
Les 519 données numériques ne sont pas connues du lecteur : l’ouvrage en offre des représentations graphiques et en fournit un tableau après regroupement en classes. Ainsi donc, on communique au lecteur seulement le résultat de certains traitements qui leur ont été appliquées. Le premier de ces traitements consiste à représenter, dans un système d’axes orthogonaux, chaque tir par un point dont l’abscisse est le numéro d’ordre du tir (les 519 tirs réussis ont été ordonnés de 1 à 519) et l’ordonnée la distance au centre, nombre entier de 0 à 39. Ainsi obtient-on un nuage de points qui, grosso modo, remplit la fenêtre ]0 ; 519] × [0 ; 40[. Le texte constate ici que le traitement graphique des données est peu révélateur : « on ne peut pas dire, conclut-il, que ces représentations soient très claires ! » Dans ce cas, les numéros d’ordre affectés correspondent à la succession des 540 tirs réalisés (dont 21 sont ignorés). Le texte évoque alors un traitement graphique complémentaire du précédent : joindre par un segment le point représentatif d’un tir au tir suivant dans la série des tirs ayant touché la cible. La conclusion dubitative déjà citée s’applique tout autant à l’objet graphique ainsi obtenu. Devant ce relatif échec à faire parler les données invoquées, une solution standard est alors introduite : « on range les données, par ordre croissant, en regroupant les données égales ». Soulignons l’absence d’un questionnement qui pousserait en avant une telle décision. L’examen du nuage de points afin de tenter de savoir si, par exemple, le nombre de tirs diminue quand la distance augmente aurait conduit assez naturellement à procéder à un balayage visuel du nuage en partant de l’axe des abscisses pour essayer d’apercevoir si le nombre des points ayant une ordonnée déterminée est bien une fonction décroissante de l’ordonnée. Une telle inspection visuelle ne permet pas de rejeter nettement l’hypothèse de décroissance envisagée : il semble clair par exemple que, dans une bande horizontale proche de l’axe des abscisses, la densité de points est plus forte que dans une bande de mêmes dimensions appuyée sur l’horizontale d’ordonnée 40. L’inspection visuelle apparaît ici pourtant d’un rendement assez limité. Et l’on est en conséquence tout naturellement porté à compter le nombre de tirs d’ordonnée 0, le nombre de tirs d’ordonnée 1, …, le nombre de tirs d’ordonnée 39. Une telle opération ne conduit pour le moment qu’à une liste de 39 nombres, qui sont des effectifs – ou, comme on le dit dans l’anglais de la statistique, des fréquences (absolues). La leçon ne fournit pas véritablement ces nombres, mais les représente par un histogramme des fréquences (relatives) qui permet de voir tout à la fois que la suite des effectifs n’est pas à proprement parler décroissante, mais qu’elle décroît, si l’on peut dire, « tendanciellement ». Pour faire apparaître cette « tendance décroissante », on peut penser, là encore, que l’idée est susceptible de s’imposer spontanément de fusionner par paquets les barres contiguës de l’histogramme pour voir si l’on obtient un escalier descendant. Un tableau fourni par l’auteure donne la distribution des effectifs selon les intervalles [0 ; 4[, …, [36 ; 40[. Ces regroupements, sans doute, ne permettent pas encore d’obtenir une suite décroissante d’effectifs 22. Mais un regroupement plus large, de pas 8 cm, correspondant aux intervalles [0 ; 8[, …, [32 ; 40[, donne pour suite d’effectifs les nombres 151, 146, 102, 73, 47, qui forment bien une suite décroissante. Obtenus à partir des données primaires que le lecteur ne possède pas, des histogrammes des 519 tirs sont fournis avec, respectivement, un pas de 2 cm, un pas de 4 cm – ce qui, on l’a vu, ne permet pas encore d’obtenir la décroissance –, puis un pas de 5 cm et un pas de 8 cm : la décroissance (au sens large) est atteinte déjà avec un pas de 5 cm. Le travail ainsi accompli porte en lui une leçon précieuse mais insuffisamment explicitée. Le rassemblement des 519 mesures en classes n’est en aucune façon lié à un besoin d’économie des calculs – au motif qu’il y aurait un nombre très élevé de données à calculer – mais bien à l’intention de faire apparaître une structure des données que la variabilité qui les affecte masque de prime abord. Cette mise en évidence d’une certaine structure « profonde » des données est bien soulignée par une autre manoeuvre que la leçon propose, qui consiste à simuler la dissociation des données primaires en classes de pas 0,1 cm, cela en assignant à chacune des données entières une décimale prise au hasard entre 0 et 9. Ces micro-variations artificielles font alors exploser l’histogramme : le résultat obtenu est, si l’on peut dire, on ne peut plus parlant ! On mesure ici la différence entre un travail des données finalisé par le désir de valider ou de rejeter une certaine conjecture, ce que nous venons de voir ici, et un travail de forme semblable mais qui serait seulement l’expression d’une sorte de réflexe conditionné, supposé motivé d’une manière générale par la taille réputée excessive du corpus des données à traiter, comme le propose souvent les professeurs de mathématiques.

Fluctuations d’échantillonnage et simulation en seconde

On a dit que le nouveau programme de statistique de la classe de seconde modifie sur quelques points le corpus ancien relatif à la description statistique. On a indiqué aussi que ce programme comporte deux secteurs d’études presque entièrement neufs dans l’enseignement secondaire français, comme l’annonce ce passage :
En seconde le travail sera centré sur :
– la réflexion conduisant au choix de résumés numériques d’une série statistique quantitative .
– la notion de fluctuation d’échantillonnage vue ici sous l’aspect élémentaire de la variabilité de la distribution des fréquences .
– la simulation à l’aide du générateur aléatoire d’une calculatrice. La simulation remplaçant l’expérimentation permet, avec une grande économie de moyens, d’observer des résultats associés à la réalisation d’un très grand nombre d’expériences. On verra ici la diversité des situations simulables à partir d’une liste de chiffres.
C’est par ces lignes que les professeurs curieux du nouveau programme pourront découvrir ce que le GTD de mathématiques propose de neuf : « fluctuation d’échantillonnage » et « simulation à l’aide d’un générateur aléatoire ». À ce programme d’enseignement inédit est appendu un petit nombre de prescriptions. L’enseignant, dit ainsi d’abord le texte du programme, « proposera des sujets d’étude ». Si le parcours du livre de Claudine Robert donne bien une idée de ce qu’on peut appeler ainsi, conjecturons que l’idée même d’« étude statistique » et, plus encore, d’étude statistique motivée (par une question non statistique qui la provoque), est alors à peu près absente de l’univers culturel et professionnel des enseignants concernés – dont on peut penser, au reste, qu’ils seront fort peu nombreux à ouvrir l’ouvrage que nous avons suivi plus haut 45. Autre injonction : « L’enseignant traitera des données en nombre suffisant pour que cela justifie une étude statistique. » C’est faire là l’impasse sur une difficulté essentielle : la difficulté à se procurer des données, et plus encore à s’en procurer à volonté, qui soient en outre pertinentes pour étudier une question déterminée à l’avance, et non pas introduite après coup, de façon opportuniste, en fonction des données réellement disponibles. Malgré cela, le travail statistique appelé par le programme est présenté – implicitement – comme sous-déterminé, comme s’il y avait abondance de sujets d’étude statistique avec données à la clé, le professeur n’ayant qu’à choisir dans un ensemble si riche qu’il pourrait encore tenir compte, tout à la fois, de « l’intérêt des élèves » (c’est-à-dire de l’intérêt que manifestent les élèves), des questions que l’actualité met en lumière, et même des « goûts » qu’il aurait lui-même en la matière. De telles études statistiques – dont nous avons dit qu’il ne nous semble pas que les enseignants aient une vision bien nette – existent ici surtout par le soin qu’on semble mettre à leur prévoir une place. Ainsi le programme propose-t-il que chaque élève dispose d’un cahier de statistique où seront consignées lesdites études. Pédagogiquement, il y a là comme une anomalie : la tradition en vigueur abandonne en effet l’organisation des traces écrites à la liberté de l’enseignant, qui ne peut donc voir dans la suggestion faite (« l’élève pourra se faire un cahier de statistique… ») qu’un étrange empiètement sur son pré carré – et cela d’autant plus que ce cahier de statistique, autre novation dans l’univers un peu figé des lycées, devrait, lui dit-on encore, suivre l’élève en première et en terminale.
Selon une formule apparue au cours des décennies précédentes mais demeurée opaque au regard de nombreux professeurs, dont quelques-uns même peuvent y voir l’indice d’une volonté d’abaissement de leur mission, ce que le programme désigne comme la notion de fluctuation d’échantillonnage et de simulation « ne doit pas faire l’objet d’un cours ». « Faire un cours », sans doute, reste le premier réflexe didactique des professeurs d’aujourd’hui. Mais, en ce cas, ce que serait un « cours » sur ce que le programme amalgame en parlant, comme on l’a vu, de la notion de fluctuation d’échantillonnage et de simulation n’est pas chose obvie. La plupart des professeurs, en effet, n’ont eux-mêmes jamais rencontré un tel « cours ». C’est donc à cette chose qu’ils n’ont jamais rencontrée et dont ils n’ont, en cette étape inaugurale, qu’une idée fort imprécise qu’on leur demande de ne pas s’adonner. La formulation peut sembler malheureuse. Certes, elle se veut d’abord « pédagogique » : il s’agit d’inciter les professeurs à procéder par activités d’étude amenant chacune l’élaboration d’un certain « morceau » du savoir statistique, plutôt que, à l’inverse, d’opérer selon un modèle didactique épuisé, mais toujours prégnant, celui du « cours » suivi d’« exercices d’application ». Or, la formulation adoptée souligne, sans doute involontairement, que, en l’espèce, la matière même d’un cours fait défaut dans la culture professorale du moment. La suite des éléments de savoir instillés par le GTD permettra-t-elle d’y voir plus clair au fil des années de lycée ? La présentation des contenus du programme de seconde se trouve précédée d’un paragraphe sur ce qui est prévu pour les classes de première et terminale. Les « manques » que nous avons soulignés jusqu’ici y sont pointés : ainsi y annonce-t-on que sera menée dans ces classes une « réflexion sur le problème du recueil des données » – ce qui, a contrario, confirme l’occultation presque volontaire de l’une des conditions de possibilité essentielles d’un enseignement authentique de la statistique. La réflexion portera aussi, nous dit-on, sur « la notion de preuve statistique ». En même temps, un lien sera fait entre « statistique et probabilité ». Mais tout cela est encore à venir : à la rentrée 2000, nous n’y sommes pas encore. Le programme stricto sensu n’est, en vérité, pas plus éclairant. Il fond en un unique secteur d’études simulation et fluctuation d’échantillonnage et demande que les élèves apprennent à « concevoir et mettre en oeuvre des simulations simples à partir d’échantillons de chiffres au hasard ». Le seul viatique théorique proposé aux professeurs en matière de simulation aléatoire se réduit à un commentaire que nous reproduisons ici : La touche « random » d’une calculatrice pourra être présentée comme une procédure qui, chaque fois qu’on l’actionne, fournit une liste de n chiffres (composant la partie décimale du nombre affiché). Si on appelle la procédure un très grand nombre de fois, la suite produite sera sans ordre ni périodicité et les fréquences des dix chiffres seront sensiblement égales.
Quant à l’organisation de l’étude, un autre commentaire en fournit le principe : Chaque élève produira des simulations de taille n (n allant de 10 à 100 suivant les cas) à partir de sa calculatrice ; ces simulations pourront être regroupées en une simulation ou plusieurs simulations de taille N, après avoir constaté la variabilité des résultats de chacune d’elles. L’enseignant pourra alors éventuellement donner les résultats de simulation de même taille N préparées à l’avance et obtenues à partir de simulations sur ordinateurs.
Dans la partie du document d’accompagnement du programme consacrée à l’enseignement de la statistique, on retrouve la mise en perspective déjà évoquée pour l’ensemble des classes de lycée, mais énoncée en un langage qui est alors largement étranger à la culture majoritaire des professeurs de mathématiques :
Les choix, traduits en termes de programme pour la classe de seconde, sont guidés par les perspectives suivantes pour le lycée :
– acquérir une expérience de l’aléatoire et ouvrir le champ du questionnement statistique .
– voir dans un cas simple ce qu’est un modèle probabiliste et aborder le calcul des probabilités. La première « perspective » renvoie à un univers tout extérieur à la tradition de l’enseignement des mathématiques, dans lequel ne se sont véritablement acclimatés jusqu’à présent ni « l’expérience de l’aléatoire », ni « le champ du questionnement statistique ». La seconde perspective fait référence à la théorie des probabilités qui, elle, est plus familière aux professeurs – par le biais de leur formation initiale comme par leur expérience vécue de l’enseignement au lycée. Mais il s’agit moins ici de probabilités – notion appelée à rester à l’horizon de la classe de seconde – que du modèle probabiliste du travail statistique, réalité scientifique largement étrangère à la culture mathématique de l’enseignement secondaire.

L’APMEP et la réforme : le choc initial

La noosphère de l’enseignement des mathématiques est, comme toute noosphère 1, composite, sans véritable cohésion d’ensemble, animée de mouvements divers où des collectifs plus ou moins intégrés tentent d’acquérir une influence, voire un véritable leadership. Pour ce qui est des mathématiques, toutefois, un collectif ancien existe qui a conquis au fil des décennies une visibilité certaine : l’APMEP, l’association des professeurs de mathématiques de l’enseignement public fondée en 1910. Cette association est un interlocuteur incontournable de toute instance ministérielle qui prétend influer sur l’enseignement des mathématiques au collège ou au lycée, voire « de la maternelle à l’université ». C’est ainsi qu’un communiqué de presse du ministère de l’Éducation nationale daté du 14 janvier 1999, qui annonce la nomination des présidents des groupes techniques disciplinaires (GTD), et en particulier celle de Claudine Robert à la présidence du GTD de mathématiques, précise 2 : Le ministre, répondant à une demande de l’Association des Professeurs de Mathématiques de l’Enseignement Public, de la Société Mathématique de France et de celle de Mathématiques Appliquées et Industrielles, a demandé au CNP de mettre en place un groupe de travail qui préparera l’enseignement des mathématiques du XXIe siècle.
Le travail du GTD de mathématiques occupe les premiers mois de l’année 1999. Un projet de programme pour la classe de seconde, daté des 10 et 11 mai 1999, est reçu à l’APMEP le 21 mai, le GTD demandant à cette association de réagir avant qu’il se réunisse les 28 et 29 mai ! Les délais sont très courts : un texte de synthèse est élaboré par l’APMEP et transmis le jeudi 27 mai au GTD de mathématiques. Ce texte sera également examiné lors du séminaire de l’APMEP tenu les 29 et 30 mai. Il paraît dans le numéro 87 de son Bulletin à Grande Vitesse en juin 1999 – où il est au reste présenté comme un texte du… 28 mai 3. On y prend acte de ce que le projet comporte trois grands volets : statistique, géométrie, et ce qui s’appelle alors calcul numérique, calcul algébrique, fonctions. On y dit apprécier aussi la présence de rappels relatifs aux programmes du collège, et on regrette en conséquence que de tels rappels n’aient pas été prévus en ce qui concerne la statistique – preuve, s’il en était besoin, d’une élaboration exogène par rapport aux programmes antérieurs de la partie du programme de seconde relative à la statistique. La pierre d’achoppement essentielle, cependant, est la question du temps effectivement alloué à l’enseignement des mathématiques. Après une critique enflammée de ce qui ne s’appelle pas encore « thèmes d’étude » – que nous avons nommé TEL dans le chapitre précédent – mais que l’on désigne alors sous le nom générique d’« activités », le texte de synthèse soulève la question cardinale : devant un programme jugé pléthorique, étant donné le temps d’enseignement alloué, il faut se résigner à revoir le programme proposé pour en faire diminuer la masse. L’entreprise est raisonnable mais soulève alors une autre question : que doit-on enlever ? La note de synthèse passe en revue, dans l’ordre, les trois grands domaines du programme. C’est – sans surprise – sur la statistique que les auteurs ont le plus à dire – et à médire. D’emblée la rhétorique du « Oui, mais non… », déjà utilisée à propos des « activités » notamment, est mobilisée. Le développement sur la statistique commence par des lignes qui, au demeurant, proposent une variante du « Oui, mais non… », le « Non, même si c’est vrai que oui… » : Étant donné que les futurs S n’en feront plus (et seront sans doute aptes à s’y mettre…) et que de toute façon les ES en refont en 1re, certains ne voyaient guère l’intérêt d’en faire vu qu’actuellement c’est la plupart du temps bâclé en fin d’année si c’est fait… Mais nous sommes gênés de demander qu’on supprime les stats alors qu’on revendique des maths citoyennes…
Sur le fond, les choses sont plus claires qu’il n’y paraît : les bons sentiments ne sauraient cacher que la statistique – que l’APMEP s’obstinera à appeler « les statistiques », voire « les stats », comme ici – est désignée comme une matière sans noblesse, que l’on « bâcle » en fin d’année sans que cela soulève de vraie réprobation, et à laquelle les meilleurs élèves scientifiques du lycée sont supposés pouvoir « se mettre » quand ils en auront besoin, s’ils en ont un jour besoin, sans avoir besoin d’une initiation précoce.
Les rédacteurs de la note de synthèse prolongent ce point de départ en forme de non-recevoir en mettant en avant l’avis émis par un membre – dont le nom n’est pas cité – d’un groupe de recherche intitulé « Probabilités et statistiques en Europe », tel que le consignerait un document daté du 4 mai 1998 adressé à divers responsables de l’enseignement des mathématiques (doyen de l’inspection générale, etc.). Notons que la statistique est le seul domaine où les rédacteurs de la note de synthèse, au lieu de parler en première personne, reprennent à leur compte un discours exogène dont l’auteur est laissé dans l’anonymat. Que dit donc cet « expert » dont on met en avant les analyses ? Ou du moins que retient-on de ses préconisations ? Tout d’abord, on le sollicite à propos du sort fait, dans le projet de programme de seconde, à la notion de dispersion d’une série statistique. Selon une opinion qui deviendra un temps commune 4, l’auteur du texte cité énonce que l’étendue est un indicateur sans intérêt, et va jusqu’à affirmer que « tous les statisticiens sont d’accord pour dire qu’il ne correspond à rien ». Quant à lui, il préconise en seconde (au cas où on se refuserait à introduire l’écart type) que l’on familiarise les élèves avec l’écart moyen à la médiane ou avec l’écart interquartile. D’autant, ajoute-t-il, que les quartiles se calculent facilement, à la main comme avec une calculatrice « bas de gamme », et ouvrent la voie à l’emploi des diagrammes en boîte. Sur ce dernier point, les rédacteurs de la note ajoutent ceci : En ce qui concerne les diverses représentations graphiques vues au collège il faudrait clairement les citer et du coup vous verrez que la boîte à moustaches dont il est question ci-dessus en fait partie…
L’affirmation peut sembler bien hasardeuse lorsqu’on examine les contenus des programmes d’enseignement du collège. La deuxième cible de l’assaut est une notion qui, précise la note examinée, a été ajoutée entre la première et la deuxième version du projet de programme de seconde : la « fourchette de sondage ». L’irritation manifestée est d’autant plus significative de l’animosité générale à l’endroit de cette partie du programme qu’elle concerne, ici, un des TEL proposés, et non une partie incontournable du programme. Cette fois, l’auteur anonyme est cité beaucoup plus longuement. Contre les « experts du GTD », l’APMEP fait ainsi donner ses propres experts et pilonne sans façon cette infime partie du programme de statistique, en un passage que nous reprenons ci-après in extenso pour en faire entendre tout le mordant : Je suis atterré quand je vois qu’on va faire apprendre « par coeur », sans surtout chercher à comprendre quelque chose, la « formule de la fourchette » pour l’estimation d’une proportion obtenue par échantillonnage [au passage, tout le monde aura compris qu’il est évident que l’échantillon doit être tiré de façon aléatoire dans la population, et pourquoi on a imposé n > 30 et 0,3 < p$ < 0,7… le fameux n×p > 10 sans lequel l’approximation par la loi normale n’est plus valable car il y a un problème de limite caché derrière !], alors qu’on aurait pu leur faire faire un petit peu de maths en calculant un écart moyen (avec un tableur ou une calculette actuelle, pas de problème) ou un intervalle interquartile… notions auxquelles on pouvait au moins donner du sens !
Le débat semble ici se fourvoyer. Sans doute l’auteur cité a-t-il une tendresse particulière pour les indicateurs de dispersion. On voit mal pourtant en quoi, dans l’épistémologie professorale de l’époque, la boîte noire qu’est une calculette vaudrait mieux que la boîte noire fournie par une formule, au demeurant simple, dont la mise en oeuvre est encore perçue comme un petit geste mathématique, et que l’on peut contrôler, ainsi qu’on l’a vu, par des simulations appropriées.
Mais le texte de synthèse ne s’en tient pas à la critique précédente : ses auteurs y mobilisent alors un autre avis, celui d’un professeur qui « enseigne les probas-stats inférentielles à des BTS biotechnologies et qui a une seconde (…) depuis des années ». Cette fois, la charge est étendue à un autre thème qui, lui, est au coeur même du programme de statistique : la fluctuation d’échantillonnage. Contre cette innovation curriculaire, le second anonyme cité ne recule pas devant des imputations d’ignorance dont l’excès même est significatif d’une irritation mal contenue, puisqu’il lance : … jusqu’à présent, avec les BTS, j’en restais à des propos vagues, intuitifs ; l’auteur du texte programmatique peut-il concéder à la masse ignorante de lui ouvrir les yeux sur des TD ou TP crédibles (ça dure 1,5 h au cas où il ne le saurait pas) permettant de faire observer expérimentalement cette fluctuation ?
Hormis le procès d’intention, l’argumentaire est pauvrement développé. Le même praticien, pourtant, est appelé à dire son mot à propos des sondages, il indique : … qu’est-ce qu’un sondage ? Qu’est-ce qu’une fourchette au coefficient de confiance de 95 % ? Tous les enseignants savent ça ? Mes collègues et moi, on a mis quelques temps à apprendre à perfectionner notre explication aux étudiants ; tous les profs de seconde vont comprendre facilement une notion marginale dans le programme (en BTS biotechnologies, c’est essentiel à l’examen !) ? Là encore, une référence bibliographique ça ne peut pas faire de mal !.

Le rapport de stage ou le pfe est un document d’analyse, de synthèse et d’évaluation de votre apprentissage, c’est pour cela rapport-gratuit.com propose le téléchargement des modèles complet de projet de fin d’étude, rapport de stage, mémoire, pfe, thèse, pour connaître la méthodologie à avoir et savoir comment construire les parties d’un projet de fin d’étude.

Table des matières

Chapitre 1. Enseignements de la statistique
1. Des débuts hésitants
2. Un choix sous contraintes
3. Une institution pionnière : l’ISUP
4. Vers un texte du savoir statistique
5. Normalisation institutionnelle et développement
6. La résistible diffusion de la statistique
7. La tentation du secondaire
8. Le premier corpus statistique enseigné
9. La statistique enseignée se fige
Chapitre 2. La réforme des années 2000
1. Un changement « en franche contradiction »
2. Les fondements de la réforme
3. Une initiation à la statistique
4. Trois leçons de statistique
5. Trois autres leçons
6. Fluctuations d’échantillonnage et simulation en seconde
7. Encore deux leçons
8. Onze fiches et une leçon
Chapitre 3. La réception de la réforme
1. L’APMEP et la réforme : le choc initial
2. « Experts » et « politiques »
3. Une profession surprise et troublée
4. Vers un enseignement rénové ?
5. Des mathématiques introuvables ?
6. Un écho à l’Académie des sciences
Chapitre 4. Enseigner la statistique : conditions et contraintes
1. Niveaux de détermination didactique
2. Les aléas de la distribution sociale des savoirs statistiques
3. Statistique pour enseignants ?
4. La statistique en mathématiques ?
5. Sciences mathématiques, modélisation, statistique
Chapitre 5. Avant la classe : culture mathématique et formation
1. La statistique dans l’univers mathématique des futurs professeurs
2. Entre inculture et découverte
3. Répondre aux besoins de formation en statistique ?
Chapitre 6. Avant la classe : la leçon des manuels
1. Les types de tâches de la statistique
2. Études statistiques : des questions introuvables
3. La statistique et le monde
4. Fluctuation d’échantillonnage et simulation
Chapitre 7. En classe, et après : le travail sur les contraintes
1. Une enquête à chaud
2. En classe
3. De l’individu au collectif
4. Un fait social total
Bibliographie

Télécharger le rapport complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *