mardi 1 janvier 2019

Pourquoi, en France, l'évaluation des acquis des élèves est-elle si difficile ?






            Est-il naturel de s’interroger sur l’évaluation des acquis des élèves français ? Oui, pourquoi ne saurait-on pas ce que savent nos élèves ? N’est-ce pas indispensable pour améliorer leurs apprentissages ? Curieusement, en France, ce sujet est source de vives polémiques. L’évaluation ne devrait-elle pas faire partie de la culture professionnelle des enseignants ? Pourquoi ces questions de bon sens rencontrent-elles autant de résistances ? 

Dans notre pays, pendant longtemps, la confusion entre évaluation des élèves et notation a été totale, mais cela n’a pas eu que des inconvénients. En effet, au début du siècle dernier, la fiabilité de la notation étant à juste titre discutée, la recherche s’empara de la question et vers 1920 le français Henri Piéron, sur la base de travaux parfois surprenants qu’il poursuivra pendant plusieurs décennies, créa ce qu’il nomma la docimologie, la science de la notation. Son but était de rechercher s’il était possible – et si oui, comment ? - d’attribuer à un devoir sa « vraie" note. Il mit en lumière la difficulté d’une telle entreprise pour les devoirs et examens pratiqués alors, plus encore dans certaines disciplines que dans d’autres.

La France fut donc pionnière sur ce domaine de recherche, mais cela ne dura pas longtemps. La docimologie n’intéressa qu’une poignée de chercheurs, très peu les enseignants et absolument pas le grand public qui ignore même le terme.

            La difficulté à évaluer tient-elle seulement à l’échelle de notation employée ?

            Quelques décennies plus tard, venus du nord de l’Europe, des débats pédagogiques amenèrent à se demander s’il fallait remplacer les échelles numériques employées pour noter en France (sur 10 ou 20 points) par une série de 5 lettres, comme si un simple changement de code pouvait à lui seul exercer une influence déterminante sur les apprentissages des élèves. Des tentatives troublèrent les parents et nombre d’enseignants. La psychologie s’en mêlait, mais seuls quelques initiés, toujours en petit nombre, se posaient de telles questions sur l’évaluation.

            Lors de mon premier séjour de longue durée au Canada à la fin des années 1970, je découvris que dans les provinces de l’Est, l’Ontario et le Québec, l’évaluation était un sujet très étudié. Notamment, les universités québécoises proposaient de nombreuses formations sur ce thème, au point qu’arriva le moment où les emplois faisant appel à ces compétences professionnelles furent saturés. Cela freina quelque peu les ardeurs.

L’Association pour le développement de la mesure et de l’évaluation en éducation (ADMEE-Canada) était très active. Elle organisait d’intéressants colloques permettant de riches rencontres entre chercheurs d’horizons divers et praticiens. Elle publiait depuis 1978 et publie encore une solide revue de portée internationale.

À mon retour en France, je réalisais qu’il y avait en Europe du sud, et chez nous plus qu’ailleurs, un retard de 20 ans par rapport à l’autre rive de l’océan.

            Un retard peut se rattraper…

            Il n’y avait rien d’irrémédiable. Un retard peut se rattraper, mais à condition de le vouloir et d’agir en conséquence. Je fus donc très intéressé par l’initiative prise en 1985 par Jean Cardinet et Jean-Marie De Ketele, deux grands spécialistes européens de l’évaluation, lorsqu’ils créèrent l’ADMEE-Europe, association francophone, sur le modèle de l’ADMEE-Canada, et je trouvais pertinent que les deux associations internationales aient décidé d’unir leurs forces autour de la revue déjà existante.

En France alors, les universités où l’on trouvait des équipes travaillant sur l’évaluation se comptaient sur les doigts d’une seule main. Beaucoup de psychologues et de chercheurs en éducation de cette époque récusaient ce qu’ils considéraient comme des approches technicistes nord-américaines. En ce temps-là, le milieu pédagogique était peu lié au monde universitaire. Il ne voyait pas ce que la recherche pouvait lui apporter sur ce registre qu’il considérait comme empirique, de son seul ressort, relevant même exclusivement du terrain. Ce point de vue a un peu évolué…mais un peu seulement.

La présidence de l’ADMEE-Europe changeait tous les deux ans, et après un Belge, venait le tour d’un Suisse, puis d’un Français et on revenait à un Belge etc. Une année, devant le manque patent de ressources françaises, Jean-Marie de Ketele me demanda d’accepter d’en assurer la présidence, ce qui confirmait l’état de la recherche en France sur ce sujet. Seul un petit nombre de micro-équipes s’y intéressaient et elles se concurrençaient sans ménagement.

            La prégnance inconsciente et massive, de la courbe de Gauss

Malgré les travaux de docimologie puis quelques avancées sur l’évaluation mais qui ne parlaient qu’aux spécialistes (distinctions entre évaluations diagnostiques, formatives sommatives, etc.), la notation telle qu’elle s’était pratiquée dans les classes jusque-là continuait à l'identique en France. Bien sûr, dans le premier degré comme dans le secondaire (enseignement professionnel, EPS…), quelques équipes tentèrent des innovations  mais leur ampleur était toujours limitée par la hiérarchie. Souvent elles déroutaient les parents d’élèves et les grands-parents habitués à autre chose, désarmés de ne pas retrouver ce qu’ils avaient connu en tant qu’élèves, sans comprendre le bien fondé des évolutions qui, pour dire vrai, ne rencontraient pas leurs attentes.

Intervient dans cette attitude française de forts éléments culturels. Lorsque l’on établit une statistique sur la répartition des notes de devoirs ou d’examens pour une classe ou un groupe un peu conséquent, on obtient une courbe de Gauss, appelée aussi "courbe en cloche" en raison de sa forme. Son sommet, avec beaucoup d’élèves, correspond à la fatidique moyenne, ou souvent à une note inférieure reflet de la sévérité du notateur. Aux deux extrêmes de la courbe se trouvent peu d’élèves. En France, personne, ne peut imaginer qu’il en aille autrement, c’est dans nos gènes. Les "courbes en J", Nord-américaines - avec beaucoup de très bonnes notes et quasiment pas de mauvaises au sens français du terme - sont considérées dans notre pays comme le signe d’un coupable laxisme ; la réflexion ne va guère au-delà.

Le proviseur d’un des grands lycées parisiens réputé pour le succès de ses classes préparatoires aux Grandes écoles me racontait que chaque année, un peu avant la fin octobre, les professeurs de Math Sup venaient le voir pour l’informer qu’ils avaient certes un petit groupe d’excellents élèves et beaucoup de moyens, mais que des élèves incroyablement faibles à leurs yeux n’avaient pas leur place dans leurs classes. Ces élèves, bien sûr, auraient fait le bonheur de nombreuses autres Math Sup ! Le syndrome de la courbe de Gauss frappe donc là aussi. Il envahit toutes les classes, tous les niveaux, toutes les disciplines, avec des nuances : si en mathématiques il peut arriver de mettre un 20/20 ou un 0/20, donc d’utiliser la totalité de l’échelle de notation, rien de tel pour une dissertation où, selon une tradition largement admise comme allant de soi, les notes vont le plus souvent de 2 à 14,  un 16 étant exceptionnel et un 20 impossible à envisager.

Cette pratique française très répandue, a été qualifiée il y a quelques années par André Antibi, de « constante macabre », ce qui a le mérite d’attirer l’attention sur elle et d’alerter la communauté professionnelle… qui, pour autant, ne change rien.

En France, le nombre élevé de mauvaises notes est considéré comme le signe du sérieux et de l’exigence d’un professeur ; c’est un indice de qualité. De l’autre côté de l’Atlantique, ce serait le signe d’un échec de l’enseignant et un indice de non qualité. C’est donc bien une question de culture. 

Les échelles numériques employées pour noter les élèves ne sont pas anodines. Dans le cadre d’un master franco-allemand délivré par l’ENA et une université allemande (Postdam), les mémoires sont co-dirigés par un allemand et un français. Avant la soutenance orale les deux responsables doivent s’entendre sur la notation du travail écrit déjà remis. L’université allemande utilise une échelle de 1 à 5 où 1 veut dire excellent, note qui n’a rien d’exceptionnel dans cet établissement peu réputé pour être laxiste. Pour les aider, les deux examinateurs reçoivent un utile tableau de correspondance de 2 pages car pour la France, sont pris en compte les dixièmes de points ! Ce tableau ne résout pas tout. Récemment, j’ai échangé avec l’examinateur allemand avant la soutenance, au sujet de la notation que nous envisagions pour le mémoire écrit. Il se montra beaucoup plus sévère que moi dans ses appréciations, mais (en notation française) il envisageait une note supérieure de 2 points à ce que je proposais. Culture, culture !

Curieux pays !

En 2005, Anne-Marie Bardi et Roger-François Gauthier présentèrent un rapport conjoint des deux inspections générales sur les acquis des élèves. Il montrait que dans notre curieux pays, de la classe au sommet de la pyramide hiérarchique, non seulement nul ne savait ce que savent les élèves, mais plus étrange encore, cela ne préoccupait personne. Heureusement, les parents d’élèves et les autres citoyens ne s’en doutaient pas !

Dans ses objectifs, le futur Socle commun avait, entre autres, pour but d’y porter remède, mais quinze ans après, cet objectif n’est toujours pas atteint. Pourtant les abondantes notations de travaux d’élèves pratiquées auraient dû pousser le milieu pédagogique à se demander : que veut-on savoir sur les acquis de nos élèves et que savons-nous ? Il ne le fit pas.

Lors de mon premier séjour en Ontario, j’enseignais alors les mathématiques à l’université. Peu après mon arrivée, l’un de mes collègues à Queen’s university me montra un énoncé pour un examen constitué de ce qui me semblait à première vue une douzaine d’exercices, chacun peu difficile, mais portant sur des sujets variés couvrant un vaste programme. Il me demanda : un étudiant français titulaire du baccalauréat et qui entre à l’université sait-il faire cela ? J’essayais de réfléchir à cette question déstabilisante. Oui, sans doute un bon élève ayant eu le bac S avec au moins la mention bien doit être capable d’en faire, sans erreur, assurément plus que la moitié, ce qui serait considéré comme satisfaisant chez nous. Mais, dans le monde nord-américain, il devrait en réussir plus de 80%, et cela je ne pouvais pas m'en porter garant. Je ne dirais rien d’un bachelier ayant laborieusement obtenu la moyenne : que sait-il vraiment faire si ce n'est d'obtenir la moyenne ? On discerne là l’objectif pervers et dépourvu de sens que l'on propose à nos élèves.

Cela me fit comprendre la grande exigence qui se trouve derrière l’apparente facilité de ce genre d’épreuve selon la vue des français qui étrangement se contentent de 50% de réussite… et encore ! Qui oserait exiger 80% de réussite ? Cela confirme qu’entre les deux rives de l’Atlantique, existe une grosse différence culturelle concernant les attentes sur les acquis des élèves. C’est sociétal.

Le comble de la stupidité : les compensations

Cet étrange rapport à l’évaluation que nous avons en France est terriblement aggravé par un usage plus étrange encore, et pour dire vrai, d’une incroyable stupidité quand on y réfléchit, celui des compensations, sorte de sport national largement pratiqué.

Comme il faut que l’ensemble des notes soit ramené aux alentours de la moyenne, dans une discipline donnée, par exemple en anglais, un élève qui aura eu un 6/20 à un devoir et un 14/20 à une interrogation se retrouvera avec la moyenne de 10/20. Ouf ! Il a la moyenne !! Pour autant, de quoi est-il capable ? En quoi ce 10 est-il une reconnaissance de compétences acquises et lesquelles ? Que certifie cette moyenne que tous les élèves (et leurs familles) veulent obtenir, fut-ce au prix de compensations totalement dépourvues de sens. Visiblement, là n’est pas la question.

On franchit un seuil supplémentaire dans la stupidité (oui, c’est possible !) lorsque l’on fait des moyennes de moyennes. Un 6/20 en histoire et un 14/20 en musique feront un 10/20. Voilà un indicateur intéressant… qui ne donne absolument aucune information ! Que sait-on des compétences d’un élève qui obtient ainsi une telle note ? Clairement, elle n’a aucun sens. Alors, à quoi bon ? On est là seulement sur un registre de conventions sociales puisque tout le monde semble s’en satisfaire : élèves, enseignants, parents et administration. Seuls les chercheurs sont réservés.

Pourquoi n’arrive-t-on pas à se débarrasser de telles pratiques aussi dépourvues de sens ? Lors de leur audition, cela avait conduit les deux inspecteurs généraux cités plus haut à suggérer au HCE, que dans le futur Socle commun (alors en cours d’élaboration), soit proscrite toute forme de compensation. Le HCE avait suivi leurs conseils, mais cela eut peu d’effets sur le terrain et une décennie plus tard, à son tour, le CSP poursuivant le dossier fit de même, avec me semble-t-il, aussi peu d’impact sur les pratiques effectives.

Après chaque séjour en Amérique du nord (Ontario 3 fois et Tennessee 1 fois), lorsque nous revenions en France en février pour le second semestre de l’année scolaire, mes enfants ramenaient, soigneusement rédigés par leurs enseignants, de multiples détails sur ce qu’ils avaient appris et surtout la description de leurs compétences acquises dans chaque domaine. Certes, c’était écrit en anglais et cela suffisait à rebuter les enseignants français, mais plus grave à leurs yeux, ce n’était pas sérieux puisqu’il n’y avait pas de notation ! Une simple note, une moyenne, leur aurait suffi.

Obsédé par les moyennes, le milieu pédagogique français note d’abondance, sans retenue, malgré la quasi absence de signification de cette pratique, la faible information pour les parents d’élèves dupés par la tradition, le peu d’utilité pour les apprentissages des élèves et encore moins pour la conduite de la classe. Ce n’est donc qu’un rituel social pour donner bonne conscience à tous, il ne sert à rien d’autre. Il est non seulement inutile et parfaitement hypocrite, mais il s’avère néfaste pour les élèves et le système.

L’intérêt d’outils standardisés

Curieusement, face à cette situation insatisfaisante et peu professionnelle, la majorité des enseignants refusent d’utiliser pour l’évaluation des acquis de leurs élèves des outils standardisés en prétextant que cela irait à l’encontre de leur liberté pédagogique qu’ils situent curieusement là, sur l’éventuelle mesure des acquis de leurs élèves, allez savoir pourquoi ?. Leur attitude fait les choux gras des syndicats qui défendent mordicus cette position, Pourtant, les médecins ne se sentent pas prisonniers ni dévalorisés par les multiples instruments de mesure mis à leur disposition, qu'ils utilisent à leur gré et qui sont là pour les éclairer. Ce sont de vrais professionnels et la médecine progresse.

Personne n’est dupe de la signification des résistances du milieu pédagogique. On voit où le bât blesse. De tels outils standardisés permettraient de faire plusieurs types de comparaisons. C’est bien le problème, et si l’on exclut les nombreux propos langue de bois que l’on entend, c’est même le seul !

D’abord, avec de tels outils, chaque enseignant pourrait se livrer à des comparaisons entre les résultats de ses élèves d’une année sur l’autre, même si, bien sûr, ce ne sont pas les mêmes élèves. Les différences observées ont toujours un sens plus ou moins caché que le professionnel sait détecter et analyser. À l’hôpital non plus, ce ne sont pas les mêmes malades d’une semaine à une autre, pourtant c’est ainsi, par des comparaisons et des recherches de corrélations, que la médecine, elle, fait des progrès.

Ensuite, au sein d’une école ou d’un établissement, des comparaisons seraient possibles entre des classes (une vraie révolution !), l’œil perspicace de certains enseignants pouvant éclairer l’analyse des évaluations des autres… Le risque est donc grand pour celui qui n’aime pas les feed-back, ne veut surtout pas apprendre de ses erreurs et encore moins se placer sous le regard critique de ses collègues de proximité, surtout de ceux qu’il croise tous les jours dans la salle des professeurs, ce lieu parfois redoutable.

Enfin, des comparaisons entre des établissements différents seraient possibles, en suivant leurs évolutions dans le temps et les caractéristiques socio-économiques des élèves, même si le dogme porté par l’Éducation nationale affirme que tout étant organisé à l’identique il ne peut pas y avoir de différences. Or il y en a, d’importantes, tout le problème est là et nous interpelle. Les faits contredisent le dogme ! Alors, quelles sont les éléments à l’origine des différences observées ? L’autruche préfère ne pas voir, le milieu pédagogique, refuse que les problèmes rencontrés soient finement décrits pour être résolus. 

Pour l’instant, un véritable travail de professionnels semble exceptionnel ; il n’est pas dans la culture de la majorité des enseignants.

Le pilotage au doigt mouillé

La responsabilité collective des maîtres n’est pas leur souci premier. Au contraire, ils préfèrent piloter individuellement leur classe, dans le brouillard, à l’instinct, au doigt mouillé, ce qu’évitent heureusement de faire les navigateurs de la route du rhum où l’on a vu que celui qui s’endort, fut-ce quelques minutes et quitte des yeux ses instruments, peut heurter la falaise !

Certes, pour la conduite globale du système éducatif, on dispose de nombreuses données numériques, mais malheureusement, le plus souvent elles ne veulent rien dire. Depuis le vote de la LOLF en 2001, le Parlement et la Cour des comptes ne manquent pas, chaque année, de faire des reproches au ministère à ce sujet.

De la base au sommet, des tripatouillages ramènent les données dans des zones socialement acceptables qui se prêtent, sous tous les gouvernements, à de la communication politique (en gros : « soyez rassurés, tout va bien et progresse ») et la technostructure rodée à cet exercice depuis des décennies sait remarquablement alimenter en la matière le niveau politique. Et si ce dernier voulait en savoir plus, il ne pourrait rien voir, tout est cadenassé par la technostructure.

Prenons l’exemple du brevet, mais sans insister sur les consignes données pour établir les sujets, puis pour corriger les copies et enfin aux jurys pour que tout entre dans la normale car, bien sûr, à la fin, tout doit l’être et finit par l’être. Si l’on regarde seulement les notes brutes obtenues sur les copies anonymées comme l’a récemment fait le CNESCO, les écarts sont considérables : les taux de réussite avant les diverses « opérations », dans une académie, peuvent varier de 15% à 60% pour aboutir, après tous les traitements faits à un taux de réussite de plus de 85%. Oh ! Miracle !! Non seulement les différences territoriales initiales sont d’une incroyable ampleur, mais au sein d’un département se trouvent de très grandes différences entre les établissements. Chut ! Il ne faut pas le dire ! Ensuite, les jurys et la moulinette académique font tout pour gommer les différences et ils y arrivent, jusqu’au moment où il n’y a plus rien d’intéressant à observer… mais la paix sociale est garantie. Et l’on continuera ainsi à piloter en aveugle les classes, les académies et le système. Avec quelle chance de le faire progresser ?  Aucune ! Autant s’en remettre au hasard et on n’en est pas loin !

Ces pratiques profondément ancrées ne sont pas une fatalité

S’il n’est pas possible aujourd’hui de dire ce que sait et sait faire un titulaire du brevet, il en est de même pour un bachelier, mais la question est encore plus taboue car il ne faut pas risquer de déstabiliser ce monument qu’est le Bac. C’est pour cela que seules importent vraiment, aux yeux de beaucoup, les mentions « très bien » garantes de quelque chose.

Alors ? Que sait et que sait faire un bachelier ? La question est-elle dépourvue d’intérêt ? On pourrait le croire. Il ne faut donc pas s’étonner que ParcourSup d’une part et les certifications diverses, de plus en plus nombreuses d’autre part, se substituent progressivement aux yeux du grand public, à un diplôme ne garantissant rien de précis en termes de compétences acquises. En France, il faut avoir le Bac, un point c’est tout. L’essentiel pour chaque élève se décide autrement, à d’autres moments, le plus souvent avant le Bac et sur d’autres bases. Ultérieurement, en cas de besoin, les certifications nécessaires prendront le relais, ce qui se fait de plus en plus.

N’est-il pas temps de disposer de réelles évaluations  des acquis utiles aux élèves, aux familles, aux enseignants et au système ? Pourquoi la France s’en priverait-elle ?

L’évaluation est absente de la culture professionnelle du milieu pédagogique français néanmoins ultra-notateur. Serait-ce une fatalité ? Je ne le crois pas. Il est temps que les Espé forment enfin les professeurs à l’évaluation des apprentissages de leurs élèves, à l’emploi critique et distancié de divers outils à leur disposition et que ce sujet devienne un thème central de la formation continue non seulement des enseignants mais également des cadres du système éducatif souvent bien ignorants en la matière.


Aucun commentaire:

Enregistrer un commentaire