Est-il
naturel de s’interroger sur l’évaluation des acquis des élèves français ? Oui, pourquoi ne saurait-on pas ce que savent nos
élèves ? N’est-ce pas indispensable pour améliorer leurs
apprentissages ? Curieusement, en France, ce sujet est source de vives polémiques. L’évaluation ne devrait-elle pas faire partie de la culture professionnelle des
enseignants ? Pourquoi ces questions de bon sens rencontrent-elles autant
de résistances ?
Dans notre pays, pendant
longtemps, la confusion entre évaluation des élèves et notation a été totale,
mais cela n’a pas eu que des inconvénients. En effet, au début du siècle
dernier, la fiabilité de la notation étant à juste titre discutée, la recherche
s’empara de la question et vers 1920 le français Henri Piéron, sur la base de
travaux parfois surprenants qu’il poursuivra pendant plusieurs
décennies, créa ce qu’il nomma la docimologie, la science de la notation. Son
but était de rechercher s’il était possible – et si oui, comment ? - d’attribuer
à un devoir sa « vraie" note. Il mit en lumière la difficulté d’une
telle entreprise pour les devoirs et examens pratiqués alors, plus encore dans
certaines disciplines que dans d’autres.
La France fut donc pionnière sur ce domaine de recherche, mais cela ne dura pas longtemps. La docimologie n’intéressa qu’une poignée de chercheurs, très peu
les enseignants et absolument pas le grand public qui ignore même le terme.
La difficulté à évaluer tient-elle
seulement à l’échelle de notation employée ?
Quelques
décennies plus tard, venus du nord de l’Europe, des débats pédagogiques amenèrent à se demander s’il fallait remplacer les échelles
numériques employées pour noter en France (sur 10 ou 20 points) par une série de
5 lettres, comme si un simple changement de code pouvait à lui seul exercer une
influence déterminante sur les apprentissages des élèves. Des tentatives troublèrent les
parents et nombre d’enseignants. La psychologie s’en mêlait, mais seuls
quelques initiés, toujours en petit nombre, se posaient de
telles questions sur l’évaluation.
Lors
de mon premier séjour de longue durée au Canada à la fin des années 1970, je
découvris que dans les provinces de l’Est, l’Ontario et
le Québec, l’évaluation était un sujet très étudié. Notamment, les universités
québécoises proposaient de nombreuses formations sur ce thème, au point
qu’arriva le moment où les emplois faisant appel à ces compétences professionnelles
furent saturés. Cela freina quelque peu les ardeurs.
L’Association pour
le développement de la mesure et de l’évaluation en éducation (ADMEE-Canada)
était très active. Elle organisait d’intéressants colloques permettant de
riches rencontres entre chercheurs d’horizons divers et praticiens. Elle
publiait depuis 1978 et publie encore une solide revue de portée
internationale.
À mon retour en
France, je réalisais qu’il y avait en Europe du sud, et chez nous plus qu’ailleurs,
un retard de 20 ans par rapport à l’autre rive de l’océan.
Un retard peut se rattraper…
Il
n’y avait rien d’irrémédiable. Un retard peut se rattraper, mais à
condition de le vouloir et d’agir en conséquence. Je fus donc très intéressé
par l’initiative prise en 1985 par Jean Cardinet et Jean-Marie De Ketele, deux
grands spécialistes européens de l’évaluation, lorsqu’ils créèrent
l’ADMEE-Europe, association francophone, sur le modèle de l’ADMEE-Canada, et je
trouvais pertinent que les deux associations internationales aient décidé d’unir
leurs forces autour de la revue déjà existante.
En France alors,
les universités où l’on trouvait des équipes travaillant sur l’évaluation se
comptaient sur les doigts d’une seule main. Beaucoup de psychologues et de
chercheurs en éducation de cette époque récusaient ce qu’ils considéraient
comme des approches technicistes nord-américaines. En ce temps-là, le milieu
pédagogique était peu lié au monde universitaire. Il ne voyait pas ce que la
recherche pouvait lui apporter sur ce registre qu’il considérait comme empirique, de son seul ressort, relevant même exclusivement du terrain. Ce
point de vue a un peu évolué…mais un peu seulement.
La présidence de
l’ADMEE-Europe changeait tous les deux ans, et après un Belge, venait le tour
d’un Suisse, puis d’un Français et on revenait à un Belge etc. Une année, devant
le manque patent de ressources françaises, Jean-Marie de Ketele me demanda
d’accepter d’en assurer la présidence, ce qui confirmait l’état de la recherche en France sur ce sujet. Seul un petit nombre de micro-équipes s’y intéressaient et elles se concurrençaient sans
ménagement.
La prégnance inconsciente et massive, de la
courbe de Gauss
Malgré les travaux
de docimologie puis quelques avancées sur l’évaluation mais qui ne parlaient qu’aux
spécialistes (distinctions entre évaluations diagnostiques, formatives sommatives,
etc.), la notation telle qu’elle s’était pratiquée dans les classes jusque-là
continuait à l'identique en France. Bien sûr, dans le premier degré comme dans le secondaire (enseignement professionnel, EPS…),
quelques équipes tentèrent des innovations mais leur ampleur était toujours limitée par la hiérarchie. Souvent elles
déroutaient les parents d’élèves et les grands-parents habitués à autre chose,
désarmés de ne pas retrouver ce qu’ils avaient connu en tant qu’élèves, sans
comprendre le bien fondé des évolutions qui, pour dire vrai, ne rencontraient
pas leurs attentes.
Intervient dans
cette attitude française de forts éléments culturels. Lorsque l’on établit une
statistique sur la répartition des notes de devoirs ou d’examens pour une
classe ou un groupe un peu conséquent, on obtient une courbe de Gauss, appelée
aussi "courbe en cloche" en raison de sa forme. Son sommet, avec beaucoup d’élèves,
correspond à la fatidique moyenne, ou souvent à une note inférieure reflet de
la sévérité du notateur. Aux deux extrêmes de la courbe se trouvent peu
d’élèves. En France, personne, ne peut imaginer qu’il en aille autrement, c’est
dans nos gènes. Les "courbes en J", Nord-américaines - avec beaucoup de très
bonnes notes et quasiment pas de mauvaises au sens français du terme - sont
considérées dans notre pays comme le signe d’un coupable laxisme ;
la réflexion ne va guère au-delà.
Le proviseur d’un
des grands lycées parisiens réputé pour le succès de ses classes
préparatoires aux Grandes écoles me racontait que chaque année, un peu avant la
fin octobre, les professeurs de Math Sup venaient le voir pour l’informer
qu’ils avaient certes un petit groupe d’excellents élèves et beaucoup de
moyens, mais que des élèves incroyablement faibles à leurs yeux n’avaient pas leur place dans leurs classes. Ces élèves, bien sûr, auraient fait le bonheur
de nombreuses autres Math Sup ! Le syndrome de la courbe de Gauss frappe donc
là aussi. Il envahit toutes les classes, tous les niveaux, toutes les
disciplines, avec des nuances : si en mathématiques il peut arriver de
mettre un 20/20 ou un 0/20, donc d’utiliser la totalité de l’échelle de notation, rien de
tel pour une dissertation où, selon une tradition largement admise comme allant
de soi, les notes vont le plus souvent de 2 à 14, un 16 étant exceptionnel
et un 20 impossible à envisager.
Cette pratique
française très répandue, a été qualifiée il y a quelques années par André
Antibi, de « constante macabre », ce qui a le mérite d’attirer
l’attention sur elle et d’alerter la communauté professionnelle… qui, pour
autant, ne change rien.
En France, le
nombre élevé de mauvaises notes est considéré comme le signe du sérieux et de
l’exigence d’un professeur ; c’est un indice de qualité. De l’autre côté
de l’Atlantique, ce serait le signe d’un échec de l’enseignant et un indice de
non qualité. C’est donc bien une question de culture.
Les échelles
numériques employées pour noter les élèves ne sont pas anodines. Dans le cadre
d’un master franco-allemand délivré par l’ENA et une université allemande
(Postdam), les mémoires sont co-dirigés par un allemand et un français. Avant
la soutenance orale les deux responsables doivent s’entendre sur la notation du
travail écrit déjà remis. L’université allemande utilise une échelle de 1 à 5 où
1 veut dire excellent, note qui n’a rien d’exceptionnel dans cet établissement peu
réputé pour être laxiste. Pour les aider, les deux examinateurs reçoivent un
utile tableau de correspondance de 2 pages car pour la France, sont pris en
compte les dixièmes de points ! Ce tableau ne résout pas tout. Récemment, j’ai
échangé avec l’examinateur allemand avant la soutenance, au sujet de la
notation que nous envisagions pour le mémoire écrit. Il se montra beaucoup plus
sévère que moi dans ses appréciations, mais (en notation française) il envisageait
une note supérieure de 2 points à ce que je proposais. Culture, culture !
Curieux pays !
En 2005,
Anne-Marie Bardi et Roger-François Gauthier présentèrent un rapport conjoint des
deux inspections générales sur les acquis des élèves. Il montrait que dans
notre curieux pays, de la classe au sommet de la pyramide hiérarchique, non
seulement nul ne savait ce que savent les élèves, mais plus étrange encore,
cela ne préoccupait personne. Heureusement, les parents d’élèves et les autres citoyens ne s’en doutaient pas !
Dans ses
objectifs, le futur Socle commun avait, entre autres, pour but d’y porter remède, mais quinze ans après, cet objectif n’est toujours pas atteint. Pourtant les abondantes notations de travaux d’élèves pratiquées auraient dû pousser le milieu
pédagogique à se demander : que veut-on savoir sur les
acquis de nos élèves et que savons-nous ? Il ne le fit pas.
Lors de mon
premier séjour en Ontario, j’enseignais alors les mathématiques à l’université.
Peu après mon arrivée, l’un de mes collègues à Queen’s university me montra un
énoncé pour un examen constitué de ce qui me semblait à première vue une douzaine
d’exercices, chacun peu difficile, mais portant sur des sujets variés
couvrant un vaste programme. Il me demanda : un étudiant français titulaire du
baccalauréat et qui entre à l’université sait-il faire cela ? J’essayais
de réfléchir à cette question déstabilisante. Oui, sans doute un bon élève
ayant eu le bac S avec au moins la mention bien doit être capable d’en faire,
sans erreur, assurément plus que la moitié, ce qui serait considéré comme
satisfaisant chez nous. Mais, dans le monde nord-américain, il devrait en
réussir plus de 80%, et cela je ne pouvais pas m'en porter garant. Je ne dirais rien
d’un bachelier ayant laborieusement obtenu la moyenne : que sait-il vraiment
faire si ce n'est d'obtenir la moyenne ? On discerne là l’objectif pervers et dépourvu de sens que l'on propose à nos élèves.
Cela me fit
comprendre la grande exigence qui se trouve derrière l’apparente facilité de ce
genre d’épreuve selon la vue des français qui étrangement se contentent de 50%
de réussite… et encore ! Qui oserait exiger 80% de réussite ? Cela
confirme qu’entre les deux rives de l’Atlantique, existe une grosse
différence culturelle concernant les attentes sur les acquis des élèves. C’est
sociétal.
Le comble de la stupidité : les compensations
Cet étrange
rapport à l’évaluation que nous avons en France est terriblement aggravé par un usage plus étrange
encore, et pour dire vrai, d’une incroyable stupidité quand on y réfléchit,
celui des compensations, sorte de sport national largement pratiqué.
Comme il faut que l’ensemble
des notes soit ramené aux alentours de la moyenne, dans une discipline donnée,
par exemple en anglais, un élève qui aura eu un 6/20 à un devoir et un 14/20 à
une interrogation se retrouvera avec la moyenne de 10/20. Ouf ! Il a la
moyenne !! Pour autant, de quoi est-il capable ? En quoi ce 10 est-il
une reconnaissance de compétences acquises et lesquelles ? Que certifie
cette moyenne que tous les élèves (et leurs familles) veulent obtenir, fut-ce
au prix de compensations totalement dépourvues de sens. Visiblement, là n’est
pas la question.
On franchit un seuil supplémentaire dans la stupidité (oui, c’est possible !) lorsque l’on fait
des moyennes de moyennes. Un 6/20 en histoire et un 14/20 en musique feront un
10/20. Voilà un indicateur intéressant… qui ne donne absolument aucune
information ! Que sait-on des compétences d’un élève qui obtient ainsi une
telle note ? Clairement, elle n’a aucun sens. Alors, à quoi bon ? On
est là seulement sur un registre de conventions sociales puisque tout le monde
semble s’en satisfaire : élèves, enseignants, parents et administration. Seuls les chercheurs sont réservés.
Pourquoi
n’arrive-t-on pas à se débarrasser de telles pratiques aussi dépourvues
de sens ? Lors de leur audition, cela avait conduit les deux inspecteurs
généraux cités plus haut à suggérer au HCE, que dans le futur Socle commun (alors
en cours d’élaboration), soit proscrite toute forme de compensation. Le HCE
avait suivi leurs conseils, mais cela eut peu d’effets sur le terrain et une
décennie plus tard, à son tour, le CSP poursuivant le dossier fit de même, avec
me semble-t-il, aussi peu d’impact sur les pratiques effectives.
Après chaque
séjour en Amérique du nord (Ontario 3 fois et Tennessee 1 fois), lorsque nous
revenions en France en février pour le second semestre de l’année scolaire, mes
enfants ramenaient, soigneusement rédigés par leurs enseignants, de multiples
détails sur ce qu’ils avaient appris et surtout la description de leurs
compétences acquises dans chaque domaine. Certes, c’était écrit en anglais et cela suffisait à rebuter les enseignants français, mais plus grave à leurs yeux,
ce n’était pas sérieux puisqu’il n’y avait pas de notation ! Une simple
note, une moyenne, leur aurait suffi.
Obsédé par les
moyennes, le milieu pédagogique français note d’abondance, sans retenue, malgré
la quasi absence de signification de cette pratique, la faible information pour
les parents d’élèves dupés par la tradition, le peu d’utilité pour les
apprentissages des élèves et encore moins pour la conduite de la
classe. Ce n’est donc qu’un rituel social pour donner bonne conscience à tous, il ne sert à rien d’autre. Il est non seulement inutile et
parfaitement hypocrite, mais il s’avère néfaste pour les élèves et le système.
L’intérêt d’outils standardisés
Curieusement, face
à cette situation insatisfaisante et peu professionnelle, la majorité des
enseignants refusent d’utiliser pour l’évaluation des acquis de leurs élèves des
outils standardisés en prétextant que cela irait à l’encontre de leur liberté
pédagogique qu’ils situent curieusement là, sur l’éventuelle mesure des acquis
de leurs élèves, allez savoir pourquoi ?. Leur attitude fait les choux gras des syndicats qui défendent
mordicus cette position, Pourtant, les médecins ne
se sentent pas prisonniers ni dévalorisés par les multiples instruments de
mesure mis à leur disposition, qu'ils utilisent à leur gré et qui
sont là pour les éclairer. Ce sont de vrais professionnels et la médecine progresse.
Personne n’est
dupe de la signification des résistances du milieu pédagogique. On voit où
le bât blesse. De tels outils standardisés permettraient de faire plusieurs types
de comparaisons. C’est bien le problème, et si l’on exclut les nombreux propos
langue de bois que l’on entend, c’est même le seul !
D’abord, avec de
tels outils, chaque enseignant pourrait se livrer à des comparaisons entre les résultats
de ses élèves d’une année sur l’autre, même si, bien sûr, ce ne sont pas les
mêmes élèves. Les différences observées ont toujours un sens plus ou moins
caché que le professionnel sait détecter et analyser. À l’hôpital non plus, ce
ne sont pas les mêmes malades d’une semaine à une autre, pourtant c’est ainsi,
par des comparaisons et des recherches de corrélations, que la médecine, elle,
fait des progrès.
Ensuite, au sein
d’une école ou d’un établissement, des comparaisons seraient possibles entre
des classes (une vraie révolution !), l’œil perspicace de certains
enseignants pouvant éclairer l’analyse des évaluations des autres… Le risque
est donc grand pour celui qui n’aime pas les feed-back,
ne veut surtout pas apprendre de ses erreurs et encore moins se placer sous le
regard critique de ses collègues de proximité, surtout de ceux qu’il croise
tous les jours dans la salle des professeurs, ce lieu parfois redoutable.
Enfin, des
comparaisons entre des établissements différents seraient possibles, en suivant
leurs évolutions dans le temps et les caractéristiques socio-économiques des
élèves, même si le dogme porté par l’Éducation nationale affirme que
tout étant organisé à l’identique il ne peut pas y avoir de différences. Or il
y en a, d’importantes, tout le problème est là et nous interpelle. Les faits
contredisent le dogme ! Alors, quelles sont les éléments à l’origine des
différences observées ? L’autruche préfère ne pas voir, le milieu
pédagogique, refuse que les problèmes rencontrés soient finement décrits pour
être résolus.
Pour l’instant, un véritable travail de professionnels semble exceptionnel ; il n’est pas dans la culture de la majorité des enseignants.
Pour l’instant, un véritable travail de professionnels semble exceptionnel ; il n’est pas dans la culture de la majorité des enseignants.
Le pilotage au doigt mouillé
La responsabilité
collective des maîtres n’est pas leur souci premier. Au contraire, ils préfèrent
piloter individuellement leur classe, dans le brouillard, à l’instinct, au
doigt mouillé, ce qu’évitent heureusement de faire les navigateurs de la route
du rhum où l’on a vu que celui qui s’endort, fut-ce quelques
minutes et quitte des yeux ses instruments, peut heurter la falaise !
Certes, pour la
conduite globale du système éducatif, on dispose de nombreuses données numériques,
mais malheureusement, le plus souvent elles ne veulent rien dire. Depuis le
vote de la LOLF en 2001, le Parlement et la Cour des comptes ne manquent pas, chaque
année, de faire des reproches au ministère à ce sujet.
De la base au
sommet, des tripatouillages ramènent les données dans des zones socialement acceptables qui se prêtent, sous tous les gouvernements, à de la communication politique
(en gros : « soyez rassurés, tout va bien et progresse ») et la
technostructure rodée à cet exercice depuis des décennies sait remarquablement alimenter
en la matière le niveau politique. Et si ce dernier voulait en savoir plus,
il ne pourrait rien voir, tout est cadenassé par la technostructure.
Prenons l’exemple
du brevet, mais sans insister sur les consignes données pour établir les sujets,
puis pour corriger les copies et enfin aux jurys pour que tout entre dans la
normale car, bien sûr, à la fin, tout doit l’être et finit par l’être. Si l’on
regarde seulement les notes brutes obtenues sur les copies anonymées comme l’a
récemment fait le CNESCO, les écarts sont considérables : les taux de
réussite avant les diverses « opérations », dans une académie,
peuvent varier de 15% à 60% pour aboutir, après tous les traitements faits à un
taux de réussite de plus de 85%. Oh ! Miracle !! Non seulement les
différences territoriales initiales sont d’une incroyable ampleur, mais au sein
d’un département se trouvent de très grandes différences entre les
établissements. Chut ! Il ne faut pas le dire ! Ensuite, les jurys et
la moulinette académique font tout pour gommer les différences et ils y arrivent,
jusqu’au moment où il n’y a plus rien d’intéressant à observer… mais la paix
sociale est garantie. Et l’on continuera ainsi à piloter en aveugle les classes,
les académies et le système. Avec quelle chance de le faire progresser ? Aucune ! Autant s’en remettre au hasard et on n’en est pas loin !
Ces pratiques profondément ancrées ne sont pas une
fatalité
S’il n’est pas
possible aujourd’hui de dire ce que sait et sait faire un titulaire du brevet,
il en est de même pour un bachelier, mais la question est encore plus taboue
car il ne faut pas risquer de déstabiliser ce monument qu’est le Bac. C’est
pour cela que seules importent vraiment, aux yeux de beaucoup, les mentions « très
bien » garantes de quelque chose.
Alors ? Que
sait et que sait faire un bachelier ? La question est-elle dépourvue
d’intérêt ? On pourrait le croire. Il ne faut donc pas s’étonner que
ParcourSup d’une part et les certifications diverses, de plus en plus
nombreuses d’autre part, se substituent progressivement aux yeux du grand
public, à un diplôme ne garantissant rien de précis en termes de compétences
acquises. En France, il faut avoir le Bac, un point c’est tout. L’essentiel pour
chaque élève se décide autrement, à d’autres moments, le plus souvent avant le
Bac et sur d’autres bases. Ultérieurement, en cas de besoin, les certifications
nécessaires prendront le relais, ce qui se fait de plus en plus.
N’est-il pas temps
de disposer de réelles évaluations des acquis utiles aux élèves, aux familles, aux
enseignants et au système ? Pourquoi la France s’en priverait-elle ?
L’évaluation est
absente de la culture professionnelle du milieu pédagogique français néanmoins
ultra-notateur. Serait-ce une fatalité ? Je ne le crois pas. Il est temps que les Espé forment enfin les professeurs à l’évaluation des
apprentissages de leurs élèves, à l’emploi critique et distancié de divers outils à leur disposition
et que ce sujet devienne un thème central de la formation continue non
seulement des enseignants mais également des cadres du système éducatif souvent
bien ignorants en la matière.