Par Patrick Picard
Le diagnostic réalisé par le Café dès novembre 2006 était juste : la modification du protocole, réalisé à la hâte par la DESCO l’été dernier, a bien mis en difficulté les élèves, et amené un grand trouble parmi les enseignants.
Reprenons les faits, tel que le Café les décrivait en novembre : « les épreuves retenues (et les instructions en matière de codage de résultats) mettent en difficulté une proportion d’élèves sans commune mesure avec les résultats des années précédentes. De nombreuses classes affichent un pourcentage d’élèves identifiés » en grande difficulté » supérieur à 60%. »
Evidemment, quelques âmes mal pensantes suspectèrent la manipulation, en ces temps de polémique médiatique sur la lecture : le meilleur moyen de pouvoir dire n’importe quoi sur la question, c’est de casser l’échelle du thermomètre pour ignorer l’état de la fièvre. Annoncer publiquement une inflation de difficultés scolaires en début de CE1, ne serait-ce pas le dernier argument d’un ministre acculé à la gesticulation médiatique pour assurer son propos sur » tout fout le camp » ?
Aujourd’hui, dans son rapport, l’inspection générale donne quelques clés : « Sur ces bases et compte tenu de la demande du cabinet du ministre, le protocole 2006 a été remanié en profondeur. L’objectif [du remaniement du protocole] était double : mettre en conformité les épreuves avec les instructions du ministre sur la lecture et modifier la première partie de l’épreuve afin qu’elle remplisse le double rôle de filtre pour repérer les élèves en difficulté lourde et de source d’information pour la différenciation pédagogique au niveau de la classe comme au niveau du pilotage par les équipes de circonscription (…). Le changement de cap imposé en 2006 a eu pour conséquence la construction d’indicateurs peu fiables et donc peu exploitables.
Par ailleurs, cette remontée de chiffres globaux (pas de résultats par élève, pas de détail par item), ne permet évidemment pas une analyse des difficultés des élèves, ni des exercices d’évaluation eux-mêmes. L’analyse des exercices est pourtant indispensable car le protocole doit être amélioré. Les chiffres ainsi agglomérés ne sont pas significatifs, ni des acquis des élèves, ni des résultats des écoles. De plus ce choix est sujet à polémique. Les spécialistes de l’évaluation contestent le principe de l’usage détourné d’une évaluation diagnostique et le terrain (de nombreux directeurs d’écoles et inspecteurs et quelques inspecteurs d’académie) semble ne pas comprendre le changement de cap, « la rupture du contrat initial » ».
Confrontés aux premières remontées des informations (et aux protestations) des écoles, comment ont réagi les inspecteurs d’académie (IA) ? De manière très hétérogène, si on en croit l’Inspection Générale : « Dans la majorité des départements observés l’évaluation n’est abordée en conseil d’inspecteurs que marginalement dans le cadre d’un ordre du jour consacré principalement à l’apprentissage de la lecture ou à la mise en oeuvre des PPRE. Les notes de cadrage ou circulaires lues rappellent simplement le cadre national ; elles sont généralement pauvres quant à la dimension pédagogique de l’opération. Elles n’apportent aucun conseil particulier et n’alertent pas les enseignants de la nature des modifications apportées aux cahiers d’exercices. La dynamique dépend aussi de la mobilisation de tel ou tel inspecteur d’académie adjoint ou inspecteur de l’éducation nationale. Dans ce cas les problèmes ont été anticipés et mieux gérés. »
Pour ne pas céder à la paranoïa, il faut revenir sur la genèse de cette évaluation. Sa construction a été produite, de 2002 à 2004, par un groupe très hétérogène autour de la Desco (Direction de l’Enseignement Scolaire du ministère de l’éducation nationale) et de la Dep (Direction de l’Evaluation et de la Prospective). Constitué de chercheurs (linguistes, psychologues, didacticiens), de représentants de l’Inspection Générale, d’acteurs de terrain (IEN, CPC, enseignants), ce groupe s’est posé toutes les questions nécessaires pour « cadrer » cet exercice. A partir du travail statistique réalisé dans cette première phase, les items retenus avaient été choisis pour arriver, en moyenne, à un taux de réussite de 85% de bonnes réponses à la première épreuve, afin de bien identifier ces 15% d’élèves dont on sait qu’ils posent problème à l’Ecole (ce qui avait pu être interprété par certains enseignants comme « trop facile » par rapport à leur classe (argument prétexté par la DESCO pour durcir le cahier 1). Ce 15% est inégalement réparti sur le territoire national : dans certaines ZEP, on peut arriver parfois à 50%.
« Dans ces conditions, il y a fort à parier que l’évaluation nationale ne puisse aider en rien les enseignants pour adapter leur enseignement. » écrivait le Café en novembre. Que dit aujourd’hui l’Inspection Générale dans sa conclusion ? « La circulaire de préparation de la rentrée 2007 ne tranche pas nettement sur l’usage qui doit être fait de l’évaluation des élèves au début du CE1, elle maintient les cadres et les enseignants dans une certaine ambiguïté. Cette ambiguïté doit être levée. »
Du boulot pour le prochain ministre…
Patrick Picard
Le rapport de l’Inspection Générale sur les résultats de l’évaluation CE1 2006 :
Ce qu’avait publié le Café dès novembre : Les évaluations en Ce1 suscitent des inquiétudes
Evaluation nationale de CE1 : exercices mal ciblés ou trucage délibéré ?