Pire que l’Arlésienne, jamais évaluation n’avait tant entretenu de suspens. Personne ne les a vues, personnes ne sait qui les a faites, mais dans quelques jours, elles occuperont toutes les ressources disponibles. En deux jours, des hordes d’inspecteurs et de conseillers pédagogiques arpenteront les écoles de leur circonscription pour délivrer les précieux cartons, soigneusement tenus au secret dans les imprimeries. Du 19 au 23 janvier, dans tous les CM2 de France, les passations auront lieu, soigneusement contrôlées par un aréopage d’inspecteurs généraux, surveillant eux-mêmes les IEN surveillant les instits, le tout surveillé de près par le ministère, les rectorats et les inspections académiques. Si on en croit les informations transmises par les inspecteurs inquiets, le contrôle ira même jusqu’aux équerres et à la pendule… En trois jours, tout devra être corrigé, informatisé, saisi dans les applications en ligne, sous le contrôle de chaque étage « supérieur ».
Il est évidemment trop tôt pour connaître le niveau de ras-le-bol que la procédure tâtillonne va renforcer. Trop tôt également pour faire des pronostics sur le niveau de difficulté des évaluations proposées. En 2007, on se souvient que les évaluations CM2, jugées par d’aucuns « trop faciles », avaient souvent permis d’identifier des élèves en difficultés sur des compétences fondamentales. Celles-ci, dont tout le monde annonce qu’elles vont faire enfler les pourcentages d’élèves « en difficultés », tiendront-elles leurs promesses ?
Un site de « résistance » a décidé de publier les protocoles d’évaluation, ce qui permet d’en prendre connaissance. Mais l’analyse des items ne va pas de soi et va demander des expertises croisées.
Personne ne sera étonné de constater le retour de nombreux items qui séduiront les adeptes du passé antérieur et des calculs d’aires biscornues. Nombreux seront sans doute ceux qui sursauteront à la lecture du premier texte, dont la compréhension nécessite de savoir qu’il existe deux unités de graduation de la température, et que l’eau ne bout pas au même nombre de degrés à Paris et à Montréal… Nombreux seront ceux qui goûteront peu le désuet registre de langue de nombre d’écrits, peu propice à la mixité sociale… Mais la seule réponse qui vaille sera celle des élèves. Il faudra donc attendre, pour se faire une opinion qui dépasse le procès d’intention, de juger sur pièce, c’est à dire en analysant les résultats des élèves.
Plusieurs points mériteront en particulier d’être regardés de près :
– cette évaluation se veut une évaluation-bilan. Il va de soi qu’une évaluation-bilan n’est pas en soi un outil criticable, au contraire. Mais bilan de quoi ? D’une année scolaire dont on n’a fait que la moitié ? D’un cycle qui a vu un changement de programme il y a moins d’un an ?
– la manière de coder les résultats ne risque-t-elle pas de faire basculer le bilan vers le « tout ou rien », lorsqu’on travaille uniquement avec des groupes d’items « réussis » ou « échoués » : quel résultat aura un élève qui réussira 3 sur 5, ou 4 sur 5 ?
– que pourront faire les enseignants de ce type de travail ? Certes, on va produire de l’affichage, des courbes de couleur, des quartiles et des pourcentages. Mais en quoi ce sera propice pour aider les équipes à continuer de construire ce qui, patiemment, se met en place dans les écoles, un travail sur la compréhension des difficultés des élèves, sur les enseignements à mettre en œuvre pour levers les malentendus ou ne pas laisser aux familles la responsabilité de la lecture des implicites…
Depuis quelques années, les rapports de l’Inspection Générale ont écrit tout ce qu’on pouvait écrire, souvent de manière pertinente, sur l’analyse des évaluations CE1, les compétences, les limites de la remédiation des PPRE, l’importance de l’accompagnement des équipes dans le lent et patient travail de compréhension des difficultés des élèves. Il doit quand même bien y avoir un placard à la DGESCO où ils ont été rangés ?