Les résultats sont-ils en baisse ou les exigences en hausse ? Pour la première année, les évaluations des élèves de CE1 sont généralisées dans toutes les écoles de France. Et les premiers résultats inquiétants.
De nombreux témoignages recueillis depuis quelques semaines nous permettent d’ores et déjà de pointer un problème majeur : les épreuves retenues (et les instructions en matière de codage de résultats) mettent en difficulté une proportion d’élèves sans commune mesure avec les résultats des années précédentes. De nombreuses classes affichent un pourcentage d’élèves identifiés » en grande difficulté » supérieur à 60%.
Résultat, ici, un inspecteur prend conscience du malaise et suspend toute passation. Là c’est un inspecteur d’académie qui fait état publiquement de ses doutes sur la validité du protocole retenu. Partout, les circonscriptions sont débordées par la demande de livrets « B » supplémentaires.
Pour certains items, la distorsion est flagrante avec le protocole de l’an passé. Ainsi la double page de l’exercice 1, demandant aux élèves de choisir les mots correctement orthographiés en dessous de leur image, également présente dans les évaluations de CE2, est massivement échouée, en particulier du fait du codage prescrit : zéro défaut imposé.
Evidemment, quelques âmes mal pensantes suspectent la manipulation, en ces temps de polémique médiatique sur la lecture : le meilleur moyen de pouvoir dire n’importe quoi sur la question, c’est de casser l’échelle du thermomètre pour ignorer l’état de la fièvre. Annoncer publiquement une inflation de difficultés scolaires en début de CE1, ne serait-ce pas le dernier argument d’un ministre acculé à la gesticulation médiatique pour assurer son propos sur » tout fout le camp » ?
« Pourtant », explique Michèle, suivant depuis plusieurs années ses élèves en cycle II en ZEP, « les résultats de la cohorte de cette année ne sont ni pires ni meilleurs que ceux de l’an passé. Mais je suis sûre que les exercices choisis et la manière de coder entraînent une performance aux tests bien plus négative ».
Pour ne pas céder à la paranoïa, il faut revenir sur la genèse de cette évaluation. Sa construction a été produite, de 2002 à 2004, par un groupe très hétérogène autour de la Desco (Direction de l’Enseignement Scolaire du ministère de l’éducation nationale) et de la Dep (Direction de l’Evaluation et de la Prospective). Constitué de chercheurs (linguistes, psychologues, didacticiens), de représentants de l’Inspection Générale, d’acteurs de terrain (IEN, CPC, enseignants), ce groupe s’est posé toutes les questions nécessaires pour « cadrer » cet exercice. Quelle part pour la numération ? Et les pseudo-mots ? La production d’écrit ? Les activités de compréhension ? Quel niveau de vocabulaire exiger pour les textes proposés à la lecture des élèves ? Quel niveau de langue ? Quel codage des items ? Combien de temps de passation ? Selon quelles modalités ? Quels items sont réellement basiques, prédicteurs des difficultés ?… Le codage des résultats a été lui aussi au centre de discussi
ons p
assionnées : à quel niveau d’échec va-t-on demander à l’élève de passer la partie complémentaire de l’évaluation ? 3/ 15 ? 5/15 ? 8/15 ?
A partir du travail statistique réalisé dans cette première phase, les items retenus avaient été choisis pour arriver, en moyenne, à un taux de réussite de 85% de bonnes réponses à la première épreuve, afin de bien identifier ces 15% d’élèves dont on sait qu’ils posent problème à l’Ecole. Evidemment, ce 15% est inégalement réparti sur le territoire national : dans certaines ZEP, on peut arriver parfois à 50%.
Mais cette année, les résultats semblent montrer une aggravation conséquente des résultats : hors ZEP, les élèves en difficulté sont souvent 30 à 40%, pour monter à 80% dans les zones ZEP. Dans ces conditions, il y a fort à parier que l’évaluation nationale ne puisse aider en rien les enseignants pour adapter leur enseignement.
Difficile de savoir qui a décidé de la forme finale que prendrait le protocole. La Desco est aux abonnés absents et le groupe de pilotage qui avait monté le protocole initial a été dispersé. Pour le moment, au ministère, on affirme attendre les remontées du terrain pour la mi-novembre. On veut croire que les enseignants ont peur de la nouveauté. Comme si ce genre d’évaluation était inédit.
Si le ministère veut montrer que ce dérapage est autre chose qu’une manipulation supplémentaire pour truquer les chiffres, il va falloir qu’il fasse rapidement quelque chose. S’il ne dit rien d’audible, il sera une fois de plus contreproductif, faisant douter encore plus les enseignants de l’utilité de centrer leur activité sur les évaluations diagnostics, qui sont pourtant un outil efficace pour accompagner les maîtres dans la compréhension des difficultés des élèves. (Avec Patrick Picard)
L’évaluation en CE1 sur le site de la Desco
http://eduscol.education.fr/D0069/aide-evaluation-ce1.htm
Quelles difficultés ont les enseignants avec les évaluations institutionnelles ? (pdf)
http://zep89.ouvaton.org/pp/DiffEvalEnseign.pdf
Le même document, avec les annexes (pdf 3 Mo)
http://zep89.ouvaton.org/pp/PICARD_CE1_EVAL_COMPLET.pdf
Et votre avis ?
http://www.cafe-leblog.net/index.php?2006/09/05/34-temoignez-sur-les-ppre#c730