Evaluations de CM2 : Elles auront lieu après l'affectation en 6e nous précise Luc Chatel 

Par François Jarraud



"Nous avons besoin de disposer d'outils de repères incontestables à des moments clés de la scolarité obligatoire". Dans un entretien accordé au Café pédagogique, le 12 mai, Luc Chatel revient sur les modifications apportées à l'évaluation nationale de CM2. Il s'engage à ne pas lier ses résultats au passage en 6ème. Il maintient la nécessité d'échanges entre école et collège sur les résultats et entend que chaque enseignant de CM2 participe à l'évaluation nationale, ce que 97% d'entre eux auraient fait cette année. L'évaluation permettra d'améliorer les résultats "en réajustant notre politique de façon toujours plus fine et individualisée".


Vous venez de modifier l'évaluation de CM2 en la repoussant en fin d'année scolaire. Qu'est-ce qui justifie cette mesure ?


Si j'ai fait le choix d'évaluations-bilans nationales, en fin de CE1, de CM2 et bientôt de 5ème, c'est parce que nous avons besoin de disposer d'outils de repères incontestables à des moments clés de la scolarité obligatoire. Mais cela ne signifie pas qu'il faille renoncer à des évaluations diagnostiques en début d'année ; elles n'ont simplement pas vocation à être nationales et nous mettons à disposition les outils permettant aux maîtres de repérer les difficultés de leurs élèves pour leur permettre d'y remédier.


S'il s'agit de mesurer les performances de l'Ecole pourquoi ne pas se contenter d'un sondage ? Pourquoi obliger tous les écoliers à la passer ?


Ces évaluations-bilans répondent à un double objectif : pour l'encadrement, les directeurs, les inspecteurs, les recteurs, ils disposent ainsi d'un outil de pilotage précis ; pour les professeurs, ils peuvent ainsi mesurer les acquis de leurs élèves et analyser l'efficacité de leurs pratiques, ce qui ne serait pas possible avec un simple sondage.


Les parents et les syndicats craignent que cette évaluation individuelle serve à trier individuellement les élèves et de fait à rétablir une forme de sélection à l'entrée en 6ème. Les résultats à cette évaluation seront-ils utilisés pour le passage en sixième ? Quelles instructions donnerez-vous aux enseignants et aux inspections académiques sur ce point ?


Pour éviter qu'on ne les confonde avec un examen d'entrée en 6ème, elles auront lieu après l'affectation des élèves en classes de 6ème. Et elles seront au contraire une aide précieuse pour lutter contre l'échec scolaire puisque les élèves qui seront repérés comme étant en difficulté bénéficieront de l'aide personnalisée qui va être introduite en classe de 6ème.


Comment seront traitées les informations recueillies ? Les parents pourront-ils faire valoir leur droit à ce que cette information ne soit pas transmise hors de l'école de leur enfant ?


Les résultats des évaluations ont vocation à être communiqués et commentés par les professeurs aux familles. Elles sont confidentielles, restent au niveau de la classe, de l'école ou de l'établissement pour être exploitées pédagogiquement par les équipes, ce qui implique des échanges approfondis entre école et collège, dans la logique de l'école du socle. Les professeurs sont des responsables éducatifs, ils ont une déontologie et ne diffusent pas les informations qui leur sont confiées. Quant aux informations qui remontent vers les circonscriptions, les académies et le niveau national, ce sont des données anonymes, traitées globalement et de façon statistique.


Ces données seront-elles utilisées pour la gestion des écoles, soit pour leur affecter des moyens supplémentaires, soit pour lisser les moyens entre écoles ? Seront-elles publiées ?


Les résultats de ces évaluations sont destinés à renforcer le pilotage pédagogique. Les évaluations ne servent donc pas à l'allocation de moyens. Quant à ce que vous appelez la « gestion » des écoles, une relation automatique entre des moyens supplémentaires et des résultats n'aurait guère de sens. Les recteurs et les inspecteurs d'académie assurent avec équité la répartition des emplois. Là où se trouve la grande difficulté scolaire, l'Education nationale apporte des moyens complémentaires, par exemple dans les établissements CLAIR, désormais ECLAIR. Mais encore une fois, dissocions les moyens des résultats ! Des résultats performants, c'est d'abord le fruit de démarches pédagogiques concertées et adaptées, comme le soulignent les rapports de l'inspection générale.


Qui sera chargé de concevoir l'évaluation et d'exploiter ses résultats ? La Dgesco seule ? La Dgesco et la Depp ? Quelqu'un d'autre ? Avec quelle transparence ?


La conception de ces évaluations se fait de façon concertée entre la DGESCO, la DEPP et l'Inspection Générale conformément à la loi informatique et libertés. La DGESCO fixera, comme c'est son rôle, les attendus pédagogiques en conformité aux programmes et au socle commun de connaissances et de compétences. La DEPP établira le standard nécessaire en matière de fiabilité statistique et de comparabilité d'une année sur l'autre. Enfin l'inspection générale, comme elle le fait déjà, assurera l'expertise de l'ensemble du dispositif d'évaluation. Bien évidemment, des équipes pédagogiques d'inspecteurs et de professeurs élaboreront les épreuves. Ces données contribuent avec d'autres à évaluer la performance du système éducatif, précisément dans un souci de transparence.


Les évaluations ont donné lieu à de nombreux incidents gérés avec de grandes différences locales. Allez-vous donner des consignes de fermeté aux inspections académiques pour qu'elles poursuivent les enseignants qui évaluent d'une façon différente du process officiel ? Cette petite guérilla scolaire a-t-elle un sens ?


La passation de ces évaluations n'a pas posé de difficulté particulière, ni en 2010, ni en 2011 même si les medias ont pu mettre en exergue quelques épiphénomènes. Rappelons que cette année 97 % des résultats de l'évaluation CM2 sont remontés. Les évaluations nationales exhaustives constituent un instrument qui prend sa place dans l'ensemble des outils d'évaluation des élèves dont nous disposons. Les instructions à passer sont des consignes usuelles. Elles garantissent des conditions de réalisation de qualité et donc celle de l'évaluation. La passation des évaluations fait partie des obligations de service de tout enseignant dès lors qu'elles ont été décidées et qu'elles sont mises en oeuvre dans les académies. C'est une affaire de responsabilité éducative.


On a multiplié les évaluations en France ces dernières années et on va en ajouter une en 5ème. La France est-elle un pays où l'éducation est particulièrement bien évaluée ? D'ailleurs peut-on mesurer une action éducative ?


L'Éducation nationale, comme tous les services publics, entre peu à peu depuis quelques années dans une culture de l'évaluation. Les évaluations internationales dont PISA est sans doute la plus emblématique, nous ont donné des repères et nous ont encouragés à disposer d'outils de plus en plus précis. Il y aura désormais 3 évaluations-bilans en français et mathématiques, à 3 moments clés de la scolarité obligatoire : en fin de CE1, de CM2 et de 5ème. Je crois que cela contribuera à renforcer la qualité de l'évaluation de notre système éducatif et donc à améliorer les résultats de nos élèves en réajustant notre politique de façon toujours plus fine et individualisée.


Le ministère tire-t-il toujours les enseignements des évaluations nationales ou internationales ?


Je vous rappellerai à cet égard que j'ai donné une conférence de presse au moment de la publication de PISA. Certains médias m'ont d'ailleurs reproché alors de prendre des mesures qu'ils jugeaient trop en réaction par rapport aux résultats de PISA, comme mon plan sciences par exemple. Plus généralement, je remarque que chaque acteur du système éducatif est attentif aux évaluations et en tire des enseignements dans sa pratique. Mon rôle est de garantir une évaluation fiable pour rendre compte à la Nation des résultats de nos enfants.

Liens :

L'évaluation de CM2 sur le Café

Nouveau cap ou vieille rhétorique, avec X. Pons

http://www.cafepedagogique.net/lexpresso/Pages/2011[...]

JJ Hazan : Aucune légitimité

http://www.cafepedagogique.net/lexpresso/Pages/2011/0[...]

Les parents font de la résistance

http://www.cafepedagogique.net/lexpresso/Pages/201[...]

Les réactions syndicales

http://www.cafepedagogique.net/lexpresso/Pages/201[...]

Le dossier

http://www.cafepedagogique.net/lesdossiers/Pag[...]


Le plan Sciences

http://www.cafepedagogique.net/lemensuel/lesysteme/Pages/2[...]

PISA analysé par Luc Chatel

http://www.cafepedagogique.net/lexpresso/Pages/2010/12/[...]



Evaluer et conduire. Un rapport de l'Inspection générale montre comment se met en place le pilotage par les résultats


Une "Note de synthèse sur la mise en œuvre de la réforme de l'enseignement primaire" réalisée par l'Inspection générale est rendue publique par le ministère. Elle montre comment les évaluations nationales sont appelées à devenir des éléments clés du pilotage de l'école.


Un rapport a été relâché. Rédigé par Philippe Claus, Gilles Petreault et François Louis, c'est le premier rapport de l'Inspection générale rendu public volontairement par le ministère depuis novembre 2009. Il succède directement à une note sur le même sujet dont nous avions souligné la richesse rédactionnelle. Plus simple, la Note de 2010 dresse un tableau sévère de l'application de la réforme de 2008 en maternelle et en élémentaire. Elle s'étend sur les usages que l'Inspection veut faire des évaluations avant de terminer sur une tentative de cadrage des manuels scolaires.


Mais s'il est un maître mot de ce rapport c'est "conformité". Tout au long du rapport c'est le souci de la "conformité" (le mot apparaît 13 fois dans ce petit rapport, liberté 0 fois) qui domine aussi bien pour le travail enseignant que pour les éditeurs. Alors que la Note de 2009 soulignait les difficultés d'application de la réforme de 2008, ce nouveau rapport estime que " les contestations frontales sur les programmes se sont éteintes. Subsistent cependant un certain nombre de craintes ou d’interrogations". Le problème maintenant c'est " d’aider les enseignants à réorganiser leurs pratiques pédagogiques pour couvrir l’ensemble (du programme) tout en restant dans la perspective de leurs options d’enseignement". La suite va nuancer l'affirmation en montrant par exemple que 3 emplois du temps sur quatre ne respectent pas le programme.


Une maternelle qui résiste. Si tout semble bien engagé, les inspecteurs sont sévères envers la maternelle qui résiste à l'esprit du nouveau programme. Ce sont "les apprentissages du langage oral dont on ne perçoit pas le caractère prioritaire… L’enrichissement du vocabulaire est sans doute plus travaillé qu’il ne l’était ; il reste à le rendre plus profitable en veillant à la mémorisation et au réemploi, adapté et en situation, des mots nouveaux découverts." Il faut " recentrer la réflexion des enseignants sur la logique d’apprentissages qui doit prévaloir en lieu et place d’une logique d’activités encore dominante. La fonction et l’organisation des « ateliers » sont à repenser."


L'école élémentaire n'est pas assez conforme. " Quatre emplois du temps sur cinq s’écartent, de manière sensible de l’horaire officiel" estiment les inspecteurs. Ce sont les fameux "fondamentaux" qui écrasent les autres disciplines. Les élèves ne font pas assez d'EPS, de sciences, d'histoire-géo. "L’instruction civique et morale est présente plus d’une fois sur deux avec un horaire propre, mais parfois sous l’appellation « éducation civique »", la remarque n'est peut-être pas anodine. " La morale n’est presque jamais abordée et l’utilisation de maximes illustrées demeure rarissime", ajoute le rapport. . Dans les recommandations, les inspecteurs souhaitent que les disciplines autres que le français et les maths entrent dans les évaluations nationales.


Comment se met en place le pilotage par l'évaluation. Pour l'historien de l'école qui voudra étudier la mise en place en France, après tant de pays, du pilotage par l'évaluation,ce rapport sera très précieux. Car c'est l'élément central de la Note. Les auteurs soulignent que " la forte opposition (aux évaluations de CE1 et CM2) relevée dans la deuxième note des inspections générales s’est progressivement éteinte", tout en reconnaissant que la Depp a du procéder à un redressement des résultats. Ces évaluations sont présentées comme le levier de transformation de l'école. Le premier rôle de ces évaluations c'est d'évaluer les enseignants. " Des inquiétudes demeurent sur l’évaluation implicite de l’action de l’enseignant au travers de celle des élèves. La notion de mesure de la performance est ambiguë pour certains, contestée dans son principe par d’autres… Les résultats des élèves restent très peu pris en compte dans les rapports d’inspection" des enseignants regrettent les inspecteurs. Pour eux ce n'est aps seulement que les enseignants craignent "une normalisation" . C'est que cela "atténue la responsabilité directe sur les résultats des élèves. Le pilotage pédagogique de proximité devrait contribuer à lever ces réticences". Comprenez que les inspecteurs devront imposer la normalisation. Le rapport insiste d'ailleurs sur les changements à apporter aux inspections. Les évaluations doivent aussi être un élément déterminant du pilotage académique.


Conformer les manuels ? C'est encore l'obsession de la conformité qu'on retrouve dans le dernier chapitre du rapport. C'est tout à fait extraordinaire que dans un pays qui garantit la liberté d'édition et où la tradition du manuel d'Etat n'existe pas, les auteurs entendent ainsi encadrer les manuels scolaires. Ils s'en prennent aux auteurs de manuels qui avaient critiqué les programmes de 2008. "Si globalement, les manuels nouvellement édités sont conformes, l’inspection générale a constaté divers écarts". Et ça c'est terrible ! Les auteurs demandent le développement d'exercices interactifs complémentaires au manuel papier.


S'il est traditionnel que l'Inspection se soucie de l'application des programmes, le rapport va au-delà pour porter son intérêt sur le pilotage de l'école, en y incluant l'édition scolaire. Du coup des aspects importants ne sont pas étudiés : l'efficacité de l'aide personnalisée, l'organisation du temps scolaire par exemple, qui avaient tenu tant de place en 2009. Alors que de nombreux travaux de la Depp et de l'Inspection restent bloqués, la sortie de ce rapport s'explique peut-être par sa conformité aux priorités gouvernementales.

Le rapport

http://media.education.gouv.fr/file/2010/93/9/note[...]

Le rapport 2009

http://www.cafepedagogique.net/lexpresso/Pages/20[...]



Les syndicats craignent l'examen d'entrée en 6ème


Le transfert de date change-t-il la nature de ces évaluations ? Pose-t-il la question de leur finalité ? Va-t-on vers un examen d'entrée en 6ème ?


Nouveau rebondissement dans la saga des évaluations nationales du primaire. J.M. Blanquer, directeur de l'enseignement scolaire, a annoncé au Se-Unsa et au Snuipp le 9 mai, un changement d e cap dans les évaluations nationales de CM2 qui auront lieu en fin d'année scolaire dès 2012.


Une histoire mouvementée. Alors que les enseignants s'étaient habitués à une évaluation diagnostic qui permettait de déceler les faiblesses des élèves, Xavier Darcos avait mis en place en 2007 une nouvelle évaluation qui avait rencontré une vive résistance. Dans un document d'orientation, le ministre présentait cette évaluation comme un moyen "de connaître et de faire connaître quels sont les acquis des écoliers français à des moments clefs de leur scolarité, notamment par rapport aux pays comparables. C’est pourquoi seront créées deux évaluations nationales témoins qui serviront à mesurer les acquis des élèves au CE1 et au CM2… Elles seront construites à partir des connaissances et des compétences légitimement attendues à ces niveaux de la scolarité… Elles seront menées au milieu de l’année scolaire afin que les professeurs des écoles aient le temps nécessaire pour organiser leur enseignement. Leurs constats seront rendus publics et permettront d’apprécier l’évolution de la réussite du système éducatif… Le niveau obtenu lors de ces évaluations mais surtout les progrès accomplis par les élèves et mesurés par ces évaluations constitueront le véritable indice de réussite de la politique scolaire". En même temps était annoncé que "l’évaluation des professeurs des écoles doit être redéfinie : pour ne plus s’attacher seulement à la méthode pédagogique de l’enseignant mais intégrer les progrès des élèves".


Ont suivi deux années de troubles sérieux, ponctuées par des refus massifs de faire passer ces tests et d'en faire remonter les résultats. Les enseignants ne comprenaient pas à quoi sert cette évaluation mise en milieu d'année, mais portant sur le programme de l'année, dont les résultats étaient finalement remontés nationalement pour obtenir des statistiques à la fiabilité douteuse. Les spécialistes s'interrogeaient aussi. Ainsi Nathalie Mons en 2011 : "Le Ministère se heurte actuellement au refus d'un dispositif dont les objectifs politiques ne sont pas clairs. S'agit-il d'une évaluation diagnostic ? Elle doit alors concerner tous les élèves en début d'année. S'agit-il d'une évaluation bilan qui donne une photo des acquis des élèves à un palier particulier du système éducatif ? Il est alors préférable qu'elle soit conduite en fin d'année et pour des raisons de coût sur un échantillon représentatif d'élèves et d'établissement. Le dispositif actuel est un mélange des deux qui n'a pas de sens statistiquement parlant".


Finalement, en 2010, Luc Chatel avait plaidé l'apaisement et promis une refonte. Les évaluations passaient du giron de la Dgesco à celui de la DEPP (direction des études du ministère). Et des négociations s'entamaient avec les syndicats et les parents. Malgré elles, en 2011, les évaluations ont été passées dans les formes voulues par X Darcos , à la grande colère des parents de la FCPE. C'est cette démarche d'apaisement qui est anéantie par l'annonce, par la Dgesco, du changement de cap.


Pour Christian Chevalier, secrétaire général du SE-Unsa, "le ministère n’a nul besoin d’imposer un système aussi coûteux pour disposer des informations nécessaires au pilotage du système éducatif. Les évaluations sur échantillons représentatifs répondent parfaitement à cet objectif". Le syndicat demande "le développement de banques d’outils d’évaluation des compétences du socle commun à tous les niveaux, et le retour à des dispositifs nationaux d’évaluations diagnostic en début de CE2 et de CM2".


Interrogé par le Café, le Snuipp s'inquiète des finalités de ce changement. "Après avoir longtemps entretenu un double discours sur ce dispositif présenté à la fois comme diagnostique et bilan, le ministère vient de lever le voile sur ses véritables intentions : ces tests ne sont que des évaluations « bilan » et rien d'autre. Leurs résultats ne serviront pas aux élèves mais seulement au ministère pour disposer d'indicateurs statistiques dans le but unique de piloter le système éducatif. Le SNUipp-FSU a toujours affirmé que cet objectif pouvait être atteint en travaillant sur un échantillon représentatif". Du coup , la mise en place d'évaluations nationales, dont le srésultats individuels sont traités nationalement, interroge le syndicat. "Placées ainsi en fin d'année, ces évaluations ne seront pas exploitables par les enseignants à moins que l'intention du ministère ne soit de rétablir, à terme, un examen de passage en 6éme".


La victoire de Copé ? C'est qu'à l'UMP, Jean-François Copé a fait campagne pour cet examen d'entrée dès le lancement de la campagne des présidentielles. Accueillie fraichement dans les rangs mêmes de son parti, cette proposition semblait enterrée. La décision du ministère vient de la remettre en selle au risque de lancer une nouvelle campagne de "résistance" contre ces évaluations. On n'a pas fini d'en parler.

Communiqué Se-Unsa

http://www.se-unsa.org/spip.php?article3249

L'analyse de N Mons

http://www.cafepedagogique.net/lexpresso/Pages/2011/01/1901_[...]

POur les parents de la FCPE

http://www.cafepedagogique.net/lexpresso/Pages/2011/01/070111hazan.aspx

Le dossier évaluation de CM2

http://www.cafepedagogique.net/lesdossiers/Pages/evaluationsCM2.aspx

Le rendez-vous d el'UMP

http://www.cafepedagogique.net/lemensuel/lesysteme/Pages/2010/117_2.aspx



Analyse : Nathalie Mons : "Le Ministère se heurte au refus d'un dispositif dont les objectifs politiques ne sont pas clairs"


Auteur d'un rapport européen sur les effets des évaluations standardisées et sur les politiques d'évaluations, Nathalie Mons ne voit pas seulement dans les évaluations de CM2 "une formidable régression technique". Elles sont aussi le résultat des errements des politiques.


Cette année encore les évaluations nationales de CM2 sont mal parties et il faudra probablement à la DEPP quelque "coefficient correcteur" pour leur donner sens... Quel regard porte le chercheur sur ces péripéties ?


Il y a deux façons de créer des évaluations standardisées comparables dans le temps. Soit on crée initialement une base de données d'items avec des correspondances entre eux en termes de difficultés, correspondance testées à l'avance, ce qui est la meilleure solution. Soit, quand on a raté le début d'une opération, on peut créer de nouveaux items que l'on raccroche a posteriori à ceux passés lors des premières épreuves, par un travail de rajustement statistique tel qu'il a été réalisé l'année dernière par la DEPP. Pour un acteur qui a des compétences techniques aussi solides que la DEPP les deux solutions sont valides scientifiquement. Par contre politiquement la seconde peut entraîner un fort risque de perte de légitimité de l'instrument statistique, c'est ce qui se passe actuellement.


Le montage du dispositif d'évaluation a mal été engagé initialement, dominé la première année par un acteur qui manquait totalement de compétences techniques, la DGESCO. Il aurait fallu mettre tout cela à plat l'année dernière, repartir de zéro en s'appuyant sur les nouveaux apports techniques de la DEPP. C'était la condition pour redonner une crédibilité à l'instrument. Les tests standardisés sont certes des outils techniques mais aussi sont devenus, dans la majorité des pays européens d'ailleurs, des instruments politiques développés dans une nouvelle perspective d'évaluation des réformes, de reddition des comptes en direction des citoyens et des électeurs ainsi que des outils d'orientation des conduites pédagogiques. A ce titre les conditions de leur légitimité politique doivent être observées de près. C'est ce qui fait défaut aujourd'hui dans le dispositif français.


Le ministère se heurte au refus d'une évaluation bilan du système éducatif alors même que la LOLF l'impose. Cette forme de pilotage, qui est nouvelle en France, est-elle devenue universelle ?


Le Ministère se heurte actuellement au refus d'un dispositif dont les objectifs politiques ne sont pas clairs. S'agit-il d'une évaluation diagnostic ? Elle doit alors concerner tous les élèves en début d'année. S'agit-il d'une évaluation bilan qui donne une photo des acquis des élèves à un palier particulier du système éducatif ? Il est alors préférable qu'elle soit conduite en fin d'année et pour des raisons de coût sur un échantillon représentatif d'élèves et d'établissement.


Le dispositif actuel est un mélange des deux qui n'a pas de sens statistiquement parlant. A chaque objectif doit correspondre un test différent. C'est une confusion que l'on observe dans de nombreux pays européens, surtout au début de la création de tels dispositifs, puis les compétences techniques progressant les outils sont progressivement affinés. En France, avant que la DGESCO ne s'empare du dossier et tente de le piloter seule, la DEPP avait déjà largement acquis ce niveau de compétences techniques, la France avait un panel fort riche d'évaluations standardisées. Ce dispositif représente une formidable régression technique. Il a moins un objectif de validité de la mesure des acquis scolaire qu'un objectif politique d'évaluation des réformes et à terme de reddition des comptes par les acteurs locaux. Les contraintes de la LOLF en termes d'indicateurs nécessiterait seulement une évaluation sur un échantillon.



Les syndicats refusent la concurrence entre écoles et demandent que l'évaluation bilan soit faite sur échantillon de façon à ce qu'elle n'identifie pas les écoles. Dans certains pays les résultats sont publics et guident les parents dans le choix de leur établissement. Quels en sont les résultats en terme d'efficacité du système éducatif ?


Il n'y a pas de consensus scientifique sur les effets des évaluations standardisées sur les performances des élèves. Les modèles théoriques, en particulier issus de l'économie néo-classique, qui sont derrière ce type de réformes sont extrêmement faibles : pourquoi imposer un test conduirait-il à une progression des résultats scolaires ? Empiriquement, rien n'est démontré en tout cas. Les acteurs n'ont pas les comportements attendus : les parents, même lorsque les résultats des écoles sont publiés, de fait effectuent peu leur choix en fonction de ces indicateurs qui pour être valides doivent être des indicateurs de valeur ajoutée qui tiennent compte des publics accueillis par les écoles. A noter qu'il existe très peu de pays européens qui publient pour l'enseignement obligatoire les résultats des écoles et encore moins les résultats en valeur ajoutée. Même en Angleterre, championne depuis l'époque Thatcher des League tables (les palmarès des écoles), ces indicateurs VA datent de 2006. Les parents choisissent en fonction de la réputation des écoles et de la composition sociale de l'école.


Si l'on ne peut écarter l'évaluation du système éducatif, a quel niveau doit-il être fait ? Et par qui ?


Si l'on souhaitait réellement réaliser une évaluation indépendante du système éducatif français, elle pourrait être conduite sur la base d'un échantillon par une agence ou une institution indépendante du ministère comme cela se fait souvent à l'étranger. Mais les politiques qui imposent aux autres acteurs une culture de l'évaluation et progressivement une obligation de résultat ne sont pas prêts à se l'imposer à eux-mêmes. C'est ce que nous venons de montrer avec un collègue suisse à travers une recherche sur les caractéristiques des dispositifs d'évaluation standardisée en Europe, impropres à engager la responsabilité du politique.


Le premier problème du système éducatif français c'est le creusement des inégalités entre élèves mais aussi entre établissements. Ces évaluations pourraient-elles être utiles pour y remédier ? A t on des exemples de politiques efficaces pour ces questions ?


Une des vertus de l'évaluation standardisée est certainement d'être un outil de réduction des inégalités entre les élèves mais aussi entre les établissements. C'est une politique qui est plus en lien avec les inégalités scolaires qu'avec l'efficacité. Certains pays comme la Suède ou la Finlande utilisent ces outils pour observer et contrecarrer le développement des inégalités inter-établissements notamment d'origine territoriale.


Nathalie Mons

Maître de conférences en sociologie, université paris-Est Marne-la-Vallée, chercheur au laboratoire du LATTS.


Nathalie Mons a récemment rendu à la Commission européenne un rapport sur les effets des évaluations standardisées et sur les politiques d'évaluations standardisées dans les pays européens.


Entretien : François Jarraud



Evaluation de CM2 : Nouveau cap ou vieille rhétorique ?


"En France les évaluations standardisées n'ont jamais été formellement liées à des standards de performance". Xavier Pons, maître de conférences à Paris Est Créteil, vient de publier aux OUF un ouvrage sur "l'évaluation des politiques éducatives". L'ouvrage pose la question d ela régulation des systèmes éducatifs et de l'impact des évaluations. Dans cette perspective, la France occupa une place singulière, à la fois pionnière et.. rhétorique. Faute d'objectifs communs, l'évaluation n'y est ni continue, ni codifiée ni corrective. L'ouvrage permet de saisir ces spécificités et de situer la démarche française dans le contexte actuel.


Alors que le ministère modifie l'évaluation de CM2 et affirme son importance pour le pilotage du système éducatif, le Café interroge Xavier Pons sur le sens de cette réforme et la place des évaluations en France. Une analyse toute en finesse.


L'évaluation de CM2 vient d'être modifiée pour passer en fin d'année après bien des péripéties. Quelle lecture faites-vous de cette modification ?


Je n'ai pas fait de recherche sur la conception de ces épreuves depuis 2009. Mais il apparaît que le ministère a fait le choix du pilotage (évaluation bilan sur tout le territoire pour permettre d'avoir des indicateurs à tous les niveaux de décision) plutôt que celui de l'accompagnement des pratiques enseignantes (évaluation diagnostique). Il lève ainsi une ambiguïté caractéristique de la période antérieure (évaluation en milieu d'année visant les deux objectifs sans en satisfaire un pleinement). Une incertitude demeure cependant : ces évaluations vont-elle être formellement liées au socle et par exemple alimenter les indicateurs du programme 140 de la LOLF ? Si c'est le cas, alors nous nous rapprocherions d'une politique dite des standards avec une évaluation standardisée d'un palier du curriculum reposant sur des objectifs chiffrés de laquelle dépendrait formellement des décisions éducatives (financières ici). Si ce n'est pas le cas, nous continuerions, comme au cours des décennies précédentes, à produire des évaluations nationales en laissant les acteurs libres de leur exploitation, donc en laissant posée la question des conséquences de l'évaluation. La DGESCO prétend que l'objectif est de « structurer » le socle : sera-ce par la contrainte ? Par l'incitation ?


On a multiplié les évaluations en France ces dernières années et on va en ajouter une en 5ème. La France est-elle un pays où l'éducation est particulièrement bien évaluée ?


Votre question appelle selon moi deux réponses différentes : l'une portant sur le développement des outils d'évaluation, l'autre sur les qualités techniques et méthodologiques des évaluations conduites. Concernant les outils, la France a su développer depuis les années 1970 une tradition d'évaluation des acquis des élèves, au niveau national notamment. À certaines époques (années 1990), elle a même pu inspirer d'autres pays et prendre la direction d'un réseau européen d'organismes publics proposant une méthode alternative à celle retenue dans les grandes enquêtes internationales (PIRLS, TIMSS, PISA). Cependant, pour de multiples raisons politiques et financières, elle n'a pas toujours pu, comme ont su le faire d'autres pays, systématiser ses évaluations dans le temps et aux différents niveaux du système. La reprise en main des évaluations dans le primaire par la DGESCO au détriment de la DEPP est un exemple de ces aléas politiques.


Il m'est plus difficile de vous répondre sur la qualité technique et méthodologique des épreuves, n'étant moi-même ni évaluateur ni statisticien. J'observe simplement qu'elles se fondent le plus souvent sur les techniques statistiques utilisées ailleurs, avec une attention croissante portée aux acquis de la psychométrie dans les travaux de la DEPP et que certains membres de cette direction jouissent d'une réputation internationale.


Certains craignent un pilotage par l'évaluation, à l'image des pays anglo-saxons, avec de bons arguments comme par exemple la loi de finances (LOLF). Qu'en pensez vous ?


Je ne me prononce pas sur la légitimité de ces craintes car j'essaie de garder un regard extérieur sur ces sujets. Je remarque simplement que pour en arriver à un pilotage par l'évaluation comme il en existe dans certains pays anglophones, plusieurs choix techniques et politiques restent à faire qui me paraissent délicats à effectuer dans le contexte français : énoncer ouvertement et soutenir politiquement que l'efficacité est une valeur de l'école républicaine, définir des objectifs chiffrés précis (« x% des élèves doivent maîtriser telle compétence telle année ») à différentes étapes du curriculum national (programmes d'enseignement et socle commun), proposer des évaluations systématiques, assortir ces évaluations de remédiations et de sanctions explicites etc. Mais bien sûr les choses peuvent évoluer rapidement, et ce d'autant plus si les différents partenaires du système éducatif renoncent à entrer dans ces sujets en général perçus comme techniques et ennuyeux !


Vous dites que l'évaluation en France est "un idiome réformateur". Est ce à dire qu'elle est inutile ?


J'ai proposé cette notion après avoir mené plusieurs recherches sur l'évaluation en France ces sept dernières années. J'ai observé que son institutionnalisation était irrégulière dans le temps et dans l'espace, que les décideurs manifestaient un intérêt tout relatif à son développement, que les évaluateurs avaient en tendance peu changé leurs méthodes d'analyse avant et après leur passage à une logique d'évaluation, que l'évaluation était un mot qui faisait périodiquement l'actualité du débat public depuis quarante ans sans jamais qu'une définition précise de son contenu, de ses finalités et de ses démarches ne soit donnée dans les textes officiels ou dans les discours des décideurs. Qu'est-ce donc que cette évaluation ? Je l'envisage comme un idiome réformateur, donc comme un outil de communication utilisé par les acteurs du système éducatif pour signifier à leurs partenaires qu'ils changent, pour les inciter à changer également, voire pour mettre en œuvre effectivement des actions de changement sans pour autant être toujours capable de définir le contenu et les modalités de ce changement. C'est tout le sens par exemple des appels fréquents au développement d'une « culture d'évaluation ».


Je ne crois pas qu'un idiome réformateur comme l'évaluation soit inutile. Par définition, il fait partie du langage des acteurs du système qui réfléchissent à sa réforme. Il leur permet de se comprendre et de se coordonner avec plus ou moins de succès d'un dispositif à l'autre, d'un territoire à l'autre ou d'une politique à l'autre. Par ailleurs, cet idiome réformateur peut prendre des formes concrètes très variables qui elles ont une utilité concrète immédiate : intitulé de bureau, titre d'une loi d'orientation, outil de régulation particulier etc.


Aujourd'hui l'évaluation est faite par de nombreux organismes : IG, DEPP, IFé, HCE, Cour des Comptes etc. Si on veut une évaluation sincère et efficace, qui devrait évaluer le système éducatif ?


Je répondrais tous ! Je crois que l'évaluation sincère et efficace que vous souhaitez est l'aboutissement d'un processus collectif de confrontation d'évaluations multiples effectuées selon des approches différentes, et non le produit direct d'une organisation en particulier, même proclamée « indépendante ». Mais pour que ce pluralisme existe, sans doute faudrait-il dans le cas français décentrer un peu l'expertise publique, qu'elle ne soit pas portée uniquement par des acteurs étatiques (votre liste est édifiante sur ce point !).


Les évaluations internationales comme PISA ont énormément gagné en notoriété et en influence. Peut-on dire qu'elles s'imposent et qu'elles promeuvent un modèle universel d'Ecole ?


Oui elles s'imposent (particulièrement depuis 2005-2006 en France) et oui elles contribuent à structurer nos imaginaires collectifs. Mais tout dépend ensuite de la façon dont les acteurs s'en saisissent dans le jeu politique, à différents niveaux, pour traduire ces évaluations en fonction de leurs intérêts, de leur vision des changement souhaitables etc. Ce n'est pas Pisa en soi qui diffuse le néolibéralisme en éducation et l'éventuelle marchandisation d'une l'école réduite à la production de capital humain. L'enquête en elle-même laisse plusieurs pistes d'interprétation et d'exploitation possibles. Mais réduire Pisa à cette dimension, c'est assurément faire le jeu de ceux qu'on prétend combattre, puisqu'on accepte de fait la prédominance de leur interprétation du monde.


Xavier Pons


Entretien François Jarraud

L'ouvrage :

Xavier Pons, L'évaluation des politiques éducatives, PUF, QSJ 3914, 2011.


Liens :

Sans évaluation on prive les familles

http://www.cafepedagogique.net/lemensuel/lesysteme/Pages/2009/99_XavierPons.aspx

La culture d'évaluation est un discours politique

http://www.cafepedagogique.net/lemensuel/lesysteme/Pages/2009/100_XavierPons.aspx



Sur le site du Café

Par fjarraud , le mercredi 31 août 2011.

Partenaires

Nos annonces