André Ouzoulias
Voilà donc notre petite tortue de Floride, plus habituée aux marécages de l’est des États-Unis, qui se retrouve à barboter dans un aquarium. Et puis, centimètre après centimètre, la jeune tortue grandit, elle commence à être à l’étroit dans l’aquarium. Et puis les enfants se lassent… Et puis les vacances approchent… Alors la famille lâche la tortue dans la nature, dans la rivière voisine. Le reptile retourne à l’état sauvage. Et s’y sent plutôt bien, d’ailleurs. Le gentil petit animal domestique est devenu une grosse bête sauvage pouvant atteindre 20 kilos. Agressive et vorace, elle ne connaît pas de prédateurs naturels.
Des centaines de milliers de tortues de Floride se sont ainsi retrouvées dans nos cours d’eau, provoquant un déséquilibre de l’écosystème des rivières. Leur présence menace même sa soeur européenne, la cistude, notre tortue d’eau douce locale, classée espèce protégée.
Publié sur le site de l’École Supérieure de Journalisme de Lille : http://www.esj-lille.fr/atelier/js/js99/STAR/star1.htm
Le 3 janvier dernier, pour justifier sa circulaire sur la lecture, Gilles de Robien, ministre de l’éducation nationale, a expliqué : « Les méthodes à départ global sont beaucoup moins efficaces que les méthodes à départ phono-synthétique ou syllabique, et elles sont même néfastes pour les enfants les plus fragiles. Ce n’est pas moi qui le dis, mais des scientifiques spécialisés dans l’étude de la lecture, qu’il s’agisse de neurologues, de psycholinguistes ou de linguistes. On observe sur cette question un consensus remarquable de la communauté scientifique, aussi bien en France qu’à l’étranger ».
Si la plupart des chercheurs dans le domaine de l’apprentissage de la lecture ont refusé les simplifications qui sont à la base de la campagne du ministre (ils sont par exemple très nombreux à avoir signé la pétition des syndicats d’enseignants et l’appel « Sauvons la lecture3 »), il faut bien concéder que le ministre a pu s’appuyer sur plusieurs chercheurs considérés par leurs pairs comme des personnes sérieuses et mesurées. Je voudrais faire valoir que, très vraisemblablement, leur attitude est liée à une transposition imprudente, dans le contexte francophone, des recherches effectuées dans le contexte anglophone.
Ces recherches, en effet, sont très nombreuses aux USA, elles disposent de moyens conséquents et sont publiées dans des revues à diffusion internationale qui font autorité parmi les psychologues du monde entier. Leur masse est si considérable qu’elles créent un phénomène gravitationnel : pour un chercheur français, belge ou québécois, qui s’est formé en lisant ces revues, par lui-même et à travers l’érudition de ses maîtres, le fait d’adopter les paradigmes psycho-pédagogiques anglo-américains lui apparaît naturel. Et très naturellement, s’il publie dans ces mêmes revues, c’est généralement en adoptant les mêmes paradigmes.
Or, si certains concepts, positions et débats ont un fondement évident dans les pays de langue anglaise, il n’est pas certain qu’on puisse les transposer si simplement dans les autres pays ni dans les pays de langue française et encore moins dans le contexte scolaire et pédagogique de la France.
Vous avez dit « méthode globale » ?
Prenons l’expression « méthode globale » : les chercheurs cités par le ministre disent que les connaissances permettent de conclure à une moindre efficacité de celle-ci comparativement à un enseignement progressif des relations grapho-phonologiques (en gros ce qu’on appelle le beu-a ba). Or, ils utilisent l’expression « méthode globale » pour désigner indistinctement – globalement – trois approches très différentes de l’enseignement de la lecture dans le monde anglophone :
- « méthode globale » peut traduire l’approche « whole language » ; l’enseignant aborde d’emblée tous les niveaux d’articulation de l’écrit : textes authentiques, fonctionnels et littéraires, phrases, mots, relations grapho-phonologiques de divers empan (cela ne correspond à rien que nous ne connaissions en France, car la « méthode naturelle » qu’on aurait envie de rapprocher de celle-ci s’en distingue radicalement par le rôle central qu’elle fait jouer à la production d’écrits dès la fin de la maternelle et tout au long du CP) ;
- « méthode globale » peut traduire également l’approche « whole word » ; les élèves lisent des mots entiers la première année dans des phrases « calibrées », mais apprennent à mettre en œuvre le décodage sur les plus petites unités en seconde année (cela ressemble assez à la « méthode globale » mise au point par le docteur Decroly au début du siècle dernier pour des enfants en très grande difficulté face aux tâches de décodage, méthode qui a été et est encore pratiquée en Belgique mais n’a jamais vraiment « pris » France) ;
- « méthode globale » désigne la « méthode idéovisuelle » ; cette méthode a été conçue par des pédagogues américains et développée en France par Jean Foucambert4. Ces pédagogues excluent tout enseignement du décodage car ils pensent qu’il fait obstacle à l’apprentissage de la lecture habile, qu’il permet tout juste d’alphabétiser tandis que la société moderne et la démocratie exigent qu’on « lecturise » les enfants ; cette méthode, pratiquée en divers endroits aux USA, n’a jamais réussi à s’installer vraiment dans le paysage pédagogique en France ; quelques maîtres l’ont bien pratiquée dans les années 1980, en s’appuyant sur des analyses plausibles sur la lecture en anglais5, mais elle a quasiment disparu du paysage pédagogique.
Si l’on tient compte du fait qu’en France, la quasi-totalité des maîtres de CP enseignent systématiquement « les relations entre les lettres et les sons » et le font le plus souvent en utilisant des outils fournis par les éditeurs (Ratus, Gafi, Mika, Abracadalire, Crocolivre, etc.) qui empruntent à la méthode « par fusion » son approche grapho-phonologique (conversion graphèmes-phonèmes et fusion des phonèmes syllabe après syllabe), on voit bien que les comparaisons américaines n’ont guère d’intérêt pratique actuel pour l’enseignement de la lecture en langue française. Dans leur écrasante majorité, les maîtres de CP se situent dans ce que les pédagogues anglo-américains nomment « méthodes phoniques », c’est-à-dire dans des progressions dans lesquelles, dès le début du CP, les enfants sont amenés à faire fonctionner les relations grapho-phonologiques, le plus souvent au niveau des unités les plus abstraites (graphèmes et phonèmes), quelquefois en partant d’unités grapho-phonologiques plus accessibles à la perception (syllabogrammes et analogies orthographiques). Dans ce paysage pédagogique, on n’observe aucun signe annonciateur d’un prochain abandon du travail sur la grapho-phonologie ni d’un quelconque engouement pour une méthode « globale ».
Deux langues, deux écritures, deux didactiques
En revanche, il faut bien voir que le débat récurrent sur le rôle de l’enseignement du décodage est une spécificité de la pédagogie de la lecture dans le monde anglophone. Il y structure la vie pédagogique depuis les débuts de l’alphabétisation de masse au 19e siècle et l’on peut être certain qu’il continuera longtemps à habiter l’espace pédagogique dans ces pays, tandis qu’il est quasi inconnu dans le monde hispanophone, lusitanophone, italophone, germanophone, dans les pays de langues slaves, … Si les pédagogues anglophones, plus que tous les autres, sont tentés de relativiser l’enseignement du décodage, il n’y a là rien d’étonnant. Cela tient notamment à une caractéristique de l’orthographe de l’anglais, qui, de très loin, est la moins transparente des écritures alphabétiques (on dit aussi, la plus opaque)6. Faisons apparaître cette spécificité en comparant l’orthographe de l’anglais avec celle du français et de l’italien :
Langue |
Nombre de phonèmes |
Nombre de graphèmes |
% de mots lus correctement par CGP* |
Italien |
30 |
32 |
99 % |
Français |
35 |
130 |
88 % |
Anglais |
40 |
1100 |
69 % |
* Conversions graphèmes-phonèmes La proportion de mots lus ainsi correctement est aussi appelée « taux de consistance ».
En fait, le système orthographique de l’anglais est tel qu’aucune règle ne permet de décider comment se prononcent de nombreuses lettres, notamment les voyelles. Voyons par exemple la prononciation des lettres « o » dans short, word, whole, women, cover… et « a » dans take, care, ball, cat… 7. En anglais, il est très difficile de produire de façon sûre, par décodage, la forme sonore de mots entrevus pour la première fois. On y parvient dans 69 % des cas, quand on connaît bien l’ensemble du système. Pour plus de 30 % des cas, c’est seulement parce qu’il connaît la prononciation du mot anglais, souvent devinée grâce à des éléments de contexte et d’une partie de son écriture qu’un lettré peut attribuer une valeur sonore aux lettres et non l’inverse (en français, ce phénomène existe aussi, comme dans ville, fille, Gilles, grilles, …, mais à un degré moindre8).
De plus, plusieurs recherches, comme celles de Melher et Segui,9 montrent qu’en français, la syllabe est l’unité cruciale de traitement à l’oral (traitement mobilisé par un locuteur natif pour reconnaître des mots prononcés par un autre locuteur natif). Il est donc normal que le lecteur français cherche à produire des syllabes quand il rencontre des mots inconnus. Mais en anglais, c’est plutôt la structure consonantique et l’accent tonique qui jouent ce rôle ; le rôle de la voyelle au « noyau » de la syllabe étant moindre dans le traitement de l’oral, cela diminue par voie de conséquence l’intérêt de la fusion syllabique (le fameux beu-a ba) dans le décodage. De plus, il est connu que les apprentis sont souvent gênés quand ils doivent décoder une syllabe comportant une voyelle brève (ils ont tendance à l’allonger), alors que cette variable est importante pour distinguer des mots différents (fill [fil] et feel [fi:l]).
Il faut noter aussi qu’en anglais, la proportion de mots monosyllabiques du lexique de base dans un énoncé banal est environ 1,5 fois plus grande qu’en français, ce qui réduit l’importance de la construction des syllabes successives lors de la rencontre avec des mots nouveaux. Et, du fait de la présence d’un accent tonique, la prononciation des mots polysyllabiques pose des problèmes spécifiques en anglais.
Par ailleurs, les syllabes anglaises sont souvent du type CCVC (star), CCVCC (start), CCCVC (street)… ce qui rend difficile la fusion des phonèmes consonantiques (voir les problèmes que rencontrent les petits français pour décoder « arbre » ou « spectacle »). En français, les syllabes orales sont plus souvent du type CV (comme dans pantalon, joli, bateau…) et la fusion syllabique en lecture s’en trouve facilitée.
Le rôle des activités métaphonologiques
On voit que l’usage du « beu-a ba » en lecture pose plus de problèmes en anglais que dans la plupart des autres écritures alphabétiques. Du coup, il est normal que les maîtres des pays anglophones ressentent le besoin d’instruire leurs élèves très précocement de « mots entiers », surtout des mots les plus fréquents.
De même, ce sont certainement les caractéristiques de la langue orale anglaise et de son système orthographique qui conduisent de nombreux pédagogues d’outre-Manche et des USA à accorder une importance cruciale à ce qu’on appelle, en psycholinguistique, la « conscience phonologique des phonèmes », notion qui a été conçue et développée dans les années 1970-80 à partir des travaux de la grande psychologue américaine, Isabelle Liberman10. L’opacité de l’orthographe d’une part et la structure syllabique d’autre part (richesse consonantique + faible importance de la voyelle + accent tonique) ne permettent pas de rendre aussi évidente qu’on le voudrait la phonologie du mot dans son écriture. Ces deux caractéristiques gênent l’établissement de la relation, par les apprentis, entre la chaîne écrite et la chaîne phonologique pour chaque mot étudié. C’est ce qui conduit l’enseignant à attirer fortement l’attention des élèves sur la structure phonémique du mot oral : « Quand on prononce ce mot, qu’est-ce qu’on entend d’abord, … et quelle lettre voit-on au début du mot ? Et ensuite, quel autre son entend-on … et quelle autre lettre voit-on ? Etc. ».
Par contraste avec cette contrainte que la langue anglaise et son écriture font porter sur l’apprentissage, on peut penser que, dans des orthographes transparentes et avec des langues dans lesquelles la voyelle est le centre évident de la structure syllabique (par exemple les langues latines, le finnois, le serbo-croate, …), la forte correspondance entre les éléments visuels de l’écrit et les phonèmes, dans un univers phonologique simplifié (beaucoup de syllabes du type V ou CV) assure une bonne « visibilité » des phonèmes. C’est encore plus vrai si, de surcroît, les changements vocaliques portent des informations syntaxiques (nombre, genre, cas, …), comme cela arrive en français pour quelques mots (pluriels en « aux » de certains noms ou adjectifs, variation fait/font, etc.).
Dès lors, c’est seulement avec des enfants susceptibles de ne pas pouvoir saisir les nuances de la phonologie de la langue d’apprentissage (enfants malentendants, locuteurs d’une autre langue maternelle, sujets ayant des difficultés à distinguer des phonèmes proches…) que le pédagogue de ces langues « transparentes » va devoir organiser un apprentissage plus explicite et plus systématique de la segmentation phonologique, éventuellement en utilisant des systèmes gestuels, comme dans la méthode « phono-mimique » que Suzanne Borel-Maisonny, fondatrice de l’orthophonie en France, mit au point pour des enfants ou adultes sourds ou dysphasiques. En somme, il est clair que cette capacité est toujours indispensable à la compréhension du principe alphabétique et à la réussite dans l’apprentissage de la lecture, mais elle est plus ou moins facilitée par la langue et son écriture et demande alors plus ou moins d’entraînement explicite.
Le rôle de l’écriture comme catalyseur de l’apprentissage de la lecture
Il y a au moins deux autres raisons de fond pour lesquelles les conclusions des recherches portant sur le contexte anglo-américain ne peuvent être « importées » sans plus de précaution dans le contexte français.
Premièrement, dans les recherches réalisées dans le contexte de la langue anglaise, il est rare qu’on y évoque des classes dans lesquelles les élèves écrivent abondamment avant de savoir lire. Or, en France, en Belgique, en Suisse et au Québec, de nombreux enseignants conjuguent étroitement lecture et écriture, dès la fin de la maternelle. C’est par exemple le cas des praticiens qui s’inspirent de la méthode naturelle de lecture-écriture de Célestin Freinet et utilisent des démarches mises au point par des pédagogues comme Christiane Clesse11, Danielle De Keyzer, Micheline Daumas12 en France ou Laurence Rieben en Suisse13. Or, on sait que l’écriture de textes accélère l’analyse car, pour écrire, outre la segmentation du texte en mots, il faut épeler les mots, alors qu’en lecture, ceux-ci sont donnés comme des touts à la perception visuelle. Ces analyses favorisent l’accès aux relations grapho-phonologiques, qui y est plus précoce que dans les méthodes de type syllabique (fondées sur la seule synthèse). Toutefois, dans cet environnement pédagogique, les enfants commencent souvent par des relations de grand empan comme « mer, merci, mercredi » ; « bien, chien, mien, rien » ; « dimanche, dinosaure, lundi, Dimitri, » ; etc. qu’on appelle des analogies orthographiques.
Malheureusement, quand certains chercheurs parlent de ces méthodes dans le contexte de la langue française, ils les rangent souvent, sans plus de précaution, dans la catégorie des « méthodes globales » ! Leur critère est en effet : le maître enseigne-t-il directement, systématiquement et dès le début de l’année les CGP. Il peut leur arriver alors de s’étonner que les résultats obtenus par les élèves de ces classes « globales » soient meilleurs que ceux des classes « phoniques ». C’est ainsi qu’Alain Content et Jacqueline Leybaert14, dans une étude comparative (1992), doivent reconnaître que la méthode qualifiée de « globale » est la plus efficace, alors qu’ils s’attendent à ce que ce soit la méthode qualifiée de « phonique » ! Un pareil résultat ne doit pourtant pas surprendre, si, comme il est probable, les enseignants qui obtenaient les meilleurs résultats pratiquaient en réalité la méthode naturelle de lecture-écriture.
Quand les enfants écrivent des textes dès la fin de la maternelle (en dépassant progressivement la dictée à l’adulte et en écrivant de façon de plus en plus autonome) et poursuivent ces démarches au CP, cela transforme radicalement le rapport à l’écrit : les mots qui ne sont pas décodés sont quand même analysés lettre à lettre en production. De la sorte, les mots très fréquents comportant peu de lettres (il, la, le, un, dit, que, et, est, …) sont mémorisés rapidement et sans effort, de façon parfaitement exacte, à partir de cette épellation (et non sous forme d’image « globale »). Ce n’est pas négligeable si on considère que les mots de très haute fréquence constituent une proportion conséquente des mots traités en lecture (les 70 mots les plus fréquents de la langue française constituent 50 % des mots de tout texte français). De plus les suites de lettres correspondantes se retrouvent dans de nombreux mots (exemples : ma, la, de, dans malade, il dans fil, mais dans maison, etc.), ce qui favorise les analogies orthographiques.
Le fait que les pédagogues anglophones soient moins tentés par une entrée précoce dans l’écriture tient vraisemblablement à une influence bien moindre de l’écriture sur la lecture, liée à l’opacité du système orthographique : ce n’est pas parce qu’on sait prononcer CA dans cat, qu’on peut l’utiliser pour prononcer cake, call ou care15. Peut-être pensent-ils aussi que les non lecteurs ne peuvent pas écrire, ce qui, en anglais plus que dans toute autre langue, est une position d’apparence raisonnable… surtout si on ne connaît pas le procédé qui consiste à inciter les enfants à puiser les mots et expressions dont ils ont besoin dans des textes-références segmentés en clauses (cf. les techniques mises au point par Danielle De Keyzer dans l’ouvrage déjà cité).
Cet oubli du rôle de l’écriture dans la construction des connaissances en lecture chez les chercheurs qui se réfèrent essentiellement à la situation anglo-saxonne, entraîne aussi des confusions conceptuelles lourdes de conséquences. Par exemple, le mot « logographique », terme introduit en psychologie par Utah Frith16, souvent utilisé comme synonyme de « global », renvoie à deux sortes de traitements, très différents sur le plan de leur portée développementale : des traitements purement iconiques et des traitements liés à l’épellation. Dans les traitements iconiques, le sujet épouse les fonctionnements classiques de la reconnaissance perceptive visuelle : attention à la forme globale, à la silhouette, à des singularités (le tréma de Noël, les S initial et final de souris, les deux O de moto qui font penser aux deux roues de l’engin, etc.). Dans les traitements par épellation, le sujet sait épeler le mot bien qu’il ne sache pas (ou pas encore) relier ses lettres à sa prononciation ; il utilise cette tactique pour mémoriser et reconnaître les mots, en tout cas pour contrôler les traitements iconiques. C’est pourquoi, par exemple, il peut reconnaître le mot maman même s’il apparaît dans des stimuli visuels très différents : MAMAN, Maman, maman, maman… On met « dans le même sac logographique » (ou « global ») des représentations et des procédures de nature différente, dont les unes sont très approximatives (le mot « global » est alors pertinent) et les autres dérivent de l’écriture, sont liées à l’épellation (toutes les lettres dans l’ordre), sont parfaitement exactes (le mot « global » est particulièrement mal choisi) et permettent des comparaisons, des analyses et de premières analogies (matin, malin -> marin) qui préfigurent la compréhension du principe alphabétique.
Le rôle de la préscolarisation
Deuxièmement, il existe en France une école maternelle qui scolarise près de 100 % des enfants de 3 à 6 ans. Ce sont des maîtres qui encadrent ces enfants et leur action est guidée par des programmes nationaux, rédigés en cohérence avec ceux de l’école élémentaire. Parmi les orientations de cette école, il y a une initiation à la lecture. En principe, les enfants entrant au CP doivent déjà avoir acquis à la maternelle une expérience et des connaissances qui facilitent leur apprentissage. En revanche, pour la plupart des enfants américains, l’entrée à l’école (et dans des apprentissages scolaires explicites de l’écrit) se réalise au first grade, qui correspond à notre CP.
Quand les enfants français entrent au CP, beaucoup ont entendu à la maternelle une multitude de textes que les adultes leur ont lus, ils savent reconnaître plusieurs supports écrits (album, journal, lettre, recette, etc.), souvent, ils savent déjà lire et écrire par épellation plusieurs mots (le prénom, des mots comme papa, maman, maison, …, voire des mots fréquents, tels que la, et, un, etc.), ils connaissent souvent une quinzaine de lettres dans les trois alphabets et savent les utiliser pour épeler les mots, ils ont analysé les mots en syllabes orales, sont sensibles à des effets de rime, ont compris que ce sont les syllabes qu’on doit représenter en écrivant les mots, etc. Dans des écoles maternelles de plus en plus nombreuses, les enfants de Grande Section utilisent l’ordinateur pour recopier et imprimer des textes…17
La plus grande part de ces apprentissages se réalise sans enseignement direct du beu-a ba. Va-t-on en conclure que ces enfants « font de la globale » avant d’entrer au CP ? Si c’est le cas, et si « la globale » est autant pernicieuse, alors, en toute rigueur, il faut aussi empêcher partout les enfants de voir les supports écrits (journaux, livres, affiches, panneaux routiers, etc.) avant le CP ou le first grade et d’écrire des mots qu’ils ne peuvent pas encoder, pas même leur prénom, « papa », « maman », etc. Cela ne pourrait que les orienter vers les impasses du globalisme ! On voit bien que l’opposition « globale-phonique » est trop réductrice pour nous permettre de bien saisir le rôle de cette première expérience sociale plus ou moins informelle des supports écrits, de la langue des textes et de l’écriture elle-même, expérience qui ne s’arrête d’ailleurs pas aux portes du CP aussitôt que l’adulte commence un enseignement systématique de la grapho-phonologie.
Transposition n’est pas raison, si on oublie que le français est relativement transparent
Dans ce transport sans précaution des concepts de la recherche sur l’apprentissage de la lecture en langue anglaise vers d’autres contextes linguistiques, il y a plus grave encore : c’est que, suivant la destination, les problématiques de recherche changent de sens psychologique et pédagogique. Supposons que l’on transpose le débat anglo-américain sur les méthodes dans les pays qui ont des écritures « transparentes » (par exemple l’espagnol, l’italien, le serbo-croate ou… le finnois18, dont l’orthographe repose sur un principe de relation biunivoque : une lettre -> un phonème ; un phonème -> une lettre). Les enseignants de ces pays regarderaient cela avec stupeur : dans ces écritures, il n’y a pas tant de choix pour décider comment conduire les élèves à reconnaître les mots écrits et les débats anglo-américains n’ont guère de sens pour eux. Dire à un maître finlandais qu’il doit absolument écarter la « méthode globale », c’est un peu comme dire à des Inuits qu’ils doivent résolument rejeter l’agriculture. Ce qui est informatif pour les uns (les pédagogues anglophones) peut apparaître tellement évident pour les autres (les pédagogues des écritures transparentes) qu’ils se demandent pourquoi on a dépensé tant d’énergie à enfoncer des portes ouvertes.
Il faut bien voir que la transposition de ce débat en France ne provoque pas nécessairement la même impression de « hors-sujet ». En effet, il existe en Belgique des partisans éclairés de la méthode globale et il y a eu en France des défenseurs brillants de la méthode idéovisuelle et cela a laissé des marques dans la culture pédagogique. Et, par ailleurs, très souvent, on fait passer la méthode naturelle de lecture-écriture, assez répandue, pour une « méthode globale » où les enfants n’apprennent pas à décoder. Tout cela peut donc laisser penser que cette transposition est légitime.
Disons-le nettement : en réalité, aujourd’hui, elle est presque aussi hors-sujet que dans le cas des écritures transparentes. En effet, aujourd’hui, la quasi-totalité des maîtres de CP utilisent « naturellement » des méthodes « phoniques ». Et, aujourd’hui, montrer aux maîtres de CP, à l’aide des travaux anglo-américains, qu’il est très dangereux d’utiliser une « méthode globale » et de ne pas engager un enseignement systématique et progressif du décodage, c’est enfoncer des portes ouvertes et aborder la didactique de l’écrit en France avec des concepts grossiers. Le ridicule est même atteint quand deux chercheurs français, reconnus par le ministre comme des experts, en s’inspirant des conclusions pédagogiques de l’Institut National de la Santé de l’Enfant et du Développement Humain aux USA, recommandent de passer une demi-heure au moins chaque jour de classe au CP sur les correspondances graphèmes-phonèmes… Toute personne qui a déjà observé un tant soit peu les classes de CP sait bien que les activités sur ces relations peuvent occuper la classe quotidiennement pendant deux à trois fois plus de temps.
Transposition n’est pas raison, si on oublie que le français est relativement opaque
Il reste à se demander pourquoi, en France, la transposition du débat anglo-américain ne paraît pas si ridicule et pourquoi certains pédagogues ont pu penser qu’il était préférable de différer, voire d’éviter, l’enseignement du décodage19. Cela tient sans doute au fait que notre orthographe, tout en étant bien plus régulière que celle de l’anglais, montre une réelle tendance aux distinctions morphémiques (saut, sot, seau, sceau). Cette caractéristique a forcément des conséquences psychologiques et pédagogiques sur l’apprentissage de la lecture dans le contexte francophone.
Ainsi on ne peut pas considérer que tel élève a terminé ses apprentissages de base de la lecture-écriture quand il écrit : « Alort, la prinsèce atout le roillome pour elle ». Il est vraisemblable qu’il ne lit pas encore par la voie directe (ou orthographique) des mots comme « princesse » et « royaume » et qu’il est encore obligé, en lecture, de les produire par décodage.
En revanche, cet élève serait probablement considéré comme un expert dans un pays dont l’écriture est transparente, par exemple dans un pays hispanophone. Une psychologue comme Emilia Ferreiro considère en effet, à juste titre dans le contexte hispanophone, que le couronnement du développement dans l’apprentissage de la lecture est « le stade alphabétique »20. Elle montre que les enfants hispanophones parviennent, après des réélaborations successives de leur représentation de l’écrit, à une conception où ils savent mettre en relation les lettres et les phonèmes en lecture, les phonèmes et les lettres en écriture. Elle montre qu’ils accèdent souvent à cette compétence avant leur entrée à l’école primaire. Et de nombreux pédagogues en espagnol jouent sur le rôle moteur de l’écriture dans le développement de la lecture en incitant les enfants à « inventer » l’écriture des mots. On saisit la parfaite légitimité de ce geste pédagogique : quand un enfant a compris le principe alphabétique, s’il fait la bonne analyse phonologique et s’il connaît bien les relations phonèmes-graphèmes, en « inventant » l’écriture des mots, il les orthographie exactement dans plus de 90 % des cas ! L’erreur n’a pas de conséquence fâcheuse, car, le plus souvent, il suffit que l’enfant comprenne quel phonème il a oublié ou quels phonèmes il a confondus et son expertise s’en trouve consolidée.
Comme en français, un tel fonctionnement ne « marche » que dans 50 % des cas, il est possible que ce qui apparaît comme une pratique pédagogique heureuse dans le contexte hispanophone soit en fait un facteur de régression dans le contexte francophone21. En effet, le couronnement de l’apprentissage de la lecture en français ne peut pas se limiter à la conquête du principe alphabétique via le développement de la conscience phonologique, mais exige, bien au-delà, l’accès à la conscience orthographique.
Si nous pratiquons l’enseignement de la lecture comme si notre système était transparent, on commet une triple erreur. D’abord, quand l’orthographe erronée produite par l’apprenti est plausible grapho-phonologiquement, il y a un vrai risque que sa mémoire orthographique soit déstabilisée à cet endroit, ce qui est surtout gênant pour l’accès à la reconnaissance orthographique en lecture du mot correspondant (l’accès à la voie directe).
Ensuite, il se peut qu’on leurre ainsi gravement les enfants : si l’on peut écrire en encodant graphème à graphème, n’est-il pas naturel de lire lettre à lettre ? C’est ainsi que beaucoup d’enfants peuvent se retrouver piégés devant le mot « maison » qu’ils ne reconnaissent pas immédiatement, car ils l’écriraient plus volontiers « mézon ». Beaucoup font : « ma… ma-ï… ma-ïs… ». Ils voient bien que quelque chose ne va pas. On leur dit alors : oui, M A I, ça fait [mé], comme dans « mairie », « semaine », etc. Les voici ensuite devant « maintenant » : M et A ça fait [ma]. Non, c’est vrai, il y a un I ! Donc M A I = [mé] …
Il se peut même que certains enfants, face à ce type de difficulté, devant le mot MAISON, commencent par produire par exemple les deux syllabes [masi]. Ce comportement surprenant s’explique pourtant assez bien si l’enfant s’est formé le schème suivant, adapté aux écritures transparentes : pour chaque syllabe, il faut faire sonner la première lettre, généralement une consonne (ici M) et la deuxième qui est une voyelle (ici A) et les fusionner en une syllabe orale : [ma]. Arrivé à ce moment, l’enfant ne sait plus quoi faire du I qui lui apparaît à la droite du A (il ne peut pas continuer la fusion, car le hiatus « maï » n’est pas très plausible en français). Il cherche plus à droite et voit S… et trouve une solution plus acceptable ! Il fusionne le S et le I et dit finalement [masi] qui est une suite de syllabes plus plausible en français !
Mais il n’est pas toujours certain que la remémoration par l’enfant du fait que le graphème AI représente le phonème [ê] lui permette d’éviter la difficulté. Supposons par exemple, qu’il se rende compte de cela juste après avoir produit [ma] : « Ah, oui ! il y a AI qui fait [ê] ; mais je ne dois pas oublier le M qui fait [m] ; [ê] et [m], ça fait [êm] ! ». Il fusionne les phonèmes dans l’ordre où il les récapitule, le [ê] de AI qu’il est heureux d’avoir redécouvert et qui occupe maintenant son attention et le [m] du M qu’il ne veut pas oublier en route et auquel il revient dans un second temps. L’enseignant peut alors croire que l’enfant n’est pas bien latéralisé.
Il est très vraisemblable qu’un grand nombre d’enfants qui rencontrent ces difficultés dans le décodage passent pour des dyslexiques, alors que celles-ci s’expliquent assez bien si l’on observe qu’ils essaient de faire « sonner les lettres » comme si le français était une écriture transparente (à la manière de « Léo a vu le joli lavabo »). Et ces mêmes enfants, qui savent lire « vélo », « cinéma », « café »… (soit des mots écrits de façon parfaitement transparente), se demandent pourquoi c’est si difficile de lire « maison » ou « maintenant » qui sont pourtant hyper-fréquents ! On a produit de la difficulté alors qu’on aurait pu amener les élèves à rencontrer cette complexité dès le départ.
Enfin, si on se concentre sur le seul encodage-décodage, c’est vraiment dommage, car, en lecture, l’enfant traite « seau », « saut » et « sot » en faisant seulement attention à ce qu’il entend au bout du compte, c’est-à-dire [so]. Il lit alors en français comme on le ferait dans une écriture transparente : dans de telles écritures, par définition, tous les homophones sont homographes (par exemple tous les [so] s’écrivent SO) ; du coup, devant l’écriture SO, pour un débutant, il est plus facile de produire la syllabe correspondante [so], mais pour savoir duquel il s’agit (du récipient, du bond, du masculin de sotte ?), de toute façon, le lecteur a besoin de recourir au contexte, ce qui ralentit sa lecture.
Entraîner les élèves au décodage (y compris dans le cas des graphèmes complexes) sans les inciter à exploiter en même temps les caractéristiques morphémiques de l’orthographe de ces mots pour accéder directement à leur signification, cela revient à les priver du bénéfice de ces marques orthographiques en lecture. Pourquoi, alors, payer si cher l’apprentissage de cette orthographe (en lecture et en écriture) ? À tout prendre, il vaudrait franchement mieux réformer l’orthographe du français et l’écrire avec l’alphabet phonétique international22 !
Quand transposition est déraison
Dans le contexte linguistique de l’anglais, quand les recherches disponibles concluent qu’un enseignement précoce et progressif de la grapho-phonologie est une des principales conditions de la réussite dans l’apprentissage de la lecture, cela peut constituer une authentique information pour le monde pédagogique anglophone. Mais quels effets peut avoir une telle affirmation, martelée sur tous les tons en France, comme si l’on venait de découvrir un précepte universel comparable à l’usage de la pasteurisation en matière d’hygiène ? Quels effets peut-elle avoir alors même que, comme nous venons de le voir, une telle affirmation est raisonnable dans le contexte français où le débat pédagogique a longtemps porté sur le rôle du décodage, et où ce débat, sans être aussi ample que dans le contexte linguistique de l’anglais, se justifie notamment par l’importance de l’aspect morphémique de notre orthographe ?
Soit les maîtres sont réellement tentés par les approches « globale » et « idéovisuelle » et ces affirmations sont totalement pertinentes. Elles viennent leur rappeler la nécessité d’être attentif à une dimension essentielle de l’apprentissage de la reconnaissance des mots écrits : le montage et l’automatisation des capacités à décoder les mots nouveaux en utilisant la grapho-phonologie, dans toutes ses dimensions (CGP, structure attaque-rime, analogies orthographies, morphologie, etc.) et particulièrement la dimension le plus générale, les CGP, sans la maîtrise desquelles il n’y a pas de lecteur habile.
Soit les maîtres sont déjà convaincus de cela et utilisent des méthodes que beaucoup de pédagogues américains convaincus de l’importance cruciale de la grapho-phonologie appelleraient de leurs vœux. Alors (et c’est bien ce qui nous arrive, hélas !), on conclut de ces recherches nord-américaines qu’il faut impérativement utiliser, en France, des méthodes encore plus phoniques, radicalement phoniques, purement synthétiques.
Or, de telles méthodes, impossibles en langue anglaise (avec 1100 graphèmes, allez faire du « beu-a, ba », pour lire ball, bath, baby, …), sont envisageables en France (130 graphèmes dont 50 graphèmes de base). Ce sont les méthodes « synthétiques pures », telles que les anciennes Boscher et Rémi et Colette ou la toute récente Léo et Léa (que le ministre donne en exemple à qui lui demande les caractéristiques de la méthode optimale). Les enfants n’ont le droit de lire et d’écrire les mots que lorsqu’ils ont été confrontés à l’enseignement des graphèmes correspondants (même si ce sont des mots hyper-fréquents tels que un, et, est, dans, avec)23 ! Le pédagogue de la « synthétique pure » essaie d’éviter que l’enfant devine certains mots à l’aide du contexte ou, simplement, en coordonnant prise en compte du code et d’informations portées par le contexte (la syntaxe et le sens), tactiques qui caractérisent les « méthodes globales, semi-globales ou assimilées » (c’est bien ainsi que certains chercheurs, auxquels se réfère le ministre, désignent les méthodes les plus répandues actuellement : Ratus, Gafi, Mika, Cocolivre, Abracadalire, etc.).
Dans une méthode purement synthétique, il faut produire des sons, en utilisant les seules ressources du code, comme si l’accès à la prononciation des mots était sans rapport avec leur signification24 et comme si une signification donnée n’ouvrait pas l’accès à des mots du lexique oral et donc à leur prononciation. D’une certaine façon, avec une méthode synthétique pure, l’enfant n’a le droit d’apprendre que ce que son maître lui enseigne et, ce qui est probablement pire, les chercheurs qui défendent cette position, de façon incroyablement naïve, pensent qu’il suffit d’enseigner le décodage sous cette forme épurée, systématique et progressive pour que les enfants l’apprennent25.
Les défenseurs de cette conception sont si convaincus d’avoir analysé la lecture en ses éléments les plus simples (les conversions-graphèmes-phonèmes et la fusion syllabique) comme lorsque la physique réduisit la matière aux atomes, que la difficulté dans l’apprentissage est alors interprétée presque automatiquement comme une pathologie cérébrale. Si l’enfant n’apprend pas, alors qu’on a tout fait pour lui faciliter les choses, cela ne relève plus de la pédagogie mais de la médecine26. Peu importe alors que l’immense majorité des élèves « malades » soient issus des milieux populaires. Certes, cette conception ne simplifie pas la réalité, mais elle a l’avantage de simplifier la représentation qu’on s’en donne : ou bien l’enfant n’apprend que ce qu’on lui enseigne, ou bien il ne peut pas apprendre. Malléable ou malade…
Pour une psychopédagogie interculturelle
Il serait évidemment absurde de conclure de tous ces développements sur les différences entre apprentissage de la lecture en anglais, en français et dans des langues tout à fait transparentes, que les recherches menées ici ne peuvent intéresser là ou, pire, que nous serions victimes de l’impérialisme américain, sous une forme épistémologique. La voie qu’il convient plutôt de suivre consiste à essayer de dégager des invariants à travers des comparaisons interculturelles. C’est ainsi que les recherches conduites sur le rôle de l’écriture dans l’apprentissage de la lecture dans le contexte francophone (avec une écriture relativement opaque) pourraient probablement intéresser les psychologues et pédagogues américains, comme les recherches anglo-américaines sur le rôle de l’analyse phonologique dans la compréhension du principe alphabétique constituent probablement un acquis international, qu’il reste à adapter, avec prudence, à notre contexte linguistique.
En tout état de cause, il importe que les psychologues qui travaillent sur l’apprentissage de la lecture connaissent effectivement les pratiques des maîtres, non seulement de façon « globale », mais de façon effective et profonde, sans négliger le fait que, parfois, beaucoup de choses peuvent se jouer sur des différences apparemment subtiles. Car la méconnaissance des pratiques peut aboutir à des dégâts pédagogiques collatéraux, si les instances politiques, sans plus de précaution, suivent les convictions de chercheurs qui transposent sans prudence les concepts psychopédagogiques d’une société (et d’une école) dans une autre.
Et ce ne sont pas les beaux problèmes qui manquent pour un chercheur qui souhaite faire progresser la pédagogie de la lecture-écriture en langue française. S’il veut contribuer au progrès de cet enseignement, pour que cela conduise le plus vite possible le plus grand nombre d’élèves à une lecture habile, voici, par exemple, quelques questions que se posent les praticiens, données sans ordre, à propos d’une partie de la didactique élémentaire de la lecture-écriture, celle qui concerne l’identification ou la production des mots écrits :
• Faut-il partir de l’analyse phonologique vers les graphies correspondantes (du « phono » au « grapho ») ou, à l’inverse, partir des régularités graphiques pour les corréler aux régularités phonologiques (du « grapho » au « phono ») ?
• Faut-il démarrer le décodage au niveau des unités les plus abstraites (les graphèmes et les phonèmes) ou faut-il préparer celui-ci en commençant par des unités plus accessibles à l’enfant, qu’on appelle « analogies orthographiques » (par exemple le « ma » de Marie, matin, Magalie).
• Si l’on veut travailler les relations graphèmes-phonèmes, par quels consonnes faut-il commencer, les plus fréquentes (l, m, p, t, …) ou les plus faciles à repérer à l’oral, à savoir les fricatives (r, ch, v, s, …) ?
• Si l’on souhaite s’appuyer sur une progression qui part d’emblée des CGP (plutôt que d’analogies orthographiques), faut-il introduire dès le départ des graphèmes complexes (ou, on, in, eau, ain, ien, etc.) ou faut-il suivre une progression liée à la fréquence des graphèmes ou encore une progression qui va des graphèmes simples aux graphèmes complexes ?
• Faut-il faire prononcer ou non les syllabes « muettes », comme « pe » dans soupe ? Est-ce la même chose au Nord et au Sud de la Loire ?
• Faut-il entraîner la fusion des phonèmes syllabe après syllabe ou faut-il la réaliser du début à la fin du mot, quel que soit le nombre de syllabes ?
• Faut-il même entraîner les élèves à ce type de procédure peu adapté au décodage en français, où la segmentation syllabique n’apparaît très souvent qu’après coup (par exemple pour la première syllabe de « maintenant », comment savoir où elle se termine : ma/intenant, mai/ntenant, main/tenant, … si on n’a pas exploré d’abord la totalité du mot ? ).
• Comment accélérer, pratiquement, la formation de la mémoire orthographique, qui commande les habiletés cruciales dans la reconnaissance des mots écrits chez le lecteur avancé ?
• Si l’on fait écrire les débutants, faut-il les laisser écrire les mots « comme on les entend » (comme dans « on a fé un cado ») ou faut-il les inciter au doute orthographique aussitôt qu’ils ont compris le principe de la grapho-phonologie alphabétique ?
• Si l’on fait écrire les débutants sans les laisser inventer l’orthographe des mots (pour favoriser l’accès à la voie directe en lecture), comment peut-on néanmoins leur permettre d’écrire abondamment, sans être bridés par cette nécessité de s’approprier le lexique orthographique ?
• En Grande Section, les activités d’analyse de la chaîne sonore doivent elles être proposées sur un matériel purement auditif ou faut-il permettre aux enfants de s’appuyer sur l’écriture des syllabes ? Jusqu’où doit-on aller dans ces analyses : la rime et les consonnes fricatives (r, ch, v, z, f, …) ou les consonnes occlusives (p, t, k, b, d, …), ce qui est quasiment désespéré sans matériel écrit ?
• Faut-il continuer à exiger que les enfants français soient les seuls au monde à utiliser la cursive pour écrire en fin de Grande Section et au CP (dans les autres pays, elle est enseignée en fin de 2e année ou en 3e année), ce qui prend un temps important, ajoute de la complexité (trois alphabets au lieu de deux) et renforce chez certains enfants le recours à des stratégies iconiques27 ?
• Etc.
Préserver notre écosystème pédagogique
Le 3 janvier dernier, avec sa circulaire sur la lecture et ses justifications, le ministre a officialisé la transposition, on aurait envie de dire l’intrusion, dans « l’écosystème pédagogique » français (contexte linguistique, scolaire et didactique) de concepts, débats et politiques éventuellement pertinents dans « l’écosystème pédagogique » anglo-américain (contexte linguistique, scolaire et didactique). Il se pourrait qu’arrivant rue de Grenelle, le ministre qui a fait baisser la mortalité routière de 30 % en installant 500 radars, ait cru qu’on pouvait résoudre aussi simplement le problème de la lecture… Si c’était le cas, on serait tenté de regarder ce dérapage avec indulgence.
Aujourd’hui, en tout cas, les dégâts créés par ce geste mal inspiré et précipité sont encore réparables. Mais pour éviter que la « méthode syllabique pure » dite aussi « phono-synthétique », ne détruise tous les acquis de notre histoire pédagogique de ces trente dernières années, il faudra vraisemblablement procéder avec les concepts et débats psycho-pédagogiques anglo-américains comme avec la tortue de Floride : en suspendre l’importation, pendant un certain temps du moins, apaiser les parents et les praticiens, puis ne les réintroduire en France qu’avec d’infinies précautions.
1 Je remercie Rémi Brissiaud pour ses remarques sur une première version de ce texte…
2 André Ouzoulias professeur à l’IUFM de Versailles, est l’un des initiateurs de l’appel Sauvons la lecture. Il est notamment l’auteur de Médial (Moniteur pour l’Évaluation des Difficultés de l’Apprenti Lecteur), Retz, 1995 et de Favoriser la réussite en lecture : les MACLÉ, Retz-CRDP de Versailles, 2004.
3 Cet appel, initié par un groupe de chercheurs, peut être signé par tous les professionnels, praticiens, formateurs et chercheurs à l’adresse suivante : http://www.lapetition.com/sign1.cfm?numero=1058.
4 Voir par exemple Jean Foucambert, 1983, La manière d’être lecteur, Albin Michel (première édition : Sedrap, 1974) ; 1994, L’enfant, le maître et la lecture, Nathan.
5 Voir Frank Smith, 1980, Comment les enfants apprennent à lire, Traduit de l’anglais par Michèle Proux, Préface de Jean Foucambert, Retz.
6 Une orthographe est transparente si elle est économe en graphèmes et si les relations graphèmes-phonèmes sont régulières. Si cela avait un sens, on pourrait dire ainsi que l’orthographe la plus transparente est l’API, l’alphabet phonétique international, fondé sur le principe de biunivocité : un phonème -> une lettre ; une lettre -> un phonème.
7 Ces exemples ou d’autres sont donnés par Rémi Brissiaud dans un article en ligne sur le site des Cahiers Pédagogiques : L’erreur orthographique, l’apprentissage implicite et les méthodes de lecture et d’écriture, associé au n° 440 (février 2006) de la revue, portant sur l’orthographe.
8 Ces exemples et d’autres sont cités par Bernard Devanne dans un article en ligne sur le site Le Café Pédagogique. (http://cafepedagogique.net/lesdossiers/Pages/devanne_i2l.aspx).
9 Mehler J., 1981, The role of syllables in speech processing : infants and adults data. Philosophical Transactions of Royal Society, 295, 333-352. Segui J., 1984, The syllable : a basic perceptual unit in speech processing ? In Bouma H. & Bouwhuis D. G. (éds), Attention and performance X : Control of language process. Hillsdale : Erlbaum Associates
Segui J., 1989, Traitement de la parole et lexique. Lexique, 8, PUL..
10 Liberman, I. et al., 1974, Explicit syllable and phoneme segmentation in the young child, Journal of Experimental Child Psychology, 18, 201-212. Voir aussi, sur ce sujet, le classique de Gombert, J-É, 1990, Le développement métalinguistique. Paris : PUF.
11 Clesse, C., 1977, Apprendre à lire en parlant, expérimentation dans un CP, in Lentin Laurence, éd., Du parler au lire, ESF, Paris. Voir aussi Chartier A.-M., Clesse C. & Hébrard J., 1998, Lire écrire, 2 : Produire des textes. Hatier.
12 Voir par exemple De Keyzer, D., dir., 2000, Apprendre à lire et à écrire à l’âge adulte, RETZ-PEMF ; Daumas, M. et Bordet F., 1990, L’apprentissage de l’écrit au cycle 2 : écrire pour lire, Nathan.
13 Rieben, L., Meyer, A., et Perregaux C., 1989, Différences individuelles et représentations lexicales : comment 5 enfants de 6 ans recherchent et copient des mots, in Rieben Laurence et Perfetti Charles, L’apprenti lecteur, Delachaux et Niestlé, Neuchâtel.
14 Content A. et Leybaert J., 1992, L’acquisition de la lecture : influence des méthodes d’apprentissage, in Lecoq P. (éd.), La lecture, processus, apprentissages, troubles. Lille : PUL.
15 Cf. Brissiaud R., 2006, article déjà cité.
16 Frith U., 1985, Beneath the surface of developmental dyslexia, in Patterson K. E. , Marschall J. C. & Coltheart M. (éds), Surface dyslexia, 301-330. London : Erlbaum.
17 Remarquons que, quand les enfants écrivent avec l’ordinateur, en général, ils appuient sur des touches où figurent les lettres capitales et cela fait apparaître sur l’écran les minuscules correspondantes. Cet outil amène les enfants à observer de façon active l’identité alphabétique des mots et à se détacher ainsi des représentations iconiques primitives.
18 Comme on le sait, c’est la langue parlée et écrite en Finlande, pays que notre actuel ministre donne en modèle pédagogique à imiter.
19 Rappelons-nous que certains de ces pédagogues transposaient ainsi les concepts et débats d’outre-Atlantique…
20 Ferreiro, E, 2000, L’écriture avant la lettre, Hachette.
21 Voir à ce sujet l’article de Rémi Brissiaud déjà cité.
22 Voir par exemple le choix d’une simplification radicale de notre orthographe, vers lequel semblent tendre deux psychologues auxquelles le ministre se réfère : Liliane Sprenger-Charolles et Pascale Colé. On devine que ce n’est pas le nôtre.
23 Voir par exemple, ici même, dans la réponse de Roland Goigoux à Franck Ramus et Liliane Sprenger-Charolles, une analyse de la méthode Léo et Léa (http://education.devenir.free.fr/Lecture.htm#goigoux2).
24 Cela fait irrésistiblement penser à l’antique pédagogie de la lecture où les enfants phonétisaient des mots latins avant de lire en français. Comme en latin, les relations graphèmes-phonèmes sont biunivoques, on y voyait une excellente propédeutique à la lecture en français, bien que les enfants ne comprissent évidemment pas les « bruits » qu’ils produisaient ainsi.
25 Voir aussi, Ouzoulias, A. 2006, « Les six simplifications des tenants de la « méthode syllabique pure » », à paraître dans le Nouvel Éducateur, revue de l’ICEM, n° 178-179, avril-mai.
26 Voir par exemple le titre significatif du livre de Liliane Sprenger-Charolles et Pascale Colé, Lecture et Dyslexie : Approches cognitives (Paris, Dunod) qu’elles présentent comme une synthèse des recherches internationales sur l’apprentissage de la lecture.
27 Voir Ouzoulias A., 2004, « La production de textes courts pour prévenir les difficultés dans l’apprentissage de la lecture et/ou y remédier », dans Comprendre et aider les enfants en difficulté scolaire, FNAME-RETZ, où cette question est débattue de façon détaillée.
Page publiée le 10-02-2006