Il semble que l’on puisse parler de paradoxe : d’un côté enseigner des certitudes, de l’autre accepter l’incertain, l’inattendu, l’imprévu. C’est ce que vient de nous rappeler cette année 2020. Longtemps, l’informatique a été un symbole de certitude, de rationalité, d’infaillibilité. Et pourtant de nombreux problèmes (bogues, bugs, failles, portes dérobées…) ont progressivement fait émerger le doute concernant cette fameuse fiabilité présumée. La rationalité est volontiers rapprochée de l’informatique considérée comme rigoureuse. Certains y ont même vu, à une époque, le langage informatique et la programmation structurée comme le nouveau latin, porteur de la fabrication d’une pensée sérieuse et rigoureuse. C’était bien sûr ne voir que la partie émergée de l’iceberg, la plus valorisée, car derrière cette façade, il y avait de nombreuses fragilités. La première de celles-ci est bien d’abord humaine : celui qui conçoit ces machines et ces logiciels reste un humain « incertain ».
Programmation et incertitude
Lorsque l’informatique a commencé à s’imposer dans les lycées professionnels et techniques (les années 70 – 80), la programmation était enseignée (Basic pour les tertiaires en particulier). Les quatre structures de bases, séquentielle, itérative, alternative et récursive étaient considérées comme la base à acquérir pour maîtriser ces machines. Certes, la récursivité était réservée à certains langages et restait assez complexe à maîtriser, mais elle faisait partie des fondamentaux. Et surtout, il nous apparaissait alors qu’il était possible de faire une analogie entre ces quatre structures et le fonctionnement du cerveau. Ainsi, la rationalité informatique par analogie rejoignait la rationalité humaine, croyait-on, affaire de certitude, bien sûr.
L’intelligence artificielle connaît dans les années 1980 un intérêt particulier et déjà assez médiatisé. Le Perceptron, de Rosenblatt, actualisé et popularisé par S Papert et surtout Marvin Minsky ouvrait des possibles pour aller plus loin, tout comme le fameux langage Prolog créé par Alain Colmerauer. La programmation déclarative (Prolog) rapprochait le langage naturel de l’ordinateur, celui-ci devenant une de cerveau digérant les propositions de l’utilisateur et les structurants (logique des prédicats). Là encore il s’agissait de tenter de trouver des fonctionnements qui se rapprocheraient de celui du cerveau humain.
Le cours de l’histoire de la place de l’enseignement de l’informatique dans le monde scolaire est marqué par des hésitations, dont l’une des principales est justement basée sur le fameux « à peu près », (parfois renommé « logique floue » par les rationalisateurs). Or c’est l’incertitude qui est observée au quotidien dans la classe. Et cette idée de rationalité maîtrisée, si elle traverse les réflexions dans la communauté éducative de manière récurrente (cf les machines à enseigner), est mise à mal, aussi bien dans les faits vécus chaque jour que dans les soubresauts des travaux de recherche en informatique (la mise en cause du cognitivisme). La fameuse phrase « on ne peut remplacer les enseignants par des machines » est récurrente dans les discours. Elle a été récemment actualisée par la mise à distance imposée. La place prise par les moyens numériques, en particulier de visioconférence, a fait évoluer ce discours sous une forme élargie aux interactions humaines physiques par rapport aux interactions humaines médiatisées par l’informatique : « on ne peut enseigner et apprendre uniquement à distance et remplacer le cours en salle par un cours en visioconférence ».
Informatique et besoin de certitudes
L’année 2020 aura été révélatrice de nombre de questions que l’on ne se posait pas jusqu’à présent, présentiel oblige. Si le numérique a pris une place importante, comme aide pour surmonter la crise, il n’en est pas moins un indicateur des limites qu’impose une distance médiatisée. Mais il est aussi révélateur des limites du tout présentiel pour apprendre. D’une part celui-ci s’avère toujours incomplet, on apprend aussi en dehors de l’école. D’autre part, en présence, nombre d’interactions ne sont que des apparences ou tout au moins sont très limitées (cf le cours magistral en amphi devant un grand effectif, même si le travail de Denis Berthiaume a essayé d’en permettre un dépassement). A distance, ces interactions sont aussi complexes et sont parfois simplement de surface et ne sont pas forcément des aides à l’apprentissage. Enfin, s’ajoute à cela la question des supports mis à disposition pour apprendre, les fameuses ressources pédagogiques. Les enseignants ont tous l’expérience de l’impossible reproductibilité d’un enseignement à l’identique d’un groupe à l’autre, à moins de ne se transformer comme un cours enregistré. Ainsi, en présence ou à distance enseigner comme apprendre ne peut se mécaniser.
L’arrivée massive de discours issus des sciences cognitives dans le champ de l’éducation est, pour les enseignants, une source de questionnement, et surtout permet, à certains, d’y trouver des réponses parfois mécaniques à leurs interrogations : de la théorie des intelligences multiples à la gestion mentale, des cartes mentales aux différentes visualisations du cerveau et de son fonctionnement (droit ou gauche par exemple). Certains discours très affirmatifs de ce que « dit la science » tendent à renforcer des prises de positions radicales de certains acteurs du quotidien cherchant à se rassurer. À nouveau l’analogie, directe ou indirecte entre le cerveau et ses représentations numériques, en particulier, est le signe de cette rationalité qui voudrait que l’on comprenne le fonctionnement du cerveau, qu’on le modélise, pour dire comment apprendre et encore plus, enseigner.
L’informatique a laissé croire à des certitudes et certains scientifiques se sont emparés de ce besoin de certitudes pour faire passer leurs travaux, parfois au-delà de ce qui est opérationnel. Face à des enseignants, souvent sous-équipés sur le plan de la culture scientifique, de tels propos, discours, savoirs, peuvent avoir des conséquences importantes. On se soumet à des savoirs (que les scientifiques eux-mêmes savent partiels et provisoires) parce qu’ils nous « facilitent » la vie et les décisions. Dans la classe, la rationalité permet de justifier l’action (la science le dit), et aussi de rejeter ce qui ne fonctionne pas (les élèves qui n’y arrivent pas). D’ailleurs, une certaine médicalisation des difficultés scolaires est un écho à ce rejet, au nom parfois de la même rationalité. L’enseignant, dans la classe, vit des contradictions et des tensions et tente de les surmonter. Cela demande une énergie psychique importante qu’une certaine rationalité peut permettre d’en diminuer la quantité nécessaire.
Apprendre à faire avec l’incertain
L’année 2021 qui débute devrait nous permettre d’apprendre à faire avec l’incertain. Aussi faut-il d’abord renoncer au certain (avant ?). Au-delà des querelles distanciel, présentiel, il va falloir articuler des pratiques avec des réalités quotidiennes. La réduction de la fracture numérique est un enjeu primordial dans ce contexte. On devrait dire réduction des fractures numériques. Car on oublie trop souvent que l’équipement matériel ne suffit pas. Dans le contexte des apprentissages scolaires, il devient nécessaire de penser une souplesse (une agilité diront les rationnels confrontés à l’incertain), une adaptabilité constante. Cela ne peut se faire que sur un fond de capacité d’autonomie augmentée. Si l’éducation est émancipation, l’émancipation se traduit par l’autonomie, cette capacité à se construire ses propres repères pour ensuite les mettre en oeuvre sans aide. Or développer cette compétence est antinomique avec la forme scolaire telle qu’elle était dans le modèle traditionnel présentiel. S’il y a au moins un enseignement de cette période d’incertitude, c’est que nous devons désormais accepter l’incertain et l’autonomie de l’apprenant. Le numérique en a été un révélateur, prenons le en compte, apprenons à en faire « bon usage » en trouvant la « bonne distance ».
Bruno Devauchelle