Le discours doux sur « l’adaptive learning » cache une réalité plus inquiétante et récurrente dans l’histoire : ne peut-on automatiser certains apprentissages en s’appuyant sur des machines informatiques ? S’il est nécessaire de surveiller de près les « données » qu’utilise l’éducation, il est au moins aussi important de se pencher sur les algorithmes sous-jacents au traitement des données captées par la machine. Pour faire face à cette dérive technicienne il est nécessaire que des repères éthiques permettent de construire un cadre, un encadrement de tous ces logiciels qui arrivent en éducation. Aussi est-il temps de réfléchir à cette dérive mécaniste qui, si nous ne sommes pas vigilants, peut nous faire aller lentement mais surement vers une déshumanisation du processus éducatif.
Le retour de la machine à enseigner
Philippe Meirieu écrivait dans un tweet récent : » Ne voit-on pas que cette « révolution » transforme l’enseignement en dressage et enferme le sujet dans son « individualité » quand il faudrait lui ouvrir des horizons et lui permettre de « différer » de lui-même ? ». Il faisait alors référence à cet article du Monde : « L’« adaptive learning », une révolution dans l’enseignement ? » dans lequel il est question de cette possibilité offerte par l’informatique de proposer des aides dites intelligentes à l’apprentissage. En 2015, nous avions déjà publié un texte sur cette question : « Après les classes inversées, les MOOCs, l’adaptive Learning ? ». Amusant de voir que l’article d’un journal, dit de qualité, ait oublié à ce point ce qui se dit depuis longtemps et même très longtemps sur les promesses de l’Intelligence Artificielle dans le domaine de l’enseignement.
Le mot learning (apprentissage) est souvent associé à un autre mot pour nous amener à imaginer ce que pourrait bien être cette « évolution » : Deep learning, Machine learning, Adaptive learning, Learning analytics, Distance learning, Active learning etc. On aimerait d’ailleurs que ces termes soient utilisés en français dans la communauté francophone… En ce moment, et de manière plus globale, c’est l’expression « Intelligence Artificielle » (IA) qui revient au premier plan (elle a passé une période sombre entre 1995 et ces trois dernières années). Elle fait l’objet aussi d’un colloque « L’éducation à l’heure des techniques de l’intelligence artificielle et du numérique » ce 3 juin, organisé par le Conseil Scientifique de l’Éducation Nationale. Malheureusement, le programme annoncé ne devrait pas permettre de sortir des discours habituels, scientifiques ou non, et donc de permettre d’y voir un peu plus clair en particulier de comprendre mieux les intentions et les techniques associées qui se déploient en ce moment en éducation. Un rapport, encore confidentiel, devrait y être présenté.
De nombreuses propositions, issues du monde des entreprises et de la recherche, tendent à nous promettre des avancées significatives appuyées sur cette fameuse « IA ». Ainsi, on nous propose des logiciels qui sont capable d’accompagner un enfant dans l’apprentissage de la lecture en s’adaptant à ses difficultés au fur et à mesure de ses progrès, de ses activités de lectures « imposées » par la machine. Une version douce de ce genre de produit nous dit qu’il s’agit de fournir des aides à l’enseignant pour orienter l’élève dans sa progression. Bien sûr, dans ce cas, il faut éviter le discours sur la « machine à enseigner ».
Mécaniser l’acte d’enseigner
Rappelons ici qu’il s’agit d’abord d’algorithmes plus ou moins sophistiqués qui se « cachent » dans des logiciels. Leur but est de faire apparaître les réactions venues de la machine comme « intelligentes », c’est-à-dire, le plus souvent comme proches du fonctionnement d’un cerveau humain. C’est ainsi que l’adaptive learning (apprentissage adaptatif/adapté) est présenté comme étant capable de faire évoluer les réponses du logiciel en fonction du travail de l’utilisateur, ici, bien sûr, l’élève. La version douce est celle qui donne à l’enseignant des analyses et des recommandations pour permettre à l’élève de progresser. La solution proposée devient alors « acceptable ». Une comparaison rapide entre différents produits qui s’appuient sur cette proposition amène à interroger ces instruments sur le fond : quelle conception de l’humain et du fonctionnement cognitif est contenue dans l’algorithme du produit ? Quelle est l’intention des concepteurs de ces logiciels ? Le discours doux cache une réalité plus inquiétante et récurrente dans l’histoire : ne peut-on automatiser certains apprentissages en s’appuyant sur des machines informatiques ?
Pavlov doit se réjouir dans sa tombe, auteur de cet ouvrage de référence pour tous les étudiants en psychologie : « Réflexes conditionnel et inhibitions ». Alors, qu’à l’instar du scientisme triomphant du début du 20è siècle, ce travail de recherche fait le berceau de toutes les réflexions contemporaines sur la « mécanisation du développement du cerveau », avec l’adaptive learning nous en avons un nouvel exemple. Prenons un peu de recul avec la technique pour regarder de plus près l’acte d’enseigner. Dès Condorcet, il s’agit de tenter d’encadrer l’humain qui enseigne pour s’assurer qu’il « fait ce qu’il faut », c’est-à-dire ce que le pouvoir veut obtenir de la population par l’instruction. Du manuel scolaire à l’enseignement assisté par ordinateur et désormais avec les techniques dites d’IA, il s’agit de combattre les incertitudes qui peuplent la vie quotidienne des classes. À côté des technologies numériques, il y a toutes les techniques associées à l’enseignement : méthodes, référentiels, programmes, etc. tous ces cadres qui visent à diminuer les incertitudes en tentant de systématiser l’acte d’enseigner, de le mécaniser. Cette vision scientifique et politique de ce que signifie scolariser est très largement partagée de manière parfois inconsciente avec l’idée d’un dressage.
Que les politiques fassent leur travail
Pour faire face à cette dérive technicienne (cf. Jacques Ellul) il est nécessaire que des repères éthiques permettent de construire un cadre, un encadrement de tous ces logiciels qui arrivent en éducation. On s’étonne d’ailleurs que le « Comité d’éthique pour les données en éducation » n’ait pas été y voir de plus près. On parle souvent des données, mais très peu des traitements qui sont justement au coeur des mécanismes qui sous-tendent l’IA. Car il s’agit ici d’un traitement de données qui vise à influer sur le comportement des enfants. Or, s’il est nécessaire de surveiller de près les « données » qu’utilise l’éducation, il est au moins aussi important de se pencher sur les algorithmes sous-jacents au traitement des données captées par la machine. Bien sûr, ces données sont captées automatiquement au travers des actions de l’élève, il peut ne pas le savoir… On s’aperçoit rapidement qu’il faut absolument que la base de ce cadre éthique soit fondée sur la transparence qui doit permettre le fameux « consentement éclairé », si souvent appelé des voeux de certains politiques….
On pourra relire ce livre « Construire le nouveau modèle éducatif du 21e siècle : Les promesses de la digitalisation et les nouveaux modes d’apprentissage » pour trouver des illustrations concrètes… (F.X. et C. Hussher, FYP, 2017). On peut aussi aller voir les applications présentées dans l’article du Monde, ou encore essayer d’utiliser des produits comme le projet Voltaire ou encore Lalilo pour essayer de comprendre comment l’adaptive learning est en train de devenir un soubassement ordinaire des logiciels éducatifs et des ressources éditoriales numériques. Aller sur le site de l’entreprise EvidenceB vous proposera de découvrir « des parcours d’apprentissage ou de remédiation adaptatifs. ». Les exemples se multiplient dans ce domaine, aussi est-il temps de réfléchir à cette dérive mécaniste qui, si nous ne sommes pas vigilants, peut nous faire aller lentement mais surement vers une déshumanisation du processus éducatif. Nous appelons donc ces entreprises et les chercheurs associés à faire preuve de la plus grande transparence en permettant à chacun de comprendre les modèles et les intentions sous-jacents. Nous appelons les politiques à faire simplement « leur travail ».
Bruno Devauchelle