Dans les années 1980, l’idée de l’intelligence artificielle a accompagné les développements de l’informatique et l’imaginaire qui va avec. En éducation on aurait pu penser que cette expression se traduirait par de nombreuses propositions aussi alléchantes qu’impressionnantes. Qu’en reste-t-il aujourd’hui ? Pas grand chose et en éducation presque rien. Autrement dit, le rêve d’une machine intelligente, s’est progressivement dégradé au profit de la puissance de calcul et d’algorithmes qui s’inspirent en quelque sorte de la croyance en un cerveau machine ou d’une analogie qui fait encore courir des chercheurs et des commentateurs. Deux options se présentent alors : aller voir dans le cerveau, aller voir dans la machine. Or les deux aspects continuent d’avancer, mais pas de la même manière et avec les mêmes conséquences pour l’éducation.
L’article publié récemment par la revue ParisTech, intitulé : « Les quatre piliers de l’apprentissage, ou ce que nous disent les neurosciences » illustre assez largement cette question, de même que certains autres textes que l’on peut lire ici ou là sur l’idée que le cerveau puisse fonctionner comme une machine. Quand à la machine, on sait que le fonctionnement binaire de celle-ci (qui est pour l’instant encore le modèle unique) limite les possibilités et contraint à transformer la possibilité d’intelligence par de la puissance de calcul brute. En d’autres termes, les algorithmes sont d’autant plus performants qu’ils prennent en compte les limites de la machine et surtout ne cherchent pas à imiter le cerveau.
Mais quel était donc, quel est donc ce rêve autour de cette intelligence artificielle qui aurait révolutionné l’enseignement/apprentissage scolaire. Un exemple va illustrer simplement cela : la correction des devoirs des élèves. Chacun sait bien que ce travail est complexe, difficile, parfois pénible, parfois enthousiasmant. Mais en tout cas, les modèles d’évaluation des apprentissages proposés par le numérique sont loin d’égaler les dispositifs sophistiqués que les enseignants mettent en place pour vérifier les apprentissages. Certes la tentation d’aller vers l’automatisation, par le biais des exerciseurs de toutes sortes, est récurrente. Elle est surtout le fait de ceux qui ne sont pas devant des jeunes qui apprennent. Et surtout elle est vite ennuyeuse comme tous ceux qui ont utilisé ces logiciels éducatifs pour enfant du genre Adi Adibou ect…
Evaluer les élèves est typiquement une activité d’interaction humaine non mécanisable en l’état actuel. Les modèles d’analyse de données textuelles comme ceux développés dans les logiciels d’OCR ou de reconnaissance vocale sont déjà limités en puissance, mais en plus l’expression du sens d’un texte reste de l’ordre de l’utopie compte tenu des machines actuelles. Et pourtant l’idée est intéressante, c’est pourquoi de plus en plus de travaux ont tenté de rapprocher les deux processus, mental et numérique, sans s’illusionner sur la rencontre, mais au contraire en « instrumentant » la situation. En d’autres termes, la puissance de calcul vient aider l’intelligence humaine, dès lors que les problèmes posés à l’humain sont complexes. Certes pour l’évaluation on en est encore loin, mais dans des cadres limités (champ de connaissance précis) il est désormais envisageable d’utiliser la puissance de calcul pour aider l’enseignant. Dans le domaine médical, l’utilisation des QCM sous des formes avancées de questionnements/réponses permet d’envisager des modèles se substituent à l’humain pour l’évaluation. A contrario le travail sur les eportfolio et autres portefeuille de compétences (arbres de connaissances par exemple) n’ont pas débouché sur ce qui en était rêvé au niveau de la compréhension de l’intelligence collective.
Que manque-t-il donc ? L’à peu près, l’incertain, l’incomplet le flou, diront certains. De fait c’est souvent aux limites du mécanisables que l’on rencontre cette difficulté. Ainsi les logiciels de construction d’emploi du temps peuvent-ils fonctionner jusqu’à cette limite. Ils demandent à l’humain de fixer des critères au préalables sur la base desquels ils effectuent des calculent. Les mécanismes de décision (degré de décidabilité) s’arrêtent lorsqu’ils rencontrent le flou, l’incertain voire « l’égalité » entre les propositions, renvoyant à l’humain la décision (comme pour la reconnaissance vocale, l’OCR ou la traduction automatique).
Devant sa classe l’enseignant est perpétuellement dans cet ajustement. Si le scénario pédagogique mécanisé voulait embarquer cette capacité d’ajustement il n’y arriverait pas actuellement. Dès le début des années 1980 d’aucun se sont lancés dans l’aventure. Tout cela a débouché sur des systèmes experts ou encore des algorithmes mathématiques complexes, mais la transformation imposée par les machines au réel réduisait justement cette capacité d’adaptation. Les logiciels d’enseignement assisté par ordinateur ne sont jamais devenus intelligents en eux-mêmes. Finalement nombre de concepteurs préfèrent en revenir aux bons vieux exercices, seuls mécanisables sur les machines, renvoyant à l’enseignant la capacité d’adaptation, d’ajustement.
Le rêve de l’ordinateur intelligent a surtout permis de mettre en évidence les limites de ce qui est mécanisable dans le fonctionnement mental et dans l’apprentissage. Certes ce que l’on dit aujourd’hui pourrait être remis en cause avec des changements fondamentaux de modèle informatique, mais pour l’instant cela n’est pas encore en vue. L’observation des classes en activité montre bien que l’ordinateur ne peut assurer, actuellement, cette capacité d’adaptation au « réel » de la personne. Les quelques vidéos de robots coréens enseignant à des enfants, disponibles sur le web, n’ont jamais montré une forme d’intelligence ajustable. Mais dans certains pays, la mécanisation des apprentissages est considéré comme un modèle pédagogique primordial, du coup les ordinateurs y jouent un rôle important. Dans notre société française, la conception globale de l’apprentissage reste très éloignée de ces modèles. Pour combien de temps encore ?
Bruno Devauchelle