La signature par Elon Musk d’une pétition demandant à mettre en pause la recherche sur l’Intelligence Artificielle fait beaucoup parler ces derniers jours. L’occasion pour Bruno Devauchelle, spécialiste du numérique et l’école, de faire le point sur cette nouvelle technologie qui bouleverse société et école.
Une pétition récente, signée à ce jour par 1380 personnes au moins, demande une pause et une réflexion globale pour tous les développements dans le domaine dit de « l’intelligence artificielle« . La popularité de cette pétition semble aussi tenir au fait que Elon Musk l’ait signé, ce qui a pu surprendre. En effet, on situe plus ce personnage du côté du transhumanisme de Ray Kurtsweil que de la philosophie des sciences et des technologies de Gilbert Simondon ou de Jacques Ellul… Ce qui est intéressant pour l’éducateur, c’est que les dernières médiatisations de ces techniques témoignent de risques pour la pérennité de nos système d’enseignement et plus globalement pour notre manière de « faire société ».
Quand la presse et l’éducation s’emparent d’une nouveauté numérique
Depuis quelques mois la presse bruisse de ces logiciels de génération automatique et conversationnelle de textes ou même de vidéos. Bien sûr, nombre de spécialistes de l’éducation s’en sont emparés à l’instar de Philippe Meirieu ou encore de Yann Houry. Certains tentent de décrypter ces objets nouveaux, d’autres d’en identifier l’intérêt et les limites, d’autres enfin à nous alerter sur les risques éventuels. Le monde de l’éducation n’échappe pas à ces questions , car la fameuse intelligence est ici en débat : naturelle ou artificielle ?
L’éducateur, l’enseignant serait chargé de développer l’intelligence des élèves. Les « machines » sont parfois évoquées comme pouvant aussi développer les apprentissages et par rebond l’intelligence. Encore faudrait-il que l’on définisse le terme « intelligence » pour en préciser les contours, dire de quoi l’on parle. On invitera le lecteur à lire cet ouvrage déjà ancien de Michel Tort, « Le quotient intellectuel », (Paris, Maspero, 1974). Le débat à ce sujet dure depuis le début du XXe siècle qui a vu éclore les machines à enseigner et les tests d’intelligence. Deux questions se posent donc au monde scolaire et universitaire : comment un système de « transmission » peut permettre le développement de quelle intelligence (cf. Les intelligences multiples d’Howard Gardner) ? Quel avenir pour les enseignements si des machines parviennent à les remplacer, au moins partiellement ?
La simulation humaine des comportements et activités : une question plus globale
Outre l’effet de mode autour de l’intelligence artificielle, phénomène déjà rencontré dans les années 1980-1990. La multiplication de toutes sortes de communications sur le thème montre qu’au-delà même de l’objet il y a une sorte de fascination devant cette « nouveauté ». Et ce d’autant plus que la ressemblance entre la production d’un humain et celle d’un logiciel (une machine…) est grande, ce qui est le cas de ces logiciels de génération automatiques de textes. En inquiétant ainsi le monde scolaire et universitaire, ces nouveaux produits médiatisés ne doivent pas cacher un problème plus global. Les différentes applications des travaux autour de ce qui est appelé intelligence artificielle sont en train de transformer notre relation au monde du fait de la multiplication de ces produits et plus précisément : apprentissage machine, apprentissage adaptatif, apprentissage profond, génération automatique de texte, traduction automatique, transcription automatisée, robots d’activité (industrie, agriculture…), reconnaissances de visages ou de voix, etc… Des diversités de démarches qui renvoient à de nombreuses situations de vie et d’apprentissages.
Fascination, inquiétude ou les deux
Chaque nouveauté technique suscite en premier lieu un débat (objet valise) qui oppose les tenants et les opposants dans des diatribes multiples. Puis vient le temps de la relativisation : on prend de la distance et on apprend à mesurer l’intérêt et les limites de celle-ci. Ce qui est beaucoup plus questionnant est qu’il y aurait une sorte de « boîte noire » informatique qui produirait du comportement humain comme on l’a longtemps pensé du cerveau. Si l’on se rappelle les travaux du behaviorisme des années 1930 et suivantes, on s’aperçoit que l’on retrouve des proximités fortes de conception. Si le cerveau d’un enfant fonctionne comme une machine informatique, alors il doit être possible de le « programmer » !!! Depuis Frankenstein, l’idée d’un humanoïde fabriqué par l’humain et devenu membre de la communauté humaine a alimenté la science-fiction et de nombreux films dont celui de 1931 réalisé par James Whale. La peur du progrès technique n’est pas nouvelle, mais elle s’incarne désormais dans les questionnements à propos de l’intelligence artificielle. Le site qui a publié la pétition propose aussi deux articles éclairants (en anglais) pour nous aider à comprendre : le premier présente l’IA, le suivant propose une évaluation bénéfice risque .
Et dans les établissements scolaires ?
Pour l’instant ce qui transparaît c’est que petit à petit des éléments d’IA sont introduits dans certains logiciels en particulier sur le modèle adaptatif. C’est le cas des logiciels comme Lalilo ou encore de produits comme ceux proposés par la edtech EvidenceB. De plus les projets eFran ont produit plusieurs développements qui reposent aussi sur des travaux d’IA (à expliciter parfois). Ce qui est important, semble-t-il, c’est que, petit à petit, les produits logiciels incorporent des moteurs algorithmiques plus ou moins proches de travaux d’IA, allant du système expert adaptatif, à la génération automatique de textes. Rappelons ici, que la génération automatique de texte est une vieille aventure (rêve) que l’on connaissait déjà dans les années 1980 par un laboratoire de recherche de l’université Paris 8 appelé Paragraphe. Ce rappel a pour but de pour mettre en évidence le fait que l’engouement actuel pour ce genre de logiciel s’appuie sur l’amélioration des performances et sur la similarité avec l’humaine.
Pour rappel, aussi, certains enseignants ont depuis longtemps développé des pratiques pédagogiques pour amener les élèves à fabriquer des textes « à la manière de ». Cette pratique pourrait effectivement être comparée à des productions d’outils de génération automatique pour mieux comprendre ce que cela signifie. Pour l’instant, la surmédiatisation de l’intelligence artificielle doit nous amener à la prudence, au pragmatisme. Essayer, pourquoi pas, à condition que ce soit pour comprendre et mettre à jour ce qui se cache au fond de ces propositions. Car ce qui va compter dans les années à venir, c’est l’intention de tous ceux et celles qui vont introduire de tels modèles et outils. Pourquoi veulent-ils le faire ? Avec quel projet ? Et au fond quel humain les promoteurs et utilisateurs de ces instruments veulent promouvoir ?
Bruno Devauchelle