Les métiers auraient-ils un genre pour l’intelligence artificielle ? Bonne question posée par Nicolas Bannier sur le site Lettres de l’académie de Strasbourg. Il partage une instructive séance qui vient actualiser l’étude des écrits d’Olympe de Gouges au programme du français en 1ère. Il s’agit de sensibiliser les élèves aux biais sexistes diffusés jusque par l’I.A. et d’imaginer « des moyens de les combattre, en s’appuyant sur l’histoire des luttes antérieures et en encourageant des actions concrètes. »
Le travail mené comprend la lecture de documents comme une enquête de l’UNESCO ou une traduction automatique de Google ignorant le mot « chirurgienne ». Les élèves en font aussi l’expérience en produisant des portraits de différents professionnels à l’aide d’un système d’IA générative pour vérifier s’il a tendance à générer des portraits d’hommes ou de femmes. S’ensuivent une réflexion (sur le fonctionnement de l’IA), puis un travail créatif avec diverses invitations : écrire un discours à la manière d’Olympe de Gouges pour inciter les femmes à s’investir afin de renverser les biais sexistes de l’IA ; créer une campagne de sensibilisation sur les biais sexistes de l’IA en mettant en parallèle des images générées par l’IA et des femmes réelles qui font figure de modèles dans leur domaine ; proposer toute autre action de son choix.
Dans le Café : « Déconstruire les contes de ma mère l’IA »
UNESCO : Les stéréotypes de genre et l’IA
En soutenant le Café pédagogique, vous accompagnez un média indépendant. Depuis 2001, grâce à vous, le Café pédagogique vous accompagne au quotidien sur les chemins tortueux de l’École. Nous sommes présents dans les classes pour faire connaître vos réalisations. Vous pouvez faire un don à l’association ici.
Pour recevoir notre newsletter chaque jour, gratuitement, cliquez ici.