Aligner l’IA avec les valeurs humaines
L’alignement des IA[1] vise à doter ces systèmes de valeurs et d’objectifs reflétant nos principes éthiques et nos attentes sociales, tout en réduisant les risques de dérives ou d’effets indésirables. Mais une question essentielle se pose : quels principes éthiques doit-on inscrire dans ces systèmes ? Ceux d’une société démocratique ou d’un régime totalitaire ? Des objectifs de respect ou, au contraire, de contrôle de nos vies privées ?
Le « crédit social chinois » ou « système de confiance en la société » est un système de surveillance et d’évaluation lancé en 2014 par le gouvernement chinois pour mesurer la « fiabilité » de ses citoyens et entreprises[2][3]. Fondé sur la collecte massive de données et leur traitement par l’IA (vidéosurveillance, reconnaissance faciale, comportement en ligne, activités financières…), il attribue à chaque individu ou entité une note qui reflète leur respect des lois, des normes sociales et des attentes politiques[4].
Les conséquences de ce score peuvent être importantes : une bonne note peut offrir des avantages comme des prêts facilités ou un accès privilégié à des services publics, tandis qu’une mauvaise note peut entraîner des restrictions, comme l’interdiction de voyager, un accès limité à certaines écoles ou des opportunités d’emploi réduites. Ce système, critiqué pour ses implications éthiques et liberticides, illustre une utilisation de l’intelligence artificielle orientée vers un contrôle accru des populations.
Les IA sont largement utilisées pour porter atteinte à la vie privée et à la liberté de déplacement de nombreuses populations à travers le monde. Des caméras « intelligentes » en Iran pour repérer les femmes non-voilées[5][6]. En Cisjordanie occupée, la technologie et l’intelligence artificielle scrutent la population[7][8]. Pour nuancer ces aspects négatifs des IA, il convient de souligner que certaines applications apportent des bénéfices concrets, comme le diagnostic rapide et précis des maladies en santé ou l’apprentissage personnalisé en éducation.
L’explicabilité des IA
« Le règlement général sur la protection des données de l’Union européenne (RGPD), entré en vigueur en 2018, stipule que si un algorithme prend une décision concernant un humain – en refusant par exemple d’accorder un crédit –, cet humain a le droit de se voir expliquer cette décision et de la contester devant une autorité humaine[9][10]. […] Mais un tel droit peut-il vraiment être appliqué, dans la pratique ?[11] »
L’explicabilité des modèles d’IA fait référence à la capacité à comprendre et expliquer comment une IA prend une décision, en montrant les critères ou les données qui ont influencé son choix. Cela assure la transparence, la responsabilité et la confiance dans son utilisation. Malgré l’enjeu démocratique important, cette explicabilité est difficile à mettre en œuvre en raison de la complexité des modèles et de l’opacité de leurs processus internes[12].
La solution de l’open source pour les modèles IA, bien qu’elle favorise la transparence, présente le risque d’une récupération de la technologie et de son utilisation à des fins malveillantes.
Quelle sécurité pour les IA ?
Des risques de détournement : la puissance des IA peut être utilisée à des fins malveillantes et renforcer les actes de cybercriminalité[13] tels que l’usurpation d’identité, les deepfakes[14], les cyberattaques, le cyberharcèlement, ou encore le cyberterrorisme[15].
Face à ces risques, les enjeux de sécurisation et de contrôlabilité des IA peuvent entrer en conflit avec la transparence et la disponibilité de certains modèles open source. Il est donc essentiel de trouver un équilibre entre ces besoins opposés pour garantir à la fois l’accessibilité et la sécurité des systèmes d’IA.
Face aux enjeux éthiques et sécuritaires soulevés par l’essor des intelligences artificielles, un consensus mondial sur leur régulation semble émerger[16]. Souvent perçue comme un frein à l’innovation, la régulation reste cependant essentielle pour imposer des normes de sécurité[17] à cette nouvelle technologie, à l’instar de celles qui ont, par le passé, été imposées à l’industrie automobile, telles que la ceinture de sécurité ou le système de freinage ABS.
L’AI Act européen[18], adopté par le Conseil de l’Union européenne en mai 2024, établit un cadre réglementaire novateur pour encadrer le développement et l’utilisation des systèmes d’intelligence artificielle au sein de l’UE. Voici les principes fondamentaux de cette législation et de son règlement (RIA) entré en vigueur en août 2024.
Les objectifs principaux sont la protection des droits fondamentaux : garantir la sécurité, la santé et les droits des citoyens européens. Selon la Commission, sept éléments sont essentiels pour parvenir à une IA digne de confiance :
- Facteur humain et contrôle humain : L’IA doit servir l’humain et respecter les droits fondamentaux, sans limiter l’autonomie.
- Robustesse et sécurité : Les algorithmes doivent être sûrs, fiables et capables de gérer erreurs et incohérences.
- Respect de la vie privée et gouvernance des données : Les citoyens doivent contrôler l’utilisation de leurs données personnelles, qui ne doivent pas être utilisées de manière préjudiciable ou discriminatoire.
- Transparence : La traçabilité des systèmes d’IA doit être garantie.
- Diversité, non-discrimination et équité : L’IA doit être accessible à tous et prendre en compte la diversité des besoins humains.
- Bien-être sociétal et environnemental : L’IA doit favoriser des évolutions sociales positives et respecter la durabilité écologique.
- Responsabilisation : Des mécanismes doivent garantir la responsabilité des systèmes d’IA et de leurs résultats.
Développer l’esprit critique de nos élèves
Les intelligences artificielles, malgré leurs immenses potentialités, soulèvent des défis éthiques et sécuritaires majeurs. Les biais intégrés dans leurs modèles, leur capacité à transgresser nos valeurs et leur usage potentiellement détourné imposent leur régulation comme une priorité.
Toutefois, cette régulation ne sera efficace que si elle est accompagnée d’une éducation visant à former des citoyens critiques, conscients des enjeux éthiques et sécuritaires liés à l’IA. En incitant nos élèves à questionner ces enjeux, nous leur donnons les outils nécessaires pour adopter un usage responsable et éclairé de l’intelligence artificielle, alors que ces technologies prendront une place toujours plus centrale dans le monde de demain.
Romain Jeanneau
[1] Wikipedia. (s. d.). Alignement des intelligences artificielles. Récupéré le 8 décembre 2024 de https://fr.wikipedia.org/wiki/Alignement_des_intelligences_artificielles
[2] Wikipedia. (s. d.). Système de crédit social. Récupéré de https://fr.wikipedia.org/wiki/Syst%C3%A8me_de_cr%C3%A9dit_social
[3] Revue Réseaux. (2021). Typologie des usages de l’IA. Réseaux, 1(231), 55-77. Récupéré de https://shs.cairn.info/revue-reseaux-2021-1-page-55?lang=fr
[4] Le Monde. (2020). Le crédit social : les devoirs avant les droits. Récupéré de https://www.lemonde.fr/idees/article/2020/01/16
[5] Radio-Canada. (2023). Police iranienne : code vestimentaire et technologie. Récupéré de https://ici.radio-canada.ca/nouvelle/1970233
[6] TF1 Info. (2023). Iran : sanctions pour non-port du voile. Récupéré de https://www.tf1info.fr/international
[7] L’Orient-Le Jour. (2023). En Cisjordanie occupée : la fatigue de la surveillance technologique. Récupéré de https://www.lorientlejour.com/article/1367197
[8] Amnesty International. (2023). Israël et Palestine : Surveillance et droits humains. Récupéré de https://www.amnesty.org/fr/documents/mde15/6701/2023/fr/
[9] Commission européenne. (2024). Can I Be Subject to Automated Individual Decision-Making, Including Profiling ? Récupéré le 11 janvier 2024 de https://commission.europa.eu
[10] CNIL. (s. d.). IA : comment être en conformité avec le RGPD ? Récupéré de https://www.cnil.fr/fr/intelligence-artificielle
[11] Harari, Y. N. (2024). Nexus. Albin Michel. Chapitre 9.
[12] IBM. (s. d.). Explainable AI. Récupéré de https://www.ibm.com/fr-fr/topics/explainable-ai
[13] Cybermalveillance. (2024). Intelligence artificielle et cybersécurité. Récupéré de https://www.cybermalveillance.gouv.fr/tous-nos-contenus/actualites/intelligence-artificielle-ia
[14] France Info. (2024). Deepfakes pornographiques : lutte contre les images générées par IA. Récupéré de https://www.francetvinfo.fr/internetl
[15] Veille Mag. (2024). Typologie des détournements de l’IA. Récupéré de https://www.veillemag.com/attachment/2643379/
[16] Polytechnique Insights. (2024). Va-t-on vers une régulation mondiale de l’IA ? Récupéré de https://www.polytechnique-insights.com
[17] Play Hooky. (s. d.). Sécurité et IA. Récupéré de https://www.playhooky.fr/technologie/securite//
[18] Info.gouv.fr. (2024). Qu’est-ce que l’IA Act ? Récupéré de https://www.info.gouv.fr/actualite/quest-ce-que-lai-act/
[19] Artificial Intelligence Act. (2024). High-Level Summary. Récupéré de https://artificialintelligenceact.eu/fr
[20] The Conversation. (2024). L’échiquier mondial de l’IA : entre régulations et soft power. Récupéré de https://theconversation.com
[21] Télécom Paris. (2024). Régulation de l’intelligence artificielle. Récupéré de https://www.telecom-paris.fr/fr/ideas