Les intelligences artificielles génératives ont provoqué ces dernières années une grande effervescence dans l’écosystème éducatif (Éducation Nationale, Enseignement Supérieur et formation professionnelle). Néanmoins, il nous semble que les droits humains, sociaux et environnementaux doivent être des enjeux majeurs de nos métiers. Si l’éducation est l’arme la plus puissante que l’on puisse utiliser pour changer le monde (selon la citation de Nelson Mandela), nos outils, notre posture et notre positionnement doivent s’aligner avec cette ambition.
1) Se sensibiliser à l’impact socio-environnemental de l’IA
L’IA a des coûts humains et environnementaux, et soulève de nombreuses questions éthiques : stéréotypes véhiculés, véracité et exactitude des résultats, droits d’auteur, exploitation des données, protection des données, emploi, monopoles, dépendances, biais, conflit d’usage sur les ressources (eau/énergie/matière), etc. Il nous semble ainsi essentiel que chaque pédagogue s’empare des enjeux de l’IA sur nos sociétés.
Quelques chiffres clés :
- Environnement : la prolifération des data centers liés à l’IAG, entraînant une consommation croissante d’eau et d’électricité, représente 2 % de la consommation électrique mondiale, selon HEC Montréal, en 2024.
- GAMAM : Google a vu ses émissions de carbone augmenter de 48 % en 2023 par rapport à son année de référence (2019), selon son rapport environnemental annuel.
- Inclusion et diversité : les femmes ne représentent que 20 % des employé·e·s occupant des fonctions techniques dans les grandes entreprises d’apprentissage automatique, selon une étude de l’UNESCO, en 2024.
- Véracité et exactitude des résultats : les chatbots d’IA échouent à fournir des informations exactes dans plus d’un quart des cas, selon l’audit réalisé sur 10 principaux modèles d’IA génératives par Newsguard, en 2024.
Pour aller au-delà des chiffres, nous te conseillons quelques ressources fiables pour te sensibiliser :
- Page d’information « Framamia » par Framasoft – 1h de lecture
- Conférence « IA un problème ! » par Designers Éthiques – 40 min de visionnage / Version plus courte via synthèse de Marion Rébier – 10 min de lecture
- Conférence « L’humanité peut-elle s’offrir l’IA ? » par Tristan Nitot – 20 min de visionnage
- Livre blanc « IA générative » de Data For Good / Version adaptée en atelier « Bataille de l’IA » par Latitudes – 1h30/2h d’atelier
- BD « Utop’IA » par auteur et dessinateur Herji, en collaboration avec le Centre des sciences de l’apprentissage (LEARN) de l’EPFL
- Documentaire « Les sacrifiés de l’IA » – 1h15 de visionnage
Nous t’invitons également à lire les revendications d’organisations qui résistent au déploiement massif et généralisé de l’IA :
- Manifeste face à l’IA générative, l’objection de conscience pour l’enseignement supérieur et l’éducation nationale (signé par Ed For Good) avec des réponses à quelques arguments courants en faveur de l’IAg
- Manifeste Hiatus
- Collectif Pause IA
- Manifeste Association Française Contre l’Intelligence Artificielle (AFCIA)
Et enfin, voici quelques personnes et organisations à suivre pour une veille fiable :
2) Questionner ses usages de l’IA d’un point de vue éthique
Utiliser l’IA peut être un choix de son propre chef·fe, ou parce que cela est imposé par son organisation, ou encore par la pression sociétale exercée sur le marché de l’emploi. Il nous semble ainsi essentiel que chaque pédagogue se questionne sur ses usages de l’IA d’un point de vue éthique, et crée des espaces de discussion pour analyser ses propres usages, ceux qu’iel impose à ses apprenant·e·s, mais aussi ceux de son organisation, et enfin ceux de l’écosystème éducatif.
Avant d’utiliser un outil IA, nous t’invitons à te poser quelques questions (en nous basant sur la méthode BISOU, créée par Marie Duboin et Herveline Giraudeau, détournée) :
- Besoin : Quel est mon vrai besoin ? L’utilisation de l’IA est-il indispensable ?
- Immédiat : L’usage de l’outil est-il imposé, c’est-à-dire avec des pièges de design de persuasion ou de captation de l’attention (interface qui empouvoire ou contraint, limites de paramétrages…) ?
- Semblable : Est-ce qu’un outil déjà existant, une alternative, répond à mon besoin ? Quelle plus-value apporte l’IA ?
- Origine : Quel est l’impact écologique et social de cet outil (modèle gourmand ou optimisé, puces graphiques, renouvellement appareils…) ? Qui est derrière l’outil (réputation, modèle économique , objectif de sa structure…) ? D’où viennent les données qui ont entraîné l’outil (sources volontaires / cédées / accaparées, sources libres ou propriétaires , travail du clic …) ? Qui gère ces serveurs (rgpd, chiffrement de bout en bout , envoi de données…) ?
- Utile : A quoi sert cet outil à long terme (favoriser la productivité / le gain / l’accumulation, favoriser le partage / le lien / la capacitation, individualiser ou faire collectif, compenser ou creuser les inégalités…) ?
3) Exiger les conditions d’intégration de l’IA dans nos sociétés
Éviter totalement l’IA peut être un objectif inatteignable dans le cadre du développement d’une formation, en fonction des nécessités et des réalités. Il nous semble ainsi essentiel que chaque pédagogue, mais aussi l’ensemble de l’écosystème éducatif, exige les conditions d’intégration de l’IA dans nos sociétés.
Chez Ed For Good, voici certaines conditions d’utilisation qui nous semblent indispensables :
- Utilité : Nous envisageons l’utilité de l’IA pour améliorer l’accessibilité (réduire les situations de handicap, réduire l’illectronisme avec des interfaces plus simples…), faciliter le lien humain, les collectifs et les collaborations, répondre aux enjeux socio-environnementaux (objectifs de développement durable (ODD), limites planétaires…)… et non pour améliorer la productivité, les gains, et supprimer le travail humain.
- Absence d’alternatives : Avant d’utiliser l’IA, nous évaluons les alternatives du côté des outils existants, mais aussi dès la conception et dès la mise en place des processus.
- Optimisation : Afin d’éviter de mobiliser des ressources énormes (avec les IA généralistes), nous privilégions les usages de type logiciels via des modèles IA spécialisés optimisés pour résoudre efficacement une tâche précise.
- Paramétrage : Si un outil intègre des options IA, nous n’utilisons pas forcément ces options, voire les désactivons si cela est possible.
- Sources : Si l’IA est utilisée dans la conception et/ou la production, nous vérifions la fiabilité et l’exactitude des informations produites par l’IA, et les attribuons aux auteur.rice.s. Nous nous abstenons de fonder les décisions à fort enjeu sur l’IA sans supervision adéquate.
- RGPD : Nous respectons la confidentialité des données sensibles, et ne communiquons pas d’informations qui pourraient être réutilisées pour entraîner ou améliorer les algorithmes sans accord de l’auteur·rice.
- Transparence : Si l’IA est utilisée dans la conception et/ou la production, nous optons pour une totale transparence. Par exemple, nous utilisons les pictogrammes de déclaration des niveaux d’utilisation de l’intelligence artificielle générative, proposés par le site de l’UQAC.
- Ouverture : Afin d’éviter de reproduire des monopoles, nous souhaitons favoriser l’ouverture via les modèles des Communs (licences libres).
Pour aller plus loin, notamment sur la mise en place d’un service recourant à l’IA, nous t’invitons à consulter des référentiels pour une IA frugale, éthique et responsable :
4) Résister en donnant du sens à nos métiers
Et parce que la prolifération de l’IA ne nous semble pas inéluctable, et que nous nous projetons dans un futur souhaitable où nos métiers font sens, nous invitons chaque pédagogue à résister à son niveau, en prenant plaisir à redécouvrir son métier.
Chez Ed For Good, voici certains actes de résistance que nous mettons en place :
- Reprendre du plaisir dans le processus de création d’une formation basée sur l’humain, avec l’intelligence collective, sans IA (voire même sans numérique).
- Ré-apprendre à concevoir des formations vraiment utiles, et résilientes, avec une gestion des connaissances permettant la personnalisation, sans IA (voire même sans numérique).
- Se former aux enjeux socio-environnementaux (accessibilité, éco-conception, diversité…) afin de les prendre en compte dès la conception via des processus efficaces et des tests par les utilisateur·rices dès les premières phases, permettant de corriger les défauts, et ainsi éviter au maximum la compensation par l’IA.
- Préserver ses capacités cognitives en n’utilisant pas l’IA, ou en limitant son usage à des cas très ciblés.
- Revendiquer ses engagements, voire renoncer à certaines pratiques techno-solutionnistes afin d’anticiper les futurs conflits d’usage en ressources (eau/matière/énergie).
Texte publié le 26/08/2025, mis à jour le 09/12/2025, rédigé par Diana Portela – Ingénieure pédagogique | Conceptrice digital learning | Formatrice.
Relu et corrigé par Mélina Dupont – Ingénieure pédagogique, Amandine Gévas – Ingénieur pédagogique/formatrice/facilitatrice d’images, Laurent Gehring – Concepteur pédagogique multimodal, Designer graphique et Motion designer, Valérie Bussac – Enseignante et Ingénieure Pédagogique, Charlotte Guillot – Ingénieure pédagogique, Geneviève Le Gall – Consultante digital learning, ingénierie pédagogique et accompagnement, Anissa Bensmaïn – Conceptrice elearning & Ingénieure pédagogique, Julie Barant – Digital Learning Designer.
Déclaration d’utilisation de l’IAg : La production n’a bénéficié d’aucune intervention de l’IAg, que ce soit pour le texte ou les images.
Cette page a vocation à évoluer avec les propositions de la communauté Ed For Good, ainsi n’hésite pas à nous faire part de tes retours en nous écrivant via la page contact.