Lors de ludoviales2026 j'ai analysé comment l'IA est en train de rebattre les cartes du travail et de l’éducation
Retrouver le replay vidéo de mon intervention
Voici un résumé des points clés de cette présentation sur l'impact macroéconomique et sociétal de l'intelligence artificielle (IA), en particulier dans les mondes du travail et de l'éducation :
1️⃣ Une adoption fulgurante
Contrairement aux précédentes vagues d'innovation (web, smartphones), l'IA générative s'est imposée à une vitesse inédite. Dans l'enseignement supérieur, les taux d'utilisation par les étudiants atteignent souvent 90 à 100 %.
2️⃣ L'impact massif sur les métiers et les compétences
Selon plusieurs études (Microsoft, Anthropic/Claude), l'IA va transformer de nombreux emplois :
Métiers très impactés : Les « cols blancs », les métiers de la traduction, de la rédaction, du service client, du droit, de l'informatique (développeurs) et du conseil.
Domaine créatif : L'IA bouleverse aussi la création (musique, graphisme), mais peut être perçue comme un outil collaboratif puissant par certains créatifs (ex: le DJ Joachim Garraud avec Suno).
Métiers peu impactés : Les emplois physiques (restauration, agriculture, construction).
Conséquence sur le recrutement : On observe déjà une forte baisse du recrutement de profils « juniors » (notamment chez les développeurs et les avocats), car l'IA peut désormais accomplir leurs tâches habituelles de synthèse, de tri ou de codage de base.
3️⃣ Les freins économiques à la croissance
Bien que l'économiste Philippe Aghion estime que l'IA va générer une nouvelle croissance en créant de nouveaux métiers (destruction créatrice), cette croissance risque d'être freinée par les situations de monopole des géants de la tech (Amazon, Google, Microsoft) et des fournisseurs d'infrastructures (Nvidia). (Conférence de Philippe Aghion https://www.youtube.com/watch?v=3rXaZtueP-Y )
4️⃣ Les défis majeurs pour le monde de l'éducation
L'intégration de l'IA pose des questions fondamentales à l'université :
Évolution des compétences : Savoir coder ou rédiger n'est plus suffisant. Il faut désormais former les étudiants à avoir une vision globale, à interagir avec les clients et à vérifier le travail de l'IA.
Désalignement avec les valeurs universitaires : L'université vise à développer - l'esprit critique, - la pensée originale - et le caractère individuel.
Or, l'IA générative produit des contenus basés sur des statistiques et des textes existants, sans originalité propre. De plus, l'apprentissage avec un chatbot est un processus solitaire, à l'opposé de la dimension sociale de l'éducation.
La menace sur l'écrit : L'écriture (thèses, mémoires) est historiquement le moyen de structurer et développer sa pensée. L'utilisation de l'IA pour sous-traiter la rédaction remet en cause ce processus intellectuel indispensable.
En conclusion :
Face au scepticisme grandissant (chez les étudiants et la population générale), l'enjeu n'est plus d'interdire l'IA ou de la laisser faire le travail à notre place, mais d'apprendre à co-construire avec elle, tout en préservant l'esprit critique et la réflexion individuelle.
L’intelligence artificielle face au défi environnemental
L’essor spectaculaire de l’intelligence artificielle soulève une question essentielle : quel est son véritable coût environnemental ? Lors des Ludoviales 2026 j'ai partagé une analyse approfondie des impacts écologiques liés au développement massif de l’IA.
Des data centers toujours plus gourmands en énergie
La course mondiale à l’intelligence artificielle entraîne une explosion des investissements dans les infrastructures numériques. Aux États-Unis notamment, les investissements dans les data centers dépassent désormais ceux consacrés aux immeubles de bureaux. Cette croissance fulgurante s’accompagne d'une augmentation tout aussi impressionnante de la consommation électrique.
À tel point que, dans les prochaines années, les data centers pourraient consommer davantage d’électricité que l’ensemble de l’Internet actuel. Certains scénarios anticipent même des tensions majeures sur l’approvisionnement électrique américain dès 2028.
L’envers du décor : matières premières et eau
L’impact de l’IA ne se limite pas à sa consommation énergétique. La fabrication des processeurs graphiques (GPU), indispensables à l’entraînement des modèles, mobilise d’importantes quantités de métaux rares, d’eau et d’énergie.
À cela s’ajoute le refroidissement des infrastructures, particulièrement gourmand en ressources hydriques. Sans oublier la durée de vie relativement courte des équipements : lors de certains entraînements intensifs, le matériel subit une usure considérable, imposant un renouvellement fréquent.
Vers une IA plus sobre
Face à ces défis, plusieurs pistes émergent : intérêt croissant des modèles d’intelligence artificielle plus compacts, spécialisés sur des tâches précises, et nettement moins énergivores que les grands modèles généralistes.
L’intégration massive d’énergies renouvelables constitue également une réponse incontournable. À ce titre, la Chine investit massivement dans le solaire, l’éolien et le nucléaire pour accompagner cette révolution technologique.
Mesurer pour mieux agir
L’évaluation de l’empreinte carbone de l’IA reste complexe. Elle dépend fortement du mix énergétique utilisé par chaque pays. Une requête effectuée dans une région alimentée majoritairement par des énergies fossiles n’a évidemment pas le même impact qu’une requête exécutée dans un centre de données alimenté par des sources bas carbone.
Comparer une interaction avec une IA à une simple recherche web permet de mieux appréhender les ordres de grandeur — et de prendre conscience des enjeux.
Construire un numérique responsable
L’augmentation de la consommation énergétique mondiale est inévitable, portée par la croissance démographique et l’amélioration du niveau de vie. Je rappelle, à travers une célèbre analogie d’Hans Rosling,la machine à laver, que l’accès universel à l’électricité d’ici 2050 transformera profondément les besoins énergétiques de la planète.
L’objectif n’est donc pas de freiner le progrès, mais de l’orienter intelligemment.
Quelques leviers d’action
privilégier les modèles d’IA spécialisés et moins énergivores ;
synchroniser certaines opérations avec la disponibilité des énergies renouvelables ;
généraliser l’installation de panneaux solaires sur les infrastructures ;
limiter les usages numériques superflus.
Chaque acteur, qu’il soit entreprise ou utilisateur, a un rôle à jouer.
Une prise de conscience individuelle
Je propose également un exercice simple : évaluer sa propre consommation énergétique numérique. Cette démarche permet d’identifier les principaux postes de consommation et d’adopter des habitudes plus sobres, en utilisant ce simulateur :
Parmi les pistes les plus audacieuses figure celle des data centers en orbite. Des projets sont actuellement étudiés, aussi bien aux États-Unis qu’en Chine.
Dans l’espace, le refroidissement s’effectue par rayonnement infrarouge, grâce à des matériaux avancés inspirés de ceux utilisés sur la Station spatiale internationale. Une solution élégante sur le papier.
Mais plusieurs obstacles demeurent, notamment la durée de vie limitée des composants électroniques soumis à des charges de calcul extrêmes. Tant que la robustesse du matériel n’aura pas significativement progressé, cette option restera avant tout expérimentale.
L’intelligence artificielle ouvre des perspectives extraordinaires. Pourtant, son développement ne pourra être durable qu’à condition d’intégrer pleinement la contrainte environnementale.
L’enjeu n’est pas de choisir entre innovation et sobriété, mais de concilier les deux. C’est sans doute là que se jouera l’avenir d’une IA réellement responsable.
Travail présenté dans le carde d'AUPTIC2026 à Lausanne le 5 janvier 2026
Résumé court(250
mots max. avec une brève bibliographie indicative)
L’émergence
rapide des intelligences artificielles génératives (IAG) questionne profondément
les pratiques pédagogiques et organisationnelles des établissements
d’enseignement supérieur. Face à ce phénomène technologique d’une ampleur
jusqu’ici peu rencontrée, l’adaptation des chartes éthiques à la présence des
technologues d’IA génératives s’impose comme un indicateur clé des stratégies
institutionnelles. Ces chartes, adoptées en France, au Québec, en Suisse et en
Belgique, traduisent une volonté commune de cadrer l’usage de l’IA générative
tout en capitalisant sur son potentiel d’innovation.
Elles
définissent un cadre éthique, insistent sur la transparence de l’utilisation
des IA Génératives, et rappellent la responsabilité individuelle et collective
face aux risques de délégation, de désinformation ou d’atteinte à la
confidentialité. Les chartes soulignent l’importance de la formation et de la
sensibilisation de la communauté universitaire, tout en encourageant
l’expérimentation pédagogique et la mutualisation des bonnes pratiques. Elles
s’inscrivent dans une dynamique évolutive : leur révision régulière permet
d’accompagner l’évolution rapide des technologies et des usages.
Ainsi,
l’adaptation des chartes éthiques à la présence des IAG par les établissements
se révèle comme un indicateur de leur capacité à anticiper les mutations tout
en préservant l’intégrité académique et en promouvant une utilisation
responsable et critique de l’IA.
Elles
constituent un levier stratégique pour dans certains cas renforcer la
souveraineté numérique, garantir la conformité réglementaire et soutenir
l’innovation pédagogique dans un contexte de transformation accélérée de
l’enseignement supérieur
Bibliographie
indicative
Base
de données de chartes liées à utilisation de l’IA dans des établissement
d’enseignement supérieur francophone
Grands témoins de la journée PédagoN'UM 2025 "IA et Evaluation", avec Jacques Tardif, Professeur émérite de l’Université de Sherbrooke et membre distingué de l’Ordre de l’excellence en éducation du Québec, conférencier internationalement reconnu et expert de l'approche par compétences , nous avons discuté autour des différents échanges de la journée et des perspectives soulevées pour les évaluations à l’ère de l’IA.
Nos échanges tournent autour de l’usage de l’intelligence artificielle et des outils numériques en pédagogie, avec un accent particulier sur l’évaluation, la personnalisation des apprentissages et le rôle des enseignants dans ce contexte.
IA et pédagogie
L’IA est perçue comme une aide précieuse pour les enseignants : planification de cours, rétroaction, correction de travaux, ou encore création de parcours individualisés (ex. Magic School).
Les limites sont soulignées : confidentialité, fluctuation dans la fiabilité des résultats, reproductibilité incertaine, besoin de datasets de qualité.
Les deux intervenants considèrent que les outils évoluent rapidement, mais que l’essentiel reste la démarche pédagogique et la définition claire des compétences à développer.
Données et mutualisation
Importance de préparer et mutualiser des jeux de données (datasets) de qualité, en particulier pour l’apprentissage par cas et l’entraînement des modèles d’IA.
Intérêt à explorer l’open data et les bases mutualisées (UNT, projets collaboratifs).
Démarche exploratoire et communauté
Valorisation de l’expérimentation en milieu universitaire : tester, se tromper, coconstruire avec les étudiants.
Proposition de s’appuyer sur les communautés de pratique, d’évaluer l’impact des outils et de réfléchir collectivement sur les retombées.
Multilinguisme et accessibilité
Développement attendu des outils de traduction en temps réel (Google Meet, Teams, lunettes Meta) ouvrant de nouvelles possibilités pour l’enseignement et l’accès aux ressources.
L’évaluation et ses critères
Tardif insiste sur trois valeurs incontournables : validité (évaluer ce que l’on prétend), fidélité (constance intra- et intercorrecteur) et équité (permettre à chacun de démontrer son apprentissage).
QCM et portfolios sont comparés :
Le QCM est facile à corriger mais sa construction reste très subjective.
Le portfolio documente la progression mais exige un investissement élevé de l’enseignant et soulève des défis de fiabilité.
Exemple : usage d’un wiki comme portfolio en pharmacie (Université de Grenoble), combinant évaluation et constitution d’une base de cas cliniques.
Évolution de l’écrit et du doctorat
Discussion sur l’érosion de la place de l’écrit (rédaction de thèse, processus de construction du savoir) avec l’IA.
Risque de perte de compétences rédactionnelles : certaines écoles doctorales réfléchissent à une implication plus précoce des rapporteurs pour encadrer la rédaction.
IA et portfolio
L’IA peut aider à constituer un portfolio, mais pas à documenter de manière crédible la valeur des preuves ni à expliciter la progression.
Importance de compléter le portfolio par un entretien oral.
Possibilité d’intégrer des preuves multimédia (vidéos, audios) pour évaluer notamment les compétences relationnelles et transversales.
Compétences et transversalité
Consensus sur l’importance de contextualiser les compétences dites transversales, trop souvent abordées de manière abstraite.
Crainte que leur généralisation hors contexte devienne un discours creux.
Conclusion commune
Les outils numériques et l’IA ne sont que des moyens ; ils doivent rester au service d’un projet pédagogique articulé sur les compétences et l’évaluation.
La force est encore du côté des enseignants : ce sont eux qui fixent le cap, définissent les objectifs et orchestrent la démarche.
Les rencontres comme celle-ci créent une énergie et une volonté de mutualiser au sein des réseaux universitaires pour prolonger la réflexion.