🤖 Shadow IA : un enjeu pédagogique essentiel pour préserver la valeur des compétences

November 19, 2025

Un séisme silencieux dans les pratiques d’apprentissage

Depuis la mise sur le marché de Chat GPT en novembre 2022, l’intelligence artificielle générative a bouleversé les usages du numérique à une vitesse rarement observée dans l’histoire des technologies éducatives. En l’espace de deux ans, ces outils se sont glissés dans les gestes du quotidien, redéfinissant le rapport que les apprenants entretiennent avec l’effort, la recherche et même la notion de compétence.

Les chiffres parlent d’eux-mêmes : selon une étude menée en 2024 par le Pôle Léonard de Vinci, RM Conseil et Talan, 99 % des étudiants déclarent utiliser l’IA, et près d’un tiers y ont recours quotidiennement. Cette adoption massive et spontanée se déploie en marge des dispositifs pédagogiques et de formation. C’est précisément ce que recouvre le terme de Shadow IA : l’usage non déclaré, non accompagné ou non anticipé de l’intelligence artificielle dans un contexte professionnel ou de formation.

Derrière ce phénomène, un constat s’impose : l’IA n’attend pas que la pédagogie soit prête pour s’y introduire. Elle modifie silencieusement les pratiques d’apprentissage, parfois plus vite que les formations ne s’adaptent.

Le Shadow IA, ou la pédagogie prise de vitesse

Le Shadow IA désigne les situations où l’IA produit, reformule, résume, code, corrige ou structure à la place de l’apprenant, tandis que l’évaluation continue de supposer que ce travail a été réalisé par lui-même.

L’apprentissage repose pourtant sur un principe simple : on apprend en faisant. L’IA, en gommant les étapes, peut court-circuiter le processus même de construction de la compétence.

Le Shadow IA n’est pas marginal : il crée un décalage profond entre ce que les apprenants savent réellement et ce que leurs productions laissent croire.

🧠 1e risque : un apprentissage appauvri

Lorsque l’IA réalise une tâche à la place de l’apprenant, celui-ci obtient un résultat, mais il ne traverse pas le raisonnement qui produit la compétence. Dans les formations techniques — systèmes, réseaux, cybersécurité — la compréhension se construit par essais, erreurs, manipulations, diagnostics répétés.

La substitution précoce empêche l’ancrage cognitif indispensable.

Comme le rappelle Yoshua Bengio, figure majeure de l’IA :

«Nous n’avons pas encore trouvé comment remplacer la compréhension humaine profonde par des machines. »
(MIT Technology Review, 2023)

Un travail propre n’est pas la preuve d’une compétence. Un résultat correct n’est pas, en soi, un apprentissage.

 

🌀2e risque : l’illusion de compétence

L’IA excelle à produire des réponses cohérentes, structurées et convaincantes. Elle peut donner l’impression que la compétence est acquise, alors qu’elle ne fait que masquer les lacunes. L’apprenant peut se croire prêt ; le formateur peut le croire également. Jusqu’au premier incident réel, dans un environnement qui ne correspond pas aux modèles utilisés par l’IA.

Cette confusion est au cœur de la critique formulée par le philosophe Éric Sadin :

«Nous vivons une époque où les technologies produisent un sentiment de maîtrise qui n’est souvent qu’une illusion. »
(Conférence « L’humanité augmentée ? », 2020)

L’illusion se substitue à la maîtrise, et la bulle de compétence éclate au premier imprévu.

 

🚫 3e risque: la perte d’autonomie

Toutes les organisations ne disposent pas d’un accès stable ou illimité à l’IA. Dans de nombreux environnements professionnels, les systèmes sont isolés, protégés ou volontairement déconnectés.

Les métiers de l’IT, en particulier, sont régulièrement confrontés à des situations où le réseau tombe, où un serveur est compromis, où une cyberattaque impose de couper les accès, ou tout simplement où les outils d’assistance ne sont plus disponibles.

Dans ces moments-là, seuls comptent l’analyse, l’observation, le raisonnement, la capacité de diagnostic et l’expérience accumulée. L’apprenant qui a pris l’habitude de déléguer ces étapes à l’IA peut se retrouver paralysé. La technologie, en prenant le relais trop tôt, affaiblit la compétence qu’elle était censée soutenir.

Comme le résume Tristan Harris, spécialiste de l’éthique technologique :

«Chaque fois qu’une technologie prend en charge une tâche humaine, elle affaiblit un peu notre capacité à l’accomplir par nous-mêmes. »
(CBS 60 Minutes, 2021)

La dépendance devient une vulnérabilité, précisément là où les professionnels de l’IT doivent être les plus autonomes.

 

❓3 questions pour apprendre sans se faire remplacer par l’IA

Lorsque l’IA s’invite dans l’apprentissage, l’objectif n’est pas de l’interdire, mais d’éviter qu’elle ne court-circuite la construction de la compétence.

  • Quel geste, quelle compétence suis-je en train de déléguer ?
  • Suis-je capable de la reproduire sans assistance ?
  • L’IA m’aide-t-elle à apprendre ou seulement à aller plus vite ?

Prendre le temps de répondre à ces questions, c'est prévenir les regrets et déceptions ultérieures en ayant conscience que ce que l'on délègue à l'IA, on perd partiellement ou totalement la capacité à le faire par soi-même.

Quid de la valeur d’un diplôme ?

Dans un monde où l’IA peut produire des travaux impeccables, la valeur d’un diplôme repose moins sur le résultat que sur l’intégrité du processus d’apprentissage.

Une formation n’est pas la production d’un livrable parfait : c’est une montée en compétence progressive, exigeante, structurée. Si cette progression est court-circuitée, le diplôme perd de sa substance, et l’apprenant de son autonomie.

La tentation de déléguer est compréhensible. Mais si elle devient systématique, elle prive le futur professionnel de ce qui fait sa valeur : sa capacité à diagnostiquer, à comprendre, à raisonner et à agir de manière adaptée dans des situations réelles.

 

L’IA oui, mais jamais à la place de la compétence

À l’IPREC, l’enjeu est clair : la compétence passe avant le reste.

Cela suppose de ne pas dissimuler l’usage de l’IA mais, au contraire, de l’assumer.

Nos stagiaires sont encouragés à distinguer ce qu’ils maîtrisent réellement de ce qu’ils délèguent à la machine. Cette transparence n’est ni un fardeau ni un dispositif de contrôle : c’est une méthode d’apprentissage honnête, et la seule qui garantisse une montée en compétences durable.

L’IA ne doit pas devenir une prothèse cognitive permanente mais garder sa place d'outil, et non de substitut.

Apprendre à maîtriser, avant d’automatiser : c’est le défi de la formation moderne.

Et c’est le cœur de la responsabilité pédagogique dans les années à venir.

 

Sources :

  • Yoshua Bengio, interview dans MIT Technology Review, mai 2023.
  • Éric Sadin, entretien dans Le Monde, 10 février 2025.
  • Tristan Harris, interview CBS 60 Minutes, 2021.
  • Étude Pôle Léonard de Vinci – RM Conseil – Talan, « Les étudiants face à l’IA générative », 2024.
  • OpenAI, « Introducing OpenAI », 11 décembre 2015.
  • OpenAI, « ChatGPT: Optimizing Language Models for Dialogue », 30 novembre 2022.
  • OpenAI, « GPT-4 Technical Report », 14 mars 2023.

Dans un souci de transparence — cohérent avec le contenu de cet article — nous précisons que sa rédaction a été réalisée avec le concours d’outils d’IA, utilisés comme aide à la structuration et à la mise en forme, mais pas comme substitut de la réflexion ou de la vérification. L’ensemble des sources, des citations et des positions présentées ont été sélectionnées, contrôlées et validées manuellement.