L’IA et les évaluations : comment passer d’un cadrage punitif à un cadrage pédagogique ?

Lors du webinaire organisé par la Dgesip le 3 décembre 2025, Caroline Ollivier-Yaniv, cheffe de la mission IA, alerte : « Le recours aux IA génératives par nos étudiants risque de rendre certaines formes d’évaluation totalement inutiles ». Elle invite donc à repenser les modalités d’appréciation des compétences, en envisageant des pratiques qui évaluent davantage un processus plutôt qu’un produit final. Plusieurs solutions numériques en lien avec l’intégration de l’IA dans les évaluations ont été présentées, tandis que Céline Averseng (IAE Montpellier) souligne l’efficacité de ces outils pour générer des feedbacks, des quiz et des études de cas personnalisées.
Ce webinaire, troisième de la série consacrée à l’IA dans l’enseignement supérieur, portait spécifiquement sur l’impact de cette technologie sur les pratiques d’évaluation et sur la transition d’un cadre répressif vers une approche réellement pédagogique.
Évaluer un processus plutôt qu’un produit selon Caroline Ollivier-Yaniv
Caroline Ollivier-Yaniv rappelle en ouverture que « certains types d’évaluations peuvent, à cause des IA génératives, ne plus mesurer ce qu’ils étaient censés mesurer ».
Selon elle, multiplier les oraux, renforcer la surveillance des examens ou intensifier le cadrage punitif ne constitue qu’une réponse partielle : si ces solutions peuvent fonctionner pour les évaluations sommatives, elles sont plus difficiles à appliquer dans des contextes formatifs ou en contrôle continu.
Elle encourage donc à explorer d’autres pistes : à l’ère de l’IA, l’enjeu devient peut-être de savoir comment évaluer le raisonnement, la progression, la démarche, plutôt qu’un résultat brut potentiellement produit ou amélioré par une IA.
Mesurer l’impact de l’IA sur les évaluations avec l’outil Prax-IA
Le modèle Prax-IA, développé par l’université de Lausanne en 2024, a été présenté comme un dispositif d’aide pour analyser la vulnérabilité des activités d’évaluation face aux usages de l’IA.
Jean-François Van de Poël explique que cet outil permet aux enseignants d’identifier les épreuves les plus exposées, d’adapter rapidement leurs pratiques et de déterminer dans quelle mesure l’usage de l’IA est autorisé ou encouragé dans une situation donnée.
Prax-IA aide également à réfléchir aux compétences liées à l’IA que doivent développer étudiants et enseignants, en s’appuyant sur le référentiel Anders (2023).
Mais il met aussi en lumière un enjeu : interdire l’IA lors d’une évaluation n’empêche pas les étudiants de s’y entraîner en amont, ce qui peut créer une dépendance, réduire la tolérance à la frustration ou donner une illusion de maîtrise intellectuelle.
Définir des balises pour encadrer l’usage des IA selon l’université de Sherbrooke
L’université de Sherbrooke propose un cadre en creative commons qui vise à aider les enseignants à définir clairement l’usage autorisé des IA.
Ces balises, organisées en cinq niveaux, peuvent être intégrées directement dans les plans de cours et s’accompagnent d’un formulaire de déclaration d’usage de l’IA pour les travaux étudiants.
Pour Serge Piché, conseiller pédagogique en IA, ces repères rassurent les étudiants, tout en permettant de remettre au centre de la réflexion les fondamentaux pédagogiques. Il rappelle que si les enseignants maîtrisent généralement très bien leur discipline, ils disposent parfois de connaissances pédagogiques insuffisantes pour déterminer les niveaux d’usage adéquats de l’IA.
Selon lui, ces évolutions doivent être guidées par l’intelligence humaine collective et une forme d’humilité intellectuelle. L’université travaille également sur un référentiel destiné à renforcer la prise en compte de l’« agir critique » dans les formations.
Générer des quiz et études de cas grâce à l’IA : retours d’expérience des IAE
Deux enseignantes des IAE de Montpellier et d’Aix ont partagé leurs pratiques.
À Montpellier, Céline Averseng utilise l’IA pour créer des évaluations variées : quiz, QCM ou études de cas fictives. Là où elle ne pouvait proposer qu’un ou deux exercices, elle peut désormais en produire des dizaines grâce à la génération automatique de données cohérentes. L’IA facilite aussi l’import sur Moodle et la génération de grilles d’évaluation.
Si la technologie lui permet de rédiger des feedbacks plus riches, elle refuse d’envisager une délégation de la notation : « Notre analyse d’enseignant n’est pas transférable à la machine ». Elle met également en garde contre un scénario où les questions, les réponses et les corrections seraient entièrement générées par IA.
L’IAE de Montpellier a d’ailleurs amorcé un retour aux évaluations en salle, avec des ordinateurs équipés de Safe Exam Browser, même si des questions juridiques subsistent quant à l’obligation d’installer le logiciel.
À Aix, Carolina Serrano-Archimi rappelle enfin que l’IA doit être perçue non comme une fin mais comme un levier de transformation pédagogique. Elle insiste sur la nécessité pour les enseignants d’être transparents sur leurs propres usages de l’IA, surtout lorsqu’ils demandent la même transparence à leurs étudiants.


Nos réalisations
Découvrez nos références, nos réalisations et nos travaux pour des établissements.
C'est tout frais de nos experts

Communiquer et valoriser les projets des lycées hôtellerie-restauration et tourisme. Repères, pratiques observées et cadre institutionnel

Pourquoi l’IA générative ne remplacera pas (encore) un LMS structuré dans la formation

