Baccalauréat : est-ce une bonne idée d'utiliser des intelligences artificielles pour réviser avant les épreuves ?

Pour le meilleur et (surtout) pour le pire, de nombreux lycéens ont déjà recours à des intelligences artificielles comme ChatGPT et Gemini tout au long de l'année. Et pour se préparer avant le bac, y a-t-il de "bonnes manières" de se servir des IA ?
Pourquoi ne pas utiliser une intelligence artificielle (IA) générative comme ChatGPT ou Gemini pour réviser les épreuves du baccalauréat ? Que ce soit pour la philosophie, l'histoire-géographie, les mathématiques ou la physique, pour les lycéens les plus studieux comme pour ceux qui ont été moins appliqués au cours de leur année de terminale, la tentation peut être grande à l'approche des épreuves.
D'autant que l'IA s'invite déjà dans le quotidien des enseignants comme des élèves, au point que nombre de professeurs redoutent notamment de nouvelles formes de triche. Mais cette habitude n'engendre-t-elle pas un risque d'apprendre des choses complètement fausses, voire de ne rien retenir du tout ? Y a-t-il vraiment de bonnes manières d'utiliser des IA pour préparer le bac ? Quels sont les dangers à éviter ? Franceinfo a posé ces questions à des experts.
Les IA maîtrisent-elles le programme du bac ? Plus ou moins
Avant de rentrer dans le vif du sujet, quelques révisions s'imposent. Les IA génératives comme ChatGPT ne sont pas "intelligentes". Elles ne "savent" pas et elles ne vont pas non plus fouiller dans une base de données pour trouver la référence la plus adaptée à la question posée.
À la base, ce sont des logiciels qui ont été entraînés sur des milliards de phrases pour analyser les enchaînements de mots les plus probables, et qui génèrent la suite de mots la plus plausible par rapport à la question posée. Ce qui peut donner une affirmation vraie aussi bien qu'une totalement fausse, à l'image de la suggestion automatique de mots sur les smartphones. Le principe est ensuite amélioré, mais le fonctionnement de base demeure, et le risque d'erreur aussi.
Autre point important, "les principales IA génératives ne connaissent pas tous les détails du programme du bac en France en 2025", rappelle Ari Kouts, expert IA au sein du cabinet de conseil Viseo. Il rappelle que "les IA sont entraînées sur des données du monde entier, souvent en anglais, et la France ne représente qu'une petite partie" qui ne pèse pas bien lourd quand le logiciel calcule sa réponse. "Et les données utilisées pour entraîner ces IA s'arrêtent souvent en 2024", précise-t-il.
Il ne faut donc jamais prendre ce qui est écrit par ChatGPT pour argent comptant. Et il ne faut pas croire non plus que, quand les IA font des erreurs, celles-ci sont toujours évidentes, du type "2+2 = 5". "Sur des questions politiques autour de la Seconde Guerre mondiale, par exemple, ChatGPT peut présenter les choses d'une manière biaisée ou 'trop nuancée', que seul un spécialiste pourrait repérer", avertit Margarida Romero, professeure des universités à l'Université Côte d'Azur. Ça tombe bien, ce sont des spécialistes qui ont écrit les manuels scolaires, donc "mieux vaut toujours vérifier dans ses leçons ensuite", insiste-t-elle.
Les IA peuvent-elles expliquer des concepts de philo, d'histoire ou de maths ? Pas forcément
C'est l'un des usages les plus évidents des IA génératives : demander d'expliquer des notions mal comprises. Le devoir selon Kant, l'analyse combinatoire ou la guerre froide… Les IA semblent avoir réponse à tout et pouvoir les expliquer en détail inlassablement.
"On peut lui demander d'expliquer et de reformuler autant de fois qu'on veut. Et de différentes manières : par exemple 'comme si j'avais 10 ans', ou 'avec des métaphores'", explique Margarida Romero.
Ari Kouts recommande de préciser son "prompt" (la question qu'on pose à l'IA) autant que possible pour l'adapter au besoin. Un exemple rapide : "Tu es un professeur d'université expert en philosophie. Tu maîtrises notamment la philosophie de l'art et les rapports entre nature humaine et culture. Tu accompagnes toujours tes explications d'un exemple concret et d'une citation de philosophe sur le sujet. Explique-moi la pensée de Platon sur l'art et la beauté."
Mais encore une fois, ChatGPT ne sait pas tout. Même plein d'assurance, le logiciel peut être à côté de la plaque, et même inventer les citations ou les titres de livres qu'il donne. Un exemple ? En réponse au "prompt" de franceinfo, ChatGPT attribue à Platon une citation qui reprend bien une idée du philosophe, mais pas dans ses mots. Même constat du côté de Gemini, l'IA de Google.
Il faut donc toujours aller lire ses manuels, leçons ou livres appropriés pour vérifier si la réponse est vraie, et si "l'explication de la morale selon Kant pour un enfant de 10 ans" correspond à la version réelle.
Les réponses des IA sont-elles justes avec des sources fiables ? Pas toujours
Il y a plusieurs moyens de limiter la casse. Le principal : fournir à l'IA des documents qu'elle va utiliser comme sources, comme les leçons ou des manuels de la matière choisie. Elle pourra ainsi rapprocher ses réponses du programme officiel. De préférence chapitre par chapitre, et pas tout un manuel d'un coup, pour éviter que la bonne réponse ne soit noyée dans la masse.
"NotebookLM de Google est très bon pour ça", assure Ari Kouts. "Il renvoie même aux citations précises des documents qu'il a utilisés."
Mais même ainsi, le fonctionnement de base de l'IA peut discrètement prendre le pas sur les sources pour influencer la réponse, avertit Margarida Romero. Et si vous demandez à une IA de lire ou de créer une carte ou un graphique, c'est à vos risques et périls.
"Ça marche relativement bien avec des modèles comme GPT-4o", souligne Ari Kouts. "Mais il y a davantage d'erreurs qu'à l'écrit, et il suffit qu'il décode mal une nuance de couleur ou un titre, ou des symboles qui se ressemblent, ou une carte faite à la main…"
Autre possibilité sur ChatGPT : utiliser une banque de GPT pré-programmés par des utilisateurs. Mais un GPT dédié à la philosophie testé par franceinfo a lui aussi donné des citations inventées. La prudence s'impose donc toujours.
Une IA peut-elle faire des fiches de révision ? Plutôt oui, mais ce n’est pas optimal
Les IA génératives peuvent résumer un document de nombreuses manières. Avec des puces, des exemples ou non, des dates importantes en gras… "NotebookLM peut générer une frise chronologique avec les dates importantes en histoire", cite Ari Kouts, "et même résumer le cours sous forme de podcast".
Mais tous les conseils précédents restent valables : fournir les documents de cours, traiter chapitre par chapitre, et tout vérifier. Ce qui est plus facile, puisque les sources sont souvent identifiables.
"Faire des fiches de révision est une bonne idée", affirme Colin de la Higuera, enseignant-chercheur à l'Université de Nantes. "Mais ce n'est que la moitié du travail." Selon lui, concevoir une fiche soi-même, c'est déjà apprendre. Demander à une IA, c’est sauter cette étape d’appropriation.
Autre faiblesse de l'IA : "On retient beaucoup moins d'informations en lisant ou écrivant sur écran qu’avec du papier", rappelle Margarida Romero. Copier mécaniquement une fiche d’IA n’apporte pas la réflexion nécessaire. Se questionner, reformuler, créer ses propres moyens mnémotechniques reste essentiel.
Une IA peut-elle créer des exercices ? Oui, mais avec des limites
C’est un des usages que les experts jugent les plus prometteurs. "Pour apprendre avec une IA, il faut l’utiliser comme un partenaire qui nous questionne", dit Margarida Romero. Demandez-lui : "Pose-moi des questions", ou "Aide-moi à améliorer ma réponse".
Les recommandations restent les mêmes : utiliser des documents fiables, poser un prompt précis, et toujours vérifier. "NotebookLM a un bouton QCM intégré pour générer un quiz à partir de documents", explique Ari Kouts.
C’est particulièrement utile pour les langues, comme l’anglais ou l’espagnol, avec un dialogue interactif. Attention toutefois : l’anglais d’une IA peut manquer de naturel.
En sciences, c’est plus complexe. "Demander un exercice de maths à ChatGPT, c’est risqué : il peut ne pas avoir de solution valable", avertit Ari Kouts. Les exercices créés par des enseignants restent bien plus fiables.
Dans les matières littéraires, on peut lui demander des sujets de dissertation, voire des plans. Mais demander un corrigé pose encore les mêmes problèmes de fiabilité et de méthode.
En résumé : utiliser une IA pour réviser, oui, mais avec recul
Impossible de trancher de manière absolue. Tout dépend de l'outil, du prompt, des sources et surtout du degré de réflexion de l’élève. Mais les risques d’erreur sont nombreux, et les vérifications prennent du temps. Pour certains, l’IA peut être une aide, mais ce n’est jamais une solution miracle. Et en cas d’échec, pas question de blâmer ChatGPT.

SOURCE : FRANCE INFO

Nos réalisations
Découvrez nos références, nos réalisations et nos travaux pour des établissements.
C'est tout frais de nos experts

"ChatGPT nous oblige à redéfinir notre métier" : un professeur d’histoire-géo spécialisé en intelligence artificielle

Nouveau bachelor agro : les modalités détaillées dans des projets de décrets
