De Wikipédia aux ia : aider les élèves à comprendre les outils numériques

Comme Wikipédia auparavant, les outils d’intelligence artificielle générative suscitent des préjugés et une méconnaissance chez les élèves, les étudiants et parfois même les enseignants. Comment les aider à mieux comprendre leur fonctionnement et éviter l’anthropomorphisme ? L’usage de métaphores pourrait-il être une piste intéressante ?
Beaucoup de discours actuels sur l’utilisation des intelligences artificielles génératives (IAG) en éducation reprennent des arguments semblables à ceux qui ont longtemps accompagné l’usage de Wikipédia.
D’abord, un manque de confiance dans ces outils, accompagné du recensement d’erreurs trouvées çà et là. Ensuite, une accusation de paresse envers les utilisateurs qui se contenteraient d’utiliser l’outil sans réécriture ni vérification. Enfin, un dénigrement fondé sur la qualité supposée de ces outils et une volonté initiale de restreindre leur usage, révélant en réalité un problème plus large : l’impact de ces outils sur les travaux et évaluations des élèves.
Les similarités entre Wikipédia et les IAG cachent cependant des différences importantes, notamment sur la compréhension de leur fonctionnement et les conséquences d’une méconnaissance. La circulation de métaphores, pour Wikipédia comme pour les IAG, peut favoriser des usages plus variés et pertinents.
Wikipédia : des étudiants très ignorants de son fonctionnement
Depuis vingt ans, j’interroge des étudiants de master sur leurs connaissances et usages de Wikipédia. Pour la plupart, les cinq principes fondateurs du projet — encyclopédisme, neutralité, licence libre, savoir-vivre communautaire et souplesse des règles — leur sont totalement inconnus. Même les fonctionnalités visibles, comme les langues, l’historique ou la discussion, restent souvent ignorées.
Malgré une utilisation régulière, ces étudiants n’ont jamais exploré les potentialités de Wikipédia. Ils croient comprendre son fonctionnement global, ce qui limite leur capacité à exploiter un projet encyclopédique multilingue et à comprendre le processus collectif de rédaction.
Ils adhèrent à une maxime simpliste : « Tout le monde peut intervenir dans un article, donc cela ne peut pas être de bonne qualité. » Théoriquement, c’est vrai, les contenus peuvent être modifiés en continu. Mais pratiquement, les comportements destructeurs sont rares : Wikipédia détecte rapidement les interventions déplacées via des systèmes automatiques et des robots. La majorité des articles reste stable et fiable. Dès 2004, des études ont montré que le taux d’erreurs dans Wikipédia n’était pas supérieur à celui des grandes encyclopédies.
Cette méconnaissance a des conséquences : Wikipédia rappelle que « la validité, l’exactitude, l’exhaustivité et la pertinence des informations ne sont pas garanties ». Cela a mené au conseil d’usage : « Wikipédia doit être un point de départ pour la recherche et non une destination, et il est conseillé de confirmer indépendamment les informations ». Pourtant, beaucoup d’étudiants ne suivent pas ce conseil.
Ia génératives : un fonctionnement opaque et des hallucinations
L’intelligence artificielle a évolué d’un champ scientifique à des entités aux contours flous, capables de produire textes, images, vidéos, etc. Outils de productivité personnelle ou collective, elles présentent des limites et risques connus :
- des biais et hallucinations : discriminations, erreurs, fausses références ou anomalies visuelles (ex. mains à six doigts), inhérentes à leur fonctionnement ;
- une absence de compréhension réelle : illustrée par la métaphore du perroquet stochastique, renforcée par le discours anthropomorphe, absence de contrôle global et défaut d’explicabilité (bien que cela s’améliore) ;
- une qualité variable des réponses selon le coût d’utilisation et les contraintes énergétiques, soulevant des questions écologiques pour l’avenir.
L’école doit enseigner l’usage de ces outils. Certains suggèrent d’expliquer leur fonctionnement interne, comme pour Wikipédia. Mais l’écart entre l’explication théorique d’un grand modèle de langage et l’expérience réelle des utilisateurs rend cette approche difficile.
Des métaphores pour interroger les usages numériques
Les métaphores permettent de mieux comprendre le fonctionnement et les usages des IAG, tout en limitant l’anthropomorphisation. Des expressions comme « couteau suisse », « perroquet stochastique », « stagiaire ivre » ou « seigneur suprême » offrent des visions différentes de l’interaction avec les IA.
Pour Wikipédia, les métaphores sont rares, comme « une cathédrale en perpétuelle construction ». Avec ChatGPT, on peut imaginer d’autres images : « palimpseste numérique », « encyclopédie écrite au crayon », « un canari dans la mine de charbon pour la confiance numérique ». Ces métaphores expliquent le fonctionnement et aident à adopter un regard critique :
- « Le génome vivant de la culture mondiale » : Wikipédia comme organisme évolutif et sensible à son environnement.
- « Le théâtre d’ombres de la neutralité » : critique de la neutralité éditoriale, jamais parfaitement atteinte.
Pour les IAG, les métaphores sont tout aussi utiles. ChatGPT évoque par exemple :
- « Un ornithologue qui confond des oiseaux rares avec des créatures mythologiques » ;
- « Un conteur qui invente des détails pour rendre son histoire captivante » ;
- « Un chirurgien qui opère avec des instruments mal calibrés, produisant des résultats inattendus ».
Cependant, ChatGPT continue de se présenter comme un humain, rendant l’anthropomorphisation difficile à éviter. Claude.ia, en revanche, produit des synthèses non anthropomorphiques plus pertinentes. Varier les perspectives aide à mieux comprendre le fonctionnement des IAG.

SOURCE : Theconversation.com

Nos réalisations
Découvrez nos références, nos réalisations et nos travaux pour des établissements.
C'est tout frais de nos experts

Classements 2025 : le palmarès des écoles et universités françaises

Attirer davantage d’étudiants : enjeux, leviers et bonnes pratiques pour les établissements éducatifs
