Intelligence artificielle : contrôle renforcé pour la formation

Le Sénat a adopté le 17 février 2026 un amendement du gouvernement visant à encadrer l’usage des systèmes d’intelligence artificielle dans la formation professionnelle, y compris dans les établissements d’enseignement supérieur. L’objectif est d’habiliter les agents chargés de la répression des fraudes à vérifier la conformité au règlement européen sur l’IA.
Ces amendements assurent l’application effective du règlement européen harmonisé à l’échelle de l’UE. L’échéance est fixée au 2 août 2026 : tous les États membres devront pouvoir attester de l’application complète des dispositions de l’IA Act pour les systèmes à haut risque, incluant ceux utilisés en formation, emploi ou justice, et avoir mis en place des "bacs à sable réglementaires" pour accompagner l’innovation.
quatre niveaux de risque identifiés par l’UE
Le règlement distingue quatre catégories de systèmes d’IA :
- risque inacceptable : utilisation strictement interdite, comme la notation sociale ;
- risque élevé : inclut les activités de formation ;
- risque limité : obligation d’informer l’utilisateur et mention de la nature artificielle des productions des IA génératives ;
- risque minimal ou nul : aucun contrôle spécifique requis.
Les "bacs à sable" offrent un environnement sécurisé pour le développement, l’essai et la validation de systèmes d’IA innovants avant leur mise sur le marché.
adaptation du droit français
Pour assurer la conformité progressive avec l’IA Act, le gouvernement a présenté plusieurs amendements au projet de loi d’adaptation au droit de l’Union européenne, tous adoptés sans débat. L’amendement n°446 prévoit d’adapter les habilitations, pouvoirs de contrôle et régimes de sanctions existants pour permettre aux autorités de surveillance de marché d’exercer pleinement leurs nouvelles missions.
enseignement supérieur visé
Le code de la consommation sera modifié pour permettre aux agents de la concurrence, de la consommation et de la répression des fraudes de rechercher et constater les manquements :
- aux pratiques interdites prévues à l’article 5 de l’IA Act ;
- aux obligations de transparence et exigences pour les systèmes à haut risque prévues à l’article 50.
Ces dispositions concernent spécifiquement les systèmes d’IA utilisés pour la formation professionnelle, y compris les formations proposées par les établissements d’enseignement supérieur comme les mastères ou MBA.
L’article 5 interdit l’usage de systèmes d’IA pour inférer les émotions d’une personne physique sur le lieu de travail ou dans les établissements d’enseignement. L’article 50 impose que les informations sur l’IA soient fournies de façon claire et accessible dès la première interaction, y compris pour les personnes en situation de handicap.

SOURCE : AEFINFO

Nos réalisations
Découvrez nos références, nos réalisations et nos travaux pour des établissements.
C'est tout frais de nos experts

Intelligence artificielle dans les EPLE : comment la piloter ?

Spécialités au lycée : les filles moins nombreuses en mathématiques

