Un projet gouvernemental présente la liste des organismes susceptibles d’encadrer l’application de l’ia act en france

Afin de mettre en œuvre le règlement européen sur l’intelligence artificielle (IA Act), la DGCCRF (Direction générale de la concurrence, de la consommation et de la répression des fraudes) et la DGE (Direction générale des entreprises) présentent un projet de désignation des autorités en charge de la régulation de l’IA en France, indique un communiqué du ministère de l’Économie, le 9 septembre 2025. Le schéma retenu par le gouvernement sera appliqué sous réserve d’une adoption par le Parlement via un projet de loi.
Le cadre juridique de l’ia act
Le règlement européen sur l’IA, dit "IA Act", a été publié au Journal officiel de l’Union européenne le 12 juillet 2024. Ce texte, entré en vigueur de façon progressive, vise à améliorer le fonctionnement du marché intérieur par un cadre juridique commun. Il encadre le développement, la mise sur le marché, la mise en service et l’utilisation des systèmes d’intelligence artificielle dans l’Union.
Son objectif est de promouvoir une IA digne de confiance et centrée sur l’humain, tout en assurant un haut niveau de protection de la santé, de la sécurité et des droits fondamentaux.
Dans le monde du travail, de nombreux outils d’IA se déploient dans le recrutement, la formation ou encore l’évaluation de la productivité. L’IA Act entraîne donc des conséquences importantes. À titre d’exemple, il interdit les systèmes d’IA utilisant des techniques manipulatrices, exploitant les vulnérabilités liées à l’âge, au handicap ou à la situation sociale, ou encore ceux cherchant à déduire les émotions d’une personne sur le lieu de travail ou dans l’enseignement, sauf exceptions médicales ou de sécurité.
Une coordination d’acteurs
Pour encadrer ces interdictions et appliquer l’ensemble des règles prévues, la DGCCRF et la DGE ont présenté un projet de désignation des autorités compétentes. Selon Bercy, le dispositif repose sur une organisation décentralisée, mobilisant des autorités déjà existantes et leurs expertises spécifiques. L’objectif est de créer un cadre de confiance pour l’IA, à la fois protecteur pour les utilisateurs et favorable à l’innovation.
Ce schéma, qui décrit la galaxie des acteurs concernés, doit être soumis au Parlement dans le cadre d’un projet de loi.
Concernant les pratiques interdites, la Cnil et la DGCCRF auront des compétences partagées. Les obligations de transparence imposées aux fournisseurs et organismes déployant certains systèmes d’IA seront contrôlées par la DGCCRF, l’Arcom et la Cnil, en fonction de leurs missions respectives.
Pour les systèmes d’IA qualifiés de "haut risque", la Cnil sera chargée des volets emploi, gestion de la main-d’œuvre et éducation, tandis que la DGCCRF sera compétente pour la formation professionnelle.
Un socle d’expertise pour accompagner la régulation
En complément de ce dispositif, les autorités désignées bénéficieront de l’appui de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) et du Pôle d’expertise de la régulation numérique (PEReN). Ces deux organismes fourniront un socle d’expertise technique partagé afin de renforcer l’efficacité et la cohérence des actions de régulation.
Le ministère de l’Économie souligne que cette coopération vise à garantir la meilleure diffusion des connaissances techniques entre les régulateurs, condition essentielle pour encadrer efficacement l’intelligence artificielle en France.

SOURCE : AEF INFO

Nos réalisations
Découvrez nos références, nos réalisations et nos travaux pour des établissements.
C'est tout frais de nos experts

Rédiger avec ChatGPT : un pari risqué pour votre référencement… à condition de savoir l’utiliser

Stratégie de communication efficace pour les écoles privées : comment se démarquer dans un environnement concurrentiel
