Entrée en vigueur de l’IA Act : Règlement sur l’intelligence artificielle

Mai 19, 2025News

L’IA Act, premier règlement législatif sur l’intelligence artificielle, est entré en vigueur dans l’Union européenne le 1er août 2024.

Dans notre quête d’innovation et de conformité, nous avons identifié et listé les aspects à connaître pour se conformer à l’IA Act. Ce règlement vise à encadrer le développement des systèmes d’IA, afin qu’ils respectent les valeurs européennes et garantissent la protection des droits fondamentaux des personnes. Découvrez comment cela fonctionne et qui est concerné :

IA ACT ou RIA (Règlement européen sur l’Intelligence Artificielle)

L’IA s’impose aujourd’hui comme une révolution industrielle à part entière — aussi déterminante que l’ont été la machine à vapeur ou les semi-conducteurs. Elle transforme en profondeur des secteurs clés comme la santé, l’industrie, le commerce, l’éducation ou la finance, en apportant des avancées majeures en matière de gestion, d’analyse et d’automatisation.

Mais cette puissance technologique s’accompagne aussi de défis éthiques cruciaux : lutte contre la désinformation, respect de la vie privée, transparence des algorithmes, et préservation des droits fondamentaux.

C’est dans ce contexte que le Conseil européen a adopté l’IA Act, une « réglementation produit » qui régit tous les systèmes d’IA commercialisés dans l’UE. Cette loi classe les risques associés à l’IA en quatre catégories et impose des obligations adaptées à chaque niveau de risque :

 

1. Risques inacceptables (Interdits)

Ces systèmes sont prohibés en raison de leur potentiel à nuire à la sécurité, à la dignité ou aux droits fondamentaux des individus.

  • Manipulation de groupes vulnérables (ex : exploitation des personnes fragiles psychologiquement).
  • Notation sociale, qui classe les individus en fonction de critères sociaux, comportementaux ou économiques.
  • Identification biométrique à distance (comme la reconnaissance faciale en temps réel) dans des espaces publics.

 2. Risques élevés (Réglementés de manière stricte)

Ces systèmes ont un impact significatif sur des secteurs critiques tels que la santé, l’éducation ou la sécurité.

  • Profilage et traitement des données personnelles, y compris l’évaluation des comportements, des performances professionnelles ou des préférences.
  • IA dans des infrastructures critiques (transports, approvisionnement en eau ou énergie, etc.).
  • Emploi : utilisation de l’IA pour le recrutement, la sélection ou l’évaluation des employés.
  • Application de la loi : évaluation du risque de délinquance ou de récidive.

3. Risques limités (Obligations de transparence)

Les systèmes qui présentent un faible risque doivent être transparents avec les utilisateurs sur leur utilisation de l’IA.

  • Chatbots : Les utilisateurs doivent être informés qu’ils interagissent avec une IA.
  • Systèmes de recommandation (ex : recommandation de produits, vidéos, etc.).
  • IA générative (comme ChatGPT), qui doit préciser qu’elle génère des contenus artificiels.

4. Risques minimaux (Normes simples)

Les systèmes à faible ou aucun risque, soumis à des exigences minimales.

  • Filtres anti-spam.
  • IA dans les jeux vidéo.

Qui est concerné par l’IA Act ?

L’IA Act s’applique à tous les acteurs qui développent, distribuent ou utilisent des systèmes d’IA dans l’Union européenne. Cela inclut :

  • Fournisseurs, importateurs et distributeurs de systèmes d’IA.
  • Utilisateurs d’IA venant de l’étranger, mais déployés dans l’UE.
  • Entreprises et institutions publiques utilisant des IA à haut risque, notamment dans des secteurs régulés (santé, transports, énergie, etc.).
  • Développeurs de modèles génératifs : Ils doivent garantir la transparence sur les données d’entraînement et prévenir les biais dans les algorithmes.

Calendrier de mise en œuvre de l’IA Act :

Le Règlement sur l’IA entre en vigueur progressivement avec des délais de conformité échelonnés (6 à 36 mois selon les obligations) :

  • 1er août 2024 : Entrée en vigueur du règlement.
  • 2 février 2025 : Interdiction des systèmes d’IA à risques inacceptables.
  • 2 août 2025 : Règles applicables aux modèles d’IA à usage général et désignation des autorités compétentes dans chaque État membre.
  • 2 août 2026 : Application aux systèmes à haut risque déjà identifiés (biométrie, infrastructures critiques, etc.).
  • 2 août 2027 : Extension aux produits réglementés intégrant de l’IA, comme les jouets, dispositifs médicaux, etc.

Par conséquent, les entreprises utilisant l’IA doivent dès maintenant prendre certaines mesures pour se préparer à l’application de l’IA ACT :

 

  1.  Classer leurs systèmes d’IA en fonction du niveau de risque.
  2. Préparer la documentation technique et des mécanismes de traçabilité.
  3. Anticiper les contrôles par les autorités nationales et européennes.
Pour savoir si votre système d’IA est soumis à ces obligations, vous pouvez utiliser l’outil de vérification de la conformité à la loi sur l’IA : Vérificateur de conformité à l’IA ACT 

Enjeux autour de l’IA Act :

Certains acteurs du secteur technologique craignent que des régulations trop strictes ralentissent l’innovation. Cependant, l’Union européenne voit cette législation comme une opportunité pour renforcer sa souveraineté numérique et stimuler l’innovation, notamment par des investissements dans la formation des professionnels de l’IA.

L’IA de confiance, promue par l’IA Act, vise à rassurer les utilisateurs en garantissant la transparence des systèmes et en fournissant des explications sur la conception et les choix réalisés.

Dans tous les cas, en France, où environ 35 % des entreprises utilisent déjà l’IA, la conformité avec la réglementation de l’IA Act devient un enjeu majeur. Il est crucial que les entreprises réfléchissent à la manière dont elles vont intégrer l’IA dans leurs activités, qu’elles l’appliquent de manière limitée ou étendue, tout en respectant les normes imposées. Cette réflexion permet de mieux anticiper l’impact de la réglementation sur leurs activités et de tirer parti des avantages :

  • Mieux maîtriser les systèmes d’IA déjà en place et anticiper les évolutions futures.
  • Accélérer l’adoption de l’IA en permettant aux utilisateurs d’avoir confiance dans les outils qu’ils utilisent.
  • Optimiser les coûts de R&D et innover de manière plus stratégique.
  • Gérer la réputation de l’entreprise en garantissant la conformité aux règles européennes.
  • Éviter les lourdes amendes liées à la non-conformité.

Cliquez ici pour consulter la liste complète de toutes les obligations et tâches que la loi sur l’IA impose et de connaître en détail les périodes de transition.

Aller au-delà de l’IA Act

Si la protection des droits fondamentaux est au cœur du règlement IA Act, l’usage de l’intelligence artificielle soulève également d’autres enjeux majeurs, tels que la propriété intellectuelle ou l’impact environnemental, et bien que ces sujets soient encore en discussion et en cours d’intégration dans les cadres réglementaires, il est essentiel de les anticiper et de les traiter de manière proactive afin de bâtir des fondations solides pour des projets d’IA durables.

Chez Wiifor, nous nous alignons également sur d’autres référentiels et bonnes pratiques liés à l’usage responsable des outils numériques :

  • Engagement Numérique Responsable.
  • Mesures renforcées en matière de protection des données et de cybersécurité.
  • Solution IA supervisée, avec une approche centrée utilisateur.
  • Alignement au Code de la propriété intellectuelle et RGPD

En parallèle, il existe en France des structures de référence comme Hub France IA, l’une des principales associations dédiées au développement et à l’adoption d’une IA responsable, éthique et souveraine. Ce type de réseau offre un cadre stimulant pour échanger avec d’autres entreprises engagées, partager vos retours d’expérience et bénéficier d’un accompagnement concret dans vos projets IA.

N’hésitez pas à nous contacter si vous souhaitez en savoir plus sur nos solutions ou simplement avoir une conversation autour de l’IA de confiance ! Contact Wiifor

Découvrez nos autres articles en News

Wiifor est labellisé Numérique Responsable Niveau 1

Nous sommes fiers d’annoncer l’obtention du Label Numérique Responsable 1. Une reconnaissance qui vient récompenser la démarche collective portée par notre comité RSE et l’ensemble des équipes, avec pour ambition de faire du numérique un levier d’impact positif au service des personnes et de la planète.

Sobriété énergétique pour les hôtels

Wiifor embarque dans l’aventure BUNGALOW 2 ! Lauréat de l’appel à programmes CEE 2023, ce projet, porté par Tipee, en partenariat avec Imageen, Green Tech, Engie et Picoty vise un objectif ambitieux : accompagner les hôtels des DOM (Réunion, Mayotte, Guadeloupe, Martinique, Guyane) vers une transition énergétique efficace.