1. Accueil
  2. Normes
  3. Focus sur l'accord européen sur l'IA Act : vers un encadrement de l'intelligence artificielle
Retour
/
Normes
ISO 42001

Focus sur l'accord européen sur l'IA Act : vers un encadrement de l'intelligence artificielle

Qu’est-ce que l’accord européen sur l’IA Act Règlement (UE) 2024/1689? En quoi consiste-t-il ? 

En 2024, le texte propose une uniformisation des normes concernant l’intelligence artificielle a été adopté par le Parlement européen. Ce règlement a été désigné sous le terme de « législation sur l’Intelligence Artificielle », ou désigné comme IA Act. 

L’objectif inhérent à ce projet consiste à garantir la sécurité et la conformité des systèmes d’IA introduits sur le marché européen et utilisés au sein de l’Union européenne aux droits fondamentaux et aux valeurs fondamentales de l’UE. Ce règlement (UE) 2024/1689 vise également à encourager les investissements et l’innovation dans le domaine de l’IA en Europe. 

Cette législation de l’IA constitue une initiative importante car elle permet le développement et l’adoption d’une IA sûre et digne de confiance aux différents acteurs de l’UE. 

Compte tenu de la capacité de l’IA à potentiellement causer des préjudices à la société, la réglementation est fondée sur une approche orientée par les risques, c’est-à-dire, plus le risque est élevé plus les règles sont rigoureuses. 

Ce règlement, pionnier à l’échelle mondiale, pourrait établir une norme internationale pour la réglementation de l’intelligence artificielle. Cela renforcerait l’influence de l’UE dans la création des normes mondiales en matière d’IA. 

Cette réglementation, distinguant les applications d’IA en trois catégories de risques distinctes, témoigne d’une approche stratifiée et nuancée. 

  • Pas de soumission à une réglementation particulière si ce sont des applications qui ne sont pas explicitement interdites et répertoriées 

 

  • Obligations légales spécifiques aux applications considérées comme présentant un risque élevé (ex : outil d’analyse de CV) 

 

  • Interdiction des applications et systèmes présentant un risque jugé inacceptable (ex : systèmes de notation sociale) 

 

Ce règlement (UE) 2024/1689 s'inscrit dans l'objectif de sécuriser les droits fondamentaux, la démocratie, l'État de droit et la durabilité environnementale face aux risques liés à l'intelligence artificielle. Parallèlement, il ambitionne de stimuler l'innovation, plaçant l'Europe en tant que leader dans ce domaine stratégique. 

Les dispositions de ce règlement établissent des obligations proportionnées en fonction du niveau de risque et d'impact potentiel que les applications d'IA peuvent engendrer. 

Cette approche réfléchie et nuancée vise à concilier le développement technologique avec la protection des valeurs fondamentales, créant ainsi un équilibre entre l'encouragement de l'innovation et la préservation des principes éthiques et sociétaux au sein de l'Union européenne. 
 
 

La date de parution et d’application de l’IA Act 

L'Artificial Intelligence Act (AI Act), première initiative normative majeure de la Commission européenne sur l'intelligence artificielle, a vu le jour en avril 2021. Après des négociations intenses entre les institutions européennes, un accord politique décisif a été scellé le 8 décembre 2023. 

Le texte a ensuite été adopté formellement par le Parlement européen le 13 juin 2024, puis publié au Journal officiel de l'UE le 12 juillet 2024. 

Entré en vigueur le 1er août 2024, le règlement suit un calendrier précis :  
Les interdictions de pratiques à risque inacceptable s'appliquent déjà depuis le 2 février 2025, les obligations pour les modèles d'IA à finalité générale (GPAI) ont débuté début août 2025, tandis que les systèmes à haut risque le seront à partir du 2 août 2026. L'Europe concrétise ainsi ses engagements pour une IA innovante dans un contexte sûr et éthique.  

 

Parallèlement, des mesures techniques et d'implémentation continueront d’être élaborées pour compléter le dispositif réglementaire. 
 

Les points importants 

Les principaux éléments portent sur : 

  • Des règles pour les modèles d’IA à finalité générale et fort impact : L'accord intègre des dispositions spécifiques régissant les modèles d'intelligence artificielle (IA) à finalité générale et à fort impact, particulièrement susceptibles de générer des risques systémiques à l'avenir. De même, il couvre également les systèmes d'IA qualifiés de haut risque. 

 

  • Révision du système de gouvernance au niveau législatif : Un remaniement du système de gouvernance est instauré, conférant des pouvoirs d'exécution à l'échelle de l'Union européenne (UE). Cette reconfiguration renforce les mécanismes décisionnels et opérationnels pour garantir une mise en œuvre effective des directives. 

 

  • Élargissement des interdictions avec des garanties biométriques : L'accord étend la liste des pratiques interdites en matière d'IA, tout en introduisant la possibilité pour les autorités répressives d'utiliser l'identification biométrique à distance dans les espaces publics. Cette utilisation est toutefois soumise à des garanties spécifiques visant à préserver les droits individuels. 

 

  • Renforcement de la protection des droits : Une attention particulière est accordée à la protection des droits fondamentaux, imposant aux déploiements de systèmes d'IA à haut risque l'obligation de mener une analyse d'impact sur les droits fondamentaux avant la mise en service du système. Cette mesure vise à renforcer la protection et l'éthique dans l'utilisation de l'IA. 

  

L’accompagnement de Préiso  

Notre cabinet de conseils en projets ISO stratégiques se positionne comme le partenaire idéal pour guider votre entreprise vers une conformité efficace avec l'IA Act. En particulier nous pouvons vous aider à mettre en place la norme ISO 42001 Système de Management de l’Intelligence Artificielle. 

Voici comment nous pouvons vous apporter une valeur ajoutée significative  

  • Expertise approfondie dans l’analyse de conformité 

  • Stratégie sur mesure 

  • Formation et sensibilisation pratiques 

  • Audit et surveillance continue 

 

Nous sommes prêts à être votre partenaire de confiance dans cette transition cruciale vers une utilisation responsable de l'intelligence artificielle. 

Partager sur :
Nous écrire
Les champs indiqués par un astérisque (*) sont obligatoires
À découvrir
ISO/IEC 23894
Découvrir

Gestion des Risques liés à l'IA : Une Nouvelle Ere avec la Norme ISO/IEC 23894 : Technologie de l'information - Intelligence Artificielle - Recommandations relatives au Management du Risque

Dans un monde où l'intelligence artificielle (IA) révolutionne tous les secteurs, la gestion des risques liés à son utilisation devient primordiale. La norme ISO/IEC 23894, récemment publiée en 2023, apporte un cadre structuré pour les organisations impliquées dans le développement, la production, le déploiement et l'utilisation de l'IA. Cette norme guide les entités à travers l'intégration d'une gestion de risque efficace spécifique à l'IA, en alignement avec les principes de l'ISO 31000.
Concrétisez votre projet
email Concrétisez votre projet