1. Accueil
  2. Normes
  3. Focus sur l'accord européen sur l'IA Act : L'approche fondée sur les risques
Retour
/
Normes
ISO 42001

Focus sur l'accord européen sur l'IA Act : L'approche fondée sur les risques

Les dispositions centrales de l’IA Act reposent sur plusieurs éléments clés qui façonnent une approche réglementaire. 
Ces mesures stratégiques sont les suivantes : 

  • Une approche réglementaire axée sur les risques : 

Le règlement AI Act met en place une approche novatrice réglementaire ancrée dans l'évaluation et la gestion des risques associés à l'utilisation de l'intelligence artificielle (IA). Cette démarche préventive permet d'identifier et d'anticiper les dangers, garantissant ainsi une régulation proactive et adaptative. 

  • Un encadrement des modèles d’IA à usage général : 

L'accord offre une régulation spécifique pour les modèles d'IA destinés à un usage général. En définissant des paramètres clairs et des normes rigoureuses, il vise à assurer la fiabilité et la sécurité des applications d'IA qui peuvent influencer divers secteurs. 

  • Un système de supervision à l’échelle nationale et européenne : 

Cela garantit une supervision efficace des développements locaux tout en favorisant une coordination plus large à l'échelle européenne, assurant ainsi une cohérence dans l'application des normes. 

  • Des sanctions proportionnelles au risque : 

Un système de sanctions est instauré, caractérisé par sa proportionnalité au niveau de risque associé à chaque infraction. Cette approche nuancée assure une réponse graduée, où les sanctions sont ajustées en fonction de la gravité des manquements. 
 
 

Approche axée sur les risques : les différentes catégories 

  • Risque minimal : 

La plupart des systèmes d'IA sont classés comme présentant un risque minimal. Ainsi, les applications à risque minime, tels que les systèmes de recommandation basés sur l'IA ou les filtres anti-spam, bénéficieront d'exemptions et ne seront pas soumises à des obligations particulières. Ces systèmes, jugés peu ou pas risqués pour les droits et la sécurité des citoyens européens, permettent toutefois aux entreprises de s'engager volontairement à établir des codes de conduite plus importants. 

  • Haut risque : 

Les systèmes d'IA identifiés comme présentant un risque élevé seront soumis à des exigences plus strictes. Ces exigences incluent des mesures telles que des systèmes d'atténuation des risques, l'utilisation de jeux de données de haute qualité, l'évaluation du risque lié à l'activité, la documentation détaillée, des informations claires pour les utilisateurs, une surveillance humaine et un niveau élevé de robustesse, d'exactitude et de cybersécurité. Les domaines concernés par ces systèmes à haut risque englobent divers secteurs tels que l'eau, le gaz et l'électricité, les appareils médicaux, le recrutement de personnel, l'application de la loi, le contrôle des frontières, l'administration de la justice et les processus démocratiques. 

L'objectif sous-jacent de cette approche est d'assurer que les systèmes d'IA à haut risque respectent des normes rigoureuses en matière de sécurité, de protection des droits fondamentaux, d'État de droit, d'environnement et de démocratie, assurant ainsi la protection des consommateurs, des droits des utilisateurs et de la vie privée. 

  • Risque spécifique lié à la transparence : 

En ce qui concerne les systèmes d'IA tels que les « chatbots » (comme ChatGPT), les utilisateurs doivent être conscients qu'ils interagissent avec une machine. De plus, les contenus générés par l'IA doivent être clairement identifiés en tant que tels, et les utilisateurs doivent être informés de l'utilisation de systèmes de catégorisation biométrique ou de reconnaissance des émotions. Les fournisseurs sont également tenus de concevoir leurs systèmes de manière à permettre la détection des contenus synthétiques en tant que produits générés ou manipulés artificiellement. 
 
 

Risques en cas de mauvaise application 

Les entreprises non conformes aux nouvelles règlementations en matière d'intelligence artificielle (IA) encourent des sanctions financières proportionnelles à leur chiffre d'affaires mondial annuel. Les amendes, variant de 35 millions d'euros ou 7 % du chiffre d'affaires pour les violations graves liées aux applications interdites d'IA, à 15 millions d'euros ou 3 % des ventes pour d'autres infractions, sont fixées en pourcentage ou à un montant prédéterminé, le plus élevé étant retenu. Des limites plus adaptées sont prévues pour les PME et jeunes entreprises. 

Contrairement à certains pays, la législation européenne sera surveillée par un "office européen de l'IA" : l’AI Office de la Commission européenne, qui peut imposer des amendes allant jusqu'à 35 millions d'euros ou 7% du CA mondial annuel (le plus élevé étant retenu), pour les violations graves. En cas de non-respect, toute personne physique ou morale peut déposer une réclamation auprès de l'autorité de surveillance compétente, suivant des procédures spécifiques. 

 

 

L’accompagnement de Préiso : 

Notre cabinet de conseils en projets ISO stratégiques se positionne comme le partenaire idéal pour guider votre entreprise vers une conformité efficace avec l'IA Act. En particulier nous pouvons vous aider à mettre en place la norme ISO 42001 Système de Management de l’Intelligence Artificielle. 

Voici comment nous pouvons vous apporter une valeur ajoutée significative : 

  • Expertise approfondie dans l’analyse de conformité 

  • Stratégie sur mesure 

  • Formation et sensibilisation pratiques 

  • Audit et surveillance continue 

Nous sommes prêts à être votre partenaire de confiance dans cette transition cruciale vers une utilisation responsable de l'intelligence artificielle. 

Partager sur :
Nous écrire
Les champs indiqués par un astérisque (*) sont obligatoires
À découvrir
ISO/IEC 23894
Découvrir

Gestion des Risques liés à l'IA : Une Nouvelle Ere avec la Norme ISO/IEC 23894 : Technologie de l'information - Intelligence Artificielle - Recommandations relatives au Management du Risque

Dans un monde où l'intelligence artificielle (IA) révolutionne tous les secteurs, la gestion des risques liés à son utilisation devient primordiale. La norme ISO/IEC 23894, récemment publiée en 2023, apporte un cadre structuré pour les organisations impliquées dans le développement, la production, le déploiement et l'utilisation de l'IA. Cette norme guide les entités à travers l'intégration d'une gestion de risque efficace spécifique à l'IA, en alignement avec les principes de l'ISO 31000.
ISO 42001 - IA
Découvrir

ISO 42001 - La norme Système de Management pour l'Intelligence Artificielle

La certification ISO 42001 est un gage de qualité reconnu internationalement pour la mise en œuvre d'un système de gestion efficace et éthique de l'intelligence artificielle (IA). En effet la norme ISO 42001 a été élaborée pour organiser et promouvoir des pratiques éthiques et performantes dans le domaine de l'IA, tout en atténuant ses impacts négatifs potentiels sur les individus et la société.
Concrétisez votre projet
email Concrétisez votre projet