call 09 80 90 11 52
Accueil > Normes > Focus sur l'accord européen sur l'IA Act : L'approche fondée sur les risques
ISO 42001

Focus sur l'accord européen sur l'IA Act : L'approche fondée sur les risques

Les dispositions centrales de l’IA Act reposent sur plusieurs éléments clés qui façonnent une approche réglementaire.
Ces mesures stratégiques sont les suivantes :

  • Une approche réglementaire axée sur les risques :

L'accord met en place une approche novatrice réglementaire ancrée dans l'évaluation et la gestion des risques associés à l'utilisation de l'intelligence artificielle (IA). Cette démarche préventive permet d'identifier et d'anticiper les dangers, garantissant ainsi une régulation proactive et adaptative.

  • Un encadrement des modèles de fondation et des systèmes d’IA à usage général :

L'accord offre une régulation spécifique pour les modèles de fondation et les systèmes d'IA destinés à un usage général. En définissant des paramètres clairs et des normes rigoureuses, il vise à assurer la fiabilité et la sécurité des applications d'IA qui peuvent influencer divers secteurs.

  • Un système de supervision à l’échelle nationale et européenne :

Cela garantit une supervision efficace des développements locaux tout en favorisant une coordination plus large à l'échelle européenne, assurant ainsi une cohérence dans l'application des normes.

  • Des sanctions proportionnelles au risque :

Un système de sanctions est instauré, caractérisé par sa proportionnalité au niveau de risque associé à chaque infraction. Cette approche nuancée assure une réponse graduée, où les sanctions sont ajustées en fonction de la gravité des manquements.

Approche axée sur les risques : les différentes catégories

  • Risque minimal :

La plupart des systèmes d'IA sont classés comme présentant un risque minimal. Ainsi, les applications à risque minime, tels que les systèmes de recommandation basés sur l'IA ou les filtres anti-spam, bénéficieront d'exemptions et ne seront pas soumises à des obligations particulières. Ces systèmes, jugés peu ou pas risqués pour les droits et la sécurité des citoyens européens, permettent toutefois aux entreprises de s'engager volontairement à établir des codes de conduite plus importants.

  • Haut risque :

Les systèmes d'IA identifiés comme présentant un risque élevé seront soumis à des exigences plus strictes. Ces exigences incluent des mesures telles que des systèmes d'atténuation des risques, l'utilisation de jeux de données de haute qualité, l'évaluation du risque lié à l'activité, la documentation détaillée, des informations claires pour les utilisateurs, une surveillance humaine et un niveau élevé de robustesse, d'exactitude et de cybersécurité. Les domaines concernés par ces systèmes à haut risque englobent divers secteurs tels que l'eau, le gaz et l'électricité, les appareils médicaux, le recrutement de personnel, l'application de la loi, le contrôle des frontières, l'administration de la justice et les processus démocratiques.

L'objectif sous-jacent de cette approche est d'assurer que les systèmes d'IA à haut risque respectent des normes rigoureuses en matière de sécurité, de protection des droits fondamentaux, d'État de droit, d'environnement et de démocratie, assurant ainsi la protection des consommateurs, des droits des utilisateurs et de la vie privée.

  • Risque spécifique lié à la transparence :

En ce qui concerne les systèmes d'IA tels que les « chatbots » (comme ChatGPT), les utilisateurs doivent être conscients qu'ils interagissent avec une machine. De plus, les contenus générés par l'IA doivent être clairement identifiés en tant que tels, et les utilisateurs doivent être informés de l'utilisation de systèmes de catégorisation biométrique ou de reconnaissance des émotions. Les fournisseurs sont également tenus de concevoir leurs systèmes de manière à permettre la détection des contenus synthétiques en tant que produits générés ou manipulés artificiellement.

Risques en cas de mauvaise application

Les entreprises non conformes aux nouvelles règlementations en matière d'intelligence artificielle (IA) encourent des sanctions financières proportionnelles à leur chiffre d'affaires mondial annuel. Les amendes, variant de 35 millions d'euros ou 7 % du chiffre d'affaires pour les violations graves liées aux applications interdites d'IA, à 15 millions d'euros ou 3 % des ventes pour d'autres infractions, sont fixées en pourcentage ou à un montant prédéterminé, le plus élevé étant retenu. Des limites plus adaptées sont prévues pour les PME et jeunes entreprises.

Contrairement à certains pays, la législation européenne sera surveillée par un "office européen de l'IA" avec le pouvoir d'imposer des amendes allant jusqu'à 7 % du chiffre d'affaires (minimum de 35 millions d'euros) pour les violations graves. En cas de non-respect, toute personne physique ou morale peut déposer une réclamation auprès de l'autorité de surveillance compétente, suivant des procédures spécifiques.

L’accompagnement de Préiso :

Notre cabinet de conseils en projets ISO stratégiques se positionne comme le partenaire idéal pour guider votre entreprise vers une conformité efficace avec l'IA Act. En particulier nous pouvons vous aider à mettre en place la norme ISO 42001 :2023 Système de Management e l’Intelligence Artificielle.

Voici comment nous pouvons vous apporter une valeur ajoutée significative :

  • Expertise approfondie dans l’analyse de conformité
  • Stratégie sur mesure
  • Formation et sensibilisation pratiques
  • Audit et surveillance continue

Nous sommes prêts à être votre partenaire de confiance dans cette transition cruciale vers une utilisation responsable de l'intelligence artificielle.

À découvrir
Concrétisons ensemble votre projet
Les champs indiqués par un astérisque (*) sont obligatoires
Concrétisez votre projet event