Les dispositions centrales de l’IA Act reposent sur plusieurs éléments clés qui façonnent une approche réglementaire.
Ces mesures stratégiques sont les suivantes :
L'accord met en place une approche novatrice réglementaire ancrée dans l'évaluation et la gestion des risques associés à l'utilisation de l'intelligence artificielle (IA). Cette démarche préventive permet d'identifier et d'anticiper les dangers, garantissant ainsi une régulation proactive et adaptative.
L'accord offre une régulation spécifique pour les modèles de fondation et les systèmes d'IA destinés à un usage général. En définissant des paramètres clairs et des normes rigoureuses, il vise à assurer la fiabilité et la sécurité des applications d'IA qui peuvent influencer divers secteurs.
Cela garantit une supervision efficace des développements locaux tout en favorisant une coordination plus large à l'échelle européenne, assurant ainsi une cohérence dans l'application des normes.
Un système de sanctions est instauré, caractérisé par sa proportionnalité au niveau de risque associé à chaque infraction. Cette approche nuancée assure une réponse graduée, où les sanctions sont ajustées en fonction de la gravité des manquements.
La plupart des systèmes d'IA sont classés comme présentant un risque minimal. Ainsi, les applications à risque minime, tels que les systèmes de recommandation basés sur l'IA ou les filtres anti-spam, bénéficieront d'exemptions et ne seront pas soumises à des obligations particulières. Ces systèmes, jugés peu ou pas risqués pour les droits et la sécurité des citoyens européens, permettent toutefois aux entreprises de s'engager volontairement à établir des codes de conduite plus importants.
Les systèmes d'IA identifiés comme présentant un risque élevé seront soumis à des exigences plus strictes. Ces exigences incluent des mesures telles que des systèmes d'atténuation des risques, l'utilisation de jeux de données de haute qualité, l'évaluation du risque lié à l'activité, la documentation détaillée, des informations claires pour les utilisateurs, une surveillance humaine et un niveau élevé de robustesse, d'exactitude et de cybersécurité. Les domaines concernés par ces systèmes à haut risque englobent divers secteurs tels que l'eau, le gaz et l'électricité, les appareils médicaux, le recrutement de personnel, l'application de la loi, le contrôle des frontières, l'administration de la justice et les processus démocratiques.
L'objectif sous-jacent de cette approche est d'assurer que les systèmes d'IA à haut risque respectent des normes rigoureuses en matière de sécurité, de protection des droits fondamentaux, d'État de droit, d'environnement et de démocratie, assurant ainsi la protection des consommateurs, des droits des utilisateurs et de la vie privée.
En ce qui concerne les systèmes d'IA tels que les « chatbots » (comme ChatGPT), les utilisateurs doivent être conscients qu'ils interagissent avec une machine. De plus, les contenus générés par l'IA doivent être clairement identifiés en tant que tels, et les utilisateurs doivent être informés de l'utilisation de systèmes de catégorisation biométrique ou de reconnaissance des émotions. Les fournisseurs sont également tenus de concevoir leurs systèmes de manière à permettre la détection des contenus synthétiques en tant que produits générés ou manipulés artificiellement.
Les entreprises non conformes aux nouvelles règlementations en matière d'intelligence artificielle (IA) encourent des sanctions financières proportionnelles à leur chiffre d'affaires mondial annuel. Les amendes, variant de 35 millions d'euros ou 7 % du chiffre d'affaires pour les violations graves liées aux applications interdites d'IA, à 15 millions d'euros ou 3 % des ventes pour d'autres infractions, sont fixées en pourcentage ou à un montant prédéterminé, le plus élevé étant retenu. Des limites plus adaptées sont prévues pour les PME et jeunes entreprises.
Contrairement à certains pays, la législation européenne sera surveillée par un "office européen de l'IA" avec le pouvoir d'imposer des amendes allant jusqu'à 7 % du chiffre d'affaires (minimum de 35 millions d'euros) pour les violations graves. En cas de non-respect, toute personne physique ou morale peut déposer une réclamation auprès de l'autorité de surveillance compétente, suivant des procédures spécifiques.
Notre cabinet de conseils en projets ISO stratégiques se positionne comme le partenaire idéal pour guider votre entreprise vers une conformité efficace avec l'IA Act. En particulier nous pouvons vous aider à mettre en place la norme ISO 42001 :2023 Système de Management e l’Intelligence Artificielle.
Voici comment nous pouvons vous apporter une valeur ajoutée significative :
Nous sommes prêts à être votre partenaire de confiance dans cette transition cruciale vers une utilisation responsable de l'intelligence artificielle.