Les dispositions centrales de l’IA Act reposent sur plusieurs éléments clés qui façonnent une approche réglementaire.
Ces mesures stratégiques sont les suivantes :
Une approche réglementaire axée sur les risques :
Le règlement AI Act met en place une approche novatrice réglementaire ancrée dans l'évaluation et la gestion des risques associés à l'utilisation de l'intelligence artificielle (IA). Cette démarche préventive permet d'identifier et d'anticiper les dangers, garantissant ainsi une régulation proactive et adaptative.
Un encadrement des modèles d’IA à usage général :
L'accord offre une régulation spécifique pour les modèles d'IA destinés à un usage général. En définissant des paramètres clairs et des normes rigoureuses, il vise à assurer la fiabilité et la sécurité des applications d'IA qui peuvent influencer divers secteurs.
Un système de supervision à l’échelle nationale et européenne :
Cela garantit une supervision efficace des développements locaux tout en favorisant une coordination plus large à l'échelle européenne, assurant ainsi une cohérence dans l'application des normes.
Des sanctions proportionnelles au risque :
Un système de sanctions est instauré, caractérisé par sa proportionnalité au niveau de risque associé à chaque infraction. Cette approche nuancée assure une réponse graduée, où les sanctions sont ajustées en fonction de la gravité des manquements.
Risque minimal :
La plupart des systèmes d'IA sont classés comme présentant un risque minimal. Ainsi, les applications à risque minime, tels que les systèmes de recommandation basés sur l'IA ou les filtres anti-spam, bénéficieront d'exemptions et ne seront pas soumises à des obligations particulières. Ces systèmes, jugés peu ou pas risqués pour les droits et la sécurité des citoyens européens, permettent toutefois aux entreprises de s'engager volontairement à établir des codes de conduite plus importants.
Haut risque :
Les systèmes d'IA identifiés comme présentant un risque élevé seront soumis à des exigences plus strictes. Ces exigences incluent des mesures telles que des systèmes d'atténuation des risques, l'utilisation de jeux de données de haute qualité, l'évaluation du risque lié à l'activité, la documentation détaillée, des informations claires pour les utilisateurs, une surveillance humaine et un niveau élevé de robustesse, d'exactitude et de cybersécurité. Les domaines concernés par ces systèmes à haut risque englobent divers secteurs tels que l'eau, le gaz et l'électricité, les appareils médicaux, le recrutement de personnel, l'application de la loi, le contrôle des frontières, l'administration de la justice et les processus démocratiques.
L'objectif sous-jacent de cette approche est d'assurer que les systèmes d'IA à haut risque respectent des normes rigoureuses en matière de sécurité, de protection des droits fondamentaux, d'État de droit, d'environnement et de démocratie, assurant ainsi la protection des consommateurs, des droits des utilisateurs et de la vie privée.
Risque spécifique lié à la transparence :
En ce qui concerne les systèmes d'IA tels que les « chatbots » (comme ChatGPT), les utilisateurs doivent être conscients qu'ils interagissent avec une machine. De plus, les contenus générés par l'IA doivent être clairement identifiés en tant que tels, et les utilisateurs doivent être informés de l'utilisation de systèmes de catégorisation biométrique ou de reconnaissance des émotions. Les fournisseurs sont également tenus de concevoir leurs systèmes de manière à permettre la détection des contenus synthétiques en tant que produits générés ou manipulés artificiellement.
Les entreprises non conformes aux nouvelles règlementations en matière d'intelligence artificielle (IA) encourent des sanctions financières proportionnelles à leur chiffre d'affaires mondial annuel. Les amendes, variant de 35 millions d'euros ou 7 % du chiffre d'affaires pour les violations graves liées aux applications interdites d'IA, à 15 millions d'euros ou 3 % des ventes pour d'autres infractions, sont fixées en pourcentage ou à un montant prédéterminé, le plus élevé étant retenu. Des limites plus adaptées sont prévues pour les PME et jeunes entreprises.
Contrairement à certains pays, la législation européenne sera surveillée par un "office européen de l'IA" : l’AI Office de la Commission européenne, qui peut imposer des amendes allant jusqu'à 35 millions d'euros ou 7% du CA mondial annuel (le plus élevé étant retenu), pour les violations graves. En cas de non-respect, toute personne physique ou morale peut déposer une réclamation auprès de l'autorité de surveillance compétente, suivant des procédures spécifiques.
Notre cabinet de conseils en projets ISO stratégiques se positionne comme le partenaire idéal pour guider votre entreprise vers une conformité efficace avec l'IA Act. En particulier nous pouvons vous aider à mettre en place la norme ISO 42001 Système de Management de l’Intelligence Artificielle.
Voici comment nous pouvons vous apporter une valeur ajoutée significative :
Expertise approfondie dans l’analyse de conformité
Stratégie sur mesure
Formation et sensibilisation pratiques
Audit et surveillance continue
Nous sommes prêts à être votre partenaire de confiance dans cette transition cruciale vers une utilisation responsable de l'intelligence artificielle.