Tout savoir sur Artificial Intelligence Act

L’AI Act est une législation européenne sur l’intelligence artificielle (IA). Elle contient un arsenal juridique permettant d’évaluer les risques des modèles d’IA et d’infliger des sanctions aux entreprises dont les systèmes ne respectent pas la loi. Créé par l’Union européenne pour favoriser une intelligence artificielle éthique qui respecte les droits fondamentaux, l’AI Act doit cependant relever des défis liés au frein à l’innovation et à la perte de compétitivité des entreprises de l’Union européenne.

Qu’est-ce que l’AI Act (Artificial Intelligence Act) ?

L’AI Act est une loi européenne qui apporte un cadre juridique à l’utilisation des systèmes d’intelligence artificielle. Après de nombreux débats, elle a été définitivement adoptée par le parlement européen le 13 mars 2024. Il s’agit de la première loi au monde dédiée à la réglementation de l’IA. Cette législation sur l’intelligence artificielle adopte une approche fondée sur le risque : plus le risque de porter préjudice à la société est fort, plus les règles sont strictes.

L’AI Act s’applique exclusivement aux domaines relevant du droit de l’Union européenne. Cette législation concerne tous les acteurs impliqués dans le développement, la distribution ou encore l’utilisation des systèmes d’intelligence artificielle à l’échelle européenne. Elle concerne également les fournisseurs ou utilisateurs situés en dehors de l’UE si les résultats produits par leurs systèmes d’IA sont utilisés au sein de l’Europe.

Pourquoi l’Union européenne veut-elle réguler l’intelligence artificielle ?

Face au développement rapide de l’IA, L’UE a souhaité instaurer un règlement spécifique à ces technologies. Il permet de protéger les droits fondamentaux des citoyens de l’Union européenne. Cette réglementation participe au développement des systèmes d’intelligence artificielle (SIA) fiables et responsables pour l’Europe. Elle aide également à instaurer la confiance des utilisateurs et des entreprises dans les technologies d’IA.

Pour soutenir l’innovation en intelligence artificielle, les états membres vont mettre en place des bacs à sable réglementaires. Ils fournissent aux entreprises un environnement fiable pour faciliter la mise en conformité de leur système d’IA avec les exigences de l’AI Act. Ces outils permettent ainsi de renforcer la sécurité juridique pour les entrepreneurs et d’aider les PME à franchir les obstacles liés à la loi européenne sur l’IA.

 

Les événements qui ont mené à la proposition de cette loi

Face au développement rapide de l’IA, la Commission européenne présente en 2021 une proposition de règlement du Parlement européen concernant l’intelligence artificielle. En 2022, l’arrivée de ChatGPT, un système basé sur l’IA générative capable de rédiger des textes ou des traductions en quelques secondes, a permis d’accélérer les débats.

D’autres systèmes comme Gemini capables de générer des sons et des images donnent une nouvelle dimension à l’IA. Elle apporte d’immenses progrès technologiques, mais comporte également des risques de biais cognitifs, d’erreurs, mais aussi de discrimination pour des personnes.

 

Quelles sont les règles principales proposées par l’AI Act ?

L’AI Act s’applique aux systèmes déjà en place et à venir. Ce cadre réglementaire de l’IA prévoit la classification des applications d’IA et les obligations à respecter selon leurs risques. Elle prévoit également l’instauration d’une gouvernance et des sanctions en cas de non-respect de la réglementation.

 

Classification des risques d’IA selon quatre niveaux

La Commission européenne propose une échelle à quatre niveaux pour la classification des risques liés à l’intelligence artificielle. Selon son niveau de risque, un système d’IA peut être interdit à la commercialisation ou mis sur le marché avec des exigences plus ou moins strictes.

Les systèmes qui présentent des risques inacceptables pour les droits fondamentaux des personnes seront interdits. Il s’agit ici de manipulation subliminale, d’exploitation d’enfants ou encore d’identification biométrique à distance à des fins répressives.

Les modèles à haut risque susceptibles de nuire à la santé, la sécurité ou les droits essentiels devront répondre à des exigences strictes. Leur commercialisation est conditionnée par le respect de règles spécifiques.

Les applications à risque modéré telles que les SIA intégrés dans les chatbots sont autorisées par l’AI Act. Elles sont cependant soumises à des obligations d’information et de transparence.

Pour les systèmes qui présentent un risque minime ou absent, aucune évaluation ne sera demandée. Vous trouverez dans cette catégorie des applications telles que les filtres antispam ou des appareils électroménagers dotés d’intelligence artificielle.

 

Respect d’obligations par les systèmes d’IA selon les niveaux de risque

Avec l’AI Act, la commercialisation d’une application d’IA à haut risque est soumise à des exigences spécifiques. De même, des exigences particulières aux IA génératives ainsi qu’aux grands modèles d’IA à usage général sont prévues par cette loi. Voici quelques exemples d’obligation à respecter par les acteurs des applications d’IA :

  • mettre en place un système d’évaluation des modèles et d’atténuation des risques de l’intelligence artificielle ;
  • déclarer la conformité et enregistrer les modèles d’IA à haut risque dans une base de données de l’Union européenne ;
  • utiliser des ensembles de données de haute qualité pour minimiser les biais et discriminations ;
  • mettre à disposition une documentation transparente et accessible sur le système pour faciliter le contrôle de la conformité par les autorités ;
  • assurer la protection des SIA contre les cyberattaques grâce aux mesures de sécurité adaptées ;
  • mettre en place des protocoles de surveillance humaine pour garantir et protéger les principes éthiques de l’IA.

 

Point sur les modalités d’application de l’AI Act et les sanctions

Dans le cadre de sa mise en œuvre, la réglementation sur l’intelligence artificielle prévoit des mécanismes de supervision et d’accompagnement. La loi européenne sur l’IA confie la vérification de la conformité des SIA à des organismes d’évaluation.

Lorsqu’il y a soupçon de manquement aux obligations définies selon le niveau de risque, les autorités nationales compétentes peuvent mener des enquêtes. En cas de non-conformité aux exigences de l’AI Act, le montant de l’amende administrative peut atteindre 35 millions d’euros ou 7 % du chiffre d’affaires annuel de l’entreprise, calculé à l’échelle mondiale.

 

Supervision et gouvernance de l’intelligence artificielle : les organes directeurs prévus par l’AI Act

La loi européenne sur l’IA prévoit la création d’organes de contrôle au niveau de la Commission européenne. Ils endossent la mission de contrôle et de surveillance de l’IA.

  • Au sein de la Commission européenne se trouve le bureau de l’IA (AI Office) qui veille sur le respect de l’AI Act à l’échelle de l’Europe.
  • Le conseil d’administration de l’intelligence artificielle (European Artificial Intelligence Board) conseille et assiste les états membres et la Commission sur l’application du règlement sur l’IA.
  • Un forum consultatif recueille des expertises techniques auprès des acteurs de l’IA pour éclairer le conseil d’administration de l’IA et la Commission européenne.

 

Quels défis pourraient survenir avec la mise en place de l’AI Act ?

La loi européenne sur l’intelligence artificielle vise, entre autres, le développement de modèles d’IA dignes de confiance. Cependant, les obligations prévues dans l’AI Act entraînent inévitablement des impacts sur les entreprises. Des défis pourraient ainsi survenir lors de sa mise en œuvre.

 

Certains dirigeants d’entreprises craignent que les contraintes imposées par la législation sur l’intelligence artificielle ne freinent les innovations dans ce domaine. Un juste milieu entre le droit et les inventions technologiques doit être trouvé par l’Union européenne pour continuer à stimuler le développement des systèmes d’IA performants.

L’allongement des délais dû à la mise en conformité du système d’IA et la création de documentation présentent une deuxième source d’inquiétude pour les entreprises. Il risque d’entraîner une perte de compétitivité par rapport aux pays comme la Chine ou les États-Unis. Là aussi, c’est en trouvant un équilibre entre la législation et l’innovation que l’Europe peut gagner des places en matière d’IA.

Pour promouvoir une IA de confiance auprès de citoyens, des programmes de formation spécifiques sont nécessaires. Ils permettent de comprendre la notion d’IA éthique et responsable, et d’aider les entreprises petites ou moyennes à se conformer au règlement européen.

 

Comment l’AI Act pourrait-il influencer le développement global de l’intelligence artificielle ?

L’AI Act fait partie de la stratégie numérique de l’UE. Son ambition est de développer un écosystème technologique, et de devenir à terme une norme mondiale dans le domaine de la législation sur l’intelligence artificielle.

Grâce au principe de transparence de l’IA et à la sécurité juridique qu’apporte le cadre législatif de l’AI Act, un environnement de confiance pourrait émerger. Il favorise l’investissement et l’innovation dans les technologies de l’IA et renforce la compétitivité des entreprises de ce domaine en Europe.

L’AI Act révolutionne la législation en matière de régulation de l’intelligence artificielle. C’est un grand pas vers une IA plus transparente et plus responsable. Les défis majeurs pour l’Union européenne résident dans l’équilibre à trouver entre l’innovation et la réglementation.

Vous avez le projet de travailler dans le domaine de l’intelligence artificielle. À travers son programme Grande École d’une durée de cinq ans, l’IA School vous fournit les outils nécessaires pour maîtriser la base technique des technologies de l’IA et du Big data. Contactez sans attendre notre école pour des informations complémentaires sur nos cursus.