(*Image générée par DALL·E 3 version Microsoft)

L’intelligence artificielle (IA) est de plus en plus intégrée dans divers secteurs, impactant significativement la société, l’économie et la gouvernance.

L’Union européenne est en train d’établir une réglementation complète spécifique à l’IA. Une proposition, la Loi sur l’Intelligence Artificielle de l’Union Européenne (EU AI Act) a été présentée par la Commission en 2021, visant à établir des règles harmonisées pour l’IA afin d’assurer la sécurité, la conformité aux droits fondamentaux et la durabilité environnementale.

Le 8 décembre 2023, le Parlement Européen et le Conseil ont atteint une étape importante en se mettant d’accord sur l’EU AI Act. Cette loi est célébrée comme une « première mondiale », marquant l’UE comme précurseur dans la réglementation juridique complète de l’IA. Cette loi législative vise à garantir que les systèmes d’IA utilisés au sein de l’UE soient sûrs, respectent les droits fondamentaux et adhèrent aux valeurs de l’UE, tout en favorisant également l’investissement et l’innovation dans les technologies de l’IA.

Cet article offre un regard approfondi sur le parcours législatif de l’UE et explore les composants critiques, les implications et les perspectives futures du cadre juridique européen pour l’IA.

Approche par le Risque pour la Régulation de l’IA

 

La législation est construite sur une approche basée sur le risque, catégorisant les systèmes d’IA en quatre niveaux de risque : inacceptable, élevé, limité et minime/aucun risque. Ces classifications guident l’étendue et la nature des exigences réglementaires appliquées à chaque système, se concentrant de manière significative sur les systèmes d’IA à risque inacceptable et élevé.

Systèmes d’IA à risque inacceptable : Cette catégorie comprend les applications d’IA considérées comme une menace claire pour la sécurité, les droits fondamentaux ou les valeurs de l’UE. Des exemples incluent des systèmes qui manipulent le comportement humain ou permettent le grattage non ciblé de données biométriques. Ces systèmes sont interdits d’emblée.

Systèmes d’IA à risque élevé : Cette catégorie englobe les systèmes d’IA qui pourraient potentiellement causer des dommages importants dans des domaines critiques comme les infrastructures ou l’application de la loi. Ils sont soumis à des obligations de conformité strictes, incluant la mitigation des risques et des exigences de transparence.

Systèmes d’IA à risque limité : Ces systèmes d’IA doivent adhérer à des obligations de transparence minimales. Ils incluent des technologies comme les chatbots ou certains systèmes de catégorisation biométrique.

Systèmes d’IA à minime/aucun risque : La majorité des applications d’IA tombent dans cette catégorie, où le risque est jugé négligeable. L’utilisation de ces systèmes est librement autorisée, avec une adhésion encouragée aux codes de conduite volontaires.

 

Garanties pour les systèmes d’IA à Usage Général

 

Un aspect innovant de l’EU AI Act est son approche de régulation des systèmes d’IA à usage général, qui sont des systèmes ou modèles conçus non pas pour une tâche spécifique mais plutôt utilisables dans une large gamme de tâches et secteurs. Ils sont fondamentaux par nature, servant souvent de plateforme sur laquelle d’autres systèmes d’IA plus spécifiques sont construits. Des exemples d’IA à usage général incluent de grands modèles de langage comme GPT-3 ou des systèmes de reconnaissance d’image qui peuvent être appliqués dans divers secteurs de la santé à l’automobile en passant par le divertissement.

Après un débat intense, la Loi introduit des obligations pour tous les modèles de GPAI, avec des exigences supplémentaires pour ceux posant des risques systémiques. Cette approche étagée vise à équilibrer le besoin de régulation avec le désir de ne pas entraver l’avancement technologique.

Cadre d’Exécution et Pénalités

 

La Loi sera appliquée par les autorités nationales compétentes de surveillance du marché, avec une coordination au niveau de l’UE facilitée par un Bureau Européen de l’IA. Le Conseil Européen de l’IA servira de plateforme pour que les États membres coordonnent et conseillent la Commission.

Les pénalités pour non-conformité sont substantielles et adaptées à la gravité de l’infraction, avec des amendes plus proportionnées pour les petites entreprises et les startups.

Impacts Anticipés et Prochaines Étapes

 

Alors que l’EU AI Act se rapproche de son adoption et de sa mise en œuvre officielles, une période de grâce de deux ans commencera pour que les entités se conforment, avec certaines interdictions et obligations de systèmes d’IA à usage général prenant effet plus tôt. Cette phase de transition est vitale pour établir des structures de surveillance robustes et garantir que les parties prenantes sont pleinement préparées à répondre aux nouvelles exigences réglementaires.

Conclusion : Un Changement de Paradigme dans la Gouvernance de l’IA

 

La Loi sur l’Intelligence Artificielle de l’Union Européenne représente une avancée significative vers un développement de l’IA responsable et éthique. En promulguant un cadre réglementaire complet et basé sur le risque, l’UE vise à protéger les citoyens et à défendre les valeurs démocratiques tout en favorisant un environnement propice à l’innovation et à la croissance économique. L’influence de la Loi est attendue au-delà de l’Europe, établissant un précédent pour la gouvernance mondiale de l’IA et encourageant la collaboration internationale pour créer un futur plus sûr pour l’IA. Alors que l’UE navigue dans ce territoire inexploré, le monde observe et apprend, prêt à s’adapter et à adopter des mesures garantissant que l’IA profite à toute l’humanité tout en atténuant ses risques.