L’évolution rapide des technologies d’intelligence artificielle (IA) a rendu indispensable l’élaboration de cadres réglementaires garantissant leur utilisation éthique et responsable. Dans ce contexte, la Commission européenne a publié le troisième projet de Code de bonnes pratiques pour l’IA à usage général, visant à guider les fournisseurs de modèles d’IA dans la mise en conformité avec l’IA Act européenrèglement (UE) 2024/1689). Cet article examine les objectifs clés de ce projet et explore ses implications pour l’avenir.
Sommaire
I – Objectifs du troisième projet de Code de bonnes pratiques pour l’IA à usage général
A – Renforcer la transparence
L’un des piliers de ce projet est l’exigence de transparence. Les fournisseurs de modèles d’IA à usage général devront divulguer des informations essentielles sur leurs modèles, notamment les spécifications techniques, les sources des données d’entraînement et les applications prévues.
Cette initiative vise à renforcer la confiance des utilisateurs et des parties prenantes en leur fournissant une meilleure compréhension des capacités et des limites des systèmes d’IA. Toutefois, certains modèles open source bénéficieront d’exemptions spécifiques, illustrant une approche plus nuancée pour prendre en compte les différentes méthodes de développement de l’IA.
B – Prendre en compte les enjeux de droits d’auteur
Le projet de code aborde également une question cruciale : la protection des droits de propriété intellectuelle dans le développement de l’IA.
Les fournisseurs devront mettre en place des mécanismes de conformité pour éviter toute violation des droits d’auteur par leurs modèles. Ils devront également offrir des procédures de signalement permettant aux titulaires de droits d’alerter sur des potentielles infractions.
Toutefois, le texte prévoit que les fournisseurs pourront refuser de traiter des plaintes manifestement infondées ou excessives, notamment si elles sont répétitives. Cette disposition cherche à prévenir un abus de procédures tout en garantissant une protection effective des créateurs.
C – Garantir la sécurité et la sûreté
Les modèles d’IA présentant des risques systémiques feront l’objet d’obligations supplémentaires en matière de sécurité et de sûreté.
Les fournisseurs devront réaliser des évaluations de risques approfondies, mettre en œuvre des stratégies d’atténuation robustes et établir des protocoles de signalement d’incidents.
Ces mesures visent à prévenir d’éventuelles dérives et à garantir une utilisation éthique et sécurisée des systèmes d’IA avancés.
II – Perspectives d’avenir du Code de bonnes pratiques pour l’IA à usage général
A – Défis de mise en œuvre
L’application de ce Code de bonne pratique soulève plusieurs défis, notamment la complexité pour les fournisseurs d’adapter leurs processus de développement afin de se conformer aux exigences du Code.
L’un des enjeux majeurs sera d’équilibrer innovation et régulation, en garantissant une conformité rigoureuse sans freiner l’évolution technologique de l’IA.
B – Influence mondiale et harmonisation
Le Code pourrait devenir une référence mondiale en matière de gouvernance de l’IA.
En établissant des lignes directrices détaillées, la Commission européenne espère influencer les normes internationales et encourager une harmonisation des réglementations au niveau mondial.
En parallèle, les présidents et vice-présidents du groupe de travail sur ce projet ont annoncé la création d’un résumé exécutif dédié et d’un site interactif pour favoriser les retours des parties prenantes à travers des commentaires écrits et des discussions en groupe.
La version finale du Code est attendue en mai 2025 et servira de cadre de conformité pour les fournisseurs de modèles d’IA à usage général, en intégrant les meilleures pratiques du secteur.
C – Evolution et adaptation continues
Compte tenu de l’évolution rapide des technologies d’IA, le Code a été conçu pour être adaptable.
Il met l’accent sur l’évolution continue, permettant des mises à jour régulières afin d’intégrer les avancées technologiques et les nouvelles préoccupations éthiques.
Cette flexibilité garantit que le Code demeure un outil pertinent pour encadrer le développement de l’IA de manière responsable.
Conclusion
Le troisième projet de Code de bonnes pratiques pour l’IA à usage général constitue une étape majeure vers une régulation responsable de l’intelligence artificielle.
En mettant l’accent sur la transparence, le respect du droit d’auteur et la sécurité, il pose les bases d’un développement éthique de l’IA.
À mesure que ce cadre progresse vers sa version finale, sa mise en œuvre réussie dépendra de l’engagement des parties prenantes pour relever les défis et favoriser une harmonisation mondiale des pratiques en matière d’IA.
Besoin de conseils d’experts en intelligence artificielle et propriété intellectuelle ? Le cabinet Dreyfus & Associés est spécialisé en droit de la propriété intellectuelle, notamment en matière de marques, de droits d’auteur et de questions juridiques liées à l’IA. Nos experts suivent de près les évolutions du droit en matière d’IA et de propriété intellectuelle !
Nous collaborons avec un réseau mondial d’avocats spécialisés en propriété intellectuelle.
Rejoignez-nous sur les réseaux sociaux !
FAQ
1 – C’est quoi l’IA Act ?
L’IA Act (ou Règlement européen sur l’intelligence artificielle) est une législation proposée par la Commission européenne visant à réglementer l’usage et le développement des systèmes d’intelligence artificielle au sein de l’Union européenne. Il s’agit du premier cadre juridique complet au monde dédié à l’IA, visant à équilibrer innovation et protection des droits fondamentaux. Ce texte classe les systèmes d’IA en quatre niveaux de risque : • Risque inacceptable (interdit, comme les systèmes de notation sociale ou de manipulation subliminale) • Risque élevé (soumis à des obligations strictes, comme les systèmes d’IA utilisés dans les infrastructures critiques, le recrutement ou la justice) • Risque limité (nécessitant des obligations de transparence, comme les chatbots ou deepfakes) • Risque minimal (sans obligations particulières, comme les systèmes de recommandation de contenu) Le but principal est de garantir que les systèmes d’IA déployés en Europe respectent les droits fondamentaux, la sécurité et la transparence tout en favorisant l’innovation responsable.
2 – Quand entrera en vigueur l’IA Act ?
L’IA Act a été adopté en accord provisoire en 2024, et son entrée en vigueur est prévue en 2025, après son approbation définitive par le Parlement européen et le Conseil de l’Union Européenne. Toutefois, son application sera progressive : • Certaines dispositions immédiates entreront en vigueur six mois après la publication. • Les règles pour les systèmes à risque élevé entreront en vigueur à partir de 2026. • D’autres obligations spécifiques, comme celles liées aux modèles d’IA à usage général, pourraient être mises en œuvre jusqu’en 2027. Ainsi, les entreprises auront un délai pour adapter leurs pratiques à cette nouvelle réglementation.
3 – Quel est le cadre juridique de l’IA ?
Le cadre juridique de l’IA repose actuellement sur un ensemble de règles européennes et nationales couvrant divers aspects : 1. L’IA Act (bientôt en vigueur) qui encadrera spécifiquement l’usage et la commercialisation des IA. 2. Le RGPD (Règlement Général sur la Protection des Données), qui régit l’utilisation des données personnelles, un enjeu majeur pour les systèmes d’IA. 3. La directive sur la responsabilité du fait des produits (Directive 85/374/CEE) et la future directive sur la responsabilité en matière d’IA (Commission européenne, 28 septembre 2022 (2022/0302 (COD)), qui définissent la responsabilité des concepteurs et utilisateurs d’IA en cas de dommages causés. 4. Les lois sectorielles (ex : finance, santé) qui imposent des normes spécifiques aux systèmes d’IA dans ces domaines. 5. Les réglementations nationales et européennes sur le droit d’auteur, qui impactent les bases de données d’entraînement des IA génératives (ex : respect des droits d’auteur sur les œuvres utilisées par les modèles). Ce cadre juridique est en évolution constante, avec un objectif de protéger les utilisateurs et encourager une IA éthique.