top of page

IA et droit d’auteur⎮article 4/4 : jurisprudences, enjeux du RIA et perspectives

Dans nos précédents articles, nous avons exploré les bases du droit d’auteur, ses implications dans la production d’e-learning, et nous vous avons présenté des bonnes pratiques à mettre en œuvre quand vous produisez des outils pédagogiques avec l’IA. Pour conclure cette série, nous passerons ici en revue les premières jurisprudences pertinentes en droit d’auteur et IA, nous aborderons quelques points clés du Règlement sur l’IA, et nous vous présenterons les autres enjeux juridiques essentiels autour de cette technologie. C’est parti !


1. Des jurisprudences internationales sur l’IA révélatrices


Les récentes jurisprudences au niveau international sur l’IA nous éclairent sur l’approche des tribunaux concernant la protection par le droit d’auteur des contenus créés à l’aide de l’IA.


Aux États-Unis, c’est l’affaire Zarya of the Dawn qui a posé les bases du raisonnement juridique en février 2023. Faisant suite à une demande de protection, l’USCO (United States Copyright Office) a refusé d’accorder un copyright sur une bande dessinée dont les illustrations ont été générées avec l’IA Midjourney, considérant que la création n’était pas le fruit du travail original d’un auteur humain. L’office a néanmoins reconnu la protection du texte, de la sélection, de la coordination et de l’organisation des éléments écrits et visuels de la BD, qui étaient bien le fruit du travail original de l’autrice.


Cette décision et les débats qui en ont découlé ont incité l’USCO à publier un guide en mars 2023 afin de préciser la protection accordée ou non par le copyright sur des contenus générés par IA. Ce guide prévoit que la protection est exclue si la création est entièrement générée par une IA, mais envisageable si elle est ensuite “réarrangée” par l’homme avec un apport original (on parle alors de créations assistées par IA). Depuis cette affaire, d’autres ont suivi aux États-Unis avec un raisonnement identique, comme par exemple les affaires “A Recent Entrance to Paradise” ou encore “AI machinations”.


En Europe, la toute première décision a été rendue par le tribunal de Prague en octobre 2023. Les juges ont ici refusé d’accorder des droits d’auteur sur une image générée avec l’IA DALL-E. D’après les juges tchèques, l’image générée ici ne résultait pas d’une activité créatrice humaine. De plus, seule une personne physique aurait pu être reconnue comme auteur.


C’est en Chine que la première décision accordant un droit d’auteur sur une image générée par IA a été rendue. En effet, en novembre 2023, le tribunal de Beijing Internet Court a accordé un droit d’auteur sur une image générée par l’IA Stable Diffusion, et ce en raison de l’investissement humain considérable mis en œuvre pour réaliser la création. De même, dans l’affaire Lin Chen c. Hangzhou Gaosi Membrane Technology d’octobre 2024, un tribunal chinois a une nouvelle fois reconnu l’existence de droits d’auteur sur une œuvre générée par une IA, la considérant comme suffisamment originale.


Bien que ces différentes décisions aboutissent à des solutions différentes, elles partagent un argument commun : celui du travail humain dans la création.


En France, la condition d’originalité impose que l’œuvre porte “l’empreinte de la personnalité de l’auteur”. Des créations issues d’une IA, qui seraient ensuite substantiellement modifiées par l’intervention humaine, pourraient-elles remplir ce critère et être éligibles à la protection par le droit d’auteur ? C’est une question dont nous attendons la réponse, car nous n’avons pas encore de décision en France.


Parallèlement à ces décisions concernant la protection par des droits d’auteur ou copyright sur des créations générées via IA, nous pouvons relever une autre décision rendue en Europe au sujet de l’exception de fouille de textes (voir article précédent). Le 27 septembre 2024, la première décision concernant l’exception de fouille de textes dans le cadre de l’IA a été rendue en Allemagne, en faveur d’une société développant un système d’IA pour l’exploitation de créations protégées.


Ces différentes décisions ayant été abordées, il est temps de nous pencher sur certains points clés du Règlement sur l’IA.


2. Le Règlement IA : une approche de l’Union Européenne


Entré en vigueur le 1er août 2024, le Règlement sur l’intelligence artificielle (RIA), dont l’entrée en application s’échelonnera jusqu’en août 2027, constitue une réponse de l’Union européenne à certains enjeux juridiques posés par l’intelligence artificielle.


Un classement selon le niveau de risque


Le Règlement sur l’IA adopte une approche basée sur les niveaux de risque associés aux différents usages de l’IA, et établit des règles spécifiques pour chacun :


  • interdiction des IA à risque inacceptable,

  • exigences et encadrement stricts pour les IA à risque élevé,

  • obligations de transparence pour les IA à risque limité,

  • aucune réglementation spécifique pour les IA à risque minimal, mais un code de conduite est proposé.


Les modèles d’IA à usage général


Parallèlement à cette classification par niveau de risque, un encadrement particulier est prévu pour les modèles d’IA à usage général (modèles sur lesquels sont basés la plupart des IA génératives de contenus – IAg ou GenAI), avec des obligations de transparence renforcées.


L’article 50 du RIA prévoit que les fournisseurs et déployeurs de modèles d’IA à usage général doivent être transparents vis-à-vis des utilisateurs finaux, et ce à différents égards et sauf exceptions spécifiques. Les utilisateurs devront par exemple être informés qu’ils interagissent avec une IA, et certains contenus générés par IA devront être identifiables comme tels, tout spécialement dans le cas des deepfakes. La transparence inclut également des mesures visant les systèmes de reconnaissance des émotions ou systèmes de catégorisation biométrique.


Par ailleurs, l’article 53 du RIA prévoit que les fournisseurs de modèles d’IA à usage général doivent élaborer et tenir à jour la documentation technique du modèle, incluant son processus d’entraînement.


Pour assurer une mise en œuvre cohérente de ces articles, la Commission a créé le Bureau de l’IA, chargé de coordonner l’application du RIA, en particulier les règles relatives aux modèles d’IA à usage général.


En France, le CSPLA (Conseil supérieur de la propriété littéraire et artistique) a déjà publié un rapport le 11 décembre 2024 clarifiant les obligations pratiques fixées par l’article 53 du RIA (article qui impose aux fournisseurs d’IA de respecter le droit d’auteur et les droits voisins ainsi que de fournir un résumé détaillé des contenus utilisés pour entraîner leurs modèles).

3. L'IA et ses autres enjeux juridiques


Au-delà des encadrements relatifs au droit d’auteur et à la transparence, l’intelligence artificielle soulève de nombreux autres enjeux juridiques. En voici quelques-uns.


  • Le traitement des données personnelles (que nous avons brièvement abordé dans un article précédent) : à ce sujet, la règle est simple, puisqu’il convient de respecter le RGPD. La Cnil publie de nombreuses explications et ressources à ce sujet, afin d’aider à développer des IA respectueuses et conformes aux règles en vigueur. On peut également noter que le le CEPD (Comité Européen de la Protection des Données) a publié un avis le 18 décembre 2024, se prononçant notamment sur l’anonymat des modèles d’IA, l’intérêt légitime comme base juridique, et les impacts de l’entraînement illicite.


  • La qualité des données : la qualité des données utilisées pour entraîner les modèles d’IA est déterminante. Des données entrantes (input) de mauvaise qualité (données qui ne seraient pas exactes, cohérentes, pertinentes, précises, ou encore mises à jour etc.) donnent inévitablement lieu à des résultats (output) de mauvaise qualité, donc des résultats qui ne sont pas fiables. La fiabilité des résultats fournis par l’IA dépend alors directement de la qualité des données. C’est là tout le sens de la fameuse expression “Garbage in, garbage out”. On peut par exemple craindre que de plus en plus de données de sorties (les résultats générés par une IA en réponse à une demande) soient exploitées comme des données d’entraînement pour le développement de ces mêmes IA. Lorsque des IA s’entraînent sur leurs propres résultats, elles forment une boucle de rétroaction qui peut soit améliorer la qualité des modèles, soit accentuer leurs biais, selon la fiabilité des données utilisées. Pour bien comprendre cet enjeu, voici un article complet.


La fiabilité des résultats d'une IA
La fiabilité des résultats d'une IA

  • La responsabilité : bien que de nombreuses questions subsistent concernant la responsabilité des acteurs de l’IA, la nouvelle Directive du 18 novembre 2024 sur les produits défectueux intègre des dispositions relatives aux spécificités de l’IA. Son objectif est notamment de faciliter l’engagement de la responsabilité en cas de dommage causé par l’intelligence artificielle. 


  • Contrefaçon et concurrence directe : un procès fortement médiatisé est en cours entre OpenAI et le New York Times, qui accuse le géant de l’IA d’exploiter ses articles sans autorisation. Si le respect du droit d’auteur est en jeu dans cette affaire et témoigne des tensions croissantes entre producteurs de contenus et développeurs d’IA, elle oppose également deux concurrents. En effet, de plus en plus de personnes utilisent des IA pour s’informer en lieu et place des médias plus traditionnels. La décision à venir dans cette affaire pourrait avoir un impact mondial historique. En parallèle, on observe également la signature de nombreux partenariats entre OpenAI et des médias à l’international, comme par exemple en France avec Le Monde


4. Conclusion


Les initiatives actuelles, comme le Règlement sur l’IA, offrent une base juridique nécessaire pour poser un encadrement sain. Mais une coopération globale semble en tout état de cause être indispensable pour éviter certaines disparités, et favoriser une meilleure intégration harmonisée de certains principes à l’échelle internationale. 


Bien que plusieurs pays aient déjà mis en place des encadrements de l’IA, certains perçoivent ces régulations comme un frein à leur développement économique. 


Les années à venir nous révèleront si les efforts actuels suffisent à concilier innovation et responsabilité, tout en répondant aux attentes d’une société friande de nouvelles technologies et des possibilités qu’elles offrent… mais aussi de transparence, de justice et de respect des droits.

Cet article a initialement été publié sur Sydologie Sydologie est un magazine sur l’innovation pédagogique où des théories sur l’apprentissage sont décryptées, les dernières tendances explorées et les pratiques pédagogiques décortiquées. Vulgarisation scientifique, interviews, tests d’outils, conseils pratiques ou encore retours d’expérience, tout est pensé pour aider formateurs, concepteurs ou enseignants à enrichir leurs pratiques et à innover dans leurs approches.

Et co-écrit avec Aymeric Debrun

Aymeric est ingénieur pédagogique pour la société de conseil en pédagogie Sydo, rédacteur en chef du magazine sur l’innovation pédagogique Sydologie et formateur pour Le Bahut. Il a à cœur de rendre le savoir plus accessible pour tous en rendant sa transmission plus ludique et interactive.


bottom of page