Les deepfakes, également appelés hypertrucages, désignent des contenus générés ou modifiés par intelligence artificielle, capables de créer une ressemblance trompeuse avec la réalité. Utilisés dans de nombreux secteurs, des médias au divertissement, en passant par la publicité et la politique, ils soulèvent des questions juridiques spécifiques. En effet, leur potentiel de manipulation, qu'il s'agisse de falsification d'identité, de désinformation ou d'atteinte à la vie privée, conduit nécessairement à une évolution de la réglementation tant au niveau national qu'européen.
Sommaire
Qu'est-ce qu'un deepfake ?
Un encadrement juridique préexistant
Un encadrement juridique propre aux deepfakes
Des infractions connexes
1. Qu'est-ce qu'un deepfake ?
Le Règlement sur l'IA (1) désigne les deepfakes sous le terme d'hypertrucages et les définit ainsi dans son article 3 (60) :
« une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou événements existants et pouvant être perçu à tort par une personne comme authentiques ou véridiques ».
Cette définition nous apprend que le droit appréhende les hypertrucages comme :
(1) des images, vidéos ou audio
(2) générés ou modifiés par une IA
(3) présentant une ressemblance avec des éléments existants : personnes, objets, lieux, entités ou événements
(4) et susceptibles de tromper en étant perçus comme authentiques ou véridiques
Mais les deepfakes ne datent pas d'hier, même si leur version « moderne » est apparue il y a plusieurs années seulement, avec des exemples marquants comme des vidéos truquées de personnalités publiques. En 2017 par exemple, une vidéo virale montrait un faux discours de Barack Obama, où l'IA imitait ses expressions et sa voix.
Aujourd'hui, les deepfakes se démultiplient à grande vitesse, s'infiltrant dans presque tous les secteurs et industries, et circulant sans limite via les réseaux sociaux. Mais ces manipulations de la réalité présentent des défis de taille, pouvant aller jusqu'à mettre en jeu la démocratie et la paix mondiale. Tout cela nécessite alors la mise en place d'un encadrement juridique particulier.
2. Un encadrement juridique préexistant
Les deepfakes, qui exploitent des images, des voix et des créations, mettent alors en jeu des droits existants.
L'image, protégée par le droit à l'image
Le droit à l'image découle du droit à la vie privée. L'image est protégée par les dispositions de l'article 9 du Code civil, mais elle bénéficie également d'une protection constitutionnelle en tant que droit fondamental. L'image fait partie de la catégorie des droits de la personnalité, et peut aussi être envisagée sous le prisme des données personnelles, ce qui renforce alors sa protection. En principe, l'exploitation de l'image d'une personne reconnaissable nécessite son consentement, sous peine de sanctions civiles et pénales. Dans le contexte des deepfakes, le droit à l'image implique alors d'obtenir le consentement préalable de toute personne dont l'image est exploitée.
Des exceptions existent, notamment lorsqu'il s'agit de l'image de personnes publiques dans le cadre de leur activité, ou lorsque le droit à l'information prime, par exemple dans le contexte d'événements d'actualité. En outre, le droit à l'image disparaît après la mort car les droits de la personnalité ne sont pas transmissibles. Mais les héritiers pourraient toujours invoquer un préjudice propre.
La voix, protégée par le droit à la voix et les droits voisins
Tout comme l'image, la voix fait partie des droits de la personnalité mais peut également être appréhendée en tant que données personnelles. Dans le cadre des deepfakes, cela signifie que l'exploitation de la voix d'une personne identifiable requiert son consentement préalable.
La voix peut aussi bénéficier d'une protection supplémentaire au titre des droits voisins - qui relèvent de la propriété intellectuelle. Lorsqu'un artiste interprète un texte ou une chanson, il détient des droits voisins sur son interprétation, tout comme le producteur en détient sur son enregistrement. Ainsi, si une IA exploite une interprétation protégées par des droits voisins, l'autorisation de l'artiste-interprète et du producteur est indispensable, au risque de commettre des actes de contrefaçon.
La création réexploitée, protégée par le droit d'auteur
L'animation, la transformation ou plus largement toute exploitation d'une création préexistante protégée par le droit d'auteur - photographie, vidéo etc., nécessite de déterminer qui en détient les droits. Il est en effet indispensable d'obtenir l'autorisation du titulaire des droits d'auteur dont la création est exploitée dans le cadre d'un deepfake, sous peine de contrefaçon.
Mais même lorsqu'une autorisation est obtenue, le droit moral de l'auteur subsiste. L'auteur peut par exemple s'opposer à des usages qui porteraient atteinte à l'intégrité de son œuvre ou à son respect.
L’analyse des deepfakes via le droit à l’image, le droit à la voix et les droits voisins, ainsi que le droit d’auteur, démontre qu'il est obligatoire d'obtenir certaines autorisations spécifiques. Plusieurs personnes peuvent détenir des droits distincts, et l'absence de consentement expose à des sanctions civiles et pénales.
3. Un encadrement juridique propre aux deepfakes
Des initiatives plus concrètes de régulation des deepfakes commencent à émerger, tant au niveau de l'Union européenne qu'à l'échelle nationale.
À l'échelle de l'UE : les obligations de transparence du Règlement IA
Le Règlement sur l'IA (1) introduit des règles spécifiques concernant la transparence, notamment en ce qui concerne les deepfakes - appelés hypertrucages au sein de ce texte. L'article 50 prévoit ainsi des obligations de transparence à destination des déployeurs de systèmes d'IA (3). Ceux-ci doivent mentionner qu'il s'agit de contenus générés ou manipulés par IA, spécifiquement lorsqu'il s'agit d'hypertrucages sous forme d'images, audio, vidéos, ou encore de textes visant à informer le public sur des questions d'intérêt public.
Article 50 (4) du Règlement sur l'IA : « Les déployeurs d’un système d’IA qui génère ou manipule des images ou des contenus audio ou vidéo constituant un hypertrucage indiquent que les contenus ont été générés ou manipulés par une IA (...) Les déployeurs d’un système d’IA qui génère ou manipule des textes publiés dans le but d’informer le public sur des questions d’intérêt public indiquent que le texte a été généré ou manipulé par une IA. »
En cas de non-respect de ces obligations de transparence, l'article 99 du Règlement sur l'IA (1) prévoit qu'une amende administrative pourra être prononcée. Celle-ci pourra aller jusqu'à 15 000 000 euros, ou, si l'auteur de l'infraction est une entreprise, jusqu'à 3 % de son chiffre d'affaires annuel mondial total réalisé au cours de l'exercice précédent, en retenant le montant le plus élevé.
À l'échelle de la France : les sanctions du code pénal
La loi visant à sécuriser et à réguler l'espace numérique du 21 mai 2024, plus connue sous le nom de loi SREN, a renforcé certaines dispositions du code pénal relativement aux deepfakes.
L'article L. 226-8 du Code pénal prévoit une sanction d'un an d'emprisonnement et de 15 000 euros d'amende lorsqu'il est porté « à la connaissance du public ou d'un tiers, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et représentant l'image ou les paroles d'une personne, sans son consentement, s'il n'apparaît pas à l'évidence qu'il s'agit d'un contenu généré algorithmiquement ou s'il n'en est pas expressément fait mention. Ces peines sont portées à deux ans d'emprisonnement et à 45 000 euros d'amende lorsque les délits prévus au présent article ont été réalisés en utilisant un service de communication au public en ligne. »
L'article L. 226-8-1 du Code pénal prévoit quand à lui des sanctions encore plus lourdes lorsque le deepfake présente un caractère sexuel, pouvant aller jusqu'à 3 ans d'emprisonnement et 75 000 euros d'amende.
4. Des infractions connexes
Au-delà des droits à l’image, à la voix, des droits voisins et du droit d’auteur, ainsi que des obligations de transparence prévues par le Règlement sur l’IA et des sanctions du code pénal, les deepfakes peuvent également entraîner la commission d'infractions spécifiques selon les situations en cause. Parmi celles-ci, on peut par exemple citer :
L'usurpation d'identité : un deepfake qui imite l'identité d'une personne peut être qualifiée d'usurpation, surtout lorsqu'il y a une intention de tromper ou de causer un préjudice.
La fraude : si un deepfake met en oeuvre des manœuvres frauduleuses, par exemple pour extorquer de l'argent ou tromper une organisation, cela peut constituer une fraude.
La diffamation : un deepfake qui porte atteinte à la réputation d'une personne en diffusant de fausses informations visuelles ou sonores peut constituer une infraction de diffamation publique.
Le harcèlement : utiliser des deepfakes pour intimider, humilier ou harceler une personne peut entrer dans le cadre du harcèlement moral ou du cyberharcèlement.
L'accès illicite à des données : la création de deepfakes peut impliquer un accès non autorisé à des données personnelles, notamment lorsque des images ou des enregistrements vocaux sont utilisés sans le consentement des personnes concernées.
(...)
Les deepfakes sont alors un nouveau défi dans notre paysage numérique, soulevant des interrogations centrales concernant leur encadrement juridique. Au-delà des textes actuellement en vigueur, il semble évident que le cadre juridique doit continuer à évoluer afin de s’adapter aux réalités actuelles et future. Une coopération internationale paraît également essentielle dans un monde où internet n'a pas de frontières. Ce qu'il faut bien comprendre, c'est que la préservation de nombreux droits fondamentaux est ici en jeu...
Si cet article vous a plu, je vous serais très reconnaissante de me soutenir en laissant un petit like et un commentaire sur ma publication LinkedIn ! 🙏✨
(3) Article 3 - 4) du Règlement sur l'IA : «déployeur», une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant sous sa propre autorité un système d’IA sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel.
Comments