Une proposition de loi a été déposée au Sénat le 12 décembre 2025 pour faciliter la protection des droits d’auteur et droits voisins dans le contexte des systèmes d’intelligence artificielle (IA). Ce texte, déposé par des sénateurs, propose l’adoption d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle (IA), marquant un tournant potentiel dans les relations entre le secteur technologique et les ayants droit.
L’entraînement des IA génératives sur toutes les données accessibles
L’IA générative, capable de produire des textes, des images, des musiques ou des vidéos, repose sur des quantités massives de données d’entraînement. Ces données sont collectées de manière automatisée sur le web (moissonnage automatisé, ou web scraping). Parmi ces données figurent souvent des œuvres protégées, exploitées sans autorisation ni rémunération préalable de leurs auteurs ou ayants droits.
Les contenus protégés peuvent à la fois être utilisés lors de l’entraînement des systèmes d’IA (les données viennent nourrir les systèmes d’IA) et au moment de la restitution du résultat généré par l’IA, qui peut reproduire ou imiter des créations protégées.
Dans de telles situations, l’opacité structurelle des algorithmes rend quasiment impossible pour les titulaires de droits de prouver l’utilisation de leurs créations, en particulier lors de la phase d’entraînement. Cette difficulté probatoire complique, voire empêche, les titulaires de droits d’agir en contrefaçon contre les fournisseurs d’IA.
Le cadre juridique actuel
D’évidence, le régime juridique actuel, en matière de droit d’auteur et de droits voisins, n’a pas été conçu en tenant compte du déploiement généralisé des systèmes d’IA tels que nous l’observons désormais. La protection des auteurs repose notamment sur l’idée que la création protégée est le fruit d’un auteur humain, ignorant les questions que soulèvent la reproduction ou la génération d’œuvres par des systèmes automatisés d’IA.
Le nouveau règlement européen sur l’intelligence artificielle (le RIA) impose aux entreprises d’IA d’expliquer publiquement sur quelles données elles entraînent leurs systèmes. Cependant, il ne résout pas un problème fondamental : celui de l’utilisation d’œuvres protégées (textes, images, etc.) pour cet entraînement. Les entreprises d’IA s’appuient sur une directive antérieure qui autorise le traitement automatique de textes et de données à titre d’exception (directive de 2019 sur le droit d’auteur et le marché numérique), mais cette directive a été écrite avant que l’IA actuelle ne devienne aussi puissante. Bien que la loi prévoie théoriquement qu’un auteur puisse refuser cette utilisation, ce mécanisme d’opt-out fonctionne mal en pratique, notamment pour les créateurs indépendants.
Face à cette impasse, la France prépare une loi visant à rééquilibrer la situation : elle cherche à inciter les entreprises d’IA à rémunérer les auteurs dont les contenus sont utilisés, et à s’assurer que les données employées proviennent de sources fiables et autorisées. C’est une tentative pour protéger les créateurs tout en régulant l’utilisation de leurs œuvres dans le contexte de l’IA.
Une proposition de loi sur le terrain procédural
Sans modifier le droit substantiel existant, le projet de loi vise à faciliter les actions en justice potentielles des titulaires de droits contre les fournisseurs d’IA, au moyen d’une faveur procédurale.
Le texte instaure ainsi une présomption d’exploitation des contenus protégés par les fournisseurs d’IA avec l’ajout d’un article complétant l’article L. 331-4-1 du code de la propriété intellectuelle qui indiquerait :
« Sauf preuve contraire, l’objet protégé par un droit d’auteur ou par un droit voisin, au sens du présent code, est présumé avoir été exploité par le système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette exploitation ».
Les titulaires de droits pourraient ainsi agir contre les fournisseurs d’IA, dès lors qu’ils seraient en possession d’un indice rendant vraisemblable l’exploitation de contenus protégés. Il appartiendrait alors aux fournisseurs d’IA de renverser cette présomption d’exploitation en démontrant, par une preuve positive, qu’aucun contenu protégé n’a été utilisé par leurs systèmes d’IA.
Cette approche n’est pas sans soulever des interrogations : la nature de l’« indice » requis pour établir la vraisemblance d’une exploitation illicite reste floue, nécessitant des interprétations judiciaires.
On relèvera d’ailleurs que l’exposé des motifs du projet de loi mentionne la possibilité de recourir à des indices tels que la constatation de reprises d’extraits d’œuvres existantes ou la production d’œuvres réalisées « dans le style de ». Cette approche pose un véritable problème car elle s’avère contraire aux textes et à la jurisprudence qui précisent que les « styles » ou les « concepts », ne sont pas protégeables en droit d’auteur. Des éclaircissements s’avèrent donc nécessaires.
L’objectif principal poursuivi est toutefois fort explicite et il s’agit d’alléger la charge de la preuve pour les titulaires de droits et de responsabiliser davantage les fournisseurs d’IA.
En effet, en augmentant le risque contentieux, les auteurs de cette proposition espèrent inciter les fournisseurs d’IA à négocier des licences collectives ou individuelles avec les organismes de gestion collective (comme la SACEM ou la SCAM), générant des flux financiers vers les secteurs de l’édition, de la musique, de la presse, de l’audiovisuel et des arts plastiques.
Enfin, les promoteurs de cette proposition de loi cherchent un impact géopolitique : la proposition promeut une « troisième voie » européenne pour l’IA, respectueuse de l’exception culturelle française et de la souveraineté numérique, contrastant avec le fair use américain ou les approches chinoises moins contraignantes.
Nous avons vu cependant que le texte n’est pas exempt de critiques, notamment sur l’insécurité juridique potentielle pour les entreprises de la tech, qui pourraient peiner à prouver l’absence d’utilisation dans des data sets hétérogènes. Mistral AI, par exemple, dénonce un frein à la compétitivité française face aux géants mondiaux.
Quant au gouvernement français, il est divisé : la ministre de la Culture, Rachida Dati, soutient le texte, tandis que le ministère de l’Économie et des Finances exprime une prudence certaine, craignant une fragmentation normative au sein de l’UE et un texte d’une compatibilité discutable avec le Règlement IA (RIA) de 2024.
Des contentieux en cours dans le monde
La France n’innove pas en vase clos et des litiges aux enjeux similaires agitent la scène internationale, illustrant les tensions universelles entre liberté d’entreprendre et protection de la propriété intellectuelle.
Aux États-Unis en particulier, les class actions prolifèrent contre OpenAI, Meta, Microsoft et Anthropic pour usage non autorisé d’œuvres protégées. Des cas emblématiques incluent les poursuites du New York Times contre OpenAI pour reproduction non autorisée de ses articles, ou celles de l’Authors Guild et des majors musicales contre Suno et Udio, générateurs d’IA musicale. Les fournisseurs s’abritent derrière le fair use, mais les juges pourraient imposer des dommages-intérêts punitifs, favorisant des transactions financières (plus qu’une solution explicite en droit).
Au sein de l’Union Européenne, les décisions divergent selon les pays et l’interprétation et la portée réelle de ces décisions sont discutées.
Au Royaume-Uni, une décision du 4 novembre 2025 a rejeté la plupart des demandes formées par Getty Images au motif que l’entraînement du système d’IA sur les images ne pouvait être considéré comme une reproduction caractérisant un acte de contrefaçon de droits d’auteur.
A l’inverse, le Tribunal de Munich dans une décision du 11 novembre 2025 a récemment condamné OpenAI dans un litige l’opposant à GEMA (société de gestion collective allemande) pour avoir repris des paroles de chansons.
Perspectives et recommandations
La proposition sénatoriale française s’inscrit dans une dynamique globale d’adaptation du droit d’auteur à l’économie numérique. Issue d’une mission d’information du Sénat au printemps 2025, qui a auditionné une cinquantaine d’acteurs et visité Bruxelles, elle découle de l’échec des négociations volontaires entre ayants droit et fournisseurs d’IA, achevées en novembre 2025 sans accord sur le partage de la valeur.
Les rapporteurs du texte soulignent que l’opposition entre IA et création est stérile : sans rémunération, les créateurs risquent la dépossession ; sans données de qualité, les modèles d’IA pourraient dégénérer ; et l’UE pourrait céder du terrain aux États-Unis.
S’il est clair que le texte n’interdit pas l’innovation, il vise à l’encadrer d’un point de vue éthique, favorisant un marché compétitif en garantissant des principes comme la transparence totale et la rémunération. Il serait compatible avec le droit européen, ce dernier laissant aux États une autonomie procédurale.
Si elle venait à être retenue, la loi pourrait être examinée en commission de la culture du Sénat début 2026, puis à l’Assemblée nationale avant l’été. Des recours devant la Cour de justice de l’UE restent toutefois possibles, mais des soutiens transnationaux existent, comme dans le rapport du député européen Axel Voss.
En filigrane, cette proposition de loi cherche à imposer un dialogue équilibré : les entreprises tech devraient adopter des codes de bonnes pratiques pour documenter leurs data sets, tandis que les ayants droit pourraient explorer des accords collectifs. Ultimement, ce cadre pourrait renforcer la filière IA française en misant sur la qualité culturelle européenne, évitant une substitution des œuvres humaines par des contenus synthétiques.
On pourra s’interroger sur les réelles chances de succès de cette proposition de loi et sur la méthode retenue pour atteindre ses objectifs. Les acteurs de l’IA partagent ce point de vue, insistant sur la concurrence internationale — en particulier américaine — à laquelle il faut faire face.
Il n’en demeure pas moins que, techniquement, le suivi et une veille juridique sont essentielles car il faudra comprendre et prévoir les adaptations nécessaires face à ce paradigme émergent.
Pour approfondir ou obtenir un accompagnement juridique sur l’IA et la propriété intellectuelle, consultez nos équipes spécialisées.
Nos équipes peuvent vous accompagner pour sécuriser vos dispositifs. N’hésitez pas à faire appel à notre Cabinet.
N’hésitez pas à nous contacter : voir notre offre.
