Adoptée au Sénat, une proposition de loi tout juste adoptée pourrait renverser la logique du droit d’auteur. Un basculement discret, mais potentiellement historique. On fait le point.
Jusqu’ici, la bataille semblait perdue d’avance. Comment un photographe, un écrivain, un doubleur ou un peintre pourrait-il prouver que son œuvre a été ingérée par une machine, avant d’être recrachée par l’IA ? L’opacité des modèles d’intelligence artificielle rendait la démonstration quasi impossible. Mais ça risque bien de changer. Ce mercredi 8 avril, le Sénat a en effet adopté en première lecture une proposition de loi relative à l’instauration d’une présomption d’utilisation des contenus culturels par les fournisseurs d’intelligence artificielle.

Rééquilibrer les rapports entre les artistes et les géants de la tech
Porté par Laure Darcos, Pierre Ouzoulias et Agnès Evren, ce texte vise à rééquilibrer les relations entre créateurs et géants de la tech. « Les fournisseurs d’IA générative ont conçu des modèles extrêmement performants, mais avec un défaut majeur : la prédation de données protégées par le droit d’auteur, sans partage de la valeur, rappelle Laure Darcos, sénatrice de l’Essone. Avec cette proposition de loi, notre objectif est simple : des relations plus équilibrées entre titulaires de droits et fournisseurs d’IA grâce à une mesure précise et solide juridiquement, la présomption d’utilisation. »
La loi modifierait ainsi le code de la propriété intellectuelle, et précise ainsi que « sauf preuve contraire, dans toute contestation en matière civile, l’œuvre ou l’objet protégé par un droit d’auteur ou par un droit voisin, au sens du présent code, est présumé avoir été utilisé par le fournisseur du modèle ou du système d’intelligence artificielle, dès lors qu’un indice afférent au développement ou au déploiement de ce système ou au résultat généré par celui-ci rend vraisemblable cette utilisation. »

Un changement majeur
En pratique, de quoi s’agit-il ? Dès qu’un indice rend plausible l’utilisation d’une œuvre, que ce soit un style reconnaissable, une imitation troublante, une « manière de », l’exploitation est présumée. Ce ne sera donc plus à l’artiste de traquer la preuve, mais au fournisseur d’IA de démontrer qu’il n’a rien utilisé. Un basculement procédural, presque philosophique, qui vise à rééquilibrer la charge de la preuve et restaurer l’effectivité des droits. « Ce ne sera plus aux créateurs d’apporter la preuve irréfutable que leurs œuvres ont été pillées, mais aux fournisseurs d’IA de certifier qu’ils n’ont pas utilisé de données protégées pour entraîner leurs modèles », résume la politicienne. Derrière cette mesure juridique, une tension plus vaste affleure : celle d’un monde où la création humaine alimente des machines capables de la reproduire, parfois jusqu’à la confusion.

Une telle loi a de quoi inquiéter les fournisseurs, à l’image de Mistral AI, qui considère que l’instauration d’une telle présomption risque surtout d’encourager les litiges. « La mesure créerait un impact disproportionné sur les entreprises françaises car, même si ses auteurs disent qu’elle s’appliquera à tout le monde, les groupes [étrangers] plaideront le contraire dans les contentieux », expliquent ses porte-paroles, qui disent douter de la compatibilité d’un tel texte avec les normes européennes.
Rappelons que le texte s’inscrit dans un contexte de dénonciation croissante d’un « moissonnage » massif des contenus culturels, aspirés sans autorisation ni rémunération. Pour ses défenseurs, cette loi pourrait faire de la France le laboratoire d’un marché plus éthique de l’IA, où la négociation et la rémunération redeviendraient la norme. Pour ses détracteurs, elle risquerait en revanche de freiner l’innovation, d’alourdir les contraintes techniques, voire d’installer un climat de suspicion permanente. Alors, que verra-t-on émerger ? Une IA plus transparente.. ou une IA plus prudente, voire bridée ? Affaire à suivre.