Le nouveau règlement européen sur l’intelligence artificielle (« AI Act ») impose, pour la première fois, des obligations juridiques ciblées aux modèles génératifs tels que ChatGPT ou Gemini. Comprendre ces nouvelles règles est essentiel. En effet, elles touchent directement la transparence, la gestion des données d’entraînement et la responsabilité des fournisseurs comme des entreprises utilisatrices.
1. Transparence : un principe cardinal renforcé
D’abord, l’AI Act (Artificial Intelligence Act) inscrit la transparence comme obligation structurante. Tout fournisseur de modèle génératif doit rendre public un résumé « suffisamment détaillé » de son corpus de données d’entraînement, y compris les œuvres protégées soumises au droit d’auteur. Cette exigence, prévue par l’article 53 §1 b, vise à garantir que les titulaires de droits puissent identifier l’usage de leurs contenus.
Ensuite, le modèle doit signaler clairement, lors de l’inférence, que le contenu est produit de façon automatisée. Cet avertissement doit être facilement lisible par l’utilisateur final.
Enfin, le fournisseur est tenu de consigner ces informations dans la documentation technique et de les tenir à jour pendant tout le cycle de vie du modèle. En pratique, publier un inventaire ligne à ligne est exclu. Le résumé doit cependant permettre à un éditeur, un photographe ou un musicien de reconnaître ses créations. Cette approche graduée, inspirée des débats parlementaires, tente d’équilibrer secret industriel et respect des droits patrimoniaux.
2. Documentation technique et partage des données d’entraînement
Ensuite, l’AI Act impose une documentation robuste, hébergée dans un format standardisé recommandé par l’AI Office. Le fournisseur doit décrire l’architecture, les métriques d’évaluation, les jeux de données et les tests de robustesse. Pour les données d’entraînement, il doit indiquer la provenance, le filtrage, les licences éventuelles, etc.
L’article 53 §1 a oblige également le partage de ces informations, sur demande motivée, avec l’AI Office et les autorités nationales. Les entreprises qui déploient un modèle sous licence devront donc vérifier que la fiche technique est disponible. A défaut, elles encourent une qualification de « codéveloppeur » et donc une responsabilité conjointe.
Le respect de la life-cycle documentation prend une dimension concurrentielle. En effet, un modèle dépourvu de dossier complet pourrait être exclu des marchés publics ou des appels d’offres privés. De plus, un défaut de traçabilité fragilise les clauses d’indemnisation en cas d’atteinte à un droit d’auteur. À ce stade, la Commission élabore un code de bonne conduite, signé sur base volontaire, afin d’harmoniser la présentation de ces données et d’offrir davantage de sécurité juridique.
3. Modèles présentant un risque systémique : obligations accrues
Cependant, tous les modèles ne sont pas logés à la même enseigne. L’article 51 introduit une sous-catégorie, les GPAI « à risque systémique », définis par leur puissance de calcul ou par une part de marché significative. Pour ces modèles, les obligations précédemment évoquées se doublent de mesures renforcées.
- D’une part, le fournisseur doit tester les détournements possibles permettant de générer des contenus illicites.
- D’autre part, il doit établir et publier un plan de gestion des risques, mis à jour tous les six mois, décrivant les correctifs déployés. Par ailleurs, ces acteurs ont l’obligation de notifier toute incident majeur à l’AI Office dans les 72 heures.
- Enfin, en matière de propriété intellectuelle, ils doivent mettre en place un dispositif de notice-and-action interne afin de retirer, sans retard excessif, tout contenu généré qui porterait atteinte à des droits protégés.
L’absence de procédure documentée peut justifier une amende allant jusqu’à 15 millions d’euros ou 3 % du chiffre d’affaires mondial. Ces exigences rappellent le régime de la directive (EU) 2019/790 sur le droit d’auteur dans le marché unique numérique.
4. Impacts concrets pour les titulaires de droits et les utilisateurs
Enfin, qu’en est-il pour les entreprises françaises qui exploitent ou intègrent des modèles génératifs ?
- D’un point de vue contractuel, elles devront exiger une clause de conformité AI Act auprès de leur fournisseur, précisant la mise à disposition du résumé de données d’entraînement et de la documentation technique.
- Sur le plan marketing, chaque contenu généré devra indiquer son origine automatisée pour éviter une pratique commerciale trompeuse au sens de l’article L. 121-2 du Code de la consommation.
- Sur le volet recherche et développement, les ingénieurs devront vérifier que les données d’entraînement secondaires qu’ils ajoutent sont libres de droits ou dûment licenciées.
En matière de licences open-source, le texte ne remet pas en cause le principe de libre exercice, mais il exige que la licence couvre l’usage génératif et la redistribution des pondérations modifiées. De leur côté, les ayants droit disposent désormais d’un fondement clair pour demander l’accès au résumé, puis, si nécessaire, négocier une licence. Faute d’accord, ils pourront saisir la juridiction spécialisée parisienne et obtenir des mesures d’injonction fondées sur l’article L. 331-1-3 du Code de la propriété intellectuelle.
Conclusion
L’AI Act redéfinit le cadre juridique des modèles génératifs. Transparence sur les données d’entraînement, documentation technique partagée et gestion des risques renforcée deviennent les nouveaux standards. Pour éviter des sanctions élevées et sécuriser leurs actifs immatériels, les entreprises doivent intégrer ces obligations dès la phase de conception de leurs projets IA.
Deshoulières Avocats vous conseille et vous accompagne dans la mise en conformité de vos modèles génératifs : audit des données d’entraînement, rédaction de clauses AI Act et défense de vos droits de propriété intellectuelle en France comme dans l’Union.
RESSOURCES :
- Parlement européen, « Legislative Train » : dossier IA Act
- Conseil de l’UE & Parlement, « Législation sur l’intelligence artificielle: le Conseil et le Parlement parviennent à un accord »
- AI Act Explorer, articles 51 à 55