Les deepfakes bouleversent l’univers de la création numérique : une image ou une voix peut désormais être imitée en quelques clics. Pour les entreprises, le risque ne se limite plus à la désinformation ; il s’étend aux atteintes aux droits d’auteur, aux marques et à l’e-réputation. Depuis l’adoption de l’IA Act en 2024, l’Union européenne impose des règles de transparence inédites. Comprendre ces exigences devient indispensable pour se prémunir des sanctions et sécuriser ses actifs immatériels.
Un phénomène technologique qui défie le droit
Les deepfakes reposent sur des réseaux adverses génératifs capables de produire des images, des vidéos ou des voix indiscernables du réel. Europol constate déjà leur emploi dans la fraude, la manipulation de cours boursiers et même la création de preuves factices.
La question n’est donc plus de savoir si votre organisation y sera confrontée, mais quand. Le Columbia Journal of European Law souligne que la viralité de ces contenus érode la confiance du public, surtout en période électorale, et appelle à une « traçabilité par défaut » des médias synthétiques. Or, avant 2024, aucun texte européen horizontal n’imposait une identification systématique des contenus falsifiés. La protection reposait sur le patchwork du droit d’auteur, du droit des marques et de la responsabilité délictuelle. Face à l’industrialisation de la contrefaçon audiovisuelle, le cadre traditionnel révélait ses limites. Or, il est difficile pour un titulaire de droit d’engager une action lorsque la source d’un faux reste opaque.
L’IA Act 2024/1689 : un tournant réglementaire pour la transparence
Adopté en 2024, le règlement européen sur l’intelligence artificielle (IA Act) classe les « systèmes de manipulation d’images, audio ou vidéo pouvant passer pour authentiques »—les deepfakes—dans la catégorie des risques modérés .
Conséquence : toute entreprise qui met sur le marché ou déploie un tel système doit informer clairement l’utilisateur qu’il interagit avec un contenu généré ou altéré par IA (art. 50 et 163 IA Act). Le texte n’exige pas de mention type, mais impose une visibilité immédiate : filigrane, incrustation sonore ou message introductif.
Des exceptions existent pour l’usage artistique, satirique ou lorsque la loi autorise une enquête pénale .
Par ailleurs, l’article 5 interdit les manipulations subliminales susceptibles d’altérer gravement le comportement d’une personne, sous peine d’une amende pouvant atteindre 6 % du chiffre d’affaires mondial.
Nouvelles obligations pour les entreprises : de la conception à la diffusion
Dès la phase de recherche et développement, le fournisseur doit documenter son modèle : description du jeu de données, tests de robustesse et politique permettant aux ayants droit d’exercer leur droit d’opposition au text-and-data mining (directive 2019/790) . Avant la mise sur le marché, il vérifie que chaque sortie comporte la mention d’origine IA. Une fois le système déployé, l’utilisateur professionnel (studio vidéo, agence marketing, plateforme) doit :
-
appliquer la notice du fournisseur ;
-
conserver les logs prouvant l’apposition du label ;
-
former ses équipes à la détection des dérives.
Le non‑respect de ces étapes engage sa responsabilité délictuelle et, en cas de préjudice pour un titulaire de droit, l’action en contrefaçon reste ouverte. La transparence prévue par l’IA Act facilite la preuve : un filigrane absent peut révéler la négligence du déployeur. Pour les titulaires de marques, la mention obligatoire leur permet d’invoquer plus aisément la tromperie sur l’origine en droit des signes distinctifs. Enfin, la directive secrets d’affaires protège toujours les algorithmes. Toutefois, les informations minimales exigées par l’annexe XI de l’IA Act échappent à ce secret lorsqu’elles sont nécessaires à la conformité .
Sanctions et enjeux de propriété intellectuelle : comment se préparer ?
Les amendes administratives s’additionnent aux demandes de dommages-intérêts. Europol insiste : la facilité d’accès aux outils « deepfake‑as‑a‑service » transforme chaque employé mécontent en risque interne. Dans ce contexte, adopter un plan de gouvernance devient stratégique : cartographie des usages IA, vérification des licences d’images d’entraînement…
Côté propriété intellectuelle, une clause contractuelle exigeant le respect de l’IA Act doit figurer dans tout accord de production ou de diffusion de contenus. Sur le front international, certaines législations (Californie, Chine) préparent déjà des obligations similaires. Anticiper ces convergences évite des adaptations coûteuses en urgence.
Conclusion
Les deepfakes posent un double défi : défendre la véracité de l’information et préserver les droits de propriété intellectuelle. L’IA Act impose désormais la transparence comme barrière première. Entreprises : identifiez vos usages, étiquetez vos contenus et formez vos équipes. Cette vigilance réduira votre exposition réglementaire et protégera vos actifs immatériels.
Deshoulières Avocats vous conseille et vous accompagne dans la mise en conformité IA Act : audit de données, rédaction de mentions légales, défense de vos droits d’auteur et de marque.
RESSOURCES :
- Règlement (UE) 2024/1689 sur l’intelligence artificielle, art. 5, 50, 163.
- Europol Innovation Lab, Facing reality? Law enforcement and the challenge of deepfakes.
- Directive 2019/790 sur le droit d’auteur et le text‑and‑data mining.
- Deshoulières Avocats, « Intérêt légitime et intelligence artificielle : ce qu’il faut savoir pour traiter des données sans consentement selon la CNIL«