Sélectionner une page

Scraping de données : l’arrêt « La Centrale » fixe enfin une vraie ligne rouge

par | 23 Déc 2025 | Propriété intellectuelle

Le web scraping (aspiration automatisée de contenus) est devenu un réflexe pour les comparateurs, les agrégateurs… et l’IA. Mais en France, le droit sui generis des bases de données offre une arme redoutable aux producteurs dès lors qu’ils prouvent des investissements sérieux (collecte, vérification, présentation). Avec l’arrêt de la Cour de cassation du 15 octobre 2025 (aff. La Centrale / ADS4ALL – leparking.fr), la frontière se clarifie : le scraping devient risqué dès qu’il remplace le service d’origine et met en péril l’amortissement des investissements.

1. Le web scraping : pratique, rapide… mais pas « libre de droits »

Scraper, ce n’est pas seulement « lire une page web ». C’est copier (souvent à grande échelle) des contenus pour les réutiliser ailleurs : sur un autre site, dans une app, dans un modèle d’IA, dans un outil de veille, etc. Dit autrement : on ne se contente pas de consulter, on reconstruit une offre à partir de la donnée d’autrui.

Le droit des bases de données vise précisément ce scénario. L’idée est simple : quand une entreprise investit pour bâtir une base fiable et exploitable, un tiers ne doit pas pouvoir la « siphonner » pour proposer un service concurrent sans supporter ces coûts. C’est le cœur du droit sui generis, issu de la directive européenne de 1996.


2. La règle clé à connaître : ce que le producteur peut interdire

En droit français, l’article L.342-1 du Code de la propriété intellectuelle donne au producteur le droit d’interdire deux choses (quand les conditions sont réunies) :

  • l’extraction : le transfert de tout ou partie du contenu de la base vers un autre support,
  • la réutilisation : la mise à disposition du public de tout ou partie du contenu.
    Légifrance

Et attention : l’interdiction ne vise pas seulement « toute la base ». Elle vise aussi une partie substantielle, appréciée :

  • quantitativement (beaucoup de fiches, d’annonces, de lignes…),
  • ou qualitativement (même peu d’éléments, mais les plus utiles/structurants).

Deuxième piège (très important pour le scraping !) : même si vous ne prenez que de « petites portions », l’article L.342-2 permet d’interdire l’extraction/la réutilisation répétée et systématique de parties non substantielles, si cela dépasse les conditions d’utilisation normale de la base. C’est typiquement le cas d’un bot qui prélève « un peu » mais… toute la journée, tous les jours.

Enfin, l’article L.342-3 prévoit des exceptions, dont une que beaucoup oublient : si vous avez un accès licite à une base mise à disposition du public, le producteur ne peut pas interdire l’extraction/la réutilisation d’une partie non substantielle (qualitativement ou quantitativement). Mais cette porte est étroite et ne « blanchit » pas un système d’aspiration industriel.


3. L’arrêt du 15 octobre 2025 : quand le scraping devient illégal, concrètement

Dans l’affaire La Centrale / ADS4ALL (leparking.fr), la première chambre civile de la Cour de cassation rend un arrêt de rejet le 15 octobre 2025 (pourvoi n° 23-23.167).

Le point essentiel, pour comprendre les limites du scraping, tient en une question très opérationnelle :

a. Est-ce que le tiers est en train de reconstruire un service « substitut » ?

Un moteur de recherche spécialisé peut, dans certains cas, améliorer l’accès à l’information. La CJUE l’a admis dans l’arrêt CV-Online Latvia / Melons (3 juin 2021), mais avec une condition majeure : l’activité ne doit pas porter atteinte à l’investissement substantiel du producteur.

Traduction pratique : si votre site/app permet à l’utilisateur de trouver et consommer l’essentiel sans aller à la source, vous n’êtes plus un « simple indexeur ». Vous devenez un remplaçant.

b. Le test qui change tout : le “risque pour l’amortissement des investissements”

Pour interdire sur le fondement de L.342-1, le juge doit apprécier si l’exploitation litigieuse fait peser un risque sur l’amortissement des investissements du producteur (investissements réalisés pour constituer/vérifier/présenter la base). C’est précisément l’idée mise en avant dans l’analyse de l’arrêt du 15 octobre 2025.

Et là, on touche le nerf de la guerre : le scraping n’est pas sanctionné “par principe”. Il devient explosif lorsqu’il :

  • capte la valeur économique de la base (trafic, monétisation, abonnements, options payantes),
  • en privant la source de ce qui lui permet de financer sa qualité (contrôle, lutte contre la fraude, enrichissement, etc.).

c. Un détail décisif : “qui investit” peut être protégé, même si “qui crée la donnée” est l’utilisateur

La défense classique des scrapers est : « Je ne prends que des données postées par des utilisateurs, donc le site ne produit rien. »
Or la jurisprudence récente a déjà montré que le producteur peut être celui qui investit substantiellement dans la base (notamment sur des sous-bases), comme dans l’affaire leboncoin / Entreparticuliers (Cass. 1re civ., 5 oct. 2022, n° 21-16.307).

Le message à retenir : la protection ne récompense pas la créativité, elle protège l’investissement.


A retenir

Voici une grille simple :

Ce qui est généralement “moins risqué” (mais pas “sans risque”)

  • extraire une partie non substantielle, de manière ponctuelle, sans automatisation agressive ;
  • faire de la redirection (lien) sans reproduire les informations essentielles (l’utilisateur doit aller sur la source pour “consommer” la donnée) ;
  • utiliser des données sous licence ouverte / open data / API avec conditions claires (à vérifier au cas par cas).

Ce qui devient rapidement “hors-jeu”

  • aspirer une partie substantielle (beaucoup d’annonces, ou les annonces les plus “rentables”, ou les champs clés) ;
  • aspirer “un peu” mais très souvent, de façon répétée et systématique (effet “goutte-à-goutte” qui reconstitue la base) ;
  • afficher sur votre interface suffisamment d’informations pour que l’utilisateur n’ait plus besoin d’aller sur le site source (logique de service substitut).

L’arrêt La Centrale / ADS4ALL confirme une tendance : en France, le droit sui generis peut devenir l’outil central pour encadrer le scraping à grande échelle, surtout quand la donnée agrégée nourrit un service concurrent (comparateur, métamoteur, assistant IA qui répond “directement” sans renvoyer vers la source).

Conseil de bon sens (et de sécurité juridique) : si votre modèle dépend du scraping, posez-vous dès le départ ces 3 questions :

  • Est-ce que je reproduis une partie substantielle (quantitativement ou qualitativement) ?
  • Est-ce que je prélève de manière répétée et systématique, même en petites doses ?
  • Est-ce que je deviens un substitut, en captant l’usage et la monétisation au détriment de la source ?

Si la réponse est “oui” à l’une de ces questions, le risque contentieux n’est plus théorique.

***

Pour toute demande de conseil juridique, n’hésitez pas à nous contacter. Vous pouvez dès à présent demander un devis gratuit ici.

Partager :

Une question ?
Deshoulières Avocats a été classé parmi les meilleurs cabinet d’avocats en droit des nouvelles technologies par le journal Le Point.

Nous conseillons et défendons plus de 750 entreprises, en France et à l’international.

DEVIS GRATUIT

Demandez dès à présent un devis gratuit. Deshoulières Avocats s’engage à vous répondre sous 24h.

UNE QUESTION ? UN BESOIN ? CONTACTEZ-NOUS

Deshoulières Avocats conseille et défend plus de 750 entreprises, en France et à l’international.