Défilement infini, lecture automatique, recommandations ultra‑personnalisées : ces fonctionnalités qui rendent TikTok si captivant pourraient aussi, selon la Commission européenne, exposer les utilisateurs – surtout les mineurs – à des risques pour la santé mentale et le bien‑être. Dans des conclusions préliminaires du 6 février 2026, la Commission estime que TikTok n’aurait pas évalué ni réduit ces risques de manière suffisamment rigoureuse au regard du Digital Services Act (DSA). Une procédure contradictoire s’ouvre, avec à la clé des sanctions potentielles pouvant atteindre 6 % du chiffre d’affaires annuel mondial.

1. « Conception addictive » : de quoi parle-t-on concrètement sur TikTok ?
Quand on évoque un design (ou une “conception”) addictif, il ne s’agit pas d’une simple critique morale des réseaux sociaux. On parle de choix de conception (design) intégrés au produit, qui orientent l’utilisateur vers une consommation toujours plus longue et répétée des contenus.
Le texte que vous nous communiquez vise directement trois mécanismes structurants de TikTok :
- Le défilement infini : l’utilisateur n’arrive jamais “au bout” du fil. Il n’y a pas de pause naturelle.
- La lecture automatique : un contenu chasse l’autre sans action volontaire, ce qui réduit les moments où l’on se dit “j’arrête”.
- Les recommandations personnalisées : l’algorithme propose des vidéos très proches des goûts et comportements de chacun, ce qui rend l’expérience plus difficile à interrompre.
Pourquoi ces mécanismes fonctionnent-ils si bien ? Parce qu’ils reposent sur une logique de récompense : la promesse permanente d’un nouveau contenu plus amusant, plus surprenant ou plus “pertinent” que le précédent. Le résultat, c’est une incitation à rester, parfois au‑delà de ce que l’utilisateur aurait choisi dans un environnement plus neutre.
Dans le cadre du Digital Services Act, l’intérêt n’est pas de “juger” l’existence de ces fonctionnalités, mais de se demander : quels risques créent-elles ? et surtout quelles mesures une plateforme doit-elle mettre en place pour prévenir ou réduire ces risques, notamment pour les publics les plus vulnérables.
2. Ce que reprochent les conclusions préliminaires de la Commission du 6 février 2026
Dans ses conclusions préliminaires présentées le 6 février 2026 (selon votre texte), la Commission européenne considère que TikTok n’aurait pas :
- Évalué de manière suffisamment rigoureuse les effets de ces fonctionnalités (défilement infini, lecture automatique, recommandations personnalisées) sur la santé mentale et le bien‑être des utilisateurs ;
- Porté une attention suffisante au cas des mineurs, présentés comme un public particulièrement exposé ;
- Mis en place des mesures d’atténuation proportionnées aux risques identifiés ;
- Déployé des outils de contrôle à la hauteur des exigences du DSA, les dispositifs existants étant jugés insuffisants.
Autrement dit, ce qui est en jeu n’est pas seulement l’existence de fonctionnalités “accrocheuses”, mais la méthode et la robustesse de la gestion des risques : diagnostic, documentation, mesures de prévention, efficacité réelle des outils proposés.
Ces conclusions préliminaires ne sont pas encore une sanction. Elles ouvrent une phase contradictoire : TikTok peut répondre, produire des explications, contester l’analyse, présenter des mesures correctives ou des engagements. À l’issue de cette phase, la Commission pourrait adopter une décision formelle de non‑conformité.
Et si un manquement était confirmé, le texte rappelle que des sanctions pourraient aller jusqu’à 6 % du chiffre d’affaires annuel mondial de l’entreprise. Ce plafond illustre le niveau d’exigence et le caractère dissuasif du dispositif DSA à l’encontre des très grandes plateformes.
3. Le Digital Services Act : pourquoi cette affaire peut faire date pour les plateformes
L’intérêt majeur de cette procédure, c’est qu’elle met en lumière la manière dont le DSA peut s’appliquer non seulement aux contenus (modération, contenus illicites), mais aussi à la conception même des services numériques.
Le Digital Services Act vise notamment à imposer aux grandes plateformes une logique de responsabilisation : identifier les risques liés au fonctionnement du service, et agir pour les réduire. Ici, l’attention se déplace vers des éléments au cœur de l’expérience utilisateur : l’interface, les paramètres, l’algorithme de recommandation, les “boucles d’attention”.
Pour un public non juriste, on peut résumer l’enjeu ainsi :
- Le DSA n’interdit pas forcément tel ou tel mécanisme (défilement infini, autoplay, recommandations).
- En revanche, il pousse les plateformes à démontrer qu’elles comprennent les risques associés à ces mécanismes (notamment pour les mineurs) et qu’elles mettent en œuvre des mesures crédibles pour les limiter.
Ce n’est pas seulement une obligation d’affichage : les “contrôles” proposés à l’utilisateur doivent être réellement efficaces, compréhensibles et adaptés.
En filigrane, une question simple : qui porte la charge de la prévention ? Le DSA tend à faire peser une part croissante de cette charge sur les opérateurs eux‑mêmes, en particulier lorsqu’ils structurent l’attention de millions d’utilisateurs par des mécanismes de recommandation et d’engagement.
Si la Commission européenne confirme, à l’issue de la procédure, qu’un “design addictif” non maîtrisé constitue une non‑conformité au DSA, cela pourrait devenir un signal fort pour l’ensemble du secteur : réseaux sociaux, plateformes vidéo, services de streaming, applications mobiles, jeux, marketplaces… Toute interface qui optimise le temps passé peut être amenée à s’interroger sur ses risques systémiques et sur la solidité de ses mesures d’atténuation.
4. Ce que les entreprises doivent retenir : anticiper la conformité “par le design”
Cette actualité concernant TikTok a une portée pratique immédiate : elle rappelle que la conformité DSA se joue aussi en amont, dans les équipes produit, data, UX/UI et conformité. Pour les plateformes, applications et services numériques, plusieurs enseignements se dégagent.
1) Documenter une évaluation des risques crédible
L’un des reproches centraux évoqués dans votre texte concerne l’évaluation insuffisamment rigoureuse. Concrètement, cela signifie qu’il ne suffit pas d’affirmer “nous faisons attention” : il faut pouvoir démontrer une démarche structurée, fondée sur des indicateurs, des tests, des retours utilisateurs, des analyses d’impact – et actualisée dans le temps.
2) Penser “mineurs” dès la conception
Les mineurs sont explicitement au centre des conclusions préliminaires. Pour les services susceptibles d’être utilisés par des jeunes, il devient essentiel de travailler sur :
- des paramètres de confidentialité et d’usage adaptés,
- des parcours et messages plus clairs,
- des mécanismes de limitation (pauses, rappels, restrictions de certaines fonctionnalités selon l’âge),
- et, plus largement, une expérience moins propice aux usages excessifs.
3) Renforcer les mesures d’atténuation et leur efficacité réelle
Votre texte mentionne des “outils de contrôle existants” jugés insuffisants. Une leçon majeure : proposer un réglage caché au fond d’un menu ne suffit plus. Les mesures doivent être accessibles, compréhensibles et utilisées. Certaines options peuvent exister sur le papier tout en restant inefficaces en pratique si elles sont trop complexes, trop discrètes, ou contournées par le fonctionnement par défaut.
4) Se préparer à une lecture “design” de la conformité
Cette approche change la donne : la conformité ne se limite pas à des politiques internes et à des mentions légales. Elle implique souvent des arbitrages concrets : par défaut, active ou non l’autoplay ? À quelle fréquence afficher des interruptions ? Comment expliquer les recommandations ? Comment permettre une maîtrise simple du fil ? Comment éviter une incitation permanente ?
En pratique, la meilleure stratégie est de mettre en place une gouvernance qui relie conformité + produit + data, afin d’identifier rapidement les fonctionnalités à risque et de construire des réponses proportionnées, avant qu’une procédure ne s’ouvre
***
Pour toute demande de conseil juridique, n’hésitez pas à nous contacter. Vous pouvez dès à présent demander un devis gratuit ici.


