Pour faire face aux géants du numérique, l’Union européenne s’est dotée d’une législation ambitieuse : le règlement européen sur les services numériques. Plus d’un an après son entrée en vigueur, elle reste complexe dans son application, et peine à s’imposer face à l’arbitraire des plates-formes.
Des services tels que Meta ou X se sont arrogé de longue date le pouvoir de remanier les règles affectant la vie privée ou la liberté d’expression, en fonction d’intérêts commerciaux ou d’opportunités politiques. Meta a ainsi annoncé la fin de son programme de fact-checking en matière de désinformation en janvier 2025, peu de temps avant le retour au pouvoir de Donald Trump, qui manifestait une hostilité marquée à cette politique.
Du côté des gouvernements, les décisions d’encadrement semblent osciller entre l’intervention sélective et l’inaction stratégique. Sous couvert d’ordre public ou de sécurité nationale, des réseaux sociaux ont été sanctionnés dans plusieurs pays tandis que d’autres ont échappé à la régulation. La récente interdiction aux États-Unis du réseau social chinois TikTok – pour le moment suspendue – en fournit une illustration frappante. En parallèle, Meta, qui procède à une collecte massive de données d’utilisateurs mais qui présente la qualité décisive d’être américaine, n’a pas été inquiétée. Cet encadrement à géométrie variable alimente un sentiment de déséquilibre.
Du lundi au vendredi + le dimanche, recevez gratuitement les analyses et décryptages de nos experts pour un autre regard sur l’actualité. Abonnez-vous dès aujourd’hui !
Le Digital service act, un modèle de cogestion de l’espace numérique à inventer
L’Union européenne tente de s’imposer comme un rempart avec une nouvelle législation, le règlement européen sur les services numériques (Digital Services Act en anglais, ou DSA), entré en application en février 2024, qui vise notamment à introduire davantage de transparence dans les actions de modération des contenus et à construire un écosystème de responsabilité partagée. Désormais, les plates-formes doivent non seulement justifier leurs décisions de modération, mais aussi remettre aux autorités compétentes des rapports de transparence ayant vocation à être publiés. Ces rapports contiennent – en principe – des données précises sur les actions de modération menées, les techniques employées à cette fin ou les effectifs mobilisés.
Le DSA a également formalisé le rôle des « signaleurs de confiance », souvent des organisations de la société civile désignées pour leur expertise et dont les signalements doivent être traités en priorité. La liste de ces entités s’allonge, signe que ce dispositif est désormais opérationnel : en France, deux associations de protection des jeunes et de l’enfance en font partie (e-Enfance et Point de Contact), avec l’Association nationale de prévention en alcoologie et addictologie et l’Association de lutte contre la piraterie audiovisuelle.
Par ailleurs, les utilisateurs disposent de nouvelles voies de recours, incarnées par des organismes de règlement extrajudiciaire des litiges. Des structures comme « Appeals Centre Europe » ou « User Rights » proposent déjà de telles procédures, destinées à contester des décisions de modération des plates-formes.
De premières enquêtes en cours contre des géants du numérique
Ces mécanismes sont déjà mobilisés par les utilisateurs de réseaux sociaux et ont déjà produit leurs premières décisions – l’Appeals Centre Europe annonçait en mars 2025 avoir reçu plus d’un millier de recours et adopté une centaine de décisions. Toutefois, compte tenu de leur création toute récente, il conviendra d’attendre la publication de leurs premiers rapports de transparence, dans les prochains mois, pour tirer de premiers bilans.
Sur la base de cette nouvelle réglementation, la Commission européenne a déclenché depuis la fin de l’année 2023 plusieurs enquêtes visant à déterminer la conformité au DSA des activités d’une variété de services numériques. Compte tenu de la complexité et de la technicité des procédures et investigations (parfois entravées par le défaut de coopération ou les provocations des entités ciblées), plusieurs mois semblent encore nécessaires pour en évaluer l’impact.
De même, l’ARCOM, autorité indépendante chargée d’appliquer le DSA sur le territoire français en tant que coordinateur national, a mis en œuvre les missions qui lui sont attribuées, notamment sur le fondement de la loi du 21 mai 2024 visant à sécuriser et à réguler l’espace numérique. Celle-ci l’habilite à mener des inspections et contrôles sur le fondement du droit européen : elle a notamment conduit, en 2025, des enquêtes visant des sites pornographiques n’ayant pas en mis en place des procédés adéquats de vérification de l’âge des visiteurs, enquêtes pouvant mener à terme au blocage.
Le DSA, un rempart fragile entravé dans sa mise en œuvre
Toutefois, le dispositif sophistiqué du DSA peine à emporter la conviction de la société civile et de nombre d’acteurs politiques, prompts à exiger l’adoption rapide de mesures de contrôle et de sanction. Ce texte se trouve par ailleurs confronté à plusieurs catégories de défis qui échappent à la seule rationalité du droit.
Premièrement, ce texte doit trouver à s’appliquer dans un contexte de vives tensions politiques et sociétales. De ce point de vue, les élections européennes et nationales de 2024 ont constitué un test notable – parfois peu concluant comme le montre l’annulation du premier tour du scrutin présidentiel en Roumanie en raison d’allégations de manipulation des algorithmes de TikTok.
Les lignes directrices produites par la Commission en mars 2024 avaient pourtant appelé les très grandes plates-formes à assumer leurs responsabilités, en se soumettant notamment à des standards accrus en matière de pluralisme et de conformité aux droits fondamentaux. TikTok et Meta notamment s’étaient engagés à prendre des mesures pour identifier les contenus politiques générés par intelligence artificielle. Le rapport post-électoral de juin 2025 rédigé par la commission confirme que ces mesures n’ont pas été suffisantes, et que la protection de l’intégrité de l’environnement numérique en période de campagne restera un défi pour les années à venir.
Deuxièmement, le DSA peut être marginalisé par les États membres eux-mêmes, susceptibles d’exercer une forme de soft power contournant les mécanismes formels introduits par cette législation. La neutralisation par TikTok, en juin 2025, du hashtag « #SkinnyTok », associé à l’apologie de la maigreur extrême, a été présentée comme résultant d’une action directe du gouvernement français plutôt que d’une mise en œuvre formelle des procédures du DSA. En creux, les déclarations politiques de l’exécutif français laissent à penser que les actions de ce dernier peuvent se substituer à la mise en œuvre du droit européen, voire la court-circuiter.
Troisièmement, enfin, la géopolitique affecte indéniablement la mise en œuvre du droit européen. En effet, le DSA vise à réguler des multinationales principalement basées aux États-Unis, ce qui engendre une friction entre des référentiels juridiques, culturels et politiques différents. En atteste l’invocation du Premier Amendement américain relatif à la liberté d’expression pour contester l’application du droit européen, ou les menaces de la Maison-Blanche à l’égard de l’UE visant à la dissuader de sanctionner des entreprises états-uniennes. Rappelons d’ailleurs l’adoption par Donald Trump d’un décret évoquant la possibilité d’émettre des sanctions à l’encontre des États qui réguleraient les activités d’entreprises américaines dans le secteur numérique, sur le fondement de considérations de « souveraineté » et de « compétitivité ». Ces pressions sont d’autant plus préjudiciables qu’il n’existe pas d’alternatives européennes susceptibles d’attirer des volumes d’utilisateurs comparables à ceux des réseaux sociaux détenus par des entreprises américaines ou chinoises.
Un texte remis en cause avant même sa pleine mise en œuvre
Le DSA fait ainsi l’objet de remises en cause tant par des acteurs extérieurs à l’UE qu’internes. D’aucuns critiquent sa complexité ou sa simple existence, tandis que d’autres réclament une application plus agressive. L’entrée en application de ce texte n’avait pourtant pas vocation à être une solution miracle à tous les problèmes de modération. En outre, dans la mesure où l’UE a entendu substituer à un phénomène opaque d’autorégulation des plates-formes un modèle exigeant de corégulation impliquant acteurs publics, entreprises et société civile, le succès du DSA dépend du développement d’un écosystème complexe où les règles contraignantes font l’objet d’une pression politique et citoyenne constante, et sont complétées par des codes de conduite volontaires.
Les actions et déclarations des parties prenantes dans le débat public – par exemple les régulières allégations de censure émises par certains propriétaires de plates-formes – suscitent une confusion certaine dans la compréhension de ce que permet, ou non, la réglementation existante. Des outils d’encadrement des réseaux sociaux existent déjà : il convient d’en évaluer la teneur et la portée avec recul, et de les exploiter efficacement et rigoureusement, avant d’appeler à la création de nouvelles réglementations de circonstance, qui pourraient nuire davantage aux droits des individus en ligne.
Cet article est proposé en partenariat avec le colloque « Les propagations, un nouveau paradigme pour les sciences sociales ? », qui se tiendra à Cerisy du 25 juillet au 31 juillet 2025.
Valère Ndior est membre de l’Institut universitaire de France, dont la mission est de favoriser le développement de la recherche de haut niveau dans les établissements publics d’enseignement supérieur relevant du ministère chargé de l’enseignement supérieur et de renforcer l’interdisciplinarité. Il bénéficie à ce titre d’un financement public destiné à mener, en toute indépendance, des recherches académiques, dans le cadre d’un projet de cinq ans, hébergé à l’université de Brest et consacré à la gouvernance et la régulation des réseaux sociaux.
Il ne reçoit aucune instruction ou directive dans le cadre de cette activité.
Auteur : Valère Ndior, Professeur de droit public, Université de Bretagne occidentale
Aller à la source