À l’ère du numérique, les réseaux sociaux sont devenus des arènes centrales pour l’expression des idées et le débat public. Cependant, ces plateformes, notamment YouTube, sont de plus en plus critiquées pour leur recours à des pratiques de censure algorithmique, comme le « shadow-ban », qui limitent la visibilité de certains contenus sans enfreindre explicitement la loi. Cette intensification de la censure, souvent justifiée par la lutte contre la désinformation ou les contenus nuisibles, soulève des questions cruciales sur la liberté d’expression, la souveraineté numérique, et le contrôle de l’information dans les démocraties modernes.
Les mécanismes de la censure algorithmique
Le « shadow-ban » sur YouTube
Lors d’une audition devant une commission d’enquête parlementaire française en juin 2024, le directeur des affaires publiques de YouTube France, Thibaud Girod, a admis que la plateforme pratique le « shadow-ban ». Cette technique consiste à réduire la visibilité et la viralité de contenus jugés « nuisibles » ou non souhaitables, même s’ils respectent la loi française et les conditions d’utilisation de YouTube. Ces contenus ne sont pas supprimés, mais leur recommandation est limitée, les rendant quasi invisibles pour les utilisateurs. Selon Girod, cette pratique est appliquée de manière « transparente » et conforme au Digital Services Act (DSA) européen, qui oblige les plateformes à signaler de telles mesures.
L’article de Réseau International souligne que cette censure algorithmique repose sur des algorithmes opaques, souvent influencés par des biais idéologiques ou des pressions externes. Ces algorithmes, conçus pour prioriser certains contenus au détriment d’autres, façonnent ce que les utilisateurs voient, créant une « bulle informationnelle » qui limite la diversité des points de vue. Par exemple, des contenus critiques envers des politiques gouvernementales ou des narratifs dominants peuvent être dépriorisés, même sans violation explicite des règles.
Autres plateformes et tendances similaires
YouTube n’est pas seul dans cette pratique. Lors de la même commission d’enquête, un représentant de X a tenu un discours similaire, suggérant que la censure algorithmique est une norme dans l’industrie. Sur X, des posts récents dénoncent la suppression de comptes ou la limitation de portée pour des opinions dissidentes, notamment sur des sujets comme le conflit Israël-Iran ou la gestion de la crise à Gaza. Ces pratiques alimentent les accusations de censure ciblée contre des voix non alignées sur les narratifs mainstream.
Les justifications officielles
Les plateformes justifient ces mesures par la nécessité de protéger les utilisateurs contre la désinformation, les discours de haine, ou les contenus pouvant nuire à la santé mentale. Hugo Décrypte, auditionné le 3 juin 2024, a reconnu que la désinformation ne touche pas seulement les jeunes, mais aussi d’autres tranches d’âge, suggérant que des restrictions plus larges pourraient être envisagées. Cette perspective s’aligne avec les propositions d’Emmanuel Macron, qui, en mars 2025, a évoqué une interdiction des réseaux sociaux pour les moins de 15 ans, une mesure visant à limiter l’exposition des jeunes à des contenus problématiques.
Cependant, ces justifications sont critiquées pour leur caractère vague. Dans la vidéo « Censure : le terrible aveu du patron de YouTube France », Alexandre Langlois (ancien cadre du Renseignement français) dénonce une atteinte à l’article 11 de la Déclaration des droits de l’homme, qui garantit la liberté d’expression absolue, sauf en cas de limites prévues par la loi et validées par un juge. En contournant ce cadre légal, les plateformes se substituent à l’autorité judiciaire, décidant unilatéralement ce qui est « nuisible ».
Les implications pour la liberté d’expression
Une censure privée au service de l’état ?
L’intensification de la censure soulève le spectre d’une collaboration entre les plateformes privées et les gouvernements. En France, depuis 2017, le gouvernement surveille les réseaux sociaux via des contrats avec des entreprises privées, comme la start-up française VisiBrain, pour traquer les « rumeurs » et opinions divergentes. En juin 2025, ce contrat a été attribué à une société liée à des intérêts américains, soumise au Cloud Act, qui permet aux États-Unis d’accéder aux données transitant par des entreprises américaines. Cette externalisation, dénoncée par Langlois, compromet la souveraineté numérique française, les données des citoyens étant potentiellement exploitées par des entités étrangères.
Cette pratique s’inscrit dans un contexte plus large de délégation des fonctions régaliennes au privé. Régis de Castelnau (Avocat au Barreau de Paris), compare ce phénomène à la dégradation des services publics, comme la gestion des cartes grises, où l’État incite les citoyens à passer par des entreprises privées, souvent au détriment de la protection des données personnelles. Cette « marchandisation » des données, combinée à la surveillance des opinions, évoque un modèle de contrôle social où la vie privée est sacrifiée au nom de la sécurité ou de l’efficacité.
Impact sur le débat public
La censure algorithmique menace le pluralisme, un pilier essentiel de la démocratie. Régis de Castelnau souligne que les médias traditionnels, souvent contrôlés par des oligarques ou alignés sur des intérêts étatiques, manquent déjà de diversité. Les réseaux sociaux, qualifiés de « médias du peuple » par Elon Musk, offrent une alternative, mais leur régulation croissante réduit cet espace de liberté. Des cas comme la suppression du compte bancaire de TV Libertés ou les accusations de « prorussisme » contre des médias indépendants montrent une volonté de marginaliser les voix dissidentes. Les algorithmes tendent à privilégier les contenus sensationnalistes ou conformes aux intérêts dominants, au détriment de débats nuancés, ce qui compromet les droits humains et la qualité du discours public. Sur X et Facebook, des utilisateurs dénoncent une « chasse aux sorcières » contre les comptes critiques, amplifiant le sentiment d’une censure idéologique.
Les enjeux de souveraineté numérique
L’externalisation de la surveillance des réseaux sociaux à des entreprises américaines pose un problème majeur de souveraineté. Le Cloud Act permet aux autorités américaines d’accéder aux données des citoyens européens, tandis que les plateformes comme YouTube et X, soumises à des pressions politiques, appliquent des politiques de modération influencées par des agendas internationaux. Cette dépendance vis-à-vis des géants technologiques américains contraste avec les discours d’Emmanuel Macron sur la « souveraineté numérique européenne », révélant une incohérence entre les ambitions affichées et les pratiques réelles.
Un article du Monde (17 juin 2025) rapporte que l’UE tente de renforcer son cadre réglementaire via le DSA, mais les États membres peinent à harmoniser leurs approches. La France, en confiant la surveillance à des entités étrangères, compromet ses propres intérêts, tandis que des pays comme l’Allemagne investissent dans des solutions nationales pour protéger leurs données.
Réactions et perspectives
Résistance et contournement
Face à la censure, des créateurs de contenu et des utilisateurs cherchent des alternatives. Des plateformes décentralisées, comme Odysee ou Rumble (rendu inaccessible par décision gouvernementale française), gagnent en popularité, bien que leur portée reste limitée. Sur X, des appels à migrer vers des réseaux moins censurés circulent, mais la domination de YouTube et X freine ce mouvement. Par ailleurs, beaucoup d’influenceurs, bien que critiques des restrictions, restent prudents, craignant de perdre leur visibilité.
Solutions possibles
Pour préserver la liberté d’expression tout en luttant contre les abus, plusieurs pistes sont envisageables :
- Transparence des algorithmes : Obliger les plateformes à publier leurs critères de modération, comme le recommande le DSA, pour limiter les biais arbitraires.
- Renforcement du contrôle judiciaire : Confier les décisions de censure à des juges, conformément aux principes de l’article 11 de la Déclaration des droits de l’homme, plutôt qu’à des algorithmes ou des modérateurs privés (contrôlés eux-mêmes par des citoyens dûment mandatés).
- Souveraineté numérique : Investir dans des infrastructures nationales ou européennes pour réduire la dépendance aux géants technologiques américains, comme le propose le rapport du Sénat français sur la cybersouveraineté (mai 2025).
- Éducation aux médias : Renforcer la capacité des citoyens à évaluer l’information, réduisant ainsi la justification de la censure sous prétexte de désinformation.
L’intensification de la censure sur les réseaux sociaux, illustrée par les pratiques de « shadow-ban » sur YouTube, reflète une tension croissante entre la liberté d’expression et le contrôle de l’information. Si les plateformes invoquent la protection des utilisateurs, leurs méthodes opaques et leur collaboration avec des gouvernements soulèvent des inquiétudes sur la démocratie et la souveraineté numérique. En France, l’externalisation de la surveillance à des entreprises américaines aggrave ces enjeux, transformant les citoyens en sujets d’un système où leurs données et leurs opinions sont marchandisées et dûment choisies. Face à cette dérive, un sursaut collectif – mêlant régulation, éducation, et innovation technologique – est nécessaire pour préserver un espace public numérique libre et pluraliste.
Laisser un commentaire