Depuis quelques jours, des publications virales sur les réseaux sociaux ont mis le feu aux poudres : ils alertent sur une consultation publique de la Commission européenne (DMA.100209) qui pourrait marquer un tournant historique dans l’atteinte à nos libertés numériques. Derrière le jargon technocratique du Digital Markets Act (article 6-11), se cache une réalité brute :
l’Union européenne s’apprête à obliger Google à partager quotidiennement, via API, des quantités massives de données de recherche – requêtes complètes, clics, vues, classements, séquences de sessions – avec des tiers (moteurs de recherche concurrents et même des chatbots IA).
Tout ça « anonymisé », bien sûr. Promis juré.
Mais arrêtons la comédie. Cette affaire révèle un problème bien plus profond que la simple « concurrence » :
la collecte elle-même de ces données sensibles est déjà un scandale structurel.
Et au lieu de la réguler, l’UE décide de la multiplier en la redistribuant gratuitement à d’autres acteurs. Quand c’est gratuit, c’est toi le produit. Quand c’est « gratuit » et imposé par Bruxelles, c’est toi le bétail numérique.
Des données ultra-sensibles déjà volées sans vrai consentement
Chaque jour, des centaines de millions d’Européens tapent dans Google des questions intimes : « symptômes cancer », « prêt immobilier après divorce », « orientation sexuelle ado », « opinions politiques sur telle élection », « dettes cachées ». Google le sait mieux que quiconque. Clare Kelly, conseillère senior concurrence chez Google, l’a rappelé sans détour (voir ici et ici) :
« Des centaines de millions d’Européens nous confient leurs recherches les plus sensibles – santé, famille, finances – et la proposition de la Commission nous forcerait à les transmettre à des tiers avec des protections de vie privée dangereusement inefficaces. »
Le « consentement » ? Une farce. Acceptez les conditions d’utilisation ou renoncez à chercher, à surfer, à vivre dans le monde numérique d’aujourd’hui. Pas de case à cocher réelle : c’est tacite, forcé, binaire. Refusez les cookies ? Bonne chance pour accéder au service demandé. C’est le modèle de la surveillance capitalisme décrit par Shoshana Zuboff ¹ : nos comportements, nos peurs, nos désirs sont capturés comme matière première gratuite, transformés en profils prédictifs et vendus.
Nous ne sommes pas les clients. Nous sommes le produit. Et ce produit est maintenant mis en vente forcée par l’État.
L’anonymisation : un mythe dangereux déjà démenti par l’histoire
La Commission promet monts et merveilles : anonymisation technique (suppression d’identifiants, floutage géographique, filtrage des requêtes rares) + clauses contractuelles + audits. Mais l’histoire montre que l’anonymisation des logs de recherche est un mirage.
Rappelez-vous 2006 : AOL publie 20 millions de requêtes « anonymisées ». En quelques jours, des journalistes retrouvent « Thelma Arnold », 62 ans, grâce à des requêtes uniques sur sa santé et son quartier (voir ici). Même schéma avec le Netflix Prize ou les données de localisation. Des chercheurs ont prouvé à maintes reprises que des quasi-identifiants (combinaison de requêtes rares, horaires, localisations approximatives) permettent de réidentifier des individus avec une probabilité effrayante (voir ici).
Aujourd’hui, le DMA va distribuer ces données à des « tiers » – startups IA, concurrents chinois ou américains, voire potentiellement accessibles via des requêtes judiciaires ou des fuites. Google elle-même s’oppose, arguant que les garde-fous sont insuffisants. Mais la Commission persiste. Pourquoi ? Pour « briser le monopole ». Au passage, elle crée un nouveau marché de données intimes, sans le consentement explicite des personnes concernées.
Pourquoi distribuer gratuitement ce qui a été collecté illicitement ?
C’est la question qui fâche : si ces données sont si sensibles, pourquoi l’UE oblige-t-elle Google à les céder gratuitement (ou à prix « FRAND ») à d’autres entreprises ? Et potentiellement à des gouvernements ou entités étatiques via des voies détournées ? L’argument officiel est noble : favoriser la concurrence européenne face à Google. La réalité est plus cynique :
on sanctuarise la collecte initiale (qui enrichit déjà Google et les États via les impôts et la surveillance) tout en la socialisant vers d’autres acteurs.
Résultat ? Un élargissement du cercle des profiteurs de nos vies privées. Des entreprises qui n’ont jamais eu notre accord direct vont pouvoir entraîner leurs IA sur nos angoisses et recherches les plus intimes. Et les gouvernements ?
Qui peut jurer que ces données ne finiront pas entre les mains de services de renseignement, via des accords transatlantiques ou des failles de sécurité ?
La confiance est rompue.
Quand les peuples disent « nos données, nos libertés », les technocrates répondent « concurrence et innovation ». Quand les peuples demandent la souveraineté numérique, on leur sert plus de dépendance aux GAFAM. La fracture est béante.
Il est encore temps de dire NON
La consultation publique ferme le 1er mai 2026 à 23h59. C’est l’un des derniers moments pour faire entendre la voix des citoyens lambda, pas des lobbies. Allez sur la page officielle de la Commission et dites-le clairement : non à la redistribution forcée de nos données intimes. Non à l’anonymisation de pacotille. Non à cette logique qui traite l’être humain comme un réservoir de données gratuit à piller.
Parce que derrière le DMA se joue une question plus vaste :
voulons-nous une Europe qui protège vraiment ses citoyens ou une Europe qui gère le troupeau au profit des puissants ?
Quand la confiance est morte, la méfiance devient un devoir civique. Nos données ne sont pas un bien public à redistribuer. Elles sont notre intimité. Point final.
Partagez cet article. Participez à la consultation. Et rappelez-vous : quand c’est gratuit, c’est toi le produit. Quand c’est imposé par l’UE, c’est toi qui paies le prix fort.
______
(Citation originale en anglais : « Surveillance capitalism unilaterally claims human experience as free raw material for translation into behavioral data. »)
² Eurobaromètre spécial 431 (2015) et suivi GDPR (2019) ; Flash Eurobaromètre « The Digital Decade 2025 » (publié juin 2025) : plus de 60 % des Européens déclarent ne pas se sentir pleinement en contrôle de leurs données et jugent insuffisante la protection actuelle par les institutions.


Laisser un commentaire