La décision des Etats-Unis d’interdire l’entrée de cinq responsables européens sur leur territoire, dont l’ancien commissaire Thierry Breton, accusé de mener une politique de « censure » envers des plateformes technologiques, est injustifiée. Cette mesure exceptionnelle appelle des explications claires sur la régulation européenne et sa nécessité. L’accusation de censure repose sur une incompréhension fondamentale ou une déformation délibérée des enjeux.
L’Europe ne pratique aucune régulation du contenu sur son territoire. Ce qu’elle met en place est d’une autre nature : des règles destinées à garantir des marchés numériques ouverts et concurrentiels, et des infrastructures numériques fonctionnant avec transparence et responsabilité. Cette distinction essentielle est souvent volontairement brouillée par un discours politique qui présente l’approche européenne comme restrictive.
Les pays européens ont des expériences historiques distinctes qui façonnent leurs conceptions de la liberté et de la responsabilité. Nos libertés ont été conquises face au fascisme, au communisme ou après de longues périodes de dictature. Ces combats nous ont appris les risques d’un pouvoir incontrôlé.
Nous bâtissons l’Union européenne non pour imposer l’uniformité, mais pour protéger ce pour quoi nous nous sommes battus, tout en respectant notre diversité. Le Digital Markets Act (DMA) et le Digital Services Act (DSA) suivent cette tradition, ils ne régulent pas les contenus. Le DMA vise à maintenir des marchés numériques ouverts permettant la contradiction, en empêchant les abus de position dominante. Le DSA établit des obligations de transparence pour les infrastructures numériques — il ne dicte pas ce qui peut être dit, mais impose une responsabilité sur la manière dont les plateformes fonctionnent, par plusieurs modalités d’intervention.
Une protection élémentaire des consommateurs
D’abord, en faisant en sorte que ce qui est illégal dans les Etats membres soit retiré, et que l’auteur du contenu en soit informé. Ce n’est pas censurer, c’est appliquer la loi. Ensuite, en prévoyant que les systèmes algorithmiques fassent l’objet d’une évaluation des risques en cas de dangers significatifs, par exemple pour la santé mentale des jeunes ou pour l’intégrité des processus démocratiques.
Il vous reste 67.85% de cet article à lire. La suite est réservée aux abonnés.











