Le Digital Service Act face à la radicalité en ligne

L’Union européenne vient de déployer un nouvel outil pour lutter contre la haine en ligne et la désinformation : le Digital Services Act (DSA). Entré en vigueur le 25 août dernier, le DSA doit permettre de protéger les internautes contre les propos haineux et les opérations de désinformation en ligne. Pour la Fondation Jean-Jaurès, l’historienne Stéphanie Courouble-Share analyse les enjeux techniques et politiques de cette initiative.

Les effets concrets de la radicalité en ligne

Le 9 octobre 2019, le jour de Yom Kippour, un jeune Allemand de vingt-sept ans, Stephan Balliet, a tenté de perpétrer un attentat dans une synagogue de la ville de Halle (Saale), dans l’est de l’Allemagne. « Bonjour, je m’appelle Anon, et je pense que l’holocauste n’a jamais eu lieu », a déclaré en anglais Stephan Balliet devant une caméra alors qu’il diffusait son acte en ligne, et avant de tuer deux personnes. Puis il a poursuivi : « Le féminisme est la cause de la baisse des taux de natalité en Occident, et cela sert de justification à l’immigration de masse, la racine de tous les problèmes sont les Juifs ».

Bien qu’Allemand, Stephan Balliet a prononcé ses propos en anglais, pour que sa vision du monde de suprémaciste blanc soit largement transmise à sa communauté en ligne. Le terroriste est issu d’une sous-culture d’extrême droite, connectée, qui se radicalise politiquement à travers des forums, des plateformes pour les joueurs et des applications comme Telegram. En outre, et pour la première fois, cette attaque terroriste a été marquée par l’utilisation de propos négationnistes, ce qui illustre clairement la dangerosité de cette idéologie.

Toutes les études formelles1Lev Topor, Phishing for Nazis Conspiracies, Anonymous Communications and White Supremacy Networks on the Dark Web, Routledge, 2023 ; R. Borum, « Radicalization into violent extremism I: A review of social science theories », Journal of Strategic Security, 4(4), pp. 7-36, 2011 ; C. McCauley et S. Moskalenko, « Mechanisms of political radicalization: Pathways toward terrorism », Terrorism and Political Violence, 20(3), pp. 415-433, 2008. soulignent l’urgence de cette situation, mettant en évidence le fait que les terroristes se radicalisent en ligne, amplifiant ainsi la menace. Face à cette problématique, le Digital Service Act vise à répondre à cette urgence en proposant des mesures adaptées pour contrer efficacement la radicalisation en ligne.

Le Digital Service Act

Le Digital Service Act, souvent abrégé en DSA, représente une avancée majeure dans la régulation des services numériques en Europe. Il est issu de la volonté de moderniser la directive sur l’e-commerce de juin 2000 pour répondre aux nouveaux enjeux du numérique et aux défis posés par les grandes plateformes en ligne. En étendant la réglementation à un plus grand nombre de services numériques, l’objectif de l’Union européenne (UE) est de créer un environnement en ligne plus sûr, plus transparent et plus équitable pour les utilisateurs et les entreprises. Les « géants d’internet devront s’adapter aux règles de l’EU », selon les mots de Thierry Breton, le commissaire européen au marché intérieur, et  « tout ce qui est interdit “off line”, c’est-à-dire dans la vie de tous les jours, doit l’être aussi “on line”, c’est-à-dire en ligne », continue-t-il. 

Le DSA de l’Union européenne est entré en vigueur en novembre 2022 et se compose de deux volets complémentaires : le volet « services » et le volet « marché ». Le volet « services » se concentre sur la responsabilisation des plateformes et réseaux sociaux, tels que Facebook, Twitter, YouTube et autres acteurs similaires, en matière de lutte contre les contenus illicites tels que les discours de haine, la désinformation et les contenus violents. L’objectif est de mettre en place des mécanismes de signalement et de modération plus efficaces pour protéger les utilisateurs de ces contenus nuisibles et illicites.

Le volet « marché », quant à lui, vise à encadrer les activités des grandes entreprises du numérique (Gafam) pour éviter les abus de position dominante et favoriser la concurrence. Cela permettra également de soutenir l’émergence d’acteurs alternatifs et d’encourager l’innovation dans le marché numérique.

Les plateformes concernées par le DSA

Le Digital Service Act (DSA) a un large champ d’application qui inclut les très grandes plateformes en ligne (VLOP) et les moteurs de recherche avec plus de 45 millions d’utilisateurs par mois dans l’Union européenne. Parmi les VLOP qui ont été nommées publiquement en avril 2023, on retrouve les géants du web tels que Google, Apple, Facebook, Amazon et Microsoft, qui sont soumis à des règles strictes en raison de leur position dominante.

Outre les Gafam, d’autres plateformes telles qu’Instagram, LinkedIn, Snapchat, TikTok, YouTube, ainsi que des sites de commerce en ligne comme Alibaba, Aliexpress, Amazon et Zalando sont également concernés par la réglementation.

Ces plateformes désignées comme VLOP ont dû se conformer, d’ici le 25 août 2023, à des obligations spécifiques, notamment la mise en place d’un point de contact, le signalement des infractions pénales, des conditions d’utilisation conviviales et une transparence accrue concernant la publicité et les systèmes de recommandation.

Elles doivent également identifier, analyser et évaluer les risques systémiques liés à leurs services, tels que le contenu illicite, la protection des droits fondamentaux, la sécurité publique et le bien-être général.

Pour atténuer ces risques, les VLOP doivent mettre en place des mesures appropriées, ce qui peut impliquer des ajustements dans la conception de leurs services et une allocation de ressources supplémentaires pour mieux identifier les risques systémiques.

En outre, elles doivent établir une fonction interne de conformité, être auditées par un auditeur indépendant au moins une fois par an, partager leurs données avec la Commission européenne et les autorités nationales, et permettre aux chercheurs sélectionnés d’accéder aux données pour contribuer à la détection des risques systémiques.

Ces mesures visent à rendre les grandes plateformes en ligne plus responsables et transparentes dans leur fonctionnement, contribuant ainsi à créer un environnement numérique plus sûr et équitable pour les utilisateurs de l’Union européenne.

Les politiques des grandes plateformes contre la haine en ligne

Avant même l’adoption du DSA, certaines grandes plateformes avaient déjà mis en place des politiques et des lignes directrices pour lutter contre la propagation de contenus haineux sur leurs plateformes. Par exemple, Facebook dispose d’un ensemble de règles strictes qui interdisent les contenus ciblant une personne ou un groupe en fonction de caractéristiques protégées telles que l’origine ethnique, la religion, le genre, l’orientation sexuelle, etc.

Ces règles de Facebook incluent des interdictions concernant le discours de haine (antisémitisme, racisme, négationnisme), la violence, la déshumanisation et les stéréotypes nuisibles. L’entreprise s’efforce également de mettre en œuvre des mécanismes de signalement et de modération pour supprimer rapidement les contenus illicites.

De même, YouTube a mis en place des politiques rigoureuses pour lutter contre les contenus haineux et violents. La plateforme encourage les utilisateurs à signaler les vidéos problématiques, et elle utilise également des technologies d’intelligence artificielle pour détecter automatiquement les contenus enfreignant ses règles.

Cependant, malgré ces initiatives, les grandes plateformes ont souvent été critiquées pour leur manque de transparence et d’efficacité dans la lutte contre les contenus illicites. Les révélations de lanceurs d’alerte et les enquêtes journalistiques ont mis en évidence des lacunes dans leurs processus de modération, en particulier en ce qui concerne les contenus en langues moins répandues. Amazon, par exemple, a souvent été pointé du doigt pour ses insuffisances dans ce domaine, et l’on sait que le livre peut devenir une arme redoutable entre les mains de radicaux. 

Le DSA représente donc une opportunité pour combler ces lacunes et renforcer la responsabilisation des grandes plateformes en ligne afin de protéger les droits fondamentaux des utilisateurs et de garantir la sécurité publique.

Les risques associés au DSA

Bien que le DSA représente une avancée significative dans la régulation des services numériques, il n’est pas exempt de risques et de défis. L’un des principaux risques est lié à la migration déjà amorcée des utilisateurs vers des médias sociaux alternatifs moins régulés, phénomène qui pourrait être intensifié par le DSA.

Au cours des dernières années, certains utilisateurs mécontents des politiques de modération strictes appliquées par les grandes plateformes conformes au DSA ont progressivement migré vers des plateformes alternatives. Les groupes radicaux et extrémistes ont particulièrement profité de cette tendance en utilisant des tactiques dites d’hameçonnage. Ils publient des liens renvoyant vers des plateformes alternatives sur les grands réseaux sociaux pour attirer les utilisateurs. Une fois sur ces plateformes alternatives, qui peuvent être considérées comme faisant partie du Deep Web, ils tentent de convaincre les utilisateurs de passer sur des plateformes encore plus obscures, celles du Dark Web.

Le Dark Web est un espace en ligne non indexé par les moteurs de recherche et souvent associé à des activités illégales et dangereuses. Cette migration progressive vers des espaces moins régulés ou clandestins représente un défi majeur pour la lutte contre la haine en ligne et les contenus illicites. Les groupes radicaux trouvent ainsi des terrains propices pour propager leurs idéologies extrémistes et diffuser des contenus dangereux en évitant la vigilance des autorités.

En outre, cette migration vers des plateformes moins régulées peut entraîner une dispersion des contenus illicites, les rendant plus difficiles à détecter. Les discours de haine, la désinformation et les contenus violents pourraient se propager plus facilement et s’amplifier dans ces espaces moins surveillés.

Un autre risque associé au DSA est l’effet paradoxal que pourrait avoir une régulation des grandes plateformes. En voulant lutter contre les contenus nuisibles, on pourrait créer un environnement où la liberté d’expression donnerait l’impression d’être restreinte de manière excessive, suscitant ainsi des inquiétudes concernant la censure. 

Et pourtant, le DSA a été clair dans ses objectifs qui sont de répondre aux enjeux de contenus illicites et de la liberté d’expression. Les plateformes et les moteurs de recherche devront prendre des mesures concrètes pour traiter les risques liés à la diffusion de contenus illicites en ligne et les effets négatifs sur la liberté d’expression et d’information. Dans un souci de transparence, les plateformes devront également mettre en place un mécanisme simple d’usage permettant aux utilisateurs de signaler les contenus illicites, et devront réagir promptement à ces signalements.

L’enjeu majeur du DSA sera de bien communiquer son désir d’équilibre délicat entre la lutte contre les contenus illicites et la préservation de la liberté d’expression. De plus, la coopération internationale entre les gouvernements, les plateformes et les organismes de régulation sera cruciale pour faire face à ces défis complexes et pour empêcher la radicalisation en ligne.

En somme, le Digital Service Act représente une réponse essentielle à la nécessité de réguler les services numériques et de lutter contre les contenus nuisibles en ligne. Cependant, il est important de rester vigilant face aux risques potentiels, tels que la migration vers des plateformes moins régulées et la radicalisation en ligne. Un équilibre entre la régulation et la liberté d’expression, ainsi qu’une approche globale de la coopération internationale, sont nécessaires pour relever ces défis et créer un environnement numérique plus sûr pour tous.

  • 1
    Lev Topor, Phishing for Nazis Conspiracies, Anonymous Communications and White Supremacy Networks on the Dark Web, Routledge, 2023 ; R. Borum, « Radicalization into violent extremism I: A review of social science theories », Journal of Strategic Security, 4(4), pp. 7-36, 2011 ; C. McCauley et S. Moskalenko, « Mechanisms of political radicalization: Pathways toward terrorism », Terrorism and Political Violence, 20(3), pp. 415-433, 2008.

Du même auteur

Sur le même thème