JORF n°0170 du 24 juillet 2021

Ce texte est une simplification générée par une IA.
Il n'a pas de valeur légale et peut contenir des erreurs.

Avis relatif à la lutte contre la haine en ligne

Résumé L'article parle de l'avis de la CNCDH sur la haine en ligne, des défis pour la combattre et des recommandations pour mieux réguler les contenus en ligne.

Assemblée plénière du 8 juillet 2021 - Résultat du vote : adoption à l'unanimité

| Résumé | |:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------:| | Dans cet avis, la Commission nationale consultative des droits de l'homme (CNCDH) rappelle son attachement au respect d'un équilibre entre la liberté d'expression et l'objectif légitime de la lutte contre la haine en ligne. Afin d'appréhender au mieux la diversité des approches préventives et répressives, la CNCDH envisage le phénomène dans sa globalité et en livre une analyse transversale.

Après avoir identifié les principaux enjeux de la lutte contre la haine en ligne la CNCDH formule 24 recommandations afin de renforcer la lutte contre la haine en ligne. Elle invite ainsi au renforcement du rôle de l'Etat, à la création de nouvelles obligations à l'égard des plateformes, et à la prévention notamment par l'accompagnement et la responsabilisation des utilisateurs, dès leur plus jeune âge.|

Résumé

Introduction

  1. Le renforcement du rôle de l'Etat dans la lutte contre la haine en ligne

1.1. La place de l'autorité judiciaire dans la lutte contre la haine en ligne

1.1.1. Un arsenal juridique complet mais complexe

1.1.2. Le rôle indispensable du juge

1.1.3. Des difficultés procédurales distinctes à résoudre

1.1.4. Une aide à l'identification des auteurs d'infractions pénales

1.2. Créer un organisme public indépendant dédié à la lutte contre les contenus haineux en ligne

1.2.1. Renationaliser la lutte contre la haine en ligne

1.2.2. Promouvoir le partage de bonnes pratiques au niveau européen

  1. La création d'obligations positives à l'égard des plateformes

2.1. Les obligations de modération et de lutte contre la viralité des contenus haineux

2.1.1. Permettre un signalement qualitatif des contenus et modérer le contenu signalé

2.1.2. Encadrer le recours aux instruments de modération des contenus haineux

2.1.3. Lutter contre la propagation des contenus haineux en limitant leur viralité

2.2. Les obligations de transparence concernant la modération des contenus haineux

2.2.1. Favoriser la transparence des politiques et outils de modération

2.2.2. Créer un recours effectif en cas de modération d'un contenu

2.3. Accéder aux données des outils de modération algorithmiques

2.4. Accéder aux contenus retirés

  1. Protéger et responsabiliser l'utilisateur

3.1. Renforcer la formation et la protection de l'utilisateur

3.1.1. Améliorer la formation au numérique

3.1.2. Prendre en compte les vulnérabilités particulières

3.1.3. Accompagner les victimes

3.2. Développer des outils de mise en capacité d'agir de l'utilisateur

3.2.1. Adapter l'information au parcours utilisateur

3.2.2. Consacrer un droit au paramétrage au profit de l'utilisateur

3.3. Responsabiliser l'utilisateur

3.3.1. Promouvoir la réflexivité de l'utilisateur

3.3.2. Inciter l'utilisateur à lutter contre la haine en ligne

Personnes auditionnées

Introduction

  1. internet est un formidable espace, souvent qualifié à tort de virtuel (1), au sein duquel chacun exerce ses droits et libertés. La capacité offerte aux internautes de s'exprimer aisément et librement, parfois sous pseudonyme, l'ubiquité d'internet ou encore l'échelle à laquelle certains contenus peuvent être diffusés, représentent autant d'occasions d'exercer sa liberté d'expression et de communication (2), ferment de la démocratie. Régi par une diversité d'acteurs ainsi que par des règles de gouvernance et de fonctionnement dont les internautes ne sont pas toujours conscients, il peut dans le même temps être source d'abus dans l'exercice de ces droits et libertés. En témoignent la multiplication des contenus haineux dans le contexte de la crise sanitaire de la Covid-19, notamment durant le mois de mars 2020 (3) et, surtout, l'assassinat du professeur Samuel Paty en novembre 2020 et l'affaire Mila, particulièrement emblématiques de la diffusion virale et de la virulence des discours de haine en ligne. De tels événements illustrent les menaces que fait peser le discours haineux sur la liberté d'expression, de communication, le respect de la dignité humaine et le droit à la vie. Ces considérations sont particulièrement valables concernant les réseaux sociaux qui permettent à tout un chacun de s'exprimer, de rendre publiques et de diffuser ses opinions ou les contenus de son choix et d'accéder à de nouvelles sources d'informations (4). Certains d'entre eux constituent des espaces monétisés dont le modèle économique (ou modèle d'affaire) repose sur la viralité des contenus publiés par leurs utilisateurs et dont l'audience génère d'importants revenus, en particulier s'agissant des contenus choquants qui captent l'attention des internautes en ce qu'ils suscitent une forte émotion.

  2. Forte d'une doctrine forgée dans l'exercice de son mandat de rapporteur national sur la lutte contre le racisme et dans le cadre de ses précédents avis (5), la Commission nationale consultative des droits de l'homme (CNCDH) souscrit pleinement à l'objectif de lutte contre la haine en ligne et rappelle avec vigueur son attachement au respect de l'équilibre entre cet objectif et la liberté d'expression, conforme au régime libéral tel qu'il est consacré en France depuis 1789 en matière de presse et de publication (6). Ainsi, la CNCDH s'est auto-saisie des différentes initiatives nationales et européennes en cours de discussion.

  3. Au plan national, une proposition de loi visant à lutter contre les contenus haineux sur internet a été déposée à l'Assemblée nationale en 2019 (7). A cet égard, la CNCDH s'est prononcée à l'encontre de certaines des dispositions de ce texte, craignant qu'elles ne remettent en cause l'équilibre entre la lutte contre la haine en ligne et la liberté d'expression (8). Sensible à cette analyse, le Conseil constitutionnel a largement censuré son dispositif (9). En subsistent des dispositions préventives et éducatives, que la CNCDH salue. Parmi celles-ci, la création de l'Observatoire de la haine en ligne placé sous l'égide du Conseil supérieur de l'audiovisuel (CSA) ayant pour objet " le suivi et l'analyse de l'évolution des contenus " haineux, et dont l'un des groupes de travail porte sur la définition du contenu haineux. Le projet de loi confortant le respect des principes de la République, déposé à l'Assemblée nationale le 9 décembre 2020, comporte de nouvelles dispositions visant à " lutter contre la haine en ligne et les contenus illicites " afin, notamment, de réguler l'activité des plateformes en ligne (10). Il entend ainsi s'inscrire dans le cadre de la réflexion européenne. Alors que, dès 2016, la Commission européenne a promu l'adoption d'un code de conduite visant à combattre les discours de haine illégaux en ligne dont la plupart des grandes plateformes sont signataires (11), elle préconise désormais l'adoption d'un dispositif transversal de régulation des contenus avec la proposition de règlement relatif à un marché intérieur des services numériques, publiée le 15 décembre 2020 (12) (DSA). La CNCDH se félicite de la réflexion menée à l'échelle européenne sur la régulation des services numériques permettant de préserver les droits et libertés fondamentaux des utilisateurs de ces services. Elle s'est toutefois prononcée à l'encontre de certaines dispositions du projet de loi confortant le respect des principes de la République, notamment celles remettant en cause les garanties spécifiques prévues par la loi de 1881 s'agissant de l'exercice de la liberté d'expression (13).

  4. La CNCDH relève que plusieurs difficultés se posent à ce jour dans l'appréhension de la propagation en ligne de ces discours haineux. La principale repose sur l'absence d'une définition unanime de la haine en ligne, qui s'explique non seulement par des divergences culturelles et contextuelles, mais également par les variations de ressenti que peut susciter un contenu chez un internaute, complexifiant son appréciation objective. Ces difficultés se matérialisent notamment dans les différentes approches retenues par les plateformes afin de définir les contenus haineux, rendant dès lors difficile la mesure exacte du volume des discours de haine en ligne. La CNCDH regrette en outre qu'en l'état actuel des textes, la pluralité des modèles économiques des plateformes, les mécanismes concourant à la propagation des contenus haineux et les instruments visant à les réguler, ne soient pas suffisamment pris en compte, alors qu'ils jouent indéniablement un rôle déterminant dans la prévention et la lutte contre la haine en ligne.

  5. Afin d'appréhender la globalité du phénomène ainsi que la diversité des approches tant au niveau national qu'international, la CNCDH préconise, dans ce nouvel avis, d'en livrer une analyse transversale. L'objectif poursuivi est de contribuer au débat public par l'identification des principaux enjeux de la lutte contre la haine en ligne et la formulation de recommandations. Dans un premier temps, la CNCDH recommande de renforcer le rôle de l'Etat face à ces enjeux (I). De surcroît, cette responsabilité étatique doit s'articuler avec celle des plateformes qui se voient imputer de nouvelles obligations (II). Enfin, la Commission rappelle la nécessité de respecter et de protéger les droits fondamentaux des utilisateurs. En ce sens, elle appelle à renforcer la prévention de la haine en ligne, notamment par l'accompagnement et la responsabilisation des utilisateurs des plateformes, dès leur plus jeune âge (III).

  6. Le renforcement du rôle de l'Etat dans la lutte contre la haine en ligne

  7. Ces dernières années ont été marquées par l'émergence d'initiatives, tant au niveau international que national, afin de lutter contre la diffusion de contenus illicites en ligne (14). Prenant diverses formes, elles visent à réunir un grand nombre d'acteurs représentant le secteur public, le secteur privé du numérique ainsi que la société civile. Tout en saluant le fait que ces nouvelles structures permettent de bénéficier d'un plus grand savoir-faire technique, la CNCDH s'inquiète de leur prolifération non homogène et de leur manque de coordination en même temps qu'elle s'interroge sur la pertinence de leurs modalités de fonctionnement et des mécanismes qu'elles seront amenées à promouvoir. Il pourrait en résulter une complexification des instruments de lutte contre la haine en ligne.

  8. En parallèle de ces initiatives, la CNCDH appelle une nouvelle fois à renforcer le rôle essentiel et régalien de l'Etat dans la garantie des droits et libertés fondamentaux en ligne (15). Outre une meilleure régulation des contenus publiés en ligne, un plus grand investissement des autorités publiques permettrait de réduire l'asymétrie de pouvoirs entre les utilisateurs et les prestataires de l'internet, ces derniers étant souvent des acteurs économiques internationaux extrêmement puissants. Ce renforcement du rôle de l'Etat dans la lutte contre la haine en ligne passe par une réaffirmation du rôle de l'autorité judiciaire ainsi que par l'établissement d'une institution propre ayant une vaste compétence pour lutter contre la haine en ligne.

1.1. La place de l'autorité judiciaire dans la lutte contre la haine en ligne

1.1.1. Un arsenal juridique complet mais complexe

  1. La CNCDH souscrit à l'idée que les mêmes règles juridiques doivent gouverner le monde physique et le monde du numérique, et que la loi de 1881 sur la liberté de la presse doit encadrer les contenus sur les plateformes numériques. Il ne doit pas exister de justice " à deux vitesses " concernant la liberté d'expression. La CNCDH considère que l'arsenal législatif existant afin de lutter contre la haine en ligne est suffisamment complet, bien que complexe.

  2. En droit positif, la haine en ligne se matérialise par des infractions du droit pénal commun telles que l'apologie du terrorisme ou encore la menace de mort, mais aussi des infractions relevant du droit de la presse prévues par la loi de 1881 telles que la provocation à commettre certains crimes et délits. Lorsqu'ils sont publics, les contenus haineux en ligne peuvent être constitutifs de diffamations raciales, d'injures raciales ou d'incitations à la discrimination, à la haine ou à la violence publique, qui sont des délits punis notamment d'emprisonnement. Lorsque ces contenus sont privés, ils constituent des contraventions. Ce cadre juridique est néanmoins en cours d'évolution. En effet, quelques initiatives tentent d'extraire certains comportements prohibés du champ spécifique de la loi de 1881. Parmi ces initiatives, le projet de loi confortant les principes de la République et de lutte contre le séparatisme prévoit d'ajouter un nouveau délit concernant la haine en ligne au droit pénal commun (16).

  3. S'agissant des moyens procéduraux permettant de lutter contre la haine en ligne, il existe déjà des outils juridiques efficaces. D'une part, il existe des outils alternatifs ou préalables à une action judiciaire tels que le droit de réponse ou les notifications de contenu illicite au directeur de la publication (17) ou à l'hébergeur (18). D'autre part, il est possible d'intenter une action judiciaire tant pénale que civile à l'égard des responsables des propos tels que déterminés par la loi.

  4. Eu égard à la responsabilité, la lutte contre les discours haineux est encadrée par les lois du 29 juillet 1881 sur la liberté de la presse, du 29 juillet 1982 sur la communication audiovisuelle, du 21 juin 2004 pour la confiance dans l'économie numérique - dite " loi LCEN " - et du 27 janvier 2017 sur l'égalité et la citoyenneté. La commission de ces infractions est susceptible d'engager la responsabilité des auteurs de discours haineux, mais également ceux concourant à la diffusion de ces contenus. Ainsi, la responsabilité pénale des éditeurs peut être engagée en cas de diffusion d'un contenu illicite par un mécanisme de responsabilité en cascade (19). La responsabilité des prestataires techniques est prévue, depuis 2004, lorsque des personnes utilisent leurs services pour diffuser en ligne des contenus litigieux. La loi n'exige pas d'eux qu'ils surveillent ou recherchent ces contenus, mais ils sont obligés de concourir à la lutte contre la diffusion d'infractions listées à l'article 6 I 7 de la LCEN. A ce titre, ils sont tenus de mettre en place un dispositif de signalement visible et aisément accessible afin que tout utilisateur puisse porter ces faits à leur connaissance. Ils sont également tenus de transmettre l'information aux autorités compétentes si celle-ci leur est signalée. Ils doivent conserver les données permettant d'identifier les personnes ayant contribué à la création d'un contenu haineux et doivent les communiquer à l'autorité judiciaire, si elle en fait la demande. L'autorité judiciaire peut, en référé ou sur requête, interdire aux hébergeurs le stockage ou l'accès à l'un de ces contenus. Enfin, la LCEN prévoit l'obligation de rendre inaccessibles les contenus illicites. La responsabilité pénale ou civile de l'hébergeur peut être engagée dans le cas où il aurait connaissance d'un contenu illicite et qu'il n'agit pas promptement pour le retirer.

  5. La circulaire du 4 avril 2019, relative à la lutte contre les discriminations, les propos et les comportements haineux, présente les modalités de la conduite de l'action publique intégrant les nouveaux outils de lutte contre toutes les formes de haine et de discrimination créés par la loi du 23 mars 2019 (20). Elle précise de nombreux points afin de mieux lutter contre la haine en ligne et incite notamment à agir auprès des fournisseurs d'accès à l'internet plutôt qu'auprès des hébergeurs.

1.1.2. Le rôle indispensable du juge

  1. L'arsenal législatif existant vise ainsi à préserver l'équilibre entre la faculté donnée à chacun de s'exprimer librement et la protection de la dignité et des droits d'autrui. A ce titre, la CNCDH rappelle régulièrement que la liberté d'expression est un des fondements essentiels d'une société démocratique (21). Elle est garantie respectivement par l'article 11 de la Déclaration des droits de l'homme et du citoyen (DDHC), par l'article 19 de la Déclaration universelle des droits de l'homme (DUDH), par l'article 10 de la Convention européenne des droits de l'homme (CEDH) ainsi que par l'article 11 de la Charte des droits fondamentaux de l'Union européenne. La Cour européenne des droits de l'homme a souligné à plusieurs reprises que la liberté d'expression ne protège pas seulement les informations suscitant l'indifférence ou la faveur de l'opinion publique, mais également celles qui peuvent heurter, choquer ou inquiéter (22). Ainsi, toute restriction à cette liberté doit être nécessaire et proportionnée au but légitime poursuivi. Or, la CNCDH constate une nouvelle fois qu'il peut être particulièrement complexe de distinguer ce qui relève du discours de haine de ce qui relève de la liberté du débat public, notamment en raison de l'appréciation du contexte, du caractère polysémique du langage et de l'intentionnalité parfois équivoque qui préside à la communication d'un message (23). L'intervention de l'autorité judiciaire est alors indispensable afin de préserver l'équilibre des droits et de prévenir les ingérences injustifiées dans la liberté d'expression et de communication.

  2. Compte tenu de sa spécificité, le contentieux relevant de la loi de 1881 fait l'objet, au moins à Paris, d'un traitement spécialisé, tant sur le volet civil que pénal, par les magistrats de la 17e chambre du tribunal judiciaire, chambre correctionnelle compétente dans les affaires de presse. Ce traitement par des magistrats spécialisés a été complété en 2021 par la création d'un parquet spécialisé, institué par l'article 10 de la loi visant à lutter contre la haine sur internet, l'une des rares dispositions de la loi (24) non censurée par le Conseil constitutionnel dans sa décision du 18 juin 2020 (25). Cet article prévoit qu'une juridiction désignée par décret disposera d'une compétence nationale pour les délits de harcèlement sexuel ou moral aggravé par le caractère discriminatoire au sens des articles 132-76 et 132-77 du code pénal dès lors que les faits sont commis par l'utilisation d'un service de communication au public en ligne ou par le biais d'un support numérique ou électronique, et que la plainte a été adressée par voie électronique. Un décret a désigné le tribunal judiciaire de Paris pour exercer cette compétence (26), et une circulaire du ministre de la Justice a créé le pôle national dédié précité au sein du parquet du tribunal judiciaire de Paris (27), effectif depuis le 4 janvier 2021. Le parquet spécialisé aura compétence pour certains délits relevant tant de la loi de 1881 que du code pénal (28).

  3. Sa compétence étant concurrente de celle des autres parquets territorialement compétents, deux critères alternatifs la déterminent. Ce parquet est chargé des affaires de haine en ligne en raison soit de " la complexité de la procédure, résultant de la technicité de l'enquête, de vérifications internationales, de la multiplicité d'auteurs et notamment lorsqu'ils sont localisés en de multiples points du territoires ", soit du " fort trouble à l'ordre public engendré par les faits, notamment en cas de retentissement médiatique important, ou la sensibilité particulière de l'affaire au regard de la personnalité de la victime ou de celle de l'auteur ou du contexte des faits " (29). Ainsi, ce pôle aura un rôle d'arbitrage et de filtre dans les dossiers dont il pourra se saisir, empreint en partie d'une inévitable subjectivité (30). Le pôle spécialisé devra alors superviser les enquêtes et opérer les réquisitions auprès des opérateurs d'internet concernés.

  4. Tout en saluant l'ambition d'apporter une réponse pénale plus rapide par la création d'un nouveau parquet spécialisé, tant pour faire cesser l'incitation à la haine et appréhender l'auteur du contenu haineux plus rapidement que pour permettre un échange privilégié entre les magistrats et les représentants des plateformes internationales, la CNCDH s'interroge néanmoins sur les difficultés d'appréciation de certains des critères précités relatifs à l'organisation des compétences entre ce parquet national et les différents parquets territorialement compétents. De plus, elle s'inquiète du large champ de compétence de ce parquet spécialisé traitant des délits relevant de la loi de 1881 sur la liberté de la presse et, de plus en plus souvent, du droit pénal commun.

Recommandation n° 1 : la CNCDH recommande aux pouvoirs publics :

- d'augmenter les moyens humains et financiers octroyés au nouveau pôle spécialisé du Parquet du Tribunal judiciaire de Paris en raison de l'ampleur du phénomène de la haine en ligne ;

- de veiller au maintien de la place du juge dans le contentieux relatif à la haine en ligne.

1.1.3. Des difficultés procédurales distinctes à résoudre

  1. Si l'urgence est de faire cesser l'accès au contenu litigieux, le traitement de l'infraction et de l'identification de son auteur, dès lors qu'il ne présente pas le même caractère d'urgence, doit bénéficier des garanties procédurales de la loi de 1881 destinées à la protection de la liberté d'expression. De même, la CNCDH rappelle que les procédures d'urgence - notamment la comparution immédiate et la comparution sur reconnaissance préalable de culpabilité - ne sont pas adaptées au contentieux des abus de la liberté d'expression, pour lequel un traitement spécifique s'impose en raison de sa complexité et des valeurs qui y sont en jeu. Lors de la dernière tentative d'instaurer au sein de la loi de 1881 des dérogations pour faire application des procédures accélérées au traitement des contenus haineux (31), la CNCDH a rappelé qu'une conciliation est à rechercher entre l'objectif de lutte contre la haine en ligne et le respect de la liberté d'expression, conformément au régime libéral consacré en France en matière de presse et de publication. A cet égard, il y aurait danger à vouloir soumettre à la procédure pénale de droit commun les abus de la liberté d'expression dont le régime, volontairement protecteur, bénéficie des garanties offertes par la loi du 29 juillet 1881, la libre expression des pensées et des opinions étant le ferment de la démocratie. En outre, réserver la protection de la loi de 1881 aux seuls journalistes dont le statut ne dépend pas uniquement de l'attribution de la carte de presse rompt l'égalité des citoyens devant la loi concernant la liberté d'expression. Plus généralement, la Commission émet des réserves sur l'application concrète des nouvelles dispositions prévues par le projet de loi confortant les principes de la République et de lutte contre le séparatisme au regard du manque de moyens de la justice, particulièrement flagrant en ce domaine. Pour rendre effectifs les dispositifs existants, ces moyens sont à porter au niveau des besoins, tant au stade du recueil - particulièrement pour la Plateforme d'harmonisation, d'analyse, de recoupement et d'orientations des signalements (PHAROS) - qu'aux stades de l'enquête puis du jugement (32). Ainsi, la CNCDH ne peut adhérer à l'idée selon laquelle l'édifice de la loi de 1881 demeurerait inchangé alors qu'on y apporte maintes dérogations.

  2. La CNCDH est consciente de l'importance d'une réponse rapide de l'autorité judiciaire. Néanmoins, il importe de distinguer deux temps distincts en matière de haine en ligne. D'une part, l'urgence immédiate est de suspendre l'accès aux contenus haineux pour empêcher leur diffusion. D'autre part, la question de l'identification de l'auteur et des éventuelles poursuites contre celui-ci présente un caractère d'urgence plus relatif.

  3. Concernant la suspension de l'accès aux contenus, la CNCDH rappelle qu'il existe déjà des procédures pour obliger l'auteur, l'éditeur ou le fournisseur à bloquer certains contenus (33). Le déréférencement peut également être demandé aux moteurs de recherche. Enfin, lorsque les faits constituent un trouble manifestement illicite, le ministère public ou toute personne y ayant un intérêt peut saisir le juge civil en référé (34) afin que celui-ci enjoigne rapidement à l'hébergeur de retirer le contenu ou au fournisseur d'accès internet (FAI) de bloquer l'accès au contenu. La CNCDH recommande le développement de cette procédure, qui permet à la fois d'apporter une réponse judiciaire rapide, mais aussi de préserver l'intervention d'un juge et de garantir davantage de droits à la défense que dans le cadre d'une comparution immédiate - d'autant plus que la comparution immédiate est impossible si l'auteur n'est pas identifié, ce qui est souvent le cas sur internet. Plutôt qu'une nouvelle réforme, la CNCDH encourage donc à donner des moyens humains et financiers au service de la justice pour lui permettre de fonctionner efficacement dans le cadre actuel.

  4. A ces difficultés procédurales s'ajoutent celles tenant à l'identification de l'auteur des contenus litigieux, enjeu majeur de la lutte contre la haine en ligne, non seulement en raison de l'utilisation de pseudonymes mais également de systèmes d'anonymisation des adresses IP (35) et du partage des adresses IP, une seule adresse pouvant renvoyer à plusieurs centaines d'utilisateurs. De plus, en pratique, il appartient au requérant qui souhaite identifier l'auteur d'un contenu d'avoir recours à un système de double ordonnance sur requête (36). Ainsi, l'utilisateur doit adresser une première requête au juge, afin d'obtenir les données permettant de connaître le fournisseur d'accès en mesure d'identifier la personne concernée. Ensuite, il doit adresser une seconde requête au juge afin que celui-ci enjoigne au fournisseur d'accès de fournir les données dont il dispose concernant l'auteur à identifier. Cette procédure, très longue - devant les juridictions parisiennes les délais d'audience des affaires s'allongent de un à deux ans - et très coûteuse, est un obstacle majeur pour toute personne victime de haine en ligne qui souhaite engager une procédure judiciaire.

  5. De plus, l'identification des auteurs de contenus est encore compliquée par le manque de coopération de certains opérateurs de l'internet, établis sur des territoires dont les législations sont moins contraignantes ou placent la liberté d'expression au sommet des libertés fondamentales (37).

  6. Il conviendrait ainsi de recourir à certains aménagements procéduraux permettant de faciliter l'identification des auteurs de contenus illicites, pour ensuite permettre leur poursuite dans un délai raisonnable.

Recommandation n° 2 : La CNCDH recommande aux magistrats compétents de recourir davantage à la procédure sur requête aux fins d'identification de l'auteur du contenu litigieux.

Recommandation n° 3 : La CNCDH recommande au ministère de la justice de réfléchir à une simplification de cette procédure par double requête afin d'accélérer le traitement de ce contentieux, et d'en limiter les frais.

  1. En outre, les mesures prises par le juge afin d'empêcher l'accès à un site dont le contenu est illicite peuvent être aisément contournées par les sites dits miroirs , qui reprennent des contenus jugés illégaux par l'autorité judiciaire, gardienne des libertés fondamentales. Dans le cadre de l'examen du projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, la CNCDH a rappelé la nécessité de lutter contre les sites miroirs afin de prévenir plus efficacement la réapparition de ces contenus (38).

  2. Cependant, la lutte contre ces sites se heurte à de nombreux écueils. En premier lieu, il s'agit de définir le contenu dont la réapparition pourra être sanctionnée dans le cadre de la lutte contre ces sites de contournement. Actuellement, le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme prévoit que les sites reprenant le contenu mentionné par la décision judiciaire " en totalité ou de manière substantielle " peuvent faire l'objet de mesures de blocage (39). S'inquiétant des potentielles atteintes à la liberté d'expression tenant à l'appréciation du caractère " substantiel " du contenu, la CNCDH recommande d'expliciter ce terme, et de renvoyer à la compétence de l'autorité judiciaire pour en préciser la teneur. A ce titre, la CNCDH rappelle que la place fondamentale du juge dans le dispositif de la lutte contre les sites miroirs doit être préservée (40).

  3. Par ailleurs, la CNCDH rappelle que PHAROS participe également à la lutte contre les sites miroirs. Dispositif de l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) de la direction centrale de la police judiciaire (DCPJ), PHAROS est une plateforme permettant de signaler des comportements ou contenus illicites sur internet. Afin qu'elle puisse pleinement exercer sa mission, d'importants moyens financiers et humains doivent lui être alloués.

  4. Enfin, l'efficacité même de la mesure de blocage peut être remise en cause. En premier lieu, il existe un risque de surblocage, dès lors que sur un même serveur sont hébergés des contenus licites et des contenus illicites (41). En second lieu, les risques de contournement sont également importants, car la mesure de blocage ne permet pas de supprimer le contenu litigieux à la source (42).

Recommandation n° 4 : La CNCDH recommande aux pouvoirs publics d'augmenter les moyens humains et financiers alloués à la plateforme PHAROS, qui permet de signaler des contenus illicites sur internet et fait partie intégrante du dispositif judiciaire de lutte contre la haine en ligne.

1.1.4. Une aide à l'identification des auteurs d'infractions pénales

  1. L'utilisation d'un pseudonyme n'est pas le seul frein à l'identification des auteurs d'infractions pénales. En effet, certains opérateurs de l'internet sont établis sur des territoires dont la législation est peu contraignante, ou place la liberté d'expression au sommet des libertés fondamentales. C'est le cas aux Etats-Unis, où la liberté d'expression est protégée par le premier amendement de la Constitution.

  2. La désignation d'un représentant légal de chaque plateforme, chargé de répondre aux demandes des autorités judiciaires, serait nécessaire afin de résoudre ces difficultés. Actuellement, la proposition de législation européenne sur les services numériques prévoit que les fournisseurs de services intermédiaires établissent un point de contact unique permettant d'établir une communication directe par voie électronique avec, notamment, les autorités des Etats membres (43). En sus, les fournisseurs de services intermédiaires qui ne sont pas établis au sein de européenne mais proposent leurs services en son sein désignent un représentant légal dans un des Etats membres (44).

  3. La CNCDH se félicite que des discussions soient engagées en ce sens. Elle prend acte de la position de la Commission européenne selon laquelle l'obligation de nommer un représentant légal sur le territoire français constituerait une obligation ayant potentiellement des conséquences financières importantes, et une " restriction à la prestation transfrontalière des services de la société de l'information " (45). Toutefois, la CNCDH s'interroge sur l'articulation de ces dispositions et sur l'utilité de nommer un représentant légal dans un seul des Etats membres dans lequel le fournisseur propose ses services, dès lors que ce représentant sera chargé de répondre à toutes les questions des autorités des Etats membres.

  4. Aussi, la CNCDH recommande à la France de soutenir l'extension, au sein du projet de texte européen, de l'obligation pour chaque plateforme proposant ses services dans un Etat d'y désigner un représentant légal afin de répondre aux réquisitions de l'autorité judiciaire.

1.2. Créer un organisme public indépendant dédié à la lutte contre les contenus haineux en ligne

  1. La CNCDH recommande la création d'un organisme public indépendant dédié à la lutte contre les contenus haineux en ligne afin, d'une part, de " renationaliser " la lutte contre la haine en ligne et, d'autre part, de dupliquer cet organisme au niveau européen.

1.2.1. " Renationaliser " la lutte contre la haine en ligne

  1. La CNCDH constate que nombre de suggestions actuelles pour renforcer la lutte contre la haine en ligne passent par l'amplification du rôle des plateformes, à l'image de la solution envisagée dans la proposition de loi visant à lutter contre la haine sur internet. La Commission considère que la lutte contre la haine en ligne ne saurait justifier une délégation des pouvoirs régaliens au secteur privé dès lors que cela risquerait de porter atteinte à la liberté d'expression et à l'équilibre à préserver entre les droits en présence (46). De surcroît, la Commission observe que la modération mise en place par les grandes plateformes, qui se fait à l'échelle internationale, peine à s'adapter à la diversité linguistique des contenus litigieux, à leur contexte, aux cultures et particularismes locaux, ainsi qu'au droit national applicable. A ce titre, la politique de régulation des contenus fondée de manière trop importante sur la régulation par les plateformes a révélé ses faiblesses durant la crise sanitaire liée à la Covid-19 (47). En effet, les contenus haineux postés sur les réseaux sociaux ont augmenté durant le premier confinement, tandis que les capacités humaines des services de modération des plateformes diminuaient (48). Enfin, elle souligne que les obligations très lourdes imposées aux plateformes pour la modération, en particulier en termes de ressources humaines, risquent de renforcer la position dominante des très gros acteurs, seuls en capacité de les mettre en place, au détriment de nouvelles plateformes émergentes ou d'acteurs à but non lucratif, et par là d'entraver la liberté d'entreprendre.

  2. Pour autant, la CNCDH est consciente des limites que peut rencontrer l'institution judiciaire pour traiter de la haine en ligne, en particulier dans un contexte où les moyens budgétaires et humains de la justice sont extrêmement limités (cf. supra). Afin de permettre de renforcer, à l'échelle nationale, un contrôle indépendant sur les contenus relevant de la haine en ligne sans que ce contrôle repose uniquement sur le système judiciaire, la CNCDH recommande la création d'un organisme spécifique. Cet organisme pourrait être placé sous l'égide de l'Autorité de régulation audiovisuelle et numérique (ARCOM) (49), aux côtés de l'Observatoire de la haine en ligne.

  3. Cet organisme serait composé de deux pôles :

- un premier pôle opérationnel serait chargé de l'accompagnement des utilisateurs des services numériques. Il aurait pour mission, d'une part, de faire le lien entre les utilisateurs et les plateformes et, d'autre part, d'aider et d'orienter les victimes de discours haineux. Il serait essentiellement composé de juristes médiateurs salariés, dont le rôle serait de recueillir et d'examiner les plaintes en cas d'exposition à des discours de haine, éventuellement en s'appuyant sur des systèmes algorithmiques, et de les transmettre aux plateformes si les propos s'avèrent répréhensibles au regard du droit français. Au besoin, les cas litigieux seraient remontés au collège (tel que décrit ci-après) pour examen afin de construire progressivement une doctrine de l'institution qui puisse servir de référence. Les contenus particulièrement dangereux seraient également sauvegardés et transmis aux services compétents des forces de l'ordre ainsi qu'au procureur de la République. Ce pôle serait en outre compétent pour intervenir en cas de suppression abusive de contenus ou de comptes et pour assurer le rôle d'intermédiaire auprès des plateformes. Ces dispositions s'inscrivent dans la ligne des discussions menées au niveau européen, la proposition de législation sur les services numériques prévoyant la possibilité, pour l'Etat membre, d'instaurer un organe de règlement extrajudiciaire des litiges afin de résoudre les litiges liés aux décisions de modération des plateformes. Les plateformes seraient tenues par la décision prise par cet organe alors que l'utilisateur aurait toujours la possibilité de saisir la juridiction compétente (50). Cette nouvelle autorité serait également chargée de développer une application permettant d'améliorer l'orientation des victimes de haine en ligne ou de discours offensants, quand bien même ceux-ci ne seraient pas pénalement répréhensibles mais nécessiteraient d'apporter un soutien à la victime.

- un second pôle serait dédié à la recherche, avec une forte dimension opérationnelle, rassemblant chercheurs et spécialistes du numérique afin de faire avancer la connaissance des systèmes algorithmiques de modération de contenus, d'en développer de nouveaux, d'auditer ceux des principales plateformes et de faire le lien entre plateformes et chercheurs pour améliorer l'accès aux données des plateformes sous forme anonymisée (51). Par ailleurs, ce second pôle serait chargé d'animer divers groupes de travail auxquels seraient associés les usagers, en particulier les plus jeunes, afin de faire des recommandations adaptées aux usages et pratiques du numérique qui sont en constante évolution.

  1. Aux côtés de ces deux pôles, un collège indépendant serait chargé de trancher les cas litigieux et de rendre des avis sur toutes les questions relatives à la lutte contre la haine en ligne, en particulier concernant les modifications des conditions générales d'utilisation des plateformes afin de garantir les droits fondamentaux de leurs utilisateurs. Ce collège serait composé de personnalités qualifiées (magistrats, avocats, universitaires, chercheurs spécialisés) et de représentants d'institutions et d'ONG, tous reconnus pour leur expertise dans la lutte contre la haine en ligne - notamment la Commission nationale informatique et libertés (CNIL), le Défenseur des droits (DDD), la CNCDH et les directions ministérielles compétentes).

Recommandation n° 5 : la CNCDH recommande la création d'un organisme indépendant dédié à la lutte contre la haine en ligne, placé sous l'égide de l'ARCOM. Il serait notamment chargé de l'accompagnement de l'utilisateur des services numériques, et du développement de la recherche sur les systèmes algorithmiques de modération de contenus.

1.2.2. Promouvoir le partage de bonnes pratiques au niveau européen

  1. Le projet de règlement européen prévoit l'instauration de coordinateurs nationaux (52) à l'initiative des Etats membres, ainsi que celle d'un Comité européen des services numériques composé de différents coordinateurs nationaux (53). Ce Comité européen a pour mission de contribuer à l'application cohérente du projet de règlement au sein de l'Union européenne, de conseiller la Commission européenne et d'assister les coordinateurs nationaux dans la surveillance des très grandes plateformes en ligne (54). Si la CNCDH salue cette initiative, elle encourage l'échange de bonnes pratiques à l'échelle européenne ainsi que le partage de connaissances notamment en matière de compréhension algorithmique, d'analyse de données, etc., selon la méthode retenue précédemment au titre des missions confiées, au niveau national, à l'organisme public indépendant.

Recommandation n° 6 : La CNCDH recommande de promouvoir que, pour mener à bien ses missions, le Comité européen s'inspire de celles confiées au niveau national à l'organisme public indépendant, telles que définies précédemment.

  1. La création d'obligations positives à l'égard des plateformes

  2. Si l'Etat doit jouer un rôle central, il n'est pas, et ne doit pas être, le seul acteur de la lutte contre la haine en ligne. En effet, les plateformes, dont le modèle économique repose pour certaines sur la viralité, peuvent contribuer à l'ampleur de ce phénomène. Il est ainsi nécessaire de créer de nouvelles obligations positives à la charge des plateformes afin de leur confier un rôle clef dans la lutte contre la haine en ligne.

2.1. Les obligations de modération et de lutte contre la viralité des contenus haineux

2.1.1. Permettre un signalement qualitatif des contenus et modérer le contenu signalé

  1. En application de l'article 6 de la loi du 21 juin 2004 pour la confiance dans l'économie numérique, les plateformes ont l'obligation de mettre en place un dispositif de signalement facilement accessible et visible afin que toute personne puisse porter à leur connaissance des contenus illicites (55). Si la CNCDH se félicite d'une telle disposition, elle constate également que la multiplication des dispositifs existants peut complexifier le signalement par l'utilisateur (56), risque encore amplifié par le manque d'ergonomie de ces dispositifs (57). De plus, le processus de signalement ainsi que les critères utilisés afin de qualifier un contenu haineux ou illicite diffèrent selon les dispositifs mis en place par chaque plateforme. Cela a pour conséquence, d'une part, de rendre le signalement d'un contenu moins intuitif pour les utilisateurs et, d'autre part, de rendre plus difficile une évaluation globale des signalements de contenus haineux sur internet et de la réponse qui y est apportée. Aussi, la CNCDH recommande d'harmoniser les dispositifs de signalement internes aux plateformes. Cette harmonisation pourrait prendre la forme d'une interface, idéalement commune aux plateformes, à laquelle l'utilisateur accèderait par un renvoi. Cette interface serait dédiée à l'aide et l'accompagnement de l'utilisateur et permettrait de mettre en place un dispositif et des critères de signalement communs. Afin de ne pas mettre des obligations trop lourdes à la charge des plateformes dont le modèle ne repose pas sur la viralité des contenus, la CNCDH recommande que cette interface soit commune aux seules plateformes à but lucratif, dont l'activité sur le territoire français, qu'elles y soient ou non établies, dépasse un seuil de nombre de connexions fixé par décret, à l'instar de ce qui était prévu par la proposition de la législation sur les services numériques (58), et par le texte du projet de loi confortant les principes de la République et de lutte contre le séparatisme transmis à l'Assemblée nationale en nouvelle lecture le 14 mai 2020 (59). La CNCDH recommande aux pouvoirs publics d'engager une concertation pour identifier des mécanismes communs de signalement et, à terme, pour réfléchir à leur uniformisation.

  2. De plus, il serait nécessaire que les dispositifs de signalement internes aux plateformes opèrent un renvoi vers un dispositif public de signalement. Ainsi, la CNCDH avait déjà regretté, dans son avis sur la proposition de loi visant à lutter contre la haine sur internet, l'absence dans la proposition de loi d'une obligation pour les plateformes de proposer un renvoi vers les dispositifs publics de signalement tels que PHAROS (60). En effet, ce dispositif de renvoi répondrait à l'objectif de simplification et d'articulation des dispositifs de signalement existants. Il contribuerait également à améliorer la connaissance de PHAROS par le grand public. Bien que les chiffres des signalements effectués à PHAROS soient en constante augmentation depuis plusieurs années (61), la CNCDH s'inquiète en effet que les utilisateurs des plateformes, en particulier les utilisateurs mineurs, connaissent trop peu PHAROS et se limitent aux dispositifs de signalement internes aux plateformes. Un renvoi vers le signalement de PHAROS permettrait aux utilisateurs qui le souhaitent de porter un contenu illicite à la connaissance de l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) aux fins d'ouvrir une enquête si le contenu est susceptible de constituer une infraction pénale.

  3. Enfin, la CNCDH souscrit aux discussions menées aux niveaux européen et national visant à consacrer la place des signaleurs de confiance dans le signalement et à traiter, de manière prioritaire et dans les meilleurs délais, les notifications soumises par ces signaleurs de confiance, tout en rappelant que leur désignation et leur rôle doivent faire l'objet de la plus grande transparence (62). Elle salue également les dispositions consacrant une suspension du traitement des notifications en cas de signalements abusifs ainsi que les critères qui encadrent cette suspension(63). En complément de ces dispositifs, la CNCDH appelle à mettre en place des mesures graduées contre les signaleurs abusifs, telles que plusieurs avertissements préalables à la suspension du traitement des notifications et le déclassement de celles-ci.

Recommandation n° 7 : La CNCDH recommande de :

- harmoniser les dispositifs de signalement internes aux plateformes ainsi que les critères de signalement, notamment par la création d'une interface commune aux plateformes à but lucratif, dont l'activité sur le territoire français, qu'elles y soient ou non établies, dépasse un seuil de nombre de connexions fixé par décret ;

- mettre à la charge des plateformes l'obligation de renvoyer les utilisateurs vers les dispositifs publics de signalement, tel celui de PHAROS, dans un objectif de simplification et d'articulation des dispositifs de signalement existants ;

- traiter, de manière prioritaire et dans les meilleurs délais, les notifications soumises par les signaleurs de confiance, afin de consacrer leur place dans le processus de signalement ;

- informer sur la désignation et le rôle de ces signaleurs de confiance ;

- mettre en place des mesures graduées contre les signalements abusifs, telles que plusieurs avertissements préalables à la suspension du traitement des notifications, et le déclassement de ces notifications.

2.1.2. Encadrer le recours aux instruments de modération des contenus haineux

  1. Sous peine de voir leur responsabilité engagée, les plateformes ont l'obligation d'agir promptement afin de retirer les contenus manifestement illicites ou d'en rendre l'accès impossible, dès lors que ces contenus ont été portés à leur connaissance (64). Selon la dernière évaluation de la Commission européenne relative à la mise en œuvre du code de conduite contre les discours de haine illégaux en ligne, le taux de retrait des contenus à caractère haineux est en constante augmentation depuis la création de ce code, en 2016. Ainsi, en décembre 2019, 71 % des contenus signalés ont été retirés par les plateformes signataires du code, contre 28 % en 2016 (65). Les taux de retrait varient selon les législations, puisqu'en France le taux de retrait des contenus en décembre 2019 s'élevait à 87,8 %, contre 49,5 % en 2016. Ils varient également selon les plateformes (66).

  2. La CNCDH se félicite que les plateformes respectent leur obligation de modération des contenus en retirant les contenus signalés. Elle rappelle dans le même temps l'importance de la modération humaine afin d'assurer un retrait approprié des contenus. En effet, les systèmes algorithmiques sont confrontés à plusieurs difficultés dans la modération des contenus haineux, dont la prise en compte du contexte de la publication du contenu. L'efficacité des systèmes algorithmiques trouve ainsi ses limites lorsqu'il s'agit d'interpréter le contexte local et culturel dans lequel s'inscrit un discours, ou encore l'emploi de l'ironie, la réutilisation d'un terme dans un objectif militant, etc. Ces difficultés sont encore plus prégnantes lorsque les systèmes algorithmiques modèrent un contenu vidéo, sur la base de mots clés et d'une banque d'images alimentée au fur et à mesure de la détection des contenus haineux. Ces problèmes sont appréhendés au niveau européen. Ainsi, la proposition de législation sur les services numériques prévoit l'obligation, pour les fournisseurs de services intermédiaires, de renseigner dans leurs conditions générales d'utilisation, l'existence d'une politique de modération fondée sur des systèmes algorithmiques et le réexamen de la décision algorithmique par un modérateur humain (67). Si le texte entre en vigueur, les " très grandes plateformes " seront soumises à une obligation d'audit afin de contrôler, entre autres, le fonctionnement et les règles de leurs systèmes algorithmiques (68). Enfin, pour pallier les erreurs de modération, la proposition de législation sur les services numériques et le projet de loi confortant le respect des principes de la République et la lutte contre le séparatisme prévoient l'obligation pour les plateformes d'instituer un mécanisme de recours interne à l'égard d'une décision de modération, d'indiquer les voies de recours internes et judiciaire dont dispose l'utilisateur et d'en informer l'auteur du signalement et l'auteur du contenu, lorsque le contenu a été retiré ou rendu inaccessible (69). Ainsi, la CNCDH recommande que la prise de décision, dans le cadre de la modération des contenus, soit complétée lorsque nécessaire par des modérateurs humains, afin de remédier aux limites des algorithmes de modération et d'assurer un retrait des contenus tout en respectant la liberté d'expression.

  3. Il est également nécessaire que les modérateurs humains bénéficient d'une formation et d'un accompagnement adaptés. En effet, exposés à des contenus parfois très violents jusqu'à huit heures par jour, ils ne bénéficient pas toujours de la formation professionnelle et du soutien psychologique nécessaires. Leurs conditions de travail restent également opaques, les modérateurs étant tenus par une clause de confidentialité (70).

Recommandation n° 8 : La CNCDH recommande que :

- la prise de décision dans le cadre de la modération des contenus soit complétée, lorsque nécessaire, par l'intervention de modérateurs humains ;

- les modérateurs humains bénéficient d'une formation professionnelle ainsi que d'un accompagnement adapté à la nature et au contexte culturel et linguistique de leur mission. Elle recommande également de garantir à ces travailleurs des conditions de travail transparentes et satisfaisantes.

2.1.3. Lutter contre la propagation des contenus haineux en limitant leur viralité

  1. Le modèle économique de certains réseaux sociaux peut contribuer à la propagation massive des contenus haineux, dès lors que ceux-ci suscitent une forte audience et génèrent ainsi des revenus importants pour la plateforme. Afin de lutter efficacement contre la haine en ligne, il convient donc de prendre en compte et de limiter les mécanismes concourant à la viralité des discours de haine.

  2. De nombreuses initiatives ont été prises en ce sens. La Commission européenne a publié, en 2016, un code de conduite visant à combattre les discours de haine illégaux en ligne, dont la plupart des plateformes sont signataires : Facebook, Microsoft, Twitter, Instagram, Snapchat, Dailymotion et TikTok. Plus récemment, les discussions menées au niveau européen et national ont conduit à retenir une approche a priori visant à prévenir la diffusion massive des contenus haineux. Ainsi, la proposition de législation sur les services numériques et le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme imposent aux plus grandes plateformes plusieurs obligations liées aux risques systémiques causés par le fonctionnement et l'utilisation de leurs services, comme le fait d'évaluer ces risques (71) et de prendre des mesures " raisonnables, proportionnées et efficaces " afin de les atténuer (72).

  3. La CNCDH salue ces initiatives et appelle à poursuivre ces efforts. Dans son second avis sur le projet de loi confortant le respect des principes de la République, elle avait regretté que les mécanismes concourant à la propagation des contenus haineux, ainsi que les instruments qui viseraient à les réguler, ne soient pas suffisamment pris en compte, alors qu'ils jouent un rôle déterminant pour une lutte efficace contre la haine en ligne (73). La CNCDH encourage ainsi les plateformes à mettre en œuvre les moyens nécessaires afin de mieux détecter les comptes programmés pour amplifier la viralité de certains contenus haineux, ou tout autre mécanisme source de viralité artificielle (74). Elle recommande aussi de réfléchir à l'équilibre à trouver entre la liberté d'expression et le ralentissement voire le blocage de la diffusion de certains contenus viraux par les plateformes (75).

Recommandation n° 9 : la CNCDH recommande aux plateformes de mettre en place les moyens nécessaires afin de mieux détecter les moyens de viralité artificielle dès lors qu'ils visent à diffuser les contenus haineux et, le cas échant, de suspendre les comptes ayant recours à de tels mécanismes. Elle recommande également de réfléchir à l'équilibre à trouver entre la liberté d'expression et le ralentissement voire le blocage de la diffusion de certains contenus viraux par les plateformes.

2.2. Les obligations de transparence concernant la modération des contenus haineux

  1. La transparence est un enjeu fondamental afin de permettre la compréhension et l'acceptabilité des décisions de modération prises par les plateformes, ainsi que l'évaluation de leur justesse et de leur efficacité et, plus généralement, pour garantir les droits fondamentaux de l'utilisateur. Cette transparence doit être relative à la fois aux règles, aux politiques et aux outils de la modération. Récemment, les enjeux de la transparence concernant la modération ont été mis en lumière par la suppression des comptes Instagram et Twitter de la jeune Mila sans raison apparente et sûrement à la suite de signalements de masse, d'après la principale concernée ; une erreur, selon les plateformes, qui ont rétabli les comptes supprimés. Déplorant l'opacité de ces décisions et leur impact, certains membres de l'exécutif avaient alors appelé Twitter à plus de transparence concernant ses politiques de modération (76).

2.2.1. Favoriser la transparence des politiques et outils de modération

  1. La transparence effective des politiques et outils de modération suppose une information des utilisateurs concernant les règles de la modération, les moyens humains et financiers qui lui sont alloués, ainsi que les suites données aux signalements reçus par la plateforme. A ce titre, les textes en discussion aux niveaux européen et national prévoient que les plateformes, lorsqu'elles reçoivent le signalement d'un contenu par un utilisateur et qu'elles disposent des informations nécessaires pour le contacter, accusent réception de la notification et informent l'auteur du signalement des suites qui y sont données, ainsi que des voies de recours à l'encontre de la décision (77).

  2. De plus, la proposition de législation sur les services numériques et le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme instaurent une obligation de transparence quant aux politiques et outils de modération utilisés par les plateformes. Les plateformes doivent renseigner, dans leurs conditions générales d'utilisation, de façon facilement accessible et de manière claire et précise, les procédures et les outils algorithmiques et humains utilisés afin de modérer les contenus (78). Lorsque des outils automatisés ont été impliqués dans la prise de décision concernant la modération d'un contenu, elles doivent en informer l'auteur du signalement et, lorsque le contenu a été retiré ou rendu inaccessible, l'auteur du contenu (79).

  3. La CNCDH salue ces dispositions, dont l'objectif est d'améliorer l'information du public, et en particulier des utilisateurs, concernant les politiques et outils de modération. Elle veillera à ce qu'elles figurent effectivement dans la version finale des textes. Afin de parfaire cette information, il serait souhaitable que les plateformes aient l'obligation de renseigner les internautes sur les impacts d'un contenu haineux, et la manière dont ceux-ci sont propagés. Une telle mesure complèterait utilement le dispositif de prévention de la haine en ligne, et notamment le rapport de transparence publié par les très grandes plateformes, comportant l'évaluation et les mesures d'atténuation des risques liés au fonctionnement et à l'utilisation de leurs services (80). De plus, il serait souhaitable que les plateformes aient l'obligation d'expliciter les critères selon lesquels les outils automatisés ou humains interviennent dans le dispositif de modération.

  4. Enfin, si le contenu est retiré ou rendu inaccessible, la plateforme en informe l'auteur de la publication et indique les voies de recours internes et judiciaires dont il dispose (81). Les plateformes doivent également mentionner les mesures qu'elles prennent de leur propre initiative et qui affectent la disponibilité, la visibilité ainsi que l'accessibilité des contenus (82). A ce titre, la réflexion sur les actions qui peuvent être prises à l'encontre de certains contenus doit dépasser le retrait ou le blocage. En effet, l'efficacité même de la mesure de blocage peut être remise en cause. Celle-ci entraîne un risque de surblocage, dès lors que sur un même serveur sont hébergés des contenus licites et des contenus illicites. Les risques de contournement sont également importants, car la mesure de blocage ne permet pas de supprimer le contenu litigieux à la source. Des mesures graduées permettant la baisse de la visibilité d'un contenu pourraient être mises en place afin de répondre à ces enjeux.

  5. Au-delà, la CNCDH regrette que certaines plateformes ne mettent pas leurs pratiques de modération en conformité avec leur discours public à cet égard.

Recommandation n° 10 : la CNCDH recommande que les plateformes aient l'obligation de :

- renseigner, dans leurs conditions générales d'utilisation, de façon aisément accessible et de manière claire et précise, les impacts d'un contenu haineux et les mécanismes clé de propagation de ces contenus ;

- expliciter les critères selon lesquels les moyens humains et automatisés interviennent dans le dispositif de modération ;

- fournir aux usagers les informations relatives à toute intervention sur la visibilité d'un contenu, tant dans le but d'augmenter que de restreindre sa viralité ;

- mettre en place des mesures graduées permettant de diminuer la visibilité de certains contenus, afin que le dispositif de modération ne repose pas uniquement sur le retrait ou le blocage des contenus haineux.

Recommandation n° 11 : la CNCDH recommande que les plateformes soient sanctionnées au titre des pratiques commerciales trompeuses dès lors que leur communication publique n'est pas en conformité avec leurs pratiques de modération.

2.2.2. Créer un recours effectif en cas de modération d'un contenu

  1. Comme expliqué précédemment, si un contenu est retiré ou rendu inaccessible, la proposition de législation sur les services numériques et le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme prévoient que la plateforme informe l'auteur du contenu des recours internes et judiciaire qui permettent de contester la décision (83). Si la CNCDH se félicite de ces dispositions, elle s'inquiète toutefois de l'absence de débat contradictoire une fois ce contenu rendu inaccessible. Elle recommande que des dispositions soient prises afin de permettre à l'auteur d'un contenu signalé de fournir des arguments au débat, avant que ne soit prise une décision de modération.

  2. De la même manière, les textes permettent à l'utilisateur dont l'accès au service de signalement a été suspendu en raison de notifications abusives de former un recours à l'encontre de cette décision (84). Si les mesures de suspension ou de résiliation du service de notification des bénéficiaires sont encadrées et précédées d'un avertissement à l'utilisateur concerné (85), la CNCDH s'inquiète de ces dispositions qui peuvent porter atteinte aux droits des utilisateurs. Elle recommande que toute mesure de suspension ou de résiliation, totale ou partielle, de la fourniture du service de signalement à un bénéficiaire soit précédée d'au moins deux avertissements préalables et conditionnée à la possibilité, pour l'utilisateur concerné, de fournir des arguments au débat.

Recommandation n° 12 : la CNCDH recommande de prévoir la possibilité, pour l'auteur du contenu signalé, de s'exprimer avant que ne soit prise une décision de modération, afin de permettre un débat contradictoire.

2.3. Accéder aux données des outils de modération algorithmiques

  1. L'explicabilité et l'intelligibilité des systèmes algorithmiques sont des enjeux fondamentaux afin de permettre la compréhension ainsi que l'acceptabilité des décisions algorithmiques. Dans son avis sur la proposition de loi visant à lutter contre la haine sur internet, la CNCDH invitait déjà à prêter une attention toute particulière aux systèmes algorithmiques impliqués dans ces fonctions. Les opérateurs devraient être en mesure de fournir au régulateur leur mode de fonctionnement et d'en expliquer les " choix " a posteriori. Cette exigence d'explicabilité et d'intelligibilité impliquerait d'étendre également les pouvoirs du régulateur à la possibilité de procéder aux audits des systèmes algorithmiques utilisés par les plateformes en ligne et d'apprécier les moyens humains mis en œuvre par le régulateur pour contrôler le traitement réservé aux résultats issus des systèmes algorithmiques (86).

  2. La CNCDH se félicite des dispositions prises aux niveaux européen et national en ce sens. Ainsi, les textes en discussion prévoient que les plateformes donnent à l'autorité compétente - ici le Conseil supérieur de l'audiovisuel (CSA) l'accès aux informations nécessaires afin d'évaluer le respect de leurs obligations (87). Ces informations comprennent l'accès " au fonctionnement des outils automatisés auxquels ils ont recours pour répondre à ces obligations, aux paramètres utilisés par ces outils, aux méthodes et aux données utilisées pour l'évaluation et l'amélioration de leur performance ainsi qu'à toute autre information ou donnée lui permettant d'évaluer leur efficacité, dans le respect des dispositions relatives à la protection des données personnelles " (88). Les très grandes plateformes pourront également faire l'objet d'un audit, au minimum une fois par an, afin d'évaluer le respect de leurs obligations (89). Enfin, le CSA pourra " adresser des demandes proportionnées d'accès à toute donnée pertinente " et " mettre en œuvre des méthodes proportionnées de collecte automatisée de données publiquement accessibles, y compris lorsque l'accès à ces données nécessite la connexion à un compte (90) ". La CNCDH regrette cependant que ni le CSA ni l'ARCOM, telle qu'envisagée dans le cadre du projet de loi relatif à la communication audiovisuelle et à la souveraineté culturelle à l'ère numérique, n'aient pour l'heure les capacités de mener de tels audits, en termes de moyens matériels et de personnel qualifié. La CNCDH souligne l'importance de conférer à l'autorité compétente l'accès aux données et plus généralement aux systèmes algorithmiques.

  3. Outre la mise à disposition des données à une autorité chargée de contrôler le respect des obligations de la plateforme, il est également essentiel que ces données soient accessibles à des chercheurs indépendants. A ce titre, la proposition de législation sur les services numériques prévoit que, sur " demande motivée du coordinateur de l'Etat membre d'établissement pour les services numériques ou de la Commission ", les très grandes plateformes en ligne donnent accès aux données à des chercheurs indépendants. Cet accès ne peut être donné aux chercheurs qu'afin d'identifier et de comprendre les risques systémiques induits par le fonctionnement et l'utilisation des services des plateformes (91). Saluant cette disposition, la CNCDH regrette qu'elle ne soit pas reprise dans le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme et qu'elle n'englobe pas les systèmes algorithmiques.

Recommandation n° 13 : la CNCDH recommande de :

- octroyer au CSA, et à la future ARCOM, les moyens matériels et humains de mener les audits des plateformes afin de contrôler le respect de leurs obligations prévues par le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme.

- permettre au CSA et aux chercheurs indépendants d'accéder aux systèmes algorithmiques des très grandes plateformes.

- prévoir que l'accès des chercheurs aux systèmes algorithmiques des très grandes plateformes soit consacré par le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme.

2.4. Accéder aux contenus retirés

  1. L'article 19 bis du projet de loi confortant les principes de la République prévoit que les opérateurs de plateforme en ligne dont l'activité sur le territoire national dépasse un certain nombre de connexions conservent " temporairement les contenus qui leur ont été signalés comme contraires aux dispositions mentionnées au même I A et qu'ils ont retirés ou rendus inaccessibles, aux fins de les mettre à la disposition de l'autorité judiciaire pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales ". La CNCDH salue cette disposition pragmatique, en ce qu'elle permet de rendre plus effective la lutte contre la haine en ligne. Cependant, elle rappelle que les durées de conservation et les modalités de consultation devront être conformes à la législation européenne en vigueur, s'agissant notamment des données à caractère personnel.

  2. Protéger et responsabiliser l'utilisateur

  3. Au cours de ses travaux précédents, la CNCDH a déjà pu affirmer qu'une responsabilité collective était à l'œuvre à travers la circulation réticulaire des contenus postés sur internet (92). Elle estime ainsi qu'une lutte efficace contre la haine en ligne requiert la prise en compte de l'ensemble des acteurs de leur chaîne de propagation, ce qui impose de porter une attention particulière à l'utilisateur.

  4. En sa double qualité d'émetteur et de récepteur de contenus, l'utilisateur appelle à la fois une responsabilisation et une protection spécifiques. Un effort coordonné des plateformes et des pouvoirs publics paraît alors nécessaire pour penser ces mesures, d'abord en termes de protection de l'utilisateur, par une meilleure éducation au numérique, mais aussi par la prise en compte de certaines vulnérabilités et un accompagnement adéquat des victimes. Il convient ensuite de développer des outils de mise en capacité d'agir de l'utilisateur sur son environnement numérique, par l'ergonomie de l'information et le droit au paramétrage des contenus reçus et émis. Enfin, l'utilisateur doit disposer des moyens pour prendre conscience de son rôle dans la propagation des discours de haine en ligne et être responsabilisé en ce sens.

3.1. Renforcer la formation et la protection de l'utilisateur

  1. Une lutte plus efficace contre la haine en ligne nécessite d'abord une meilleure formation de l'ensemble des citoyens, tant à l'égard des limites de la liberté d'expression que du modèle économique des plateformes. Il s'agit notamment de rendre compréhensibles les comportements prohibés, les mécanismes de visibilité et de viralité des contenus ainsi que les réactions à tenir face à un discours de haine sur internet.

  2. Ces multiples enjeux appellent des efforts d'éducation au numérique dès le cadre scolaire, mais aussi au-delà, par des efforts de sensibilisation des pouvoirs publics et des plateformes. La CNCDH souligne en outre la nécessité de prendre en compte différentes formes de vulnérabilité, particulièrement en ce qui concerne les mineurs, et d'accompagner les victimes de haine en ligne. Elle souscrit donc pleinement à l'objectif prôné par la proposition de Digital Services Act, consistant à mettre en place des " règles uniformes pour un environnement en ligne sûr, prévisible et digne de confiance, où les droits fondamentaux consacrés par la Charte bénéficient d'une protection effective " (93).

3.1.1. Améliorer la formation au numérique

  1. Dans le cadre de la lutte contre la haine en ligne comme dans d'autres domaines, la CNCDH rappelle l'importance d'une formation adéquate à la citoyenneté numérique, non seulement à l'école mais aussi tout au long de la vie. La Commission réitère ainsi sa recommandation d'un plan d'action national sur l'éducation et la citoyenneté numériques incluant des mesures spécifiques au cadre scolaire, aux parents et plus largement à l'ensemble des publics concernés (94).

  2. Dans le milieu scolaire tout d'abord, la CNCDH salue l'introduction par la loi visant à lutter contre les contenus haineux sur internet d'obligations de formation des élèves et des enseignants aux enjeux numériques (95), formation qu'elle a préconisée dans ses travaux précédents (96). Elle s'interroge cependant sur l'effectivité de ces formations et sur leur adéquation à la réalité des outils numériques. Afin d'uniformiser le contenu et la qualité de ces enseignements au niveau national, la Commission recommande dès lors leur intégration au sein des programmes scolaires au titre de l'éducation civique, de préférence dans une optique pluridisciplinaire, en liaison notamment avec les enseignants chargés de l'informatique et ceux de sciences humaines et sociales. Elle préconise de privilégier, parmi les intervenants extérieurs, les personnes compétentes provenant du milieu associatif. Il convient en outre d'étudier ces enjeux lors de la formation du personnel enseignant - initiale et continue - et plus généralement des professionnels intervenant auprès de mineurs (97).

  3. Au-delà du seul contexte éducatif, la CNCDH souligne la nécessité d'une sensibilisation adéquate de l'ensemble de la population. Elle encourage à cet égard les initiatives consistant à mettre en place des ressources accessibles à tous les usagers, tant par les autorités publiques et le milieu associatif que par les plateformes, tel que préconisé dans ses précédents travaux (98). Un exemple récent est le " Kit pédagogique du citoyen numérique " élaboré conjointement par la CNIL, le CSA, le DDD et la HADOPI. Elle encourage en particulier le développement de formations aux bonnes pratiques numériques sur le temps professionnel ou du moins sur le lieu de travail, par exemple avec le soutien des syndicats ou des conseils sociaux et économiques des entreprises qui en disposent. Concernant le contenu de ces formations à la citoyenneté numérique, la CNCDH souligne la nécessité de former l'utilisateur à l'analyse critique des contenus de même qu'aux ressorts techniques et économiques des réseaux sociaux (99) et autres grandes plateformes, ce qui inclut à la fois leur modèle économique et les mécanismes de partage et de visibilité des contenus en ligne.

  4. S'agissant plus spécifiquement des contenus illicites et haineux sur internet, il est essentiel que les usagers appréhendent la nature des comportements prohibés et toute leur gravité. En raison de leur complexité, il convient d'expliquer de manière accessible les différentes infractions prévues au sein de la loi du 29 juillet 1881 et du code pénal. Il en va de même de la distinction entre anonymat et pseudonymat, en rappelant que la personne en cause reste identifiable notamment à des fins de poursuites pénales.

  5. Il importe donc de faire comprendre aux utilisateurs que des actes en ligne peuvent non seulement produire des conséquences bien réelles dans le monde physique, mais aussi engager leur responsabilité civile ou pénale (100). D'une part, l'utilisateur est responsable des contenus dont il est l'auteur. D'autre part, il peut également être responsable du relais d'un contenu illicite (par lien hypertexte (101), partage ou " retweet ", voire une réaction telle qu'un " j'aime "(102)) ou parfois de commentaires postés par des tiers sous l'une de ses publications (103). Si la CNCDH appelle à la prudence au regard de la liberté d'expression et de l'opportunité des poursuites à cet égard, elle relève qu'informer l'usager des risques qu'il encourt a des vertus pédagogiques et permet de le responsabiliser (104).

  6. Par ailleurs, la CNCDH insiste sur le fait que l'éducation et la sensibilisation au numérique doivent être adaptées au public visé. Elle encourage donc les autorités, associations et plateformes à s'adapter aux codes des différents publics, notamment des mineurs, dans le cadre de partenariats avec des professionnels ou des organismes expérimentés dans de telles interventions ciblées, par exemple en réalisant des vidéos en direct (des " lives "). Cela peut aussi prendre la forme de jeux interactifs, de quiz ou de mises en situation, et passe par une co-construction des supports avec les publics concernés. Il convient enfin de promouvoir la concertation avec des spécialistes du graphisme et, par exemple, des pédopsychiatres pour s'assurer d'une communication effective du message en cause (105).

Recommandation n° 14 : La CNCDH recommande l'adoption d'un plan d'action national sur la formation à la citoyenneté numériques, afin d'assurer l'effectivité de l'éducation à la citoyenneté numérique dans le cadre scolaire en l'intégrant au sein d'un programme uniformisé à l'échelle nationale ; en garantissant une formation adéquate du personnel enseignant aux usages des nouvelles technologies, notamment par l'intervention d'acteurs associatifs ; en promouvant la sensibilisation de tous les publics, par un effort coordonné des pouvoirs publics, du milieu associatif et des plateformes ; en prenant en compte l'expérience utilisateur dans l'élaboration et le déploiement de ces ressources pédagogiques.

3.1.2. Prendre en compte les vulnérabilités particulières

  1. Au-delà de la formation, la CNCDH relève que des mesures supplémentaires sont nécessaires pour protéger les publics vulnérables. Il s'agit essentiellement des mineurs, qui se saisissent de plus en plus des nouvelles technologies sans l'aide de leurs parents, mais aussi de certaines autres catégories du public telles que les personnes souffrant d'un handicap qui entrave leur accès au numérique, d'illettrisme ou rencontrant des difficultés avec la langue française.

  2. Afin de concilier l'autonomisation croissante des mineurs d'une part, et leur indéniable besoin de protection d'autre part (106), la CNCDH recommande aux plateformes de permettre un usage adapté à l'âge de l'utilisateur. Cela pourrait se traduire par des règles d'utilisation ciblées, la restriction de leur audience à leur cercle d'amis, la diminution des collectes de données personnelles et des publicités personnalisées, ou du moins l'élévation de ces éléments en paramètres par défaut (107). Certains réseaux sociaux disposant d'un service de messagerie instantanée pourraient aussi désactiver celle-ci pour les mineurs ou empêcher l'envoi de pièces jointes afin de limiter certaines pratiques.

  3. Se pose néanmoins le problème de la détection des comptes de mineurs qui ne se déclarent pas comme tels. Les paramètres protecteurs destinés aux mineurs n'atteignant pas leur cible, il paraît ainsi souhaitable de repenser le formalisme des créations de compte. Dans la mesure où de très nombreux mineurs contournent l'interdiction de principe de s'inscrire sur certaines plateformes, il pourrait être envisagé, selon l'objet du service, de réviser cette interdiction pour la remplacer justement par un régime spécifique aux plus jeunes. La Commission partage en outre le constat selon lequel il n'existe pas, en l'état des pratiques, de solution pleinement satisfaisante de vérification de l'âge de l'utilisateur (108) et préconise donc un système de vérification adapté aux risques posés par le service. Sans remettre en cause la possibilité de conserver l'anonymat ou le pseudonymat en ligne, elle rejoint les réflexions actuelles sur le rôle des tiers de confiance permettant de confirmer l'identité ou l'âge d'un utilisateur sans révéler d'informations identifiantes (109).

  4. Outre la conception de mesures spécifiques aux mineurs, la CNCDH souligne l'importance d'un accompagnement adéquat des parents (110). Souvent moins familiers que leurs enfants des nouvelles technologies, ils peuvent se trouver désemparés face aux usages des principales plateformes (111). La Commission préconise ainsi d'encourager le dialogue entre les jeunes utilisateurs et leurs parents et d'informer ceux-ci séparément, par exemple dans le cadre scolaire ou par le biais de campagnes de sensibilisation. En ce sens, la Commission recommande la conception d'outils et de guides à l'usage des parents par les plateformes, en collaboration avec les acteurs publics et associatifs, qui soient accessibles indépendamment de la création d'un compte utilisateur (112).

  5. L'objectif serait de promouvoir une approche active des parents face aux usages de leurs enfants. Si l'efficacité des outils de contrôle parental doit être rappelée, ils ne sauraient suppléer un accompagnement au quotidien. Il ressort ensuite de différents travaux menés sur les utilisateurs mineurs que ceux-ci ne considèrent pas toujours leurs parents comme une ressource en cas d'incident ni même comme une source d'information (113), ce pourquoi la CNCDH préconise de porter à la connaissance tant des parents que des enfants l'existence de tiers à l'écoute des mineurs, notamment les acteurs associatifs tels qu'e-Enfance. Il convient en outre d'encourager un dialogue régulier au sein de la famille et une implication des parents dans l'activité en ligne de leurs enfants, par exemple pour leur donner des règles élémentaires de sécurité, régler ensemble certains paramètres tels que la confidentialité du compte, mettre en place une gestion du temps d'écran, présenter les ressources d'accompagnement, etc.

  6. Enfin, face aux difficultés rencontrées par certains utilisateurs avec la langue française, il convient d'assurer d'une traduction en FALC (français Facile à Lire et à Comprendre) des dispositifs de formation et de signalement, et en particulier de ceux mis en place par l'Etat. De même, ces dispositifs doivent être accessibles aux personnes en situation de handicap en s'assurant qu'ils respectent les standards d'accessibilité numérique.

Recommandation n° 15 : La CNCDH recommande de :

- prévoir d'adapter la sécurité, les fonctionnalités et l'ergonomie du service aux fins de protection des utilisateurs mineurs ;

- prévoir d'accompagner les parents, par le biais de ressources adaptées et d'espaces de documentation dédiés au sein des plateformes, aux fins de promouvoir leur compréhension des activités en ligne de leurs enfants.

Recommandation n° 16 : La CNCDH recommande de garantir une traduction en FALC des dispositifs de formation et de signalement des utilisateurs, et leur respect des standards d'accessibilité numérique.

3.1.3. Accompagner les victimes

  1. Les victimes d'abus en ligne, particulièrement à caractère haineux, disposent actuellement d'un accompagnement très insuffisant. Face à la diversité des acteurs, et parfois à la faiblesse de leurs moyens, il est complexe pour l'utilisateur de savoir à qui s'adresser aussi bien pour rapporter des propos haineux aux forces de l'ordre et à la justice que pour obtenir un accompagnement psychologique, social ou juridique. Il convient ainsi de prévoir cet accompagnement sans distinguer, dans sa mise en œuvre, entre les victimes d'une infraction constituée et les personnes s'estimant victimes de propos qui, bien que choquants ou provocateurs, ne sont pas réprimés par le droit pénal. La qualification des contenus haineux peut en effet présenter une telle complexité que leur potentielle licéité ne devrait pas faire obstacle à ce que l'utilisateur soit redirigé vers des associations ou des ressources pertinentes.

  2. La CNCDH recommande tout d'abord de renforcer le soutien aux associations d'aide aux victimes, spécialisées ou non dans le numérique, et de développer des partenariats entre les acteurs associatifs et les principaux opérateurs de plateforme. Elle préconise ensuite d'augmenter la visibilité des outils pédagogiques et des associations spécialisées sur les plateformes, pour que l'usager confronté à des propos haineux puisse trouver directement un interlocuteur compétent. Cela pourrait se faire par la mise à disposition par les plateformes, à titre gratuit, d'espace publicitaire pour promouvoir des actions de prévention et de protection des victimes. De surcroît, la CNCDH considère que la prise en charge des victimes devrait incomber aux plateformes au titre de l'évaluation des effets négatifs causés par la propagation des discours de haine sur les très grandes plateformes (114).

  3. Consciente des limites des moyens d'action dont disposent les acteurs associatifs, la CNCDH propose en outre de développer une application dédiée à l'orientation des victimes, accessible directement depuis les plateformes sur tous les dispositifs intelligents (téléphone, tablette, ordinateur). Celle-ci aurait vocation à guider les personnes victimes ou témoins de contenus haineux ou blessants dans leurs démarches, étape par étape. Elle pourrait ainsi aider l'utilisateur à distinguer les contenus potentiellement illicites de ceux simplement choquants, l'assister lors de leur signalement puis le rediriger vers des acteurs pouvant lui apporter un soutien psychologique ou juridique adapté, en s'appuyant au besoin sur la géolocalisation. Le développement de cette application serait confié à l'organisme national indépendant de lutte contre la haine en ligne proposé précédemment (115).

Recommandation n° 17 : La CNCDH recommande de renforcer le soutien aux associations et leurs partenariats avec les plateformes pour augmenter leur visibilité et accompagner les utilisateurs victimes de propos haineux.

Recommandation n° 18 : La CNCDH recommande de développer une application permettant d'orienter et de soutenir les victimes de contenus haineux ou choquants.

3.2. Développer des outils de mise en capacité d'agir de l'utilisateur

  1. Dans la continuité de la formation à la citoyenneté numérique et de la protection de l'utilisateur, il convient de penser des mesures le mettant en capacité d'agir sur son environnement numérique. D'une part, il s'agit d'adapter l'ergonomie de l'information fournie. D'autre part, la CNCDH recommande la consécration d'un droit au paramétrage au profit de l'utilisateur.

3.2.1. Adapter l'information au parcours utilisateur

  1. Les recommandations précédentes relatives à l'information de l'utilisateur par les plateformes (116) doivent être prolongées pour en assurer l'effectivité. Si le contenu de l'information doit être clair et lisible, de nombreux travaux convergent sur la nécessité d'en adapter la forme et de penser son ergonomie pour améliorer l'expérience utilisateur et en garantir une meilleure compréhension (117). La CNCDH souscrit ainsi pleinement à l'affirmation de la CNIL, selon laquelle c'est " aussi dans l'expérience utilisateur que doivent être diffusées les informations qui permettront à l'utilisateur d'agir en conscience et de comprendre tout en se préservant des risques de surcharge informationnelle que pourrait provoquer la tentation de la politique de confidentialité exhaustive. Si celle-ci doit toujours être présente, comme point de référence, elle devra être accompagnée par le design " (118). La mobilisation de l'ergonomie et d'un graphisme approprié s'avère donc indispensable pour garantir la compréhension effective de l'information par l'utilisateur. Cette information doit en outre s'adapter au public visé, notamment lorsqu'il s'agit de mineurs (119).

Recommandation n° 19 : La CNCDH recommande d'assurer l'effectivité de l'information de l'utilisateur par la plateforme par le biais de l'ergonomie des interfaces.

3.2.2. Consacrer un droit au paramétrage au profit de l'utilisateur

  1. A cette information effective de l'utilisateur doit s'ajouter une capacité à paramétrer l'outil mis à sa disposition par la plateforme, afin de délimiter clairement ses choix sans ingérence de la part de l'opérateur. La CNCDH recommande ainsi de reconnaître à l'utilisateur un droit au paramétrage tant des contenus émis que des contenus reçus.

  2. En ce qui concerne la sphère d'émission de l'utilisateur d'une part, c'est-à-dire les contenus qu'il met en ligne, il est important de lui permettre de déterminer, pour chacune de ses publications, le public auquel il souhaite s'adresser. Cela inclut un paramétrage des utilisateurs tiers pouvant accéder au contenu et, de manière plus fine, interagir avec celui-ci. Pour une maîtrise plus complète des interactions suscitées par ses propos, l'usager doit aussi pouvoir aisément les désactiver, par exemple en clôturant l'espace réservé aux commentaires. Il est également souhaitable que la plateforme restreigne par défaut l'audience de la publication à ses seuls " amis " ou " abonnés ", particulièrement pour les mineurs.

  3. D'autre part, le choix par l'utilisateur des contenus dont il est récepteur soulève des enjeux plus complexes auxquels la CNCDH réitère son attachement, tels que l'autonomie de la personne et sa liberté de conscience, mais présente également des risques pour le pluralisme et la diversité des opinions. Le débat relatif aux " bulles de filtre " (120) et aux dangers qu'elles présentent pour la démocratie est ainsi devenu commun dans le cadre de l'information en ligne (121). Une approche prudente reste donc nécessaire dès lors qu'est abordée la liberté de réception de l'utilisateur. Pour autant, il semble infiniment plus opportun à la Commission de conférer à l'usager le pouvoir de construire son propre espace et de le paramétrer selon ses intérêts, plutôt que de laisser sa consommation de contenus être dictée par le seul intérêt économique de la plateforme et ses mécanismes de visibilité. Cela paraît d'autant plus pertinent que le concept même de réseau social renvoie à l'idée d'un espace taillé sur mesure par l'utilisateur (122).

  4. La CNCDH se prononce ainsi dans le sens d'un droit au paramétrage des contenus reçus, concrétisé par une sélection non seulement de ces contenus, mais aussi de leurs critères de présentation. En ce qui concerne le choix des contenus eux-mêmes, une option permettant de favoriser certains contenus intéressant l'utilisateur et de refuser d'être exposé à certains autres doit être consacrée. Si elle existe déjà sur de nombreuses plateformes, sa simplicité d'usage pourrait être améliorée afin de la rendre plus accessible. Dans la même optique, l'usager doit pouvoir choisir les personnes ou pages dont il souhaite recevoir les publications, lui permettant par exemple de resserrer son cercle d'interaction à ses seuls " amis " et pages suivies, ou au contraire de l'élargir en se voyant recommander des contenus extérieurs. Il s'agit donc de contrôler tant les émetteurs que la nature des contenus à favoriser ou à exclure.

  5. Plus largement, il convient de permettre à l'usager de décider selon quels critères l'information lui est présentée. La CNCDH souscrit donc pleinement à la possibilité pour l'utilisateur de choisir de recevoir des contenus " neutres ", c'est-à-dire non personnalisés ou issus d'un système algorithmique de recommandation. Celle-ci est déjà prônée par la proposition de DSA en ce qui concerne les très grandes plateformes usant de systèmes de recommandation (123). Dans sa continuité, il semble également opportun d'envisager une option lui permettant d'effectuer une recherche ponctuelle ou occasionnelle, sans que celle-ci soit prise en compte par les systèmes algorithmiques de recommandation ou ceux permettant une publicité ciblée. Cela supposerait la création d'une nouvelle option, en vertu de laquelle un utilisateur souhaitant effectuer une recherche hors de ses intérêts ou goûts habituels pourrait signaler à l'opérateur de plateforme ou au moteur de recherche qu'il ne souhaite pas que cette recherche soit ensuite mobilisée à des fins de profilage.

  6. Néanmoins, la CNCDH prend acte d'un paradoxe propre aux utilisateurs de services numériques, à savoir d'une part vouloir reprendre le contrôle et opérer un paramétrage de leurs espaces en ligne et d'autre part vouloir n'y consacrer qu'un temps très court. C'est pourquoi la Commission préconise au moins deux niveaux distincts de paramétrage, adaptés tant aux usagers souhaitant opérer un réglage poussé qu'à ceux préférant une solution rapide. Dans un premier temps, tout usager doit pouvoir sélectionner un contenu apparaissant dans son fil d'actualité ou dans ses recherches pour signaler qu'il ne souhaite plus être exposé à de tels contenus ou, s'agissant de ses propres publications, en choisir l'audience. Dans un second temps, il doit être en mesure d'accéder au sein de ses paramètres à un tableau de bord ergonomique, récapitulant ses choix et permettant d'effectuer des réglages plus généraux. Ce tableau de bord devrait être pensé comme un espace aisément accessible, permanent, permettant à l'utilisateur de s'y référer à n'importe quel moment et de réfléchir à la manière dont il souhaite s'informer, en gérant ses préférences.

  7. Pour prolonger ces considérations, la Commission estime que l'effort individuel de chaque plateforme quant à l'ergonomie de ses interfaces devrait se doubler d'une concertation collective pour éviter une disparité trop grande entre les plateformes sur ce point. De même que la proposition de loi visant à lutter contre les contenus haineux sur internet imposait, avant sa censure par le Conseil Constitutionnel, une harmonisation du système de notification des contenus illicites entre les plateformes (124), il convient d'inciter les opérateurs à uniformiser l'exercice du droit au paramétrage de l'utilisateur.

  8. Une fois cette faculté de paramétrage actionnée, un aspect tout aussi important est la transparence de la plateforme quant à sa mise en œuvre concrète. Cela rejoint la réflexion plus large sur la rétrogradation unilatérale et opaque de certains contenus par la plateforme, par exemple la baisse de visibilité des contenus dangereux, des informations trompeuses, etc. La CNCDH estime à cet égard qu'afin de favoriser la liberté de choix de l'utilisateur, il doit être mis en mesure de comprendre quels contenus lui sont dissimulés et pourquoi. Si cela ne doit pas nécessairement apparaître sur son fil d'actualité, bien que cela semble souhaitable si cette information est conciliable avec la fluidité de l'expérience utilisateur, il convient à tout le moins de l'intégrer au tableau de bord précité. Au sein de l'espace de réglages, une page devrait ainsi permettre de visualiser les filtrages apposés par l'usager et ceux déduits ou imposés indépendamment par la plateforme, et de les modifier.

  9. La CNCDH préconise ainsi une évolution du projet d'article 29 du DSA. Si celui-ci semble obliger les très grandes plateformes en ligne à introduire une option " neutre " au sein de leur système de recommandation, il leur laisse cependant toute latitude pour rendre disponibles ou non d'autres options. Or, il semble essentiel de garantir la mise en capacité d'agir de l'utilisateur par un droit effectif au paramétrage. Dans la continuité de cette recommandation, la Commission exprime son attachement aux réflexions actuelles relatives à l'interopérabilité des plateformes, particulièrement des réseaux sociaux, qui permettrait de renforcer ce droit et de repenser internet comme un espace diversifié, favorisant le choix réel de ses usagers (125).

Recommandation n° 20 : La CNCDH recommande de :

- consacrer au profit de l'utilisateur un droit au paramétrage effectif des contenus reçus et émis sur les très grandes plateformes, selon des modalités aisément accessibles et transparentes ;

- promouvoir l'interopérabilité des plateformes.

3.3. Responsabiliser l'utilisateur

  1. Dans le cadre de ses précédents travaux sur la haine en ligne, la CNCDH a appelé à une responsabilité individuelle et collective accrue de la part des utilisateurs des réseaux sociaux (126). Cette responsabilisation peut se manifester sous plusieurs formes ; elle s'inscrit dans la continuité directe des deux premières étapes de formation au numérique et de mise en capacité d'agir de l'utilisateur. Une fois formé quant aux limites de la liberté d'expression et aux modèles économiques des plateformes, dont certains promeuvent la viralité des contenus, l'individu peut prendre pleinement conscience de son rôle dans la propagation des discours de haine en ligne.

  2. Si les mécanismes de visibilité et de promotion des contenus choquants relèvent avant tout du choix des plateformes, l'utilisateur joue en effet un rôle non négligeable dans ces phénomènes. Il constitue le point de départ d'un propos lorsqu'il en est l'auteur, et peut contribuer à la viralité des contenus d'autrui en les relayant, que ce soit par le biais d'un lien hypertexte, d'une reproduction du contenu (par " partage " ou " retweet ") ou par une réaction (comme un " j'aime "). Il convient dès lors de favoriser sa réflexivité et son esprit critique et de l'inciter à devenir agent de la lutte contre les contenus haineux.

3.3.1. Promouvoir la réflexivité de l'utilisateur

  1. Face au rythme soutenu et à l'activité incessante de certaines plateformes, favorisant notamment la captation de l'attention (127) et la viralité des contenus, la CNCDH souligne la nécessité de promouvoir la réflexivité de l'utilisateur c'est-à-dire de l'inviter à ne pas se limiter à une réaction immédiate, mais de prendre le temps de mener une réflexion critique, afin qu'il ne contribue pas par négligence ou ignorance à la propagation de la haine en ligne (128).

  2. Eu égard aux contenus émis par l'utilisateur, cette démarche reposerait sur la nécessité de réfléchir avant de publier un propos ou de partager celui d'autrui. La CNCDH encourage ainsi les plateformes à adopter des pratiques non intrusives qui, tout en étant respectueuses de la liberté d'expression, permettent d'attirer l'attention de l'utilisateur sur le caractère potentiellement haineux de son contenu. Cela pourrait être mis en place sur le modèle des avertissements affichés par certaines plateformes en cas de partage d'articles de presse anciens ou mentionnant des sujets liés à la pandémie de Covid-19. Pour les opérateurs en mesure de développer des systèmes algorithmiques de reconnaissance de texte, il pourrait par exemple être envisagé d'avertir l'utilisateur lorsqu'il emploie un terme considéré comme offensant, ou s'il mentionne un événement historique particulièrement sensible. Un message d'alerte pourrait alors apparaître avant la publication ou le relais du contenu, sans en empêcher la mise en ligne si l'utilisateur choisit de l'ignorer. La CNCDH déplore à ce propos les pratiques inverses de certaines plateformes, consistant à modérer automatiquement toutes les publications contenant un terme potentiellement haineux, quand bien même celui-ci peut être mobilisé à des fins d'information du public ou réapproprié par les groupes concernés à des fins militantes.

  3. Un autre type de mesures, concernant cette fois la sphère de réception de l'utilisateur, peut consister à appeler sa vigilance sur le caractère potentiellement illicite des contenus publiés par autrui. La CNCDH souscrit pleinement à la recommandation formulée par le CSA en ce sens (129), afin de stimuler l'esprit critique de l'usager. Cela peut se traduire d'abord par la création d'une nouvelle signalétique, en incluant sous le contenu un symbole (par exemple un drapeau rouge) pour montrer qu'il a déjà fait l'objet d'un certain nombre de signalements. Ce symbole pourrait ainsi être inséré aux côtés des autres fonctionnalités habituellement mises en avant par les plateformes, dont les réactions et les commentaires.

  4. De manière plus marquée, certaines plateformes ont mis en œuvre de nouveaux procédés visant à voiler un contenu. Celui-ci devient alors inaccessible sans action positive de l'utilisateur, qui peut choisir de le voir malgré un message d'alerte. La limite reste néanmoins ténue entre les propos faisant l'objet de ce filtre et ceux considérés comme illicites, que la plateforme a l'obligation de retirer en droit français à l'issue d'une certaine procédure (130).

  5. Tout en exprimant des réserves sur le pouvoir d'appréciation laissé à des opérateurs privés en matière de liberté d'expression et de détermination des contenus choquants ou offensants, la CNCDH souscrit à ces initiatives en ce qu'elles favorisent la réflexivité de l'utilisateur et l'incitent à une approche critique du contenu.

Recommandation n° 21 : La CNCDH recommande de développer des solutions techniques permettant d'attirer l'attention de l'utilisateur sur le caractère potentiellement haineux de son contenu avant publication ou relais, dans le respect de la liberté d'expression, ainsi que des contenus reçus dès lors qu'ils ont fait l'objet de signalements.

3.3.2. Inciter l'utilisateur à lutter contre la haine en ligne

  1. La formation aux enjeux soulevés par la propagation des discours de haine en ligne et la réflexivité promue par les mesures précédentes devraient aboutir à une responsabilisation de l'utilisateur. Il devrait ainsi être en mesure de devenir agent de la lutte contre la haine en ligne, avant tout en s'abstenant de publier ou relayer des discours haineux. De manière moins évidente, il convient également de l'inviter à adopter un rôle proactif en signalant correctement des contenus tiers, et en modérant les interactions suscitées par ses propres publications.

  2. En premier lieu, la CNCDH observe que les signalements de contenus illicites manquent souvent d'efficacité, notamment en raison d'erreurs de qualification. Dans le prolongement des mesures de sensibilisation de l'utilisateur quant aux infractions relatives à la haine en ligne, la Commission encourage les plateformes à mettre à sa disposition un support pédagogique simple pour comprendre les comportements prohibés et la manière de les signaler. Il est fondamental à cet égard que deux niveaux d'information soient respectés : un résumé clair et concis permettant à l'utilisateur de comprendre les enjeux en quelques secondes, sans effort particulier, puis un support plus exhaustif avec des explications et exemples au sein des conditions générales d'utilisation. Ces deux formats doivent rester accessibles à tout moment, et non pas figurer seulement lors de l'inscription de l'usager, afin qu'il puisse s'y référer au besoin.

  3. Quand bien même les qualifications juridiques seraient comprises, il est à craindre que les sensibilités particulières et la subjectivité de l'usager ne le mènent à considérer comme illicite un contenu qui n'est pourtant que provocateur ou indésirable. Il convient ainsi d'opérer une distinction claire entre l'illicéité potentielle d'un contenu d'une part, et le seul fait que l'utilisateur ne souhaite pas être exposé à de tels propos ou en soit choqué d'autre part. C'est pourquoi le système de signalement devrait rendre disponible à la fois le signalement pour illicéité du contenu et le choix de ne plus voir de contenus similaires, qui relève davantage du droit au paramétrage précité. L'objectif est donc de s'assurer de la pertinence des signalements dès l'origine, en permettant une qualification plus exacte des contenus.

  4. En second lieu, il convient de responsabiliser l'utilisateur tant à l'égard des contenus qu'il publie que des interactions que cela engendre. A ce titre, la CNCDH recommande non seulement de mettre l'utilisateur en mesure de modérer les contenus publiés par des tiers sur son espace (compte, page, groupe, blog, etc.) mais aussi de l'inciter à le faire dès lors qu'il bénéficie d'une certaine audience ou qu'il s'agit d'espaces professionnels, en particulier ceux des médias. Pour que l'utilisateur soit en capacité de modérer son espace, la CNCDH préconise la création d'une option sur toutes les plateformes permettant de désactiver les commentaires sous chaque publication ou, s'ils restent activés, de les supprimer individuellement et de filtrer les commentaires en interdisant au préalable l'emploi de certains termes. Cela s'inscrit dans la continuité directe du droit au paramétrage qui devrait lui être conféré. Il conviendrait en outre d'établir un double système de notification en cas de signalement d'un contenu, de sorte que le détenteur de la page ou du compte soit alerté en même temps que le service de modération de la plateforme - sans pour autant obtenir l'identité du signaleur. Cela lui permettrait alors de procéder à sa propre modération voire d'exclure certains internautes adeptes de propos illicites de son cercle d'interactions.

  5. Il est également souhaitable d'inciter les utilisateurs, en particulier les plus visibles tels que les médias, figures politiques, célébrités et influenceurs, à opérer une telle modération. Les opérateurs de plateformes pourraient ainsi émettre un message de sensibilisation et un guide de modération à l'intention des internautes disposant d'une certaine audience. Ils pourraient en outre afficher à l'utilisateur une jauge du nombre de contenus modérés sur son espace par la plateforme, afin de l'encourager à prendre lui-même des mesures de modération appropriées.

  6. Tout en déplorant une faible lisibilité du droit en la matière, la CNCDH rappelle que le détenteur d'une page ou d'un compte sur une plateforme, ou d'un site internet, peut être responsable en tant que directeur de la publication (131) voire en qualité d'hébergeur des commentaires et interactions d'internautes tiers sur son espace. La Commission émet des réserves sur l'opportunité de telles actions à l'encontre des utilisateurs ordinaires, disposant d'un public modéré, pour lesquels elles pourraient représenter une charge démesurée et se révéler peu efficaces dans la lutte globale contre la haine en ligne. Elle recommande toutefois que les pouvoirs publics et associations se saisissent de cette possibilité dans certaines circonstances, lorsque le détenteur tire manifestement profit des débats ou commentaires haineux échangés sur son espace, et les laisse ainsi prospérer volontairement étant donné le bénéfice qu'il tire d'une audience conséquente.

Recommandation n° 22 : La CNCDH recommande d'inciter les plateformes à mettre à disposition de l'utilisateur un support pédagogique simple détaillant les principaux contenus illicites et le processus de signalement, puis à distinguer lors du signalement entre l'illicéité du contenu et le droit au paramétrage.

Recommandation n° 23 : La CNCDH recommande de permettre à l'utilisateur de désactiver, supprimer et filtrer les commentaires sous ses publications et d'être alerté lors du signalement d'un contenu sur son espace, afin de le mettre en mesure de le modérer.

Recommandation n° 24 : La CNCDH recommande d'encourager les actions des pouvoirs publics à l'encontre de détenteurs de pages, de comptes ou de sites internet en leur qualité d'hébergeur ou de directeur de la publication dans certaines circonstances, lorsque ceux-ci bénéficient d'une audience conséquente et tirent manifestement profit des commentaires haineux suscités par leurs contenus.

(1) Cette caractérisation entretient l'idée qu'internet représenterait un mode relationnel spécifique, que la nature des rapports sociaux serait différente au regard du monde sensible.

(2) Conseil constitutionnel, décision n° 2020-801 DC, 18 juin 2020.

(3) D'après le baromètre de Netino, 14 % des messages en ligne au mois de mars étaient des messages comportant des contenus haineux, contre 12% au mois de janvier et 11 % au mois de février.

(4) Rapport Mission FaceBook, p. 8 définissant un réseau social " comme un service en ligne permettant à ses utilisateurs de publier les contenus de leur choix et de les rendre ainsi accessibles à tout ou partie des autres utilisateurs de ce service ".

(5) Voir CNCDH, Avis sur la lutte contre les discours de haine sur internet et l'Avis relatif à la proposition de loi visant à lutter contre la haine sur internet ainsi que le rapport 2019 sur la lutte contre le racisme, l'antisémitisme et la xénophobie, disponibles en ligne sur le site de la CNCDH.

(6) Comme l'ont également rappelé́ certaines études et rapports. Voir not. : Conseil d'Etat, Etude annuelle " Le numérique et les droits fondamentaux ", Etude annuelle 2014, La Documentation française, 2014 ; " Renforcer la lutte contre le racisme et l'antisémitisme sur internet ", Rapport à Monsieur le Premier ministre, septembre 2018 ; " Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne ", Rapport remis au Secrétaire d'Etat en charge du numérique, mai 2019.

(7) Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet.

(8) Voir CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2019 -1). Certaines études et rapports ont également rappelé ces enjeux.

(9) Voir la décision n° 2020-801 DC du 18 juin 2020 du Conseil constitutionnel.

(10) Pour plus d'information, le projet de loi confortant le respect des principes de la République est disponible au lien suivant : http://www.senat.fr/dossier-legislatif/pjl20-369.html.

(11) Pour plus d'informations, voir le Code de conduite de l'Union européenne visant à combattre les discours de haine illégaux en ligne ainsi que les évaluations de la Commission européenne sur la conformité des plateformes signataires à ce code, disponible ici : https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en.

(12) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE.

(13) Voir les avis de la CNCDH du 4 février 2021 et du 25 mars 2021 sur le projet de loi confortant le respect des principes de la République (A -2021 - 1 et A - 2021 - 4), en ligne sur le site de la CNCDH.

(14) Forum sur la Gouvernance mondiale de l'Internet (FGI), Global Internet Forum to Counter Terrorism (GIFCT), Appel de Christchurch, etc.

(15) CNCDH, Avis sur la lutte contre les discours de haine sur internet du 12 février 2015, JORF n° 0158 du 10 juillet 2015 texte n° 125.

(16) Projet de loi confortant les principes de la République et de lutte contre le séparatisme, article 18.

(17) Loi n° 82-652 du 29 juillet 1982 sur la communication audiovisuelle, article 93-3 alinéa 5.

(18) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6, I, alinéa 5.

(19) Loi du 29 juillet 1982 modifiée par la loi du 21 juin 2004, article 93-3.

(20) Loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice.

(21) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2019 -1) du 9 juillet 2019, JORF n° 0161 du 13 juillet 2019 texte n° 107.

(22) Cour européenne des droits de l'homme, Handyside c. Royaume-Uni § 49 ; Cour européenne des droits de l'homme, Observer et Guardian c. Royaume-Uni, §59.

(23) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet du 9 juillet 2019.

(24) Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, article 10.

(25) Conseil constitutionnel, décision n° 2020-801 DC du 18 juin 2020.

(26) Décret n° 2020-1444 du 24 novembre 2020 pris pour l'application de l'article 15-3-3 du code de procédure pénale.

(27) Ministère de la justice, circulaire relative à la lutte contre la haine en ligne, 24 novembre 2020.

(28) Loi de 1881, article 24 alinéas 1, 2, 7, 8, article 29 alinéas 2 et 3, article 33 alinéas 2 et 3 ; Code pénal, articles 132-76 et 132-77.

(29) Ministère de la justice, circulaire relative à la lutte contre la haine en ligne, 24 novembre 2020.

(30) G. Thierry, " Le nouveau pôle spécialisé contre la haine en ligne, une structure très attendue ", 3 février 2021, Dalloz Actualité.

(31) Ainsi, l'article 20 du projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme prévoit la possibilité de recourir aux procédures accélérées pour les délits prévus aux articles 14, 24 bis et 33 de la loi du 29 juillet 1881, " sauf si ces délits résultent du contenu d'un message placé sous le contrôle d'un directeur de publication ".

(32) CNCDH, Second avis sur le projet de loi confortant le respect des principes de la République (A- 2021 - 4) du 25 mars 2021.

(33) Il existe une possibilité de recours au blocage judiciaire prévu aux articles 6 I 8 et 50 I de la LCEN, et aux référés de droit commun prévus aux articles 145, 808 et 908 du code de procédure civile. En parallèle, il est possible de recourir au blocage administratif.

(34) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6, I, 8.

(35) Aude Signourel, " Les armes de la lutte contre la haine en ligne : de la théorie à la pratique ", Dalloz IP/IT, 2020.

(36) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, articles 6, I, 7 et 6, II.

(37) Aude Signourel, " Les armes de la lutte contre la haine en ligne : de la théorie à la pratique ", Dalloz IP/IT, 2020.

(38) CNCDH, Second avis sur le projet de loi confortant le respect des principes de la République du 25 mars 2021.

(39) Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19.

(40) CNCDH, Second avis sur le projet de loi confortant les principes de la République (A - 2021 - 4) du 25 mars 2021.

(41) Conseil national du Numérique, 15 juillet 2014, Avis n° 2014-3 sur l'article 9 du projet de loi renforçant les dispositions relatives à la lutte contre le terrorisme ; Assemblée nationale, Commission des affaires économiques, rapport n° 1936 sur le développement de l'économie numérique française, C. Erhel, L. de la Rodière.

(42) Conseil national du Numérique, 15 juillet 2014, Avis n° 2014-3 sur l'article 9 du projet de loi renforçant les dispositions relatives à la lutte contre le terrorisme.

(43) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 10.

(44) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 11.

(45) Notification de la Commission européenne 2019/412/F du 22 novembre 2019 sur la loi visant à lutter contre les contenus haineux sur internet.

(46) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet du 9 juillet 2019.

(47) I. Boyer, " La haine en ligne à l'heure des nouvelles formes de la gouvernance ", Dalloz IP/IT 2020.

(48) F. Pottier, Le chemin escarpé de la lutte contre la cyberhaine, Dalloz IP/IT 2020.

(49) Projet de loi relatif à la régulation et à la protection de l'accès aux œuvres culturelles à l'ère numérique, article 150 organisant la fusion entre le Conseil supérieur de l'audiovisuel (CSA) et la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi) au sein de l'Autorité de régulation de la communication audiovisuelle et numérique (ARCOM).

(50) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 18.

(51) Voir infra (2.3).

(52) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Articles 38 et suivants.

(53) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 48.

(54) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 47.

(55) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6, I, 7.

(56) Dispositifs de signalement sur les plateformes de PHAROS, Point de Contact, e-Enfance, et des réseaux sociaux notamment.

(57) Rapport " Renforcer la lutte contre le racisme et l'antisémitisme sur internet " de Karim Amellal, Laetitia Avia et Gil Taieb, remis au Premier ministre le 20 septembre 2018.

(58) Voir notamment la section 4 de la proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques, dite proposition de législation sur les services numériques, qui met à la charge des " très grandes plateformes " un certain nombre d'obligations liées aux risques systémiques induits par l'utilisation de leurs services.

(59) Voir notamment l'article 19 bis du projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme transmis en nouvelle lecture à l'Assemblée nationale le 14 mai 2021, qui prévoyait certaines obligations mises à la charge des opérateurs de plateformes dont l'activité sur le territoire français dépasse un seuil de connexions déterminé par décret, à l'exception des prestataires des services d'encyclopédies en ligne à but non lucratif.

(60) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet du 9 juillet 2019.

(61) En 2020, selon les responsables de PHAROS auditionnés par la CNCDH, 290 000 signalements ont été recueillis par la plateforme. Ce nombre est en augmentation régulière depuis 2009, lorsque 52 219 signalements avaient été recueillis par PHAROS.

(62) Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, Article 19 bis ; Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 19, 2. : Un signaleur de confiance est une personne qui " dispose d'une expertise et de compétences particulières aux fins de la détection, de l'identification et de la notification des contenus illicites ", " représente des intérêts collectifs et est indépendante de toute plateforme en ligne " et qui " s'acquitte de ses tâches aux fins de la soumission des notifications en temps voulu, de manière diligente et objective ".

(63) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 20.

(64) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6.

(65) Voir la cinquième évaluation de la mise en œuvre du code de conduite contre les discours de haine illégaux en ligne, disponible ici : https://ec.europa.eu/info/sites/default/files/codeofconduct_2020_factsheet_12.pdf.

(66) Par exemple, en décembre 2019, Instagram retirait 42 % des contenus signalés et Twitter 35,9 %.

(67) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 12.

(68) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 28

(69) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Articles 14 et 15 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, Article 19 bis. Selon ces dispositions, les voies de recours s'exercent notamment par l'intermédiaire des mécanismes internes aux plateformes, de l'organe du règlement extrajudiciaire des litiges et du recours juridictionnel.

(70) Le Monde, 8 avril 2019 - Meurtres, pornographie, racisme… Dans la peau d'un modérateur de Facebook, disponible ici : https://www.lemonde.fr/pixels/article/2019/04/08/meurtres-pornographie-racisme-dans-la-peau-d-un-moderateur-de-facebook_5447563_4408996.html.

(71) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 26.

(72) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 27 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis B.

(73) CNCDH, Second avis sur le projet de loi confortant le respect des principes de la République (A - 2021 - 4) du 25 mars 2021.

(74) Tel que la création de multiples comptes par un unique utilisateur.

(75) Mécanismes utilisés notamment par Whatsapp lors du " transfert " d'un contenu dans plusieurs conversations.

(76) Le Figaro, 7 juin 2021, Le compte Instagram de Mila temporairement suspendu.

(77) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 14.

(78) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 12 ; Projet de loi confortant le respect des principes de la République, article 19 bis.

(79) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Articles 14 et 15. ; Projet de loi confortant le respect des principes de la République, article 19 bis ; V. également Trib. judiciaire Paris, 6 juillet 2021, n° RG20/53181 enjoignant à Twitter de communiquer sous deux mois diverses informations relatives à ses politiques et outils de modération.

(80) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 33 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19.

(81) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 15 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(82) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Articles 12 et 13 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(83) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 14 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(84) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 17 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(85) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 20 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(86) CNCDH, Avis sur la proposition de loi visant à lutter contre la haine sur internet (A - 2019 - 1) du 9 juillet 2019.

(87) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 31 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(88) Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(89) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 28.

(90) Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(91) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 31.

(92) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2019 - 1) du 9 juillet 2019, p. 8.

(93) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, art. 1.2.b. Traduction libre.

(94) CNCDH, Avis sur la lutte contre les discours de haine sur internet du 12 fév. 2015, p. 33 et s. ; CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2021 - 1) du 9 juillet 2019, p. 9.

(95) Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, art. 13 à 15, modifiant art. L. 312-9, L. 121-1 et L. 721-2 du code de l'éducation.

(96) CNCDH, Avis sur la lutte contre les discours de haine sur internet du 12 février 2015, p. 33.

(97) En ce sens, v. CNCDH, Second avis sur le projet de loi confortant les principes de la République (A - 2021 - 4) du 25 mars 2021, p. 16, pt. 60.

(98) CNCDH, Avis sur la lutte contre les discours de haine sur internet du12 février 2015, p. 34 : " la réalisation d'outils pédagogiques destinés à tous les publics concernés (usagers, parents, enfants, enseignants, etc.) ".

(99) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet du 9 juillet 2019, p. 8.

(100) Voir l'affaire Mila, Trib. Corr. Paris, 7 juillet 2021.

(101) Pour la condamnation du relais par lien hypertexte d'une vidéo proférant des menaces contre une personne dépositaire de l'autorité publique, v. not. Cass. crim., 10 avr. 2019, n° 17-81.302.

(102) Voir not. Trib. corr. Meaux, 21 août 2017 (décision non publique) retenant que l'infraction d'apologie du terrorisme est constituée par l'apposition d'un " " j'aime " " sous un contenu terroriste graphique. Pour une appréciation plus nuancée au regard du droit turque, v. CEDH, n° 35786/19, 15 juin 2021, Melike c/ Turquie, pt. 51.

(103) Voir Cass., crim., 17 mars 2015, qualifiant implicitement le détenteur d'une page Facebook de directeur de la publication ; v. aussi plus explicitement TGI Pau, ch. corr., 12 nov. 2018.

(104) Voir CNCDH, Avis sur la protection de la vie privée à l'ère numérique, 22 mai 2018, p. 37 et s. : " la personne, si jeune soit-elle, doit comprendre le plus tôt possible que l'information qu'elle communique sur l'internet fait partie intégrante d'elle-même, et que communiquer de cette manière implique d'être responsable de cette action ".

(105) Voir notamment CNIL, " Les droits des mineurs et le design de la privacy ", conférence du 11 mai 2021, accessible sur le site In-FINE Education.

(106) Sur ce point, voir CNIL, " La CNIL publie 8 recommandations pour renforcer la protection des mineurs en ligne ", 9 juin 2021.

(107) En ce sens, voir CNIL, " Recommandation 8 : prévoir des garanties spécifiques pour protéger l'intérêt de l'enfant ", 9 juin 2021.

(108) CNIL, " Recommandation 7 : vérifier l'âge de l'enfant et l'accord des parents dans le respect de sa vie privée ", 9 juin 2021.

(109) Ibid.

(110) Ou tout autre représentant légal ou adulte chargé de l'accompagnement du mineur.

(111) Voir CNIL, " Recommandation 3 : accompagner les parents dans l'éducation au numérique ", 9 juin 2021.

(112) Voir notamment TikTok et e-Enfance, Guide TikTok à l'usage des parents, fév. 2020.

(113) CNIL, " Les droits des mineurs et le design de la privacy ", conférence du 11 mai 2021, accessible sur le site In-FINE Education.

(114) A laquelle les très grandes plateformes devront procéder en vertu de l'obligation d'analyse des risques systémiques prônée tant par la proposition de Digital Services Act du 15 déc. 2020, art. 26, que par le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme du 13 avr. 2021, art. 19 bis, II, 1°.

(115) Voir supra.

(116) Voir supra concernant les règles d'utilisation, de signalement, de modération des contenus, etc.

(117) Voir notamment CNIL, La forme des choix, Cahiers IP n° 06, 20 mars 2019 ; CNIL, " Recommandation 6 : Renforcer l'information et les droits des mineurs par le design ", 9 juin 2021.

(118) CNIL, La forme des choix, Cahiers IP n° 06, 20 mars 2019, p. 31. La notion de " politique de confidentialité " doit laisser place, dans le champ de la haine en ligne, aux " standards de la communauté " ou aux conditions générales d'utilisation.

(119) En ce sens, voir CNIL, Les droits des mineurs et le design de la privacy, conférence du 11 mai 2021, accessible sur le site In-FINE Education ; CNIL, " Recommandation 6 : Renforcer l'information et les droits des mineurs par le design ", 9 juin 2021.

(120) Le concept de bulle de filtre renvoie " aux algorithmes qui, en sélectionnant l'information disponible, agissent comme un filtre " (F. Tarissan, Au cœur des réseaux. Des sciences aux citoyens, Le Pommier 2020, p. 115).

(121) Voir notamment E. Pariser, The Filter Bubble : What the Internet Is Hiding from You, New York, Penguin Press, 2011.

(122) D. Cardon, Culture numérique. Presses de Sciences Po, Hors collection , 2019, 432 pages. ISBN : 9782724623659. DOI : 10.3917/scpo.cardo.2019.01.

(123) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, art. 29.

(124) Proposition de loi n° 419, adoptée par l'Assemblée nationale, dans les conditions prévues à l'article 45, alinéa 4, de la Constitution, visant à lutter contre les contenus haineux sur internet, 13 mai 2020, art. 4, 2°.

(125) V. not. V. Faure-Muntian et D. Fasquelle, Rapport sur les plateformes numériques, Assemblée nationale, n° 3127, 2020, p. 77&s.

(126) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2019 - 1) du 9 juillet 2019, p. 13.

(127) D. Boullier, Comment sortir de l'emprise des réseaux sociaux, Le Passeur, 2020.

(128) Pour une distinction entre les utilisateurs de mauvaise foi participant volontairement à la propagation de contenus néfastes d'une part, et les usagers de bonne foi y contribuant par négligence ou ignorance d'autre part, v. CNPEN, Enjeux d'éthique dans la lutte contre la désinformation et la mésinformation, Bulletin de veille n° 2, 21 juill. 2020, p. 14 et s.

(129) CSA, Recommandation n° 2019-03 du 15 mai 2019 aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations, point 5.b : " appeler la vigilance des utilisateurs sur les contenus qui ont fait l'objet de signalements ".

(130) Voir supra.

(131) Voir Cass., crim., 17 mars 2015 et TGI Pau, ch. corr., 12 nov. 2018 précités.


Historique des versions

Version 1

Assemblée plénière du 8 juillet 2021 - Résultat du vote : adoption à l'unanimité

Résumé

Dans cet avis, la Commission nationale consultative des droits de l'homme (CNCDH) rappelle son attachement au respect d'un équilibre entre la liberté d'expression et l'objectif légitime de la lutte contre la haine en ligne. Afin d'appréhender au mieux la diversité des approches préventives et répressives, la CNCDH envisage le phénomène dans sa globalité et en livre une analyse transversale.

Après avoir identifié les principaux enjeux de la lutte contre la haine en ligne la CNCDH formule 24 recommandations afin de renforcer la lutte contre la haine en ligne. Elle invite ainsi au renforcement du rôle de l'Etat, à la création de nouvelles obligations à l'égard des plateformes, et à la prévention notamment par l'accompagnement et la responsabilisation des utilisateurs, dès leur plus jeune âge.

Résumé

Introduction

1. Le renforcement du rôle de l'Etat dans la lutte contre la haine en ligne

1.1. La place de l'autorité judiciaire dans la lutte contre la haine en ligne

1.1.1. Un arsenal juridique complet mais complexe

1.1.2. Le rôle indispensable du juge

1.1.3. Des difficultés procédurales distinctes à résoudre

1.1.4. Une aide à l'identification des auteurs d'infractions pénales

1.2. Créer un organisme public indépendant dédié à la lutte contre les contenus haineux en ligne

1.2.1. Renationaliser la lutte contre la haine en ligne

1.2.2. Promouvoir le partage de bonnes pratiques au niveau européen

2. La création d'obligations positives à l'égard des plateformes

2.1. Les obligations de modération et de lutte contre la viralité des contenus haineux

2.1.1. Permettre un signalement qualitatif des contenus et modérer le contenu signalé

2.1.2. Encadrer le recours aux instruments de modération des contenus haineux

2.1.3. Lutter contre la propagation des contenus haineux en limitant leur viralité

2.2. Les obligations de transparence concernant la modération des contenus haineux

2.2.1. Favoriser la transparence des politiques et outils de modération

2.2.2. Créer un recours effectif en cas de modération d'un contenu

2.3. Accéder aux données des outils de modération algorithmiques

2.4. Accéder aux contenus retirés

3. Protéger et responsabiliser l'utilisateur

3.1. Renforcer la formation et la protection de l'utilisateur

3.1.1. Améliorer la formation au numérique

3.1.2. Prendre en compte les vulnérabilités particulières

3.1.3. Accompagner les victimes

3.2. Développer des outils de mise en capacité d'agir de l'utilisateur

3.2.1. Adapter l'information au parcours utilisateur

3.2.2. Consacrer un droit au paramétrage au profit de l'utilisateur

3.3. Responsabiliser l'utilisateur

3.3.1. Promouvoir la réflexivité de l'utilisateur

3.3.2. Inciter l'utilisateur à lutter contre la haine en ligne

Personnes auditionnées

Introduction

1. internet est un formidable espace, souvent qualifié à tort de virtuel (1), au sein duquel chacun exerce ses droits et libertés. La capacité offerte aux internautes de s'exprimer aisément et librement, parfois sous pseudonyme, l'ubiquité d'internet ou encore l'échelle à laquelle certains contenus peuvent être diffusés, représentent autant d'occasions d'exercer sa liberté d'expression et de communication (2), ferment de la démocratie. Régi par une diversité d'acteurs ainsi que par des règles de gouvernance et de fonctionnement dont les internautes ne sont pas toujours conscients, il peut dans le même temps être source d'abus dans l'exercice de ces droits et libertés. En témoignent la multiplication des contenus haineux dans le contexte de la crise sanitaire de la Covid-19, notamment durant le mois de mars 2020 (3) et, surtout, l'assassinat du professeur Samuel Paty en novembre 2020 et l'affaire Mila, particulièrement emblématiques de la diffusion virale et de la virulence des discours de haine en ligne. De tels événements illustrent les menaces que fait peser le discours haineux sur la liberté d'expression, de communication, le respect de la dignité humaine et le droit à la vie. Ces considérations sont particulièrement valables concernant les réseaux sociaux qui permettent à tout un chacun de s'exprimer, de rendre publiques et de diffuser ses opinions ou les contenus de son choix et d'accéder à de nouvelles sources d'informations (4). Certains d'entre eux constituent des espaces monétisés dont le modèle économique (ou modèle d'affaire) repose sur la viralité des contenus publiés par leurs utilisateurs et dont l'audience génère d'importants revenus, en particulier s'agissant des contenus choquants qui captent l'attention des internautes en ce qu'ils suscitent une forte émotion.

2. Forte d'une doctrine forgée dans l'exercice de son mandat de rapporteur national sur la lutte contre le racisme et dans le cadre de ses précédents avis (5), la Commission nationale consultative des droits de l'homme (CNCDH) souscrit pleinement à l'objectif de lutte contre la haine en ligne et rappelle avec vigueur son attachement au respect de l'équilibre entre cet objectif et la liberté d'expression, conforme au régime libéral tel qu'il est consacré en France depuis 1789 en matière de presse et de publication (6). Ainsi, la CNCDH s'est auto-saisie des différentes initiatives nationales et européennes en cours de discussion.

3. Au plan national, une proposition de loi visant à lutter contre les contenus haineux sur internet a été déposée à l'Assemblée nationale en 2019 (7). A cet égard, la CNCDH s'est prononcée à l'encontre de certaines des dispositions de ce texte, craignant qu'elles ne remettent en cause l'équilibre entre la lutte contre la haine en ligne et la liberté d'expression (8). Sensible à cette analyse, le Conseil constitutionnel a largement censuré son dispositif (9). En subsistent des dispositions préventives et éducatives, que la CNCDH salue. Parmi celles-ci, la création de l'Observatoire de la haine en ligne placé sous l'égide du Conseil supérieur de l'audiovisuel (CSA) ayant pour objet " le suivi et l'analyse de l'évolution des contenus " haineux, et dont l'un des groupes de travail porte sur la définition du contenu haineux. Le projet de loi confortant le respect des principes de la République, déposé à l'Assemblée nationale le 9 décembre 2020, comporte de nouvelles dispositions visant à " lutter contre la haine en ligne et les contenus illicites " afin, notamment, de réguler l'activité des plateformes en ligne (10). Il entend ainsi s'inscrire dans le cadre de la réflexion européenne. Alors que, dès 2016, la Commission européenne a promu l'adoption d'un code de conduite visant à combattre les discours de haine illégaux en ligne dont la plupart des grandes plateformes sont signataires (11), elle préconise désormais l'adoption d'un dispositif transversal de régulation des contenus avec la proposition de règlement relatif à un marché intérieur des services numériques, publiée le 15 décembre 2020 (12) (DSA). La CNCDH se félicite de la réflexion menée à l'échelle européenne sur la régulation des services numériques permettant de préserver les droits et libertés fondamentaux des utilisateurs de ces services. Elle s'est toutefois prononcée à l'encontre de certaines dispositions du projet de loi confortant le respect des principes de la République, notamment celles remettant en cause les garanties spécifiques prévues par la loi de 1881 s'agissant de l'exercice de la liberté d'expression (13).

4. La CNCDH relève que plusieurs difficultés se posent à ce jour dans l'appréhension de la propagation en ligne de ces discours haineux. La principale repose sur l'absence d'une définition unanime de la haine en ligne, qui s'explique non seulement par des divergences culturelles et contextuelles, mais également par les variations de ressenti que peut susciter un contenu chez un internaute, complexifiant son appréciation objective. Ces difficultés se matérialisent notamment dans les différentes approches retenues par les plateformes afin de définir les contenus haineux, rendant dès lors difficile la mesure exacte du volume des discours de haine en ligne. La CNCDH regrette en outre qu'en l'état actuel des textes, la pluralité des modèles économiques des plateformes, les mécanismes concourant à la propagation des contenus haineux et les instruments visant à les réguler, ne soient pas suffisamment pris en compte, alors qu'ils jouent indéniablement un rôle déterminant dans la prévention et la lutte contre la haine en ligne.

5. Afin d'appréhender la globalité du phénomène ainsi que la diversité des approches tant au niveau national qu'international, la CNCDH préconise, dans ce nouvel avis, d'en livrer une analyse transversale. L'objectif poursuivi est de contribuer au débat public par l'identification des principaux enjeux de la lutte contre la haine en ligne et la formulation de recommandations. Dans un premier temps, la CNCDH recommande de renforcer le rôle de l'Etat face à ces enjeux (I). De surcroît, cette responsabilité étatique doit s'articuler avec celle des plateformes qui se voient imputer de nouvelles obligations (II). Enfin, la Commission rappelle la nécessité de respecter et de protéger les droits fondamentaux des utilisateurs. En ce sens, elle appelle à renforcer la prévention de la haine en ligne, notamment par l'accompagnement et la responsabilisation des utilisateurs des plateformes, dès leur plus jeune âge (III).

1. Le renforcement du rôle de l'Etat dans la lutte contre la haine en ligne

6. Ces dernières années ont été marquées par l'émergence d'initiatives, tant au niveau international que national, afin de lutter contre la diffusion de contenus illicites en ligne (14). Prenant diverses formes, elles visent à réunir un grand nombre d'acteurs représentant le secteur public, le secteur privé du numérique ainsi que la société civile. Tout en saluant le fait que ces nouvelles structures permettent de bénéficier d'un plus grand savoir-faire technique, la CNCDH s'inquiète de leur prolifération non homogène et de leur manque de coordination en même temps qu'elle s'interroge sur la pertinence de leurs modalités de fonctionnement et des mécanismes qu'elles seront amenées à promouvoir. Il pourrait en résulter une complexification des instruments de lutte contre la haine en ligne.

7. En parallèle de ces initiatives, la CNCDH appelle une nouvelle fois à renforcer le rôle essentiel et régalien de l'Etat dans la garantie des droits et libertés fondamentaux en ligne (15). Outre une meilleure régulation des contenus publiés en ligne, un plus grand investissement des autorités publiques permettrait de réduire l'asymétrie de pouvoirs entre les utilisateurs et les prestataires de l'internet, ces derniers étant souvent des acteurs économiques internationaux extrêmement puissants. Ce renforcement du rôle de l'Etat dans la lutte contre la haine en ligne passe par une réaffirmation du rôle de l'autorité judiciaire ainsi que par l'établissement d'une institution propre ayant une vaste compétence pour lutter contre la haine en ligne.

1.1. La place de l'autorité judiciaire dans la lutte contre la haine en ligne

1.1.1. Un arsenal juridique complet mais complexe

8. La CNCDH souscrit à l'idée que les mêmes règles juridiques doivent gouverner le monde physique et le monde du numérique, et que la loi de 1881 sur la liberté de la presse doit encadrer les contenus sur les plateformes numériques. Il ne doit pas exister de justice " à deux vitesses " concernant la liberté d'expression. La CNCDH considère que l'arsenal législatif existant afin de lutter contre la haine en ligne est suffisamment complet, bien que complexe.

9. En droit positif, la haine en ligne se matérialise par des infractions du droit pénal commun telles que l'apologie du terrorisme ou encore la menace de mort, mais aussi des infractions relevant du droit de la presse prévues par la loi de 1881 telles que la provocation à commettre certains crimes et délits. Lorsqu'ils sont publics, les contenus haineux en ligne peuvent être constitutifs de diffamations raciales, d'injures raciales ou d'incitations à la discrimination, à la haine ou à la violence publique, qui sont des délits punis notamment d'emprisonnement. Lorsque ces contenus sont privés, ils constituent des contraventions. Ce cadre juridique est néanmoins en cours d'évolution. En effet, quelques initiatives tentent d'extraire certains comportements prohibés du champ spécifique de la loi de 1881. Parmi ces initiatives, le projet de loi confortant les principes de la République et de lutte contre le séparatisme prévoit d'ajouter un nouveau délit concernant la haine en ligne au droit pénal commun (16).

10. S'agissant des moyens procéduraux permettant de lutter contre la haine en ligne, il existe déjà des outils juridiques efficaces. D'une part, il existe des outils alternatifs ou préalables à une action judiciaire tels que le droit de réponse ou les notifications de contenu illicite au directeur de la publication (17) ou à l'hébergeur (18). D'autre part, il est possible d'intenter une action judiciaire tant pénale que civile à l'égard des responsables des propos tels que déterminés par la loi.

11. Eu égard à la responsabilité, la lutte contre les discours haineux est encadrée par les lois du 29 juillet 1881 sur la liberté de la presse, du 29 juillet 1982 sur la communication audiovisuelle, du 21 juin 2004 pour la confiance dans l'économie numérique - dite " loi LCEN " - et du 27 janvier 2017 sur l'égalité et la citoyenneté. La commission de ces infractions est susceptible d'engager la responsabilité des auteurs de discours haineux, mais également ceux concourant à la diffusion de ces contenus. Ainsi, la responsabilité pénale des éditeurs peut être engagée en cas de diffusion d'un contenu illicite par un mécanisme de responsabilité en cascade (19). La responsabilité des prestataires techniques est prévue, depuis 2004, lorsque des personnes utilisent leurs services pour diffuser en ligne des contenus litigieux. La loi n'exige pas d'eux qu'ils surveillent ou recherchent ces contenus, mais ils sont obligés de concourir à la lutte contre la diffusion d'infractions listées à l'article 6 I 7 de la LCEN. A ce titre, ils sont tenus de mettre en place un dispositif de signalement visible et aisément accessible afin que tout utilisateur puisse porter ces faits à leur connaissance. Ils sont également tenus de transmettre l'information aux autorités compétentes si celle-ci leur est signalée. Ils doivent conserver les données permettant d'identifier les personnes ayant contribué à la création d'un contenu haineux et doivent les communiquer à l'autorité judiciaire, si elle en fait la demande. L'autorité judiciaire peut, en référé ou sur requête, interdire aux hébergeurs le stockage ou l'accès à l'un de ces contenus. Enfin, la LCEN prévoit l'obligation de rendre inaccessibles les contenus illicites. La responsabilité pénale ou civile de l'hébergeur peut être engagée dans le cas où il aurait connaissance d'un contenu illicite et qu'il n'agit pas promptement pour le retirer.

12. La circulaire du 4 avril 2019, relative à la lutte contre les discriminations, les propos et les comportements haineux, présente les modalités de la conduite de l'action publique intégrant les nouveaux outils de lutte contre toutes les formes de haine et de discrimination créés par la loi du 23 mars 2019 (20). Elle précise de nombreux points afin de mieux lutter contre la haine en ligne et incite notamment à agir auprès des fournisseurs d'accès à l'internet plutôt qu'auprès des hébergeurs.

1.1.2. Le rôle indispensable du juge

13. L'arsenal législatif existant vise ainsi à préserver l'équilibre entre la faculté donnée à chacun de s'exprimer librement et la protection de la dignité et des droits d'autrui. A ce titre, la CNCDH rappelle régulièrement que la liberté d'expression est un des fondements essentiels d'une société démocratique (21). Elle est garantie respectivement par l'article 11 de la Déclaration des droits de l'homme et du citoyen (DDHC), par l'article 19 de la Déclaration universelle des droits de l'homme (DUDH), par l'article 10 de la Convention européenne des droits de l'homme (CEDH) ainsi que par l'article 11 de la Charte des droits fondamentaux de l'Union européenne. La Cour européenne des droits de l'homme a souligné à plusieurs reprises que la liberté d'expression ne protège pas seulement les informations suscitant l'indifférence ou la faveur de l'opinion publique, mais également celles qui peuvent heurter, choquer ou inquiéter (22). Ainsi, toute restriction à cette liberté doit être nécessaire et proportionnée au but légitime poursuivi. Or, la CNCDH constate une nouvelle fois qu'il peut être particulièrement complexe de distinguer ce qui relève du discours de haine de ce qui relève de la liberté du débat public, notamment en raison de l'appréciation du contexte, du caractère polysémique du langage et de l'intentionnalité parfois équivoque qui préside à la communication d'un message (23). L'intervention de l'autorité judiciaire est alors indispensable afin de préserver l'équilibre des droits et de prévenir les ingérences injustifiées dans la liberté d'expression et de communication.

14. Compte tenu de sa spécificité, le contentieux relevant de la loi de 1881 fait l'objet, au moins à Paris, d'un traitement spécialisé, tant sur le volet civil que pénal, par les magistrats de la 17e chambre du tribunal judiciaire, chambre correctionnelle compétente dans les affaires de presse. Ce traitement par des magistrats spécialisés a été complété en 2021 par la création d'un parquet spécialisé, institué par l'article 10 de la loi visant à lutter contre la haine sur internet, l'une des rares dispositions de la loi (24) non censurée par le Conseil constitutionnel dans sa décision du 18 juin 2020 (25). Cet article prévoit qu'une juridiction désignée par décret disposera d'une compétence nationale pour les délits de harcèlement sexuel ou moral aggravé par le caractère discriminatoire au sens des articles 132-76 et 132-77 du code pénal dès lors que les faits sont commis par l'utilisation d'un service de communication au public en ligne ou par le biais d'un support numérique ou électronique, et que la plainte a été adressée par voie électronique. Un décret a désigné le tribunal judiciaire de Paris pour exercer cette compétence (26), et une circulaire du ministre de la Justice a créé le pôle national dédié précité au sein du parquet du tribunal judiciaire de Paris (27), effectif depuis le 4 janvier 2021. Le parquet spécialisé aura compétence pour certains délits relevant tant de la loi de 1881 que du code pénal (28).

15. Sa compétence étant concurrente de celle des autres parquets territorialement compétents, deux critères alternatifs la déterminent. Ce parquet est chargé des affaires de haine en ligne en raison soit de " la complexité de la procédure, résultant de la technicité de l'enquête, de vérifications internationales, de la multiplicité d'auteurs et notamment lorsqu'ils sont localisés en de multiples points du territoires ", soit du " fort trouble à l'ordre public engendré par les faits, notamment en cas de retentissement médiatique important, ou la sensibilité particulière de l'affaire au regard de la personnalité de la victime ou de celle de l'auteur ou du contexte des faits " (29). Ainsi, ce pôle aura un rôle d'arbitrage et de filtre dans les dossiers dont il pourra se saisir, empreint en partie d'une inévitable subjectivité (30). Le pôle spécialisé devra alors superviser les enquêtes et opérer les réquisitions auprès des opérateurs d'internet concernés.

16. Tout en saluant l'ambition d'apporter une réponse pénale plus rapide par la création d'un nouveau parquet spécialisé, tant pour faire cesser l'incitation à la haine et appréhender l'auteur du contenu haineux plus rapidement que pour permettre un échange privilégié entre les magistrats et les représentants des plateformes internationales, la CNCDH s'interroge néanmoins sur les difficultés d'appréciation de certains des critères précités relatifs à l'organisation des compétences entre ce parquet national et les différents parquets territorialement compétents. De plus, elle s'inquiète du large champ de compétence de ce parquet spécialisé traitant des délits relevant de la loi de 1881 sur la liberté de la presse et, de plus en plus souvent, du droit pénal commun.

Recommandation n° 1 : la CNCDH recommande aux pouvoirs publics :

- d'augmenter les moyens humains et financiers octroyés au nouveau pôle spécialisé du Parquet du Tribunal judiciaire de Paris en raison de l'ampleur du phénomène de la haine en ligne ;

- de veiller au maintien de la place du juge dans le contentieux relatif à la haine en ligne.

1.1.3. Des difficultés procédurales distinctes à résoudre

17. Si l'urgence est de faire cesser l'accès au contenu litigieux, le traitement de l'infraction et de l'identification de son auteur, dès lors qu'il ne présente pas le même caractère d'urgence, doit bénéficier des garanties procédurales de la loi de 1881 destinées à la protection de la liberté d'expression. De même, la CNCDH rappelle que les procédures d'urgence - notamment la comparution immédiate et la comparution sur reconnaissance préalable de culpabilité - ne sont pas adaptées au contentieux des abus de la liberté d'expression, pour lequel un traitement spécifique s'impose en raison de sa complexité et des valeurs qui y sont en jeu. Lors de la dernière tentative d'instaurer au sein de la loi de 1881 des dérogations pour faire application des procédures accélérées au traitement des contenus haineux (31), la CNCDH a rappelé qu'une conciliation est à rechercher entre l'objectif de lutte contre la haine en ligne et le respect de la liberté d'expression, conformément au régime libéral consacré en France en matière de presse et de publication. A cet égard, il y aurait danger à vouloir soumettre à la procédure pénale de droit commun les abus de la liberté d'expression dont le régime, volontairement protecteur, bénéficie des garanties offertes par la loi du 29 juillet 1881, la libre expression des pensées et des opinions étant le ferment de la démocratie. En outre, réserver la protection de la loi de 1881 aux seuls journalistes dont le statut ne dépend pas uniquement de l'attribution de la carte de presse rompt l'égalité des citoyens devant la loi concernant la liberté d'expression. Plus généralement, la Commission émet des réserves sur l'application concrète des nouvelles dispositions prévues par le projet de loi confortant les principes de la République et de lutte contre le séparatisme au regard du manque de moyens de la justice, particulièrement flagrant en ce domaine. Pour rendre effectifs les dispositifs existants, ces moyens sont à porter au niveau des besoins, tant au stade du recueil - particulièrement pour la Plateforme d'harmonisation, d'analyse, de recoupement et d'orientations des signalements (PHAROS) - qu'aux stades de l'enquête puis du jugement (32). Ainsi, la CNCDH ne peut adhérer à l'idée selon laquelle l'édifice de la loi de 1881 demeurerait inchangé alors qu'on y apporte maintes dérogations.

18. La CNCDH est consciente de l'importance d'une réponse rapide de l'autorité judiciaire. Néanmoins, il importe de distinguer deux temps distincts en matière de haine en ligne. D'une part, l'urgence immédiate est de suspendre l'accès aux contenus haineux pour empêcher leur diffusion. D'autre part, la question de l'identification de l'auteur et des éventuelles poursuites contre celui-ci présente un caractère d'urgence plus relatif.

19. Concernant la suspension de l'accès aux contenus, la CNCDH rappelle qu'il existe déjà des procédures pour obliger l'auteur, l'éditeur ou le fournisseur à bloquer certains contenus (33). Le déréférencement peut également être demandé aux moteurs de recherche. Enfin, lorsque les faits constituent un trouble manifestement illicite, le ministère public ou toute personne y ayant un intérêt peut saisir le juge civil en référé (34) afin que celui-ci enjoigne rapidement à l'hébergeur de retirer le contenu ou au fournisseur d'accès internet (FAI) de bloquer l'accès au contenu. La CNCDH recommande le développement de cette procédure, qui permet à la fois d'apporter une réponse judiciaire rapide, mais aussi de préserver l'intervention d'un juge et de garantir davantage de droits à la défense que dans le cadre d'une comparution immédiate - d'autant plus que la comparution immédiate est impossible si l'auteur n'est pas identifié, ce qui est souvent le cas sur internet. Plutôt qu'une nouvelle réforme, la CNCDH encourage donc à donner des moyens humains et financiers au service de la justice pour lui permettre de fonctionner efficacement dans le cadre actuel.

20. A ces difficultés procédurales s'ajoutent celles tenant à l'identification de l'auteur des contenus litigieux, enjeu majeur de la lutte contre la haine en ligne, non seulement en raison de l'utilisation de pseudonymes mais également de systèmes d'anonymisation des adresses IP (35) et du partage des adresses IP, une seule adresse pouvant renvoyer à plusieurs centaines d'utilisateurs. De plus, en pratique, il appartient au requérant qui souhaite identifier l'auteur d'un contenu d'avoir recours à un système de double ordonnance sur requête (36). Ainsi, l'utilisateur doit adresser une première requête au juge, afin d'obtenir les données permettant de connaître le fournisseur d'accès en mesure d'identifier la personne concernée. Ensuite, il doit adresser une seconde requête au juge afin que celui-ci enjoigne au fournisseur d'accès de fournir les données dont il dispose concernant l'auteur à identifier. Cette procédure, très longue - devant les juridictions parisiennes les délais d'audience des affaires s'allongent de un à deux ans - et très coûteuse, est un obstacle majeur pour toute personne victime de haine en ligne qui souhaite engager une procédure judiciaire.

21. De plus, l'identification des auteurs de contenus est encore compliquée par le manque de coopération de certains opérateurs de l'internet, établis sur des territoires dont les législations sont moins contraignantes ou placent la liberté d'expression au sommet des libertés fondamentales (37).

22. Il conviendrait ainsi de recourir à certains aménagements procéduraux permettant de faciliter l'identification des auteurs de contenus illicites, pour ensuite permettre leur poursuite dans un délai raisonnable.

Recommandation n° 2 : La CNCDH recommande aux magistrats compétents de recourir davantage à la procédure sur requête aux fins d'identification de l'auteur du contenu litigieux.

Recommandation n° 3 : La CNCDH recommande au ministère de la justice de réfléchir à une simplification de cette procédure par double requête afin d'accélérer le traitement de ce contentieux, et d'en limiter les frais.

23. En outre, les mesures prises par le juge afin d'empêcher l'accès à un site dont le contenu est illicite peuvent être aisément contournées par les sites dits miroirs , qui reprennent des contenus jugés illégaux par l'autorité judiciaire, gardienne des libertés fondamentales. Dans le cadre de l'examen du projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, la CNCDH a rappelé la nécessité de lutter contre les sites miroirs afin de prévenir plus efficacement la réapparition de ces contenus (38).

24. Cependant, la lutte contre ces sites se heurte à de nombreux écueils. En premier lieu, il s'agit de définir le contenu dont la réapparition pourra être sanctionnée dans le cadre de la lutte contre ces sites de contournement. Actuellement, le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme prévoit que les sites reprenant le contenu mentionné par la décision judiciaire " en totalité ou de manière substantielle " peuvent faire l'objet de mesures de blocage (39). S'inquiétant des potentielles atteintes à la liberté d'expression tenant à l'appréciation du caractère " substantiel " du contenu, la CNCDH recommande d'expliciter ce terme, et de renvoyer à la compétence de l'autorité judiciaire pour en préciser la teneur. A ce titre, la CNCDH rappelle que la place fondamentale du juge dans le dispositif de la lutte contre les sites miroirs doit être préservée (40).

25. Par ailleurs, la CNCDH rappelle que PHAROS participe également à la lutte contre les sites miroirs. Dispositif de l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) de la direction centrale de la police judiciaire (DCPJ), PHAROS est une plateforme permettant de signaler des comportements ou contenus illicites sur internet. Afin qu'elle puisse pleinement exercer sa mission, d'importants moyens financiers et humains doivent lui être alloués.

26. Enfin, l'efficacité même de la mesure de blocage peut être remise en cause. En premier lieu, il existe un risque de surblocage, dès lors que sur un même serveur sont hébergés des contenus licites et des contenus illicites (41). En second lieu, les risques de contournement sont également importants, car la mesure de blocage ne permet pas de supprimer le contenu litigieux à la source (42).

Recommandation n° 4 : La CNCDH recommande aux pouvoirs publics d'augmenter les moyens humains et financiers alloués à la plateforme PHAROS, qui permet de signaler des contenus illicites sur internet et fait partie intégrante du dispositif judiciaire de lutte contre la haine en ligne.

1.1.4. Une aide à l'identification des auteurs d'infractions pénales

27. L'utilisation d'un pseudonyme n'est pas le seul frein à l'identification des auteurs d'infractions pénales. En effet, certains opérateurs de l'internet sont établis sur des territoires dont la législation est peu contraignante, ou place la liberté d'expression au sommet des libertés fondamentales. C'est le cas aux Etats-Unis, où la liberté d'expression est protégée par le premier amendement de la Constitution.

28. La désignation d'un représentant légal de chaque plateforme, chargé de répondre aux demandes des autorités judiciaires, serait nécessaire afin de résoudre ces difficultés. Actuellement, la proposition de législation européenne sur les services numériques prévoit que les fournisseurs de services intermédiaires établissent un point de contact unique permettant d'établir une communication directe par voie électronique avec, notamment, les autorités des Etats membres (43). En sus, les fournisseurs de services intermédiaires qui ne sont pas établis au sein de européenne mais proposent leurs services en son sein désignent un représentant légal dans un des Etats membres (44).

29. La CNCDH se félicite que des discussions soient engagées en ce sens. Elle prend acte de la position de la Commission européenne selon laquelle l'obligation de nommer un représentant légal sur le territoire français constituerait une obligation ayant potentiellement des conséquences financières importantes, et une " restriction à la prestation transfrontalière des services de la société de l'information " (45). Toutefois, la CNCDH s'interroge sur l'articulation de ces dispositions et sur l'utilité de nommer un représentant légal dans un seul des Etats membres dans lequel le fournisseur propose ses services, dès lors que ce représentant sera chargé de répondre à toutes les questions des autorités des Etats membres.

30. Aussi, la CNCDH recommande à la France de soutenir l'extension, au sein du projet de texte européen, de l'obligation pour chaque plateforme proposant ses services dans un Etat d'y désigner un représentant légal afin de répondre aux réquisitions de l'autorité judiciaire.

1.2. Créer un organisme public indépendant dédié à la lutte contre les contenus haineux en ligne

31. La CNCDH recommande la création d'un organisme public indépendant dédié à la lutte contre les contenus haineux en ligne afin, d'une part, de " renationaliser " la lutte contre la haine en ligne et, d'autre part, de dupliquer cet organisme au niveau européen.

1.2.1. " Renationaliser " la lutte contre la haine en ligne

32. La CNCDH constate que nombre de suggestions actuelles pour renforcer la lutte contre la haine en ligne passent par l'amplification du rôle des plateformes, à l'image de la solution envisagée dans la proposition de loi visant à lutter contre la haine sur internet. La Commission considère que la lutte contre la haine en ligne ne saurait justifier une délégation des pouvoirs régaliens au secteur privé dès lors que cela risquerait de porter atteinte à la liberté d'expression et à l'équilibre à préserver entre les droits en présence (46). De surcroît, la Commission observe que la modération mise en place par les grandes plateformes, qui se fait à l'échelle internationale, peine à s'adapter à la diversité linguistique des contenus litigieux, à leur contexte, aux cultures et particularismes locaux, ainsi qu'au droit national applicable. A ce titre, la politique de régulation des contenus fondée de manière trop importante sur la régulation par les plateformes a révélé ses faiblesses durant la crise sanitaire liée à la Covid-19 (47). En effet, les contenus haineux postés sur les réseaux sociaux ont augmenté durant le premier confinement, tandis que les capacités humaines des services de modération des plateformes diminuaient (48). Enfin, elle souligne que les obligations très lourdes imposées aux plateformes pour la modération, en particulier en termes de ressources humaines, risquent de renforcer la position dominante des très gros acteurs, seuls en capacité de les mettre en place, au détriment de nouvelles plateformes émergentes ou d'acteurs à but non lucratif, et par là d'entraver la liberté d'entreprendre.

33. Pour autant, la CNCDH est consciente des limites que peut rencontrer l'institution judiciaire pour traiter de la haine en ligne, en particulier dans un contexte où les moyens budgétaires et humains de la justice sont extrêmement limités (cf. supra). Afin de permettre de renforcer, à l'échelle nationale, un contrôle indépendant sur les contenus relevant de la haine en ligne sans que ce contrôle repose uniquement sur le système judiciaire, la CNCDH recommande la création d'un organisme spécifique. Cet organisme pourrait être placé sous l'égide de l'Autorité de régulation audiovisuelle et numérique (ARCOM) (49), aux côtés de l'Observatoire de la haine en ligne.

34. Cet organisme serait composé de deux pôles :

- un premier pôle opérationnel serait chargé de l'accompagnement des utilisateurs des services numériques. Il aurait pour mission, d'une part, de faire le lien entre les utilisateurs et les plateformes et, d'autre part, d'aider et d'orienter les victimes de discours haineux. Il serait essentiellement composé de juristes médiateurs salariés, dont le rôle serait de recueillir et d'examiner les plaintes en cas d'exposition à des discours de haine, éventuellement en s'appuyant sur des systèmes algorithmiques, et de les transmettre aux plateformes si les propos s'avèrent répréhensibles au regard du droit français. Au besoin, les cas litigieux seraient remontés au collège (tel que décrit ci-après) pour examen afin de construire progressivement une doctrine de l'institution qui puisse servir de référence. Les contenus particulièrement dangereux seraient également sauvegardés et transmis aux services compétents des forces de l'ordre ainsi qu'au procureur de la République. Ce pôle serait en outre compétent pour intervenir en cas de suppression abusive de contenus ou de comptes et pour assurer le rôle d'intermédiaire auprès des plateformes. Ces dispositions s'inscrivent dans la ligne des discussions menées au niveau européen, la proposition de législation sur les services numériques prévoyant la possibilité, pour l'Etat membre, d'instaurer un organe de règlement extrajudiciaire des litiges afin de résoudre les litiges liés aux décisions de modération des plateformes. Les plateformes seraient tenues par la décision prise par cet organe alors que l'utilisateur aurait toujours la possibilité de saisir la juridiction compétente (50). Cette nouvelle autorité serait également chargée de développer une application permettant d'améliorer l'orientation des victimes de haine en ligne ou de discours offensants, quand bien même ceux-ci ne seraient pas pénalement répréhensibles mais nécessiteraient d'apporter un soutien à la victime.

- un second pôle serait dédié à la recherche, avec une forte dimension opérationnelle, rassemblant chercheurs et spécialistes du numérique afin de faire avancer la connaissance des systèmes algorithmiques de modération de contenus, d'en développer de nouveaux, d'auditer ceux des principales plateformes et de faire le lien entre plateformes et chercheurs pour améliorer l'accès aux données des plateformes sous forme anonymisée (51). Par ailleurs, ce second pôle serait chargé d'animer divers groupes de travail auxquels seraient associés les usagers, en particulier les plus jeunes, afin de faire des recommandations adaptées aux usages et pratiques du numérique qui sont en constante évolution.

35. Aux côtés de ces deux pôles, un collège indépendant serait chargé de trancher les cas litigieux et de rendre des avis sur toutes les questions relatives à la lutte contre la haine en ligne, en particulier concernant les modifications des conditions générales d'utilisation des plateformes afin de garantir les droits fondamentaux de leurs utilisateurs. Ce collège serait composé de personnalités qualifiées (magistrats, avocats, universitaires, chercheurs spécialisés) et de représentants d'institutions et d'ONG, tous reconnus pour leur expertise dans la lutte contre la haine en ligne - notamment la Commission nationale informatique et libertés (CNIL), le Défenseur des droits (DDD), la CNCDH et les directions ministérielles compétentes).

Recommandation n° 5 : la CNCDH recommande la création d'un organisme indépendant dédié à la lutte contre la haine en ligne, placé sous l'égide de l'ARCOM. Il serait notamment chargé de l'accompagnement de l'utilisateur des services numériques, et du développement de la recherche sur les systèmes algorithmiques de modération de contenus.

1.2.2. Promouvoir le partage de bonnes pratiques au niveau européen

36. Le projet de règlement européen prévoit l'instauration de coordinateurs nationaux (52) à l'initiative des Etats membres, ainsi que celle d'un Comité européen des services numériques composé de différents coordinateurs nationaux (53). Ce Comité européen a pour mission de contribuer à l'application cohérente du projet de règlement au sein de l'Union européenne, de conseiller la Commission européenne et d'assister les coordinateurs nationaux dans la surveillance des très grandes plateformes en ligne (54). Si la CNCDH salue cette initiative, elle encourage l'échange de bonnes pratiques à l'échelle européenne ainsi que le partage de connaissances notamment en matière de compréhension algorithmique, d'analyse de données, etc., selon la méthode retenue précédemment au titre des missions confiées, au niveau national, à l'organisme public indépendant.

Recommandation n° 6 : La CNCDH recommande de promouvoir que, pour mener à bien ses missions, le Comité européen s'inspire de celles confiées au niveau national à l'organisme public indépendant, telles que définies précédemment.

2. La création d'obligations positives à l'égard des plateformes

37. Si l'Etat doit jouer un rôle central, il n'est pas, et ne doit pas être, le seul acteur de la lutte contre la haine en ligne. En effet, les plateformes, dont le modèle économique repose pour certaines sur la viralité, peuvent contribuer à l'ampleur de ce phénomène. Il est ainsi nécessaire de créer de nouvelles obligations positives à la charge des plateformes afin de leur confier un rôle clef dans la lutte contre la haine en ligne.

2.1. Les obligations de modération et de lutte contre la viralité des contenus haineux

2.1.1. Permettre un signalement qualitatif des contenus et modérer le contenu signalé

38. En application de l'article 6 de la loi du 21 juin 2004 pour la confiance dans l'économie numérique, les plateformes ont l'obligation de mettre en place un dispositif de signalement facilement accessible et visible afin que toute personne puisse porter à leur connaissance des contenus illicites (55). Si la CNCDH se félicite d'une telle disposition, elle constate également que la multiplication des dispositifs existants peut complexifier le signalement par l'utilisateur (56), risque encore amplifié par le manque d'ergonomie de ces dispositifs (57). De plus, le processus de signalement ainsi que les critères utilisés afin de qualifier un contenu haineux ou illicite diffèrent selon les dispositifs mis en place par chaque plateforme. Cela a pour conséquence, d'une part, de rendre le signalement d'un contenu moins intuitif pour les utilisateurs et, d'autre part, de rendre plus difficile une évaluation globale des signalements de contenus haineux sur internet et de la réponse qui y est apportée. Aussi, la CNCDH recommande d'harmoniser les dispositifs de signalement internes aux plateformes. Cette harmonisation pourrait prendre la forme d'une interface, idéalement commune aux plateformes, à laquelle l'utilisateur accèderait par un renvoi. Cette interface serait dédiée à l'aide et l'accompagnement de l'utilisateur et permettrait de mettre en place un dispositif et des critères de signalement communs. Afin de ne pas mettre des obligations trop lourdes à la charge des plateformes dont le modèle ne repose pas sur la viralité des contenus, la CNCDH recommande que cette interface soit commune aux seules plateformes à but lucratif, dont l'activité sur le territoire français, qu'elles y soient ou non établies, dépasse un seuil de nombre de connexions fixé par décret, à l'instar de ce qui était prévu par la proposition de la législation sur les services numériques (58), et par le texte du projet de loi confortant les principes de la République et de lutte contre le séparatisme transmis à l'Assemblée nationale en nouvelle lecture le 14 mai 2020 (59). La CNCDH recommande aux pouvoirs publics d'engager une concertation pour identifier des mécanismes communs de signalement et, à terme, pour réfléchir à leur uniformisation.

39. De plus, il serait nécessaire que les dispositifs de signalement internes aux plateformes opèrent un renvoi vers un dispositif public de signalement. Ainsi, la CNCDH avait déjà regretté, dans son avis sur la proposition de loi visant à lutter contre la haine sur internet, l'absence dans la proposition de loi d'une obligation pour les plateformes de proposer un renvoi vers les dispositifs publics de signalement tels que PHAROS (60). En effet, ce dispositif de renvoi répondrait à l'objectif de simplification et d'articulation des dispositifs de signalement existants. Il contribuerait également à améliorer la connaissance de PHAROS par le grand public. Bien que les chiffres des signalements effectués à PHAROS soient en constante augmentation depuis plusieurs années (61), la CNCDH s'inquiète en effet que les utilisateurs des plateformes, en particulier les utilisateurs mineurs, connaissent trop peu PHAROS et se limitent aux dispositifs de signalement internes aux plateformes. Un renvoi vers le signalement de PHAROS permettrait aux utilisateurs qui le souhaitent de porter un contenu illicite à la connaissance de l'Office central de lutte contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) aux fins d'ouvrir une enquête si le contenu est susceptible de constituer une infraction pénale.

40. Enfin, la CNCDH souscrit aux discussions menées aux niveaux européen et national visant à consacrer la place des signaleurs de confiance dans le signalement et à traiter, de manière prioritaire et dans les meilleurs délais, les notifications soumises par ces signaleurs de confiance, tout en rappelant que leur désignation et leur rôle doivent faire l'objet de la plus grande transparence (62). Elle salue également les dispositions consacrant une suspension du traitement des notifications en cas de signalements abusifs ainsi que les critères qui encadrent cette suspension(63). En complément de ces dispositifs, la CNCDH appelle à mettre en place des mesures graduées contre les signaleurs abusifs, telles que plusieurs avertissements préalables à la suspension du traitement des notifications et le déclassement de celles-ci.

Recommandation n° 7 : La CNCDH recommande de :

- harmoniser les dispositifs de signalement internes aux plateformes ainsi que les critères de signalement, notamment par la création d'une interface commune aux plateformes à but lucratif, dont l'activité sur le territoire français, qu'elles y soient ou non établies, dépasse un seuil de nombre de connexions fixé par décret ;

- mettre à la charge des plateformes l'obligation de renvoyer les utilisateurs vers les dispositifs publics de signalement, tel celui de PHAROS, dans un objectif de simplification et d'articulation des dispositifs de signalement existants ;

- traiter, de manière prioritaire et dans les meilleurs délais, les notifications soumises par les signaleurs de confiance, afin de consacrer leur place dans le processus de signalement ;

- informer sur la désignation et le rôle de ces signaleurs de confiance ;

- mettre en place des mesures graduées contre les signalements abusifs, telles que plusieurs avertissements préalables à la suspension du traitement des notifications, et le déclassement de ces notifications.

2.1.2. Encadrer le recours aux instruments de modération des contenus haineux

41. Sous peine de voir leur responsabilité engagée, les plateformes ont l'obligation d'agir promptement afin de retirer les contenus manifestement illicites ou d'en rendre l'accès impossible, dès lors que ces contenus ont été portés à leur connaissance (64). Selon la dernière évaluation de la Commission européenne relative à la mise en œuvre du code de conduite contre les discours de haine illégaux en ligne, le taux de retrait des contenus à caractère haineux est en constante augmentation depuis la création de ce code, en 2016. Ainsi, en décembre 2019, 71 % des contenus signalés ont été retirés par les plateformes signataires du code, contre 28 % en 2016 (65). Les taux de retrait varient selon les législations, puisqu'en France le taux de retrait des contenus en décembre 2019 s'élevait à 87,8 %, contre 49,5 % en 2016. Ils varient également selon les plateformes (66).

42. La CNCDH se félicite que les plateformes respectent leur obligation de modération des contenus en retirant les contenus signalés. Elle rappelle dans le même temps l'importance de la modération humaine afin d'assurer un retrait approprié des contenus. En effet, les systèmes algorithmiques sont confrontés à plusieurs difficultés dans la modération des contenus haineux, dont la prise en compte du contexte de la publication du contenu. L'efficacité des systèmes algorithmiques trouve ainsi ses limites lorsqu'il s'agit d'interpréter le contexte local et culturel dans lequel s'inscrit un discours, ou encore l'emploi de l'ironie, la réutilisation d'un terme dans un objectif militant, etc. Ces difficultés sont encore plus prégnantes lorsque les systèmes algorithmiques modèrent un contenu vidéo, sur la base de mots clés et d'une banque d'images alimentée au fur et à mesure de la détection des contenus haineux. Ces problèmes sont appréhendés au niveau européen. Ainsi, la proposition de législation sur les services numériques prévoit l'obligation, pour les fournisseurs de services intermédiaires, de renseigner dans leurs conditions générales d'utilisation, l'existence d'une politique de modération fondée sur des systèmes algorithmiques et le réexamen de la décision algorithmique par un modérateur humain (67). Si le texte entre en vigueur, les " très grandes plateformes " seront soumises à une obligation d'audit afin de contrôler, entre autres, le fonctionnement et les règles de leurs systèmes algorithmiques (68). Enfin, pour pallier les erreurs de modération, la proposition de législation sur les services numériques et le projet de loi confortant le respect des principes de la République et la lutte contre le séparatisme prévoient l'obligation pour les plateformes d'instituer un mécanisme de recours interne à l'égard d'une décision de modération, d'indiquer les voies de recours internes et judiciaire dont dispose l'utilisateur et d'en informer l'auteur du signalement et l'auteur du contenu, lorsque le contenu a été retiré ou rendu inaccessible (69). Ainsi, la CNCDH recommande que la prise de décision, dans le cadre de la modération des contenus, soit complétée lorsque nécessaire par des modérateurs humains, afin de remédier aux limites des algorithmes de modération et d'assurer un retrait des contenus tout en respectant la liberté d'expression.

43. Il est également nécessaire que les modérateurs humains bénéficient d'une formation et d'un accompagnement adaptés. En effet, exposés à des contenus parfois très violents jusqu'à huit heures par jour, ils ne bénéficient pas toujours de la formation professionnelle et du soutien psychologique nécessaires. Leurs conditions de travail restent également opaques, les modérateurs étant tenus par une clause de confidentialité (70).

Recommandation n° 8 : La CNCDH recommande que :

- la prise de décision dans le cadre de la modération des contenus soit complétée, lorsque nécessaire, par l'intervention de modérateurs humains ;

- les modérateurs humains bénéficient d'une formation professionnelle ainsi que d'un accompagnement adapté à la nature et au contexte culturel et linguistique de leur mission. Elle recommande également de garantir à ces travailleurs des conditions de travail transparentes et satisfaisantes.

2.1.3. Lutter contre la propagation des contenus haineux en limitant leur viralité

44. Le modèle économique de certains réseaux sociaux peut contribuer à la propagation massive des contenus haineux, dès lors que ceux-ci suscitent une forte audience et génèrent ainsi des revenus importants pour la plateforme. Afin de lutter efficacement contre la haine en ligne, il convient donc de prendre en compte et de limiter les mécanismes concourant à la viralité des discours de haine.

45. De nombreuses initiatives ont été prises en ce sens. La Commission européenne a publié, en 2016, un code de conduite visant à combattre les discours de haine illégaux en ligne, dont la plupart des plateformes sont signataires : Facebook, Microsoft, Twitter, Instagram, Snapchat, Dailymotion et TikTok. Plus récemment, les discussions menées au niveau européen et national ont conduit à retenir une approche a priori visant à prévenir la diffusion massive des contenus haineux. Ainsi, la proposition de législation sur les services numériques et le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme imposent aux plus grandes plateformes plusieurs obligations liées aux risques systémiques causés par le fonctionnement et l'utilisation de leurs services, comme le fait d'évaluer ces risques (71) et de prendre des mesures " raisonnables, proportionnées et efficaces " afin de les atténuer (72).

46. La CNCDH salue ces initiatives et appelle à poursuivre ces efforts. Dans son second avis sur le projet de loi confortant le respect des principes de la République, elle avait regretté que les mécanismes concourant à la propagation des contenus haineux, ainsi que les instruments qui viseraient à les réguler, ne soient pas suffisamment pris en compte, alors qu'ils jouent un rôle déterminant pour une lutte efficace contre la haine en ligne (73). La CNCDH encourage ainsi les plateformes à mettre en œuvre les moyens nécessaires afin de mieux détecter les comptes programmés pour amplifier la viralité de certains contenus haineux, ou tout autre mécanisme source de viralité artificielle (74). Elle recommande aussi de réfléchir à l'équilibre à trouver entre la liberté d'expression et le ralentissement voire le blocage de la diffusion de certains contenus viraux par les plateformes (75).

Recommandation n° 9 : la CNCDH recommande aux plateformes de mettre en place les moyens nécessaires afin de mieux détecter les moyens de viralité artificielle dès lors qu'ils visent à diffuser les contenus haineux et, le cas échant, de suspendre les comptes ayant recours à de tels mécanismes. Elle recommande également de réfléchir à l'équilibre à trouver entre la liberté d'expression et le ralentissement voire le blocage de la diffusion de certains contenus viraux par les plateformes.

2.2. Les obligations de transparence concernant la modération des contenus haineux

47. La transparence est un enjeu fondamental afin de permettre la compréhension et l'acceptabilité des décisions de modération prises par les plateformes, ainsi que l'évaluation de leur justesse et de leur efficacité et, plus généralement, pour garantir les droits fondamentaux de l'utilisateur. Cette transparence doit être relative à la fois aux règles, aux politiques et aux outils de la modération. Récemment, les enjeux de la transparence concernant la modération ont été mis en lumière par la suppression des comptes Instagram et Twitter de la jeune Mila sans raison apparente et sûrement à la suite de signalements de masse, d'après la principale concernée ; une erreur, selon les plateformes, qui ont rétabli les comptes supprimés. Déplorant l'opacité de ces décisions et leur impact, certains membres de l'exécutif avaient alors appelé Twitter à plus de transparence concernant ses politiques de modération (76).

2.2.1. Favoriser la transparence des politiques et outils de modération

48. La transparence effective des politiques et outils de modération suppose une information des utilisateurs concernant les règles de la modération, les moyens humains et financiers qui lui sont alloués, ainsi que les suites données aux signalements reçus par la plateforme. A ce titre, les textes en discussion aux niveaux européen et national prévoient que les plateformes, lorsqu'elles reçoivent le signalement d'un contenu par un utilisateur et qu'elles disposent des informations nécessaires pour le contacter, accusent réception de la notification et informent l'auteur du signalement des suites qui y sont données, ainsi que des voies de recours à l'encontre de la décision (77).

49. De plus, la proposition de législation sur les services numériques et le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme instaurent une obligation de transparence quant aux politiques et outils de modération utilisés par les plateformes. Les plateformes doivent renseigner, dans leurs conditions générales d'utilisation, de façon facilement accessible et de manière claire et précise, les procédures et les outils algorithmiques et humains utilisés afin de modérer les contenus (78). Lorsque des outils automatisés ont été impliqués dans la prise de décision concernant la modération d'un contenu, elles doivent en informer l'auteur du signalement et, lorsque le contenu a été retiré ou rendu inaccessible, l'auteur du contenu (79).

50. La CNCDH salue ces dispositions, dont l'objectif est d'améliorer l'information du public, et en particulier des utilisateurs, concernant les politiques et outils de modération. Elle veillera à ce qu'elles figurent effectivement dans la version finale des textes. Afin de parfaire cette information, il serait souhaitable que les plateformes aient l'obligation de renseigner les internautes sur les impacts d'un contenu haineux, et la manière dont ceux-ci sont propagés. Une telle mesure complèterait utilement le dispositif de prévention de la haine en ligne, et notamment le rapport de transparence publié par les très grandes plateformes, comportant l'évaluation et les mesures d'atténuation des risques liés au fonctionnement et à l'utilisation de leurs services (80). De plus, il serait souhaitable que les plateformes aient l'obligation d'expliciter les critères selon lesquels les outils automatisés ou humains interviennent dans le dispositif de modération.

51. Enfin, si le contenu est retiré ou rendu inaccessible, la plateforme en informe l'auteur de la publication et indique les voies de recours internes et judiciaires dont il dispose (81). Les plateformes doivent également mentionner les mesures qu'elles prennent de leur propre initiative et qui affectent la disponibilité, la visibilité ainsi que l'accessibilité des contenus (82). A ce titre, la réflexion sur les actions qui peuvent être prises à l'encontre de certains contenus doit dépasser le retrait ou le blocage. En effet, l'efficacité même de la mesure de blocage peut être remise en cause. Celle-ci entraîne un risque de surblocage, dès lors que sur un même serveur sont hébergés des contenus licites et des contenus illicites. Les risques de contournement sont également importants, car la mesure de blocage ne permet pas de supprimer le contenu litigieux à la source. Des mesures graduées permettant la baisse de la visibilité d'un contenu pourraient être mises en place afin de répondre à ces enjeux.

52. Au-delà, la CNCDH regrette que certaines plateformes ne mettent pas leurs pratiques de modération en conformité avec leur discours public à cet égard.

Recommandation n° 10 : la CNCDH recommande que les plateformes aient l'obligation de :

- renseigner, dans leurs conditions générales d'utilisation, de façon aisément accessible et de manière claire et précise, les impacts d'un contenu haineux et les mécanismes clé de propagation de ces contenus ;

- expliciter les critères selon lesquels les moyens humains et automatisés interviennent dans le dispositif de modération ;

- fournir aux usagers les informations relatives à toute intervention sur la visibilité d'un contenu, tant dans le but d'augmenter que de restreindre sa viralité ;

- mettre en place des mesures graduées permettant de diminuer la visibilité de certains contenus, afin que le dispositif de modération ne repose pas uniquement sur le retrait ou le blocage des contenus haineux.

Recommandation n° 11 : la CNCDH recommande que les plateformes soient sanctionnées au titre des pratiques commerciales trompeuses dès lors que leur communication publique n'est pas en conformité avec leurs pratiques de modération.

2.2.2. Créer un recours effectif en cas de modération d'un contenu

53. Comme expliqué précédemment, si un contenu est retiré ou rendu inaccessible, la proposition de législation sur les services numériques et le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme prévoient que la plateforme informe l'auteur du contenu des recours internes et judiciaire qui permettent de contester la décision (83). Si la CNCDH se félicite de ces dispositions, elle s'inquiète toutefois de l'absence de débat contradictoire une fois ce contenu rendu inaccessible. Elle recommande que des dispositions soient prises afin de permettre à l'auteur d'un contenu signalé de fournir des arguments au débat, avant que ne soit prise une décision de modération.

54. De la même manière, les textes permettent à l'utilisateur dont l'accès au service de signalement a été suspendu en raison de notifications abusives de former un recours à l'encontre de cette décision (84). Si les mesures de suspension ou de résiliation du service de notification des bénéficiaires sont encadrées et précédées d'un avertissement à l'utilisateur concerné (85), la CNCDH s'inquiète de ces dispositions qui peuvent porter atteinte aux droits des utilisateurs. Elle recommande que toute mesure de suspension ou de résiliation, totale ou partielle, de la fourniture du service de signalement à un bénéficiaire soit précédée d'au moins deux avertissements préalables et conditionnée à la possibilité, pour l'utilisateur concerné, de fournir des arguments au débat.

Recommandation n° 12 : la CNCDH recommande de prévoir la possibilité, pour l'auteur du contenu signalé, de s'exprimer avant que ne soit prise une décision de modération, afin de permettre un débat contradictoire.

2.3. Accéder aux données des outils de modération algorithmiques

55. L'explicabilité et l'intelligibilité des systèmes algorithmiques sont des enjeux fondamentaux afin de permettre la compréhension ainsi que l'acceptabilité des décisions algorithmiques. Dans son avis sur la proposition de loi visant à lutter contre la haine sur internet, la CNCDH invitait déjà à prêter une attention toute particulière aux systèmes algorithmiques impliqués dans ces fonctions. Les opérateurs devraient être en mesure de fournir au régulateur leur mode de fonctionnement et d'en expliquer les " choix " a posteriori. Cette exigence d'explicabilité et d'intelligibilité impliquerait d'étendre également les pouvoirs du régulateur à la possibilité de procéder aux audits des systèmes algorithmiques utilisés par les plateformes en ligne et d'apprécier les moyens humains mis en œuvre par le régulateur pour contrôler le traitement réservé aux résultats issus des systèmes algorithmiques (86).

56. La CNCDH se félicite des dispositions prises aux niveaux européen et national en ce sens. Ainsi, les textes en discussion prévoient que les plateformes donnent à l'autorité compétente - ici le Conseil supérieur de l'audiovisuel (CSA) l'accès aux informations nécessaires afin d'évaluer le respect de leurs obligations (87). Ces informations comprennent l'accès " au fonctionnement des outils automatisés auxquels ils ont recours pour répondre à ces obligations, aux paramètres utilisés par ces outils, aux méthodes et aux données utilisées pour l'évaluation et l'amélioration de leur performance ainsi qu'à toute autre information ou donnée lui permettant d'évaluer leur efficacité, dans le respect des dispositions relatives à la protection des données personnelles " (88). Les très grandes plateformes pourront également faire l'objet d'un audit, au minimum une fois par an, afin d'évaluer le respect de leurs obligations (89). Enfin, le CSA pourra " adresser des demandes proportionnées d'accès à toute donnée pertinente " et " mettre en œuvre des méthodes proportionnées de collecte automatisée de données publiquement accessibles, y compris lorsque l'accès à ces données nécessite la connexion à un compte (90) ". La CNCDH regrette cependant que ni le CSA ni l'ARCOM, telle qu'envisagée dans le cadre du projet de loi relatif à la communication audiovisuelle et à la souveraineté culturelle à l'ère numérique, n'aient pour l'heure les capacités de mener de tels audits, en termes de moyens matériels et de personnel qualifié. La CNCDH souligne l'importance de conférer à l'autorité compétente l'accès aux données et plus généralement aux systèmes algorithmiques.

57. Outre la mise à disposition des données à une autorité chargée de contrôler le respect des obligations de la plateforme, il est également essentiel que ces données soient accessibles à des chercheurs indépendants. A ce titre, la proposition de législation sur les services numériques prévoit que, sur " demande motivée du coordinateur de l'Etat membre d'établissement pour les services numériques ou de la Commission ", les très grandes plateformes en ligne donnent accès aux données à des chercheurs indépendants. Cet accès ne peut être donné aux chercheurs qu'afin d'identifier et de comprendre les risques systémiques induits par le fonctionnement et l'utilisation des services des plateformes (91). Saluant cette disposition, la CNCDH regrette qu'elle ne soit pas reprise dans le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme et qu'elle n'englobe pas les systèmes algorithmiques.

Recommandation n° 13 : la CNCDH recommande de :

- octroyer au CSA, et à la future ARCOM, les moyens matériels et humains de mener les audits des plateformes afin de contrôler le respect de leurs obligations prévues par le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme.

- permettre au CSA et aux chercheurs indépendants d'accéder aux systèmes algorithmiques des très grandes plateformes.

- prévoir que l'accès des chercheurs aux systèmes algorithmiques des très grandes plateformes soit consacré par le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme.

2.4. Accéder aux contenus retirés

58. L'article 19 bis du projet de loi confortant les principes de la République prévoit que les opérateurs de plateforme en ligne dont l'activité sur le territoire national dépasse un certain nombre de connexions conservent " temporairement les contenus qui leur ont été signalés comme contraires aux dispositions mentionnées au même I A et qu'ils ont retirés ou rendus inaccessibles, aux fins de les mettre à la disposition de l'autorité judiciaire pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales ". La CNCDH salue cette disposition pragmatique, en ce qu'elle permet de rendre plus effective la lutte contre la haine en ligne. Cependant, elle rappelle que les durées de conservation et les modalités de consultation devront être conformes à la législation européenne en vigueur, s'agissant notamment des données à caractère personnel.

3. Protéger et responsabiliser l'utilisateur

59. Au cours de ses travaux précédents, la CNCDH a déjà pu affirmer qu'une responsabilité collective était à l'œuvre à travers la circulation réticulaire des contenus postés sur internet (92). Elle estime ainsi qu'une lutte efficace contre la haine en ligne requiert la prise en compte de l'ensemble des acteurs de leur chaîne de propagation, ce qui impose de porter une attention particulière à l'utilisateur.

60. En sa double qualité d'émetteur et de récepteur de contenus, l'utilisateur appelle à la fois une responsabilisation et une protection spécifiques. Un effort coordonné des plateformes et des pouvoirs publics paraît alors nécessaire pour penser ces mesures, d'abord en termes de protection de l'utilisateur, par une meilleure éducation au numérique, mais aussi par la prise en compte de certaines vulnérabilités et un accompagnement adéquat des victimes. Il convient ensuite de développer des outils de mise en capacité d'agir de l'utilisateur sur son environnement numérique, par l'ergonomie de l'information et le droit au paramétrage des contenus reçus et émis. Enfin, l'utilisateur doit disposer des moyens pour prendre conscience de son rôle dans la propagation des discours de haine en ligne et être responsabilisé en ce sens.

3.1. Renforcer la formation et la protection de l'utilisateur

61. Une lutte plus efficace contre la haine en ligne nécessite d'abord une meilleure formation de l'ensemble des citoyens, tant à l'égard des limites de la liberté d'expression que du modèle économique des plateformes. Il s'agit notamment de rendre compréhensibles les comportements prohibés, les mécanismes de visibilité et de viralité des contenus ainsi que les réactions à tenir face à un discours de haine sur internet.

62. Ces multiples enjeux appellent des efforts d'éducation au numérique dès le cadre scolaire, mais aussi au-delà, par des efforts de sensibilisation des pouvoirs publics et des plateformes. La CNCDH souligne en outre la nécessité de prendre en compte différentes formes de vulnérabilité, particulièrement en ce qui concerne les mineurs, et d'accompagner les victimes de haine en ligne. Elle souscrit donc pleinement à l'objectif prôné par la proposition de Digital Services Act, consistant à mettre en place des " règles uniformes pour un environnement en ligne sûr, prévisible et digne de confiance, où les droits fondamentaux consacrés par la Charte bénéficient d'une protection effective " (93).

3.1.1. Améliorer la formation au numérique

63. Dans le cadre de la lutte contre la haine en ligne comme dans d'autres domaines, la CNCDH rappelle l'importance d'une formation adéquate à la citoyenneté numérique, non seulement à l'école mais aussi tout au long de la vie. La Commission réitère ainsi sa recommandation d'un plan d'action national sur l'éducation et la citoyenneté numériques incluant des mesures spécifiques au cadre scolaire, aux parents et plus largement à l'ensemble des publics concernés (94).

64. Dans le milieu scolaire tout d'abord, la CNCDH salue l'introduction par la loi visant à lutter contre les contenus haineux sur internet d'obligations de formation des élèves et des enseignants aux enjeux numériques (95), formation qu'elle a préconisée dans ses travaux précédents (96). Elle s'interroge cependant sur l'effectivité de ces formations et sur leur adéquation à la réalité des outils numériques. Afin d'uniformiser le contenu et la qualité de ces enseignements au niveau national, la Commission recommande dès lors leur intégration au sein des programmes scolaires au titre de l'éducation civique, de préférence dans une optique pluridisciplinaire, en liaison notamment avec les enseignants chargés de l'informatique et ceux de sciences humaines et sociales. Elle préconise de privilégier, parmi les intervenants extérieurs, les personnes compétentes provenant du milieu associatif. Il convient en outre d'étudier ces enjeux lors de la formation du personnel enseignant - initiale et continue - et plus généralement des professionnels intervenant auprès de mineurs (97).

65. Au-delà du seul contexte éducatif, la CNCDH souligne la nécessité d'une sensibilisation adéquate de l'ensemble de la population. Elle encourage à cet égard les initiatives consistant à mettre en place des ressources accessibles à tous les usagers, tant par les autorités publiques et le milieu associatif que par les plateformes, tel que préconisé dans ses précédents travaux (98). Un exemple récent est le " Kit pédagogique du citoyen numérique " élaboré conjointement par la CNIL, le CSA, le DDD et la HADOPI. Elle encourage en particulier le développement de formations aux bonnes pratiques numériques sur le temps professionnel ou du moins sur le lieu de travail, par exemple avec le soutien des syndicats ou des conseils sociaux et économiques des entreprises qui en disposent. Concernant le contenu de ces formations à la citoyenneté numérique, la CNCDH souligne la nécessité de former l'utilisateur à l'analyse critique des contenus de même qu'aux ressorts techniques et économiques des réseaux sociaux (99) et autres grandes plateformes, ce qui inclut à la fois leur modèle économique et les mécanismes de partage et de visibilité des contenus en ligne.

66. S'agissant plus spécifiquement des contenus illicites et haineux sur internet, il est essentiel que les usagers appréhendent la nature des comportements prohibés et toute leur gravité. En raison de leur complexité, il convient d'expliquer de manière accessible les différentes infractions prévues au sein de la loi du 29 juillet 1881 et du code pénal. Il en va de même de la distinction entre anonymat et pseudonymat, en rappelant que la personne en cause reste identifiable notamment à des fins de poursuites pénales.

67. Il importe donc de faire comprendre aux utilisateurs que des actes en ligne peuvent non seulement produire des conséquences bien réelles dans le monde physique, mais aussi engager leur responsabilité civile ou pénale (100). D'une part, l'utilisateur est responsable des contenus dont il est l'auteur. D'autre part, il peut également être responsable du relais d'un contenu illicite (par lien hypertexte (101), partage ou " retweet ", voire une réaction telle qu'un " j'aime "(102)) ou parfois de commentaires postés par des tiers sous l'une de ses publications (103). Si la CNCDH appelle à la prudence au regard de la liberté d'expression et de l'opportunité des poursuites à cet égard, elle relève qu'informer l'usager des risques qu'il encourt a des vertus pédagogiques et permet de le responsabiliser (104).

68. Par ailleurs, la CNCDH insiste sur le fait que l'éducation et la sensibilisation au numérique doivent être adaptées au public visé. Elle encourage donc les autorités, associations et plateformes à s'adapter aux codes des différents publics, notamment des mineurs, dans le cadre de partenariats avec des professionnels ou des organismes expérimentés dans de telles interventions ciblées, par exemple en réalisant des vidéos en direct (des " lives "). Cela peut aussi prendre la forme de jeux interactifs, de quiz ou de mises en situation, et passe par une co-construction des supports avec les publics concernés. Il convient enfin de promouvoir la concertation avec des spécialistes du graphisme et, par exemple, des pédopsychiatres pour s'assurer d'une communication effective du message en cause (105).

Recommandation n° 14 : La CNCDH recommande l'adoption d'un plan d'action national sur la formation à la citoyenneté numériques, afin d'assurer l'effectivité de l'éducation à la citoyenneté numérique dans le cadre scolaire en l'intégrant au sein d'un programme uniformisé à l'échelle nationale ; en garantissant une formation adéquate du personnel enseignant aux usages des nouvelles technologies, notamment par l'intervention d'acteurs associatifs ; en promouvant la sensibilisation de tous les publics, par un effort coordonné des pouvoirs publics, du milieu associatif et des plateformes ; en prenant en compte l'expérience utilisateur dans l'élaboration et le déploiement de ces ressources pédagogiques.

3.1.2. Prendre en compte les vulnérabilités particulières

69. Au-delà de la formation, la CNCDH relève que des mesures supplémentaires sont nécessaires pour protéger les publics vulnérables. Il s'agit essentiellement des mineurs, qui se saisissent de plus en plus des nouvelles technologies sans l'aide de leurs parents, mais aussi de certaines autres catégories du public telles que les personnes souffrant d'un handicap qui entrave leur accès au numérique, d'illettrisme ou rencontrant des difficultés avec la langue française.

70. Afin de concilier l'autonomisation croissante des mineurs d'une part, et leur indéniable besoin de protection d'autre part (106), la CNCDH recommande aux plateformes de permettre un usage adapté à l'âge de l'utilisateur. Cela pourrait se traduire par des règles d'utilisation ciblées, la restriction de leur audience à leur cercle d'amis, la diminution des collectes de données personnelles et des publicités personnalisées, ou du moins l'élévation de ces éléments en paramètres par défaut (107). Certains réseaux sociaux disposant d'un service de messagerie instantanée pourraient aussi désactiver celle-ci pour les mineurs ou empêcher l'envoi de pièces jointes afin de limiter certaines pratiques.

71. Se pose néanmoins le problème de la détection des comptes de mineurs qui ne se déclarent pas comme tels. Les paramètres protecteurs destinés aux mineurs n'atteignant pas leur cible, il paraît ainsi souhaitable de repenser le formalisme des créations de compte. Dans la mesure où de très nombreux mineurs contournent l'interdiction de principe de s'inscrire sur certaines plateformes, il pourrait être envisagé, selon l'objet du service, de réviser cette interdiction pour la remplacer justement par un régime spécifique aux plus jeunes. La Commission partage en outre le constat selon lequel il n'existe pas, en l'état des pratiques, de solution pleinement satisfaisante de vérification de l'âge de l'utilisateur (108) et préconise donc un système de vérification adapté aux risques posés par le service. Sans remettre en cause la possibilité de conserver l'anonymat ou le pseudonymat en ligne, elle rejoint les réflexions actuelles sur le rôle des tiers de confiance permettant de confirmer l'identité ou l'âge d'un utilisateur sans révéler d'informations identifiantes (109).

72. Outre la conception de mesures spécifiques aux mineurs, la CNCDH souligne l'importance d'un accompagnement adéquat des parents (110). Souvent moins familiers que leurs enfants des nouvelles technologies, ils peuvent se trouver désemparés face aux usages des principales plateformes (111). La Commission préconise ainsi d'encourager le dialogue entre les jeunes utilisateurs et leurs parents et d'informer ceux-ci séparément, par exemple dans le cadre scolaire ou par le biais de campagnes de sensibilisation. En ce sens, la Commission recommande la conception d'outils et de guides à l'usage des parents par les plateformes, en collaboration avec les acteurs publics et associatifs, qui soient accessibles indépendamment de la création d'un compte utilisateur (112).

73. L'objectif serait de promouvoir une approche active des parents face aux usages de leurs enfants. Si l'efficacité des outils de contrôle parental doit être rappelée, ils ne sauraient suppléer un accompagnement au quotidien. Il ressort ensuite de différents travaux menés sur les utilisateurs mineurs que ceux-ci ne considèrent pas toujours leurs parents comme une ressource en cas d'incident ni même comme une source d'information (113), ce pourquoi la CNCDH préconise de porter à la connaissance tant des parents que des enfants l'existence de tiers à l'écoute des mineurs, notamment les acteurs associatifs tels qu'e-Enfance. Il convient en outre d'encourager un dialogue régulier au sein de la famille et une implication des parents dans l'activité en ligne de leurs enfants, par exemple pour leur donner des règles élémentaires de sécurité, régler ensemble certains paramètres tels que la confidentialité du compte, mettre en place une gestion du temps d'écran, présenter les ressources d'accompagnement, etc.

74. Enfin, face aux difficultés rencontrées par certains utilisateurs avec la langue française, il convient d'assurer d'une traduction en FALC (français Facile à Lire et à Comprendre) des dispositifs de formation et de signalement, et en particulier de ceux mis en place par l'Etat. De même, ces dispositifs doivent être accessibles aux personnes en situation de handicap en s'assurant qu'ils respectent les standards d'accessibilité numérique.

Recommandation n° 15 : La CNCDH recommande de :

- prévoir d'adapter la sécurité, les fonctionnalités et l'ergonomie du service aux fins de protection des utilisateurs mineurs ;

- prévoir d'accompagner les parents, par le biais de ressources adaptées et d'espaces de documentation dédiés au sein des plateformes, aux fins de promouvoir leur compréhension des activités en ligne de leurs enfants.

Recommandation n° 16 : La CNCDH recommande de garantir une traduction en FALC des dispositifs de formation et de signalement des utilisateurs, et leur respect des standards d'accessibilité numérique.

3.1.3. Accompagner les victimes

75. Les victimes d'abus en ligne, particulièrement à caractère haineux, disposent actuellement d'un accompagnement très insuffisant. Face à la diversité des acteurs, et parfois à la faiblesse de leurs moyens, il est complexe pour l'utilisateur de savoir à qui s'adresser aussi bien pour rapporter des propos haineux aux forces de l'ordre et à la justice que pour obtenir un accompagnement psychologique, social ou juridique. Il convient ainsi de prévoir cet accompagnement sans distinguer, dans sa mise en œuvre, entre les victimes d'une infraction constituée et les personnes s'estimant victimes de propos qui, bien que choquants ou provocateurs, ne sont pas réprimés par le droit pénal. La qualification des contenus haineux peut en effet présenter une telle complexité que leur potentielle licéité ne devrait pas faire obstacle à ce que l'utilisateur soit redirigé vers des associations ou des ressources pertinentes.

76. La CNCDH recommande tout d'abord de renforcer le soutien aux associations d'aide aux victimes, spécialisées ou non dans le numérique, et de développer des partenariats entre les acteurs associatifs et les principaux opérateurs de plateforme. Elle préconise ensuite d'augmenter la visibilité des outils pédagogiques et des associations spécialisées sur les plateformes, pour que l'usager confronté à des propos haineux puisse trouver directement un interlocuteur compétent. Cela pourrait se faire par la mise à disposition par les plateformes, à titre gratuit, d'espace publicitaire pour promouvoir des actions de prévention et de protection des victimes. De surcroît, la CNCDH considère que la prise en charge des victimes devrait incomber aux plateformes au titre de l'évaluation des effets négatifs causés par la propagation des discours de haine sur les très grandes plateformes (114).

77. Consciente des limites des moyens d'action dont disposent les acteurs associatifs, la CNCDH propose en outre de développer une application dédiée à l'orientation des victimes, accessible directement depuis les plateformes sur tous les dispositifs intelligents (téléphone, tablette, ordinateur). Celle-ci aurait vocation à guider les personnes victimes ou témoins de contenus haineux ou blessants dans leurs démarches, étape par étape. Elle pourrait ainsi aider l'utilisateur à distinguer les contenus potentiellement illicites de ceux simplement choquants, l'assister lors de leur signalement puis le rediriger vers des acteurs pouvant lui apporter un soutien psychologique ou juridique adapté, en s'appuyant au besoin sur la géolocalisation. Le développement de cette application serait confié à l'organisme national indépendant de lutte contre la haine en ligne proposé précédemment (115).

Recommandation n° 17 : La CNCDH recommande de renforcer le soutien aux associations et leurs partenariats avec les plateformes pour augmenter leur visibilité et accompagner les utilisateurs victimes de propos haineux.

Recommandation n° 18 : La CNCDH recommande de développer une application permettant d'orienter et de soutenir les victimes de contenus haineux ou choquants.

3.2. Développer des outils de mise en capacité d'agir de l'utilisateur

78. Dans la continuité de la formation à la citoyenneté numérique et de la protection de l'utilisateur, il convient de penser des mesures le mettant en capacité d'agir sur son environnement numérique. D'une part, il s'agit d'adapter l'ergonomie de l'information fournie. D'autre part, la CNCDH recommande la consécration d'un droit au paramétrage au profit de l'utilisateur.

3.2.1. Adapter l'information au parcours utilisateur

79. Les recommandations précédentes relatives à l'information de l'utilisateur par les plateformes (116) doivent être prolongées pour en assurer l'effectivité. Si le contenu de l'information doit être clair et lisible, de nombreux travaux convergent sur la nécessité d'en adapter la forme et de penser son ergonomie pour améliorer l'expérience utilisateur et en garantir une meilleure compréhension (117). La CNCDH souscrit ainsi pleinement à l'affirmation de la CNIL, selon laquelle c'est " aussi dans l'expérience utilisateur que doivent être diffusées les informations qui permettront à l'utilisateur d'agir en conscience et de comprendre tout en se préservant des risques de surcharge informationnelle que pourrait provoquer la tentation de la politique de confidentialité exhaustive. Si celle-ci doit toujours être présente, comme point de référence, elle devra être accompagnée par le design " (118). La mobilisation de l'ergonomie et d'un graphisme approprié s'avère donc indispensable pour garantir la compréhension effective de l'information par l'utilisateur. Cette information doit en outre s'adapter au public visé, notamment lorsqu'il s'agit de mineurs (119).

Recommandation n° 19 : La CNCDH recommande d'assurer l'effectivité de l'information de l'utilisateur par la plateforme par le biais de l'ergonomie des interfaces.

3.2.2. Consacrer un droit au paramétrage au profit de l'utilisateur

80. A cette information effective de l'utilisateur doit s'ajouter une capacité à paramétrer l'outil mis à sa disposition par la plateforme, afin de délimiter clairement ses choix sans ingérence de la part de l'opérateur. La CNCDH recommande ainsi de reconnaître à l'utilisateur un droit au paramétrage tant des contenus émis que des contenus reçus.

81. En ce qui concerne la sphère d'émission de l'utilisateur d'une part, c'est-à-dire les contenus qu'il met en ligne, il est important de lui permettre de déterminer, pour chacune de ses publications, le public auquel il souhaite s'adresser. Cela inclut un paramétrage des utilisateurs tiers pouvant accéder au contenu et, de manière plus fine, interagir avec celui-ci. Pour une maîtrise plus complète des interactions suscitées par ses propos, l'usager doit aussi pouvoir aisément les désactiver, par exemple en clôturant l'espace réservé aux commentaires. Il est également souhaitable que la plateforme restreigne par défaut l'audience de la publication à ses seuls " amis " ou " abonnés ", particulièrement pour les mineurs.

82. D'autre part, le choix par l'utilisateur des contenus dont il est récepteur soulève des enjeux plus complexes auxquels la CNCDH réitère son attachement, tels que l'autonomie de la personne et sa liberté de conscience, mais présente également des risques pour le pluralisme et la diversité des opinions. Le débat relatif aux " bulles de filtre " (120) et aux dangers qu'elles présentent pour la démocratie est ainsi devenu commun dans le cadre de l'information en ligne (121). Une approche prudente reste donc nécessaire dès lors qu'est abordée la liberté de réception de l'utilisateur. Pour autant, il semble infiniment plus opportun à la Commission de conférer à l'usager le pouvoir de construire son propre espace et de le paramétrer selon ses intérêts, plutôt que de laisser sa consommation de contenus être dictée par le seul intérêt économique de la plateforme et ses mécanismes de visibilité. Cela paraît d'autant plus pertinent que le concept même de réseau social renvoie à l'idée d'un espace taillé sur mesure par l'utilisateur (122).

83. La CNCDH se prononce ainsi dans le sens d'un droit au paramétrage des contenus reçus, concrétisé par une sélection non seulement de ces contenus, mais aussi de leurs critères de présentation. En ce qui concerne le choix des contenus eux-mêmes, une option permettant de favoriser certains contenus intéressant l'utilisateur et de refuser d'être exposé à certains autres doit être consacrée. Si elle existe déjà sur de nombreuses plateformes, sa simplicité d'usage pourrait être améliorée afin de la rendre plus accessible. Dans la même optique, l'usager doit pouvoir choisir les personnes ou pages dont il souhaite recevoir les publications, lui permettant par exemple de resserrer son cercle d'interaction à ses seuls " amis " et pages suivies, ou au contraire de l'élargir en se voyant recommander des contenus extérieurs. Il s'agit donc de contrôler tant les émetteurs que la nature des contenus à favoriser ou à exclure.

84. Plus largement, il convient de permettre à l'usager de décider selon quels critères l'information lui est présentée. La CNCDH souscrit donc pleinement à la possibilité pour l'utilisateur de choisir de recevoir des contenus " neutres ", c'est-à-dire non personnalisés ou issus d'un système algorithmique de recommandation. Celle-ci est déjà prônée par la proposition de DSA en ce qui concerne les très grandes plateformes usant de systèmes de recommandation (123). Dans sa continuité, il semble également opportun d'envisager une option lui permettant d'effectuer une recherche ponctuelle ou occasionnelle, sans que celle-ci soit prise en compte par les systèmes algorithmiques de recommandation ou ceux permettant une publicité ciblée. Cela supposerait la création d'une nouvelle option, en vertu de laquelle un utilisateur souhaitant effectuer une recherche hors de ses intérêts ou goûts habituels pourrait signaler à l'opérateur de plateforme ou au moteur de recherche qu'il ne souhaite pas que cette recherche soit ensuite mobilisée à des fins de profilage.

85. Néanmoins, la CNCDH prend acte d'un paradoxe propre aux utilisateurs de services numériques, à savoir d'une part vouloir reprendre le contrôle et opérer un paramétrage de leurs espaces en ligne et d'autre part vouloir n'y consacrer qu'un temps très court. C'est pourquoi la Commission préconise au moins deux niveaux distincts de paramétrage, adaptés tant aux usagers souhaitant opérer un réglage poussé qu'à ceux préférant une solution rapide. Dans un premier temps, tout usager doit pouvoir sélectionner un contenu apparaissant dans son fil d'actualité ou dans ses recherches pour signaler qu'il ne souhaite plus être exposé à de tels contenus ou, s'agissant de ses propres publications, en choisir l'audience. Dans un second temps, il doit être en mesure d'accéder au sein de ses paramètres à un tableau de bord ergonomique, récapitulant ses choix et permettant d'effectuer des réglages plus généraux. Ce tableau de bord devrait être pensé comme un espace aisément accessible, permanent, permettant à l'utilisateur de s'y référer à n'importe quel moment et de réfléchir à la manière dont il souhaite s'informer, en gérant ses préférences.

86. Pour prolonger ces considérations, la Commission estime que l'effort individuel de chaque plateforme quant à l'ergonomie de ses interfaces devrait se doubler d'une concertation collective pour éviter une disparité trop grande entre les plateformes sur ce point. De même que la proposition de loi visant à lutter contre les contenus haineux sur internet imposait, avant sa censure par le Conseil Constitutionnel, une harmonisation du système de notification des contenus illicites entre les plateformes (124), il convient d'inciter les opérateurs à uniformiser l'exercice du droit au paramétrage de l'utilisateur.

87. Une fois cette faculté de paramétrage actionnée, un aspect tout aussi important est la transparence de la plateforme quant à sa mise en œuvre concrète. Cela rejoint la réflexion plus large sur la rétrogradation unilatérale et opaque de certains contenus par la plateforme, par exemple la baisse de visibilité des contenus dangereux, des informations trompeuses, etc. La CNCDH estime à cet égard qu'afin de favoriser la liberté de choix de l'utilisateur, il doit être mis en mesure de comprendre quels contenus lui sont dissimulés et pourquoi. Si cela ne doit pas nécessairement apparaître sur son fil d'actualité, bien que cela semble souhaitable si cette information est conciliable avec la fluidité de l'expérience utilisateur, il convient à tout le moins de l'intégrer au tableau de bord précité. Au sein de l'espace de réglages, une page devrait ainsi permettre de visualiser les filtrages apposés par l'usager et ceux déduits ou imposés indépendamment par la plateforme, et de les modifier.

88. La CNCDH préconise ainsi une évolution du projet d'article 29 du DSA. Si celui-ci semble obliger les très grandes plateformes en ligne à introduire une option " neutre " au sein de leur système de recommandation, il leur laisse cependant toute latitude pour rendre disponibles ou non d'autres options. Or, il semble essentiel de garantir la mise en capacité d'agir de l'utilisateur par un droit effectif au paramétrage. Dans la continuité de cette recommandation, la Commission exprime son attachement aux réflexions actuelles relatives à l'interopérabilité des plateformes, particulièrement des réseaux sociaux, qui permettrait de renforcer ce droit et de repenser internet comme un espace diversifié, favorisant le choix réel de ses usagers (125).

Recommandation n° 20 : La CNCDH recommande de :

- consacrer au profit de l'utilisateur un droit au paramétrage effectif des contenus reçus et émis sur les très grandes plateformes, selon des modalités aisément accessibles et transparentes ;

- promouvoir l'interopérabilité des plateformes.

3.3. Responsabiliser l'utilisateur

89. Dans le cadre de ses précédents travaux sur la haine en ligne, la CNCDH a appelé à une responsabilité individuelle et collective accrue de la part des utilisateurs des réseaux sociaux (126). Cette responsabilisation peut se manifester sous plusieurs formes ; elle s'inscrit dans la continuité directe des deux premières étapes de formation au numérique et de mise en capacité d'agir de l'utilisateur. Une fois formé quant aux limites de la liberté d'expression et aux modèles économiques des plateformes, dont certains promeuvent la viralité des contenus, l'individu peut prendre pleinement conscience de son rôle dans la propagation des discours de haine en ligne.

90. Si les mécanismes de visibilité et de promotion des contenus choquants relèvent avant tout du choix des plateformes, l'utilisateur joue en effet un rôle non négligeable dans ces phénomènes. Il constitue le point de départ d'un propos lorsqu'il en est l'auteur, et peut contribuer à la viralité des contenus d'autrui en les relayant, que ce soit par le biais d'un lien hypertexte, d'une reproduction du contenu (par " partage " ou " retweet ") ou par une réaction (comme un " j'aime "). Il convient dès lors de favoriser sa réflexivité et son esprit critique et de l'inciter à devenir agent de la lutte contre les contenus haineux.

3.3.1. Promouvoir la réflexivité de l'utilisateur

91. Face au rythme soutenu et à l'activité incessante de certaines plateformes, favorisant notamment la captation de l'attention (127) et la viralité des contenus, la CNCDH souligne la nécessité de promouvoir la réflexivité de l'utilisateur c'est-à-dire de l'inviter à ne pas se limiter à une réaction immédiate, mais de prendre le temps de mener une réflexion critique, afin qu'il ne contribue pas par négligence ou ignorance à la propagation de la haine en ligne (128).

92. Eu égard aux contenus émis par l'utilisateur, cette démarche reposerait sur la nécessité de réfléchir avant de publier un propos ou de partager celui d'autrui. La CNCDH encourage ainsi les plateformes à adopter des pratiques non intrusives qui, tout en étant respectueuses de la liberté d'expression, permettent d'attirer l'attention de l'utilisateur sur le caractère potentiellement haineux de son contenu. Cela pourrait être mis en place sur le modèle des avertissements affichés par certaines plateformes en cas de partage d'articles de presse anciens ou mentionnant des sujets liés à la pandémie de Covid-19. Pour les opérateurs en mesure de développer des systèmes algorithmiques de reconnaissance de texte, il pourrait par exemple être envisagé d'avertir l'utilisateur lorsqu'il emploie un terme considéré comme offensant, ou s'il mentionne un événement historique particulièrement sensible. Un message d'alerte pourrait alors apparaître avant la publication ou le relais du contenu, sans en empêcher la mise en ligne si l'utilisateur choisit de l'ignorer. La CNCDH déplore à ce propos les pratiques inverses de certaines plateformes, consistant à modérer automatiquement toutes les publications contenant un terme potentiellement haineux, quand bien même celui-ci peut être mobilisé à des fins d'information du public ou réapproprié par les groupes concernés à des fins militantes.

93. Un autre type de mesures, concernant cette fois la sphère de réception de l'utilisateur, peut consister à appeler sa vigilance sur le caractère potentiellement illicite des contenus publiés par autrui. La CNCDH souscrit pleinement à la recommandation formulée par le CSA en ce sens (129), afin de stimuler l'esprit critique de l'usager. Cela peut se traduire d'abord par la création d'une nouvelle signalétique, en incluant sous le contenu un symbole (par exemple un drapeau rouge) pour montrer qu'il a déjà fait l'objet d'un certain nombre de signalements. Ce symbole pourrait ainsi être inséré aux côtés des autres fonctionnalités habituellement mises en avant par les plateformes, dont les réactions et les commentaires.

94. De manière plus marquée, certaines plateformes ont mis en œuvre de nouveaux procédés visant à voiler un contenu. Celui-ci devient alors inaccessible sans action positive de l'utilisateur, qui peut choisir de le voir malgré un message d'alerte. La limite reste néanmoins ténue entre les propos faisant l'objet de ce filtre et ceux considérés comme illicites, que la plateforme a l'obligation de retirer en droit français à l'issue d'une certaine procédure (130).

95. Tout en exprimant des réserves sur le pouvoir d'appréciation laissé à des opérateurs privés en matière de liberté d'expression et de détermination des contenus choquants ou offensants, la CNCDH souscrit à ces initiatives en ce qu'elles favorisent la réflexivité de l'utilisateur et l'incitent à une approche critique du contenu.

Recommandation n° 21 : La CNCDH recommande de développer des solutions techniques permettant d'attirer l'attention de l'utilisateur sur le caractère potentiellement haineux de son contenu avant publication ou relais, dans le respect de la liberté d'expression, ainsi que des contenus reçus dès lors qu'ils ont fait l'objet de signalements.

3.3.2. Inciter l'utilisateur à lutter contre la haine en ligne

96. La formation aux enjeux soulevés par la propagation des discours de haine en ligne et la réflexivité promue par les mesures précédentes devraient aboutir à une responsabilisation de l'utilisateur. Il devrait ainsi être en mesure de devenir agent de la lutte contre la haine en ligne, avant tout en s'abstenant de publier ou relayer des discours haineux. De manière moins évidente, il convient également de l'inviter à adopter un rôle proactif en signalant correctement des contenus tiers, et en modérant les interactions suscitées par ses propres publications.

97. En premier lieu, la CNCDH observe que les signalements de contenus illicites manquent souvent d'efficacité, notamment en raison d'erreurs de qualification. Dans le prolongement des mesures de sensibilisation de l'utilisateur quant aux infractions relatives à la haine en ligne, la Commission encourage les plateformes à mettre à sa disposition un support pédagogique simple pour comprendre les comportements prohibés et la manière de les signaler. Il est fondamental à cet égard que deux niveaux d'information soient respectés : un résumé clair et concis permettant à l'utilisateur de comprendre les enjeux en quelques secondes, sans effort particulier, puis un support plus exhaustif avec des explications et exemples au sein des conditions générales d'utilisation. Ces deux formats doivent rester accessibles à tout moment, et non pas figurer seulement lors de l'inscription de l'usager, afin qu'il puisse s'y référer au besoin.

98. Quand bien même les qualifications juridiques seraient comprises, il est à craindre que les sensibilités particulières et la subjectivité de l'usager ne le mènent à considérer comme illicite un contenu qui n'est pourtant que provocateur ou indésirable. Il convient ainsi d'opérer une distinction claire entre l'illicéité potentielle d'un contenu d'une part, et le seul fait que l'utilisateur ne souhaite pas être exposé à de tels propos ou en soit choqué d'autre part. C'est pourquoi le système de signalement devrait rendre disponible à la fois le signalement pour illicéité du contenu et le choix de ne plus voir de contenus similaires, qui relève davantage du droit au paramétrage précité. L'objectif est donc de s'assurer de la pertinence des signalements dès l'origine, en permettant une qualification plus exacte des contenus.

99. En second lieu, il convient de responsabiliser l'utilisateur tant à l'égard des contenus qu'il publie que des interactions que cela engendre. A ce titre, la CNCDH recommande non seulement de mettre l'utilisateur en mesure de modérer les contenus publiés par des tiers sur son espace (compte, page, groupe, blog, etc.) mais aussi de l'inciter à le faire dès lors qu'il bénéficie d'une certaine audience ou qu'il s'agit d'espaces professionnels, en particulier ceux des médias. Pour que l'utilisateur soit en capacité de modérer son espace, la CNCDH préconise la création d'une option sur toutes les plateformes permettant de désactiver les commentaires sous chaque publication ou, s'ils restent activés, de les supprimer individuellement et de filtrer les commentaires en interdisant au préalable l'emploi de certains termes. Cela s'inscrit dans la continuité directe du droit au paramétrage qui devrait lui être conféré. Il conviendrait en outre d'établir un double système de notification en cas de signalement d'un contenu, de sorte que le détenteur de la page ou du compte soit alerté en même temps que le service de modération de la plateforme - sans pour autant obtenir l'identité du signaleur. Cela lui permettrait alors de procéder à sa propre modération voire d'exclure certains internautes adeptes de propos illicites de son cercle d'interactions.

100. Il est également souhaitable d'inciter les utilisateurs, en particulier les plus visibles tels que les médias, figures politiques, célébrités et influenceurs, à opérer une telle modération. Les opérateurs de plateformes pourraient ainsi émettre un message de sensibilisation et un guide de modération à l'intention des internautes disposant d'une certaine audience. Ils pourraient en outre afficher à l'utilisateur une jauge du nombre de contenus modérés sur son espace par la plateforme, afin de l'encourager à prendre lui-même des mesures de modération appropriées.

101. Tout en déplorant une faible lisibilité du droit en la matière, la CNCDH rappelle que le détenteur d'une page ou d'un compte sur une plateforme, ou d'un site internet, peut être responsable en tant que directeur de la publication (131) voire en qualité d'hébergeur des commentaires et interactions d'internautes tiers sur son espace. La Commission émet des réserves sur l'opportunité de telles actions à l'encontre des utilisateurs ordinaires, disposant d'un public modéré, pour lesquels elles pourraient représenter une charge démesurée et se révéler peu efficaces dans la lutte globale contre la haine en ligne. Elle recommande toutefois que les pouvoirs publics et associations se saisissent de cette possibilité dans certaines circonstances, lorsque le détenteur tire manifestement profit des débats ou commentaires haineux échangés sur son espace, et les laisse ainsi prospérer volontairement étant donné le bénéfice qu'il tire d'une audience conséquente.

Recommandation n° 22 : La CNCDH recommande d'inciter les plateformes à mettre à disposition de l'utilisateur un support pédagogique simple détaillant les principaux contenus illicites et le processus de signalement, puis à distinguer lors du signalement entre l'illicéité du contenu et le droit au paramétrage.

Recommandation n° 23 : La CNCDH recommande de permettre à l'utilisateur de désactiver, supprimer et filtrer les commentaires sous ses publications et d'être alerté lors du signalement d'un contenu sur son espace, afin de le mettre en mesure de le modérer.

Recommandation n° 24 : La CNCDH recommande d'encourager les actions des pouvoirs publics à l'encontre de détenteurs de pages, de comptes ou de sites internet en leur qualité d'hébergeur ou de directeur de la publication dans certaines circonstances, lorsque ceux-ci bénéficient d'une audience conséquente et tirent manifestement profit des commentaires haineux suscités par leurs contenus.

(1) Cette caractérisation entretient l'idée qu'internet représenterait un mode relationnel spécifique, que la nature des rapports sociaux serait différente au regard du monde sensible.

(2) Conseil constitutionnel, décision n° 2020-801 DC, 18 juin 2020.

(3) D'après le baromètre de Netino, 14 % des messages en ligne au mois de mars étaient des messages comportant des contenus haineux, contre 12% au mois de janvier et 11 % au mois de février.

(4) Rapport Mission FaceBook, p. 8 définissant un réseau social " comme un service en ligne permettant à ses utilisateurs de publier les contenus de leur choix et de les rendre ainsi accessibles à tout ou partie des autres utilisateurs de ce service ".

(5) Voir CNCDH, Avis sur la lutte contre les discours de haine sur internet et l'Avis relatif à la proposition de loi visant à lutter contre la haine sur internet ainsi que le rapport 2019 sur la lutte contre le racisme, l'antisémitisme et la xénophobie, disponibles en ligne sur le site de la CNCDH.

(6) Comme l'ont également rappelé́ certaines études et rapports. Voir not. : Conseil d'Etat, Etude annuelle " Le numérique et les droits fondamentaux ", Etude annuelle 2014, La Documentation française, 2014 ; " Renforcer la lutte contre le racisme et l'antisémitisme sur internet ", Rapport à Monsieur le Premier ministre, septembre 2018 ; " Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne ", Rapport remis au Secrétaire d'Etat en charge du numérique, mai 2019.

(7) Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet.

(8) Voir CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2019 -1). Certaines études et rapports ont également rappelé ces enjeux.

(9) Voir la décision n° 2020-801 DC du 18 juin 2020 du Conseil constitutionnel.

(10) Pour plus d'information, le projet de loi confortant le respect des principes de la République est disponible au lien suivant : http://www.senat.fr/dossier-legislatif/pjl20-369.html.

(11) Pour plus d'informations, voir le Code de conduite de l'Union européenne visant à combattre les discours de haine illégaux en ligne ainsi que les évaluations de la Commission européenne sur la conformité des plateformes signataires à ce code, disponible ici : https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_en.

(12) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE.

(13) Voir les avis de la CNCDH du 4 février 2021 et du 25 mars 2021 sur le projet de loi confortant le respect des principes de la République (A -2021 - 1 et A - 2021 - 4), en ligne sur le site de la CNCDH.

(14) Forum sur la Gouvernance mondiale de l'Internet (FGI), Global Internet Forum to Counter Terrorism (GIFCT), Appel de Christchurch, etc.

(15) CNCDH, Avis sur la lutte contre les discours de haine sur internet du 12 février 2015, JORF n° 0158 du 10 juillet 2015 texte n° 125.

(16) Projet de loi confortant les principes de la République et de lutte contre le séparatisme, article 18.

(17) Loi n° 82-652 du 29 juillet 1982 sur la communication audiovisuelle, article 93-3 alinéa 5.

(18) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6, I, alinéa 5.

(19) Loi du 29 juillet 1982 modifiée par la loi du 21 juin 2004, article 93-3.

(20) Loi n° 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice.

(21) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2019 -1) du 9 juillet 2019, JORF n° 0161 du 13 juillet 2019 texte n° 107.

(22) Cour européenne des droits de l'homme, Handyside c. Royaume-Uni § 49 ; Cour européenne des droits de l'homme, Observer et Guardian c. Royaume-Uni, §59.

(23) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet du 9 juillet 2019.

(24) Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, article 10.

(25) Conseil constitutionnel, décision n° 2020-801 DC du 18 juin 2020.

(26) Décret n° 2020-1444 du 24 novembre 2020 pris pour l'application de l'article 15-3-3 du code de procédure pénale.

(27) Ministère de la justice, circulaire relative à la lutte contre la haine en ligne, 24 novembre 2020.

(28) Loi de 1881, article 24 alinéas 1, 2, 7, 8, article 29 alinéas 2 et 3, article 33 alinéas 2 et 3 ; Code pénal, articles 132-76 et 132-77.

(29) Ministère de la justice, circulaire relative à la lutte contre la haine en ligne, 24 novembre 2020.

(30) G. Thierry, " Le nouveau pôle spécialisé contre la haine en ligne, une structure très attendue ", 3 février 2021, Dalloz Actualité.

(31) Ainsi, l'article 20 du projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme prévoit la possibilité de recourir aux procédures accélérées pour les délits prévus aux articles 14, 24 bis et 33 de la loi du 29 juillet 1881, " sauf si ces délits résultent du contenu d'un message placé sous le contrôle d'un directeur de publication ".

(32) CNCDH, Second avis sur le projet de loi confortant le respect des principes de la République (A- 2021 - 4) du 25 mars 2021.

(33) Il existe une possibilité de recours au blocage judiciaire prévu aux articles 6 I 8 et 50 I de la LCEN, et aux référés de droit commun prévus aux articles 145, 808 et 908 du code de procédure civile. En parallèle, il est possible de recourir au blocage administratif.

(34) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6, I, 8.

(35) Aude Signourel, " Les armes de la lutte contre la haine en ligne : de la théorie à la pratique ", Dalloz IP/IT, 2020.

(36) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, articles 6, I, 7 et 6, II.

(37) Aude Signourel, " Les armes de la lutte contre la haine en ligne : de la théorie à la pratique ", Dalloz IP/IT, 2020.

(38) CNCDH, Second avis sur le projet de loi confortant le respect des principes de la République du 25 mars 2021.

(39) Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19.

(40) CNCDH, Second avis sur le projet de loi confortant les principes de la République (A - 2021 - 4) du 25 mars 2021.

(41) Conseil national du Numérique, 15 juillet 2014, Avis n° 2014-3 sur l'article 9 du projet de loi renforçant les dispositions relatives à la lutte contre le terrorisme ; Assemblée nationale, Commission des affaires économiques, rapport n° 1936 sur le développement de l'économie numérique française, C. Erhel, L. de la Rodière.

(42) Conseil national du Numérique, 15 juillet 2014, Avis n° 2014-3 sur l'article 9 du projet de loi renforçant les dispositions relatives à la lutte contre le terrorisme.

(43) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 10.

(44) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 11.

(45) Notification de la Commission européenne 2019/412/F du 22 novembre 2019 sur la loi visant à lutter contre les contenus haineux sur internet.

(46) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet du 9 juillet 2019.

(47) I. Boyer, " La haine en ligne à l'heure des nouvelles formes de la gouvernance ", Dalloz IP/IT 2020.

(48) F. Pottier, Le chemin escarpé de la lutte contre la cyberhaine, Dalloz IP/IT 2020.

(49) Projet de loi relatif à la régulation et à la protection de l'accès aux œuvres culturelles à l'ère numérique, article 150 organisant la fusion entre le Conseil supérieur de l'audiovisuel (CSA) et la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi) au sein de l'Autorité de régulation de la communication audiovisuelle et numérique (ARCOM).

(50) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 18.

(51) Voir infra (2.3).

(52) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Articles 38 et suivants.

(53) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 48.

(54) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 47.

(55) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6, I, 7.

(56) Dispositifs de signalement sur les plateformes de PHAROS, Point de Contact, e-Enfance, et des réseaux sociaux notamment.

(57) Rapport " Renforcer la lutte contre le racisme et l'antisémitisme sur internet " de Karim Amellal, Laetitia Avia et Gil Taieb, remis au Premier ministre le 20 septembre 2018.

(58) Voir notamment la section 4 de la proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques, dite proposition de législation sur les services numériques, qui met à la charge des " très grandes plateformes " un certain nombre d'obligations liées aux risques systémiques induits par l'utilisation de leurs services.

(59) Voir notamment l'article 19 bis du projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme transmis en nouvelle lecture à l'Assemblée nationale le 14 mai 2021, qui prévoyait certaines obligations mises à la charge des opérateurs de plateformes dont l'activité sur le territoire français dépasse un seuil de connexions déterminé par décret, à l'exception des prestataires des services d'encyclopédies en ligne à but non lucratif.

(60) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet du 9 juillet 2019.

(61) En 2020, selon les responsables de PHAROS auditionnés par la CNCDH, 290 000 signalements ont été recueillis par la plateforme. Ce nombre est en augmentation régulière depuis 2009, lorsque 52 219 signalements avaient été recueillis par PHAROS.

(62) Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, Article 19 bis ; Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 19, 2. : Un signaleur de confiance est une personne qui " dispose d'une expertise et de compétences particulières aux fins de la détection, de l'identification et de la notification des contenus illicites ", " représente des intérêts collectifs et est indépendante de toute plateforme en ligne " et qui " s'acquitte de ses tâches aux fins de la soumission des notifications en temps voulu, de manière diligente et objective ".

(63) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 20.

(64) Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique, article 6.

(65) Voir la cinquième évaluation de la mise en œuvre du code de conduite contre les discours de haine illégaux en ligne, disponible ici : https://ec.europa.eu/info/sites/default/files/codeofconduct_2020_factsheet_12.pdf.

(66) Par exemple, en décembre 2019, Instagram retirait 42 % des contenus signalés et Twitter 35,9 %.

(67) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 12.

(68) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 28

(69) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Articles 14 et 15 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, Article 19 bis. Selon ces dispositions, les voies de recours s'exercent notamment par l'intermédiaire des mécanismes internes aux plateformes, de l'organe du règlement extrajudiciaire des litiges et du recours juridictionnel.

(70) Le Monde, 8 avril 2019 - Meurtres, pornographie, racisme… Dans la peau d'un modérateur de Facebook, disponible ici : https://www.lemonde.fr/pixels/article/2019/04/08/meurtres-pornographie-racisme-dans-la-peau-d-un-moderateur-de-facebook_5447563_4408996.html.

(71) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 26.

(72) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 27 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis B.

(73) CNCDH, Second avis sur le projet de loi confortant le respect des principes de la République (A - 2021 - 4) du 25 mars 2021.

(74) Tel que la création de multiples comptes par un unique utilisateur.

(75) Mécanismes utilisés notamment par Whatsapp lors du " transfert " d'un contenu dans plusieurs conversations.

(76) Le Figaro, 7 juin 2021, Le compte Instagram de Mila temporairement suspendu.

(77) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 14.

(78) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 12 ; Projet de loi confortant le respect des principes de la République, article 19 bis.

(79) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Articles 14 et 15. ; Projet de loi confortant le respect des principes de la République, article 19 bis ; V. également Trib. judiciaire Paris, 6 juillet 2021, n° RG20/53181 enjoignant à Twitter de communiquer sous deux mois diverses informations relatives à ses politiques et outils de modération.

(80) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 33 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19.

(81) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 15 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(82) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Articles 12 et 13 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(83) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 14 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(84) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 17 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(85) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 20 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(86) CNCDH, Avis sur la proposition de loi visant à lutter contre la haine sur internet (A - 2019 - 1) du 9 juillet 2019.

(87) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 31 ; Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(88) Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(89) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 28.

(90) Projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme, article 19 bis.

(91) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, Article 31.

(92) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2019 - 1) du 9 juillet 2019, p. 8.

(93) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, art. 1.2.b. Traduction libre.

(94) CNCDH, Avis sur la lutte contre les discours de haine sur internet du 12 fév. 2015, p. 33 et s. ; CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2021 - 1) du 9 juillet 2019, p. 9.

(95) Loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, art. 13 à 15, modifiant art. L. 312-9, L. 121-1 et L. 721-2 du code de l'éducation.

(96) CNCDH, Avis sur la lutte contre les discours de haine sur internet du 12 février 2015, p. 33.

(97) En ce sens, v. CNCDH, Second avis sur le projet de loi confortant les principes de la République (A - 2021 - 4) du 25 mars 2021, p. 16, pt. 60.

(98) CNCDH, Avis sur la lutte contre les discours de haine sur internet du12 février 2015, p. 34 : " la réalisation d'outils pédagogiques destinés à tous les publics concernés (usagers, parents, enfants, enseignants, etc.) ".

(99) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet du 9 juillet 2019, p. 8.

(100) Voir l'affaire Mila, Trib. Corr. Paris, 7 juillet 2021.

(101) Pour la condamnation du relais par lien hypertexte d'une vidéo proférant des menaces contre une personne dépositaire de l'autorité publique, v. not. Cass. crim., 10 avr. 2019, n° 17-81.302.

(102) Voir not. Trib. corr. Meaux, 21 août 2017 (décision non publique) retenant que l'infraction d'apologie du terrorisme est constituée par l'apposition d'un " " j'aime " " sous un contenu terroriste graphique. Pour une appréciation plus nuancée au regard du droit turque, v. CEDH, n° 35786/19, 15 juin 2021, Melike c/ Turquie, pt. 51.

(103) Voir Cass., crim., 17 mars 2015, qualifiant implicitement le détenteur d'une page Facebook de directeur de la publication ; v. aussi plus explicitement TGI Pau, ch. corr., 12 nov. 2018.

(104) Voir CNCDH, Avis sur la protection de la vie privée à l'ère numérique, 22 mai 2018, p. 37 et s. : " la personne, si jeune soit-elle, doit comprendre le plus tôt possible que l'information qu'elle communique sur l'internet fait partie intégrante d'elle-même, et que communiquer de cette manière implique d'être responsable de cette action ".

(105) Voir notamment CNIL, " Les droits des mineurs et le design de la privacy ", conférence du 11 mai 2021, accessible sur le site In-FINE Education.

(106) Sur ce point, voir CNIL, " La CNIL publie 8 recommandations pour renforcer la protection des mineurs en ligne ", 9 juin 2021.

(107) En ce sens, voir CNIL, " Recommandation 8 : prévoir des garanties spécifiques pour protéger l'intérêt de l'enfant ", 9 juin 2021.

(108) CNIL, " Recommandation 7 : vérifier l'âge de l'enfant et l'accord des parents dans le respect de sa vie privée ", 9 juin 2021.

(109) Ibid.

(110) Ou tout autre représentant légal ou adulte chargé de l'accompagnement du mineur.

(111) Voir CNIL, " Recommandation 3 : accompagner les parents dans l'éducation au numérique ", 9 juin 2021.

(112) Voir notamment TikTok et e-Enfance, Guide TikTok à l'usage des parents, fév. 2020.

(113) CNIL, " Les droits des mineurs et le design de la privacy ", conférence du 11 mai 2021, accessible sur le site In-FINE Education.

(114) A laquelle les très grandes plateformes devront procéder en vertu de l'obligation d'analyse des risques systémiques prônée tant par la proposition de Digital Services Act du 15 déc. 2020, art. 26, que par le projet de loi confortant le respect des principes de la République et de lutte contre le séparatisme du 13 avr. 2021, art. 19 bis, II, 1°.

(115) Voir supra.

(116) Voir supra concernant les règles d'utilisation, de signalement, de modération des contenus, etc.

(117) Voir notamment CNIL, La forme des choix, Cahiers IP n° 06, 20 mars 2019 ; CNIL, " Recommandation 6 : Renforcer l'information et les droits des mineurs par le design ", 9 juin 2021.

(118) CNIL, La forme des choix, Cahiers IP n° 06, 20 mars 2019, p. 31. La notion de " politique de confidentialité " doit laisser place, dans le champ de la haine en ligne, aux " standards de la communauté " ou aux conditions générales d'utilisation.

(119) En ce sens, voir CNIL, Les droits des mineurs et le design de la privacy, conférence du 11 mai 2021, accessible sur le site In-FINE Education ; CNIL, " Recommandation 6 : Renforcer l'information et les droits des mineurs par le design ", 9 juin 2021.

(120) Le concept de bulle de filtre renvoie " aux algorithmes qui, en sélectionnant l'information disponible, agissent comme un filtre " (F. Tarissan, Au cœur des réseaux. Des sciences aux citoyens, Le Pommier 2020, p. 115).

(121) Voir notamment E. Pariser, The Filter Bubble : What the Internet Is Hiding from You, New York, Penguin Press, 2011.

(122) D. Cardon, Culture numérique. Presses de Sciences Po, Hors collection , 2019, 432 pages. ISBN : 9782724623659. DOI : 10.3917/scpo.cardo.2019.01.

(123) Proposition de règlement du Parlement européen et du Conseil relatif à un marché intérieur des services numériques (Législation sur les services numériques ou Digital Services Act) et modifiant la directive 2000/31/CE, art. 29.

(124) Proposition de loi n° 419, adoptée par l'Assemblée nationale, dans les conditions prévues à l'article 45, alinéa 4, de la Constitution, visant à lutter contre les contenus haineux sur internet, 13 mai 2020, art. 4, 2°.

(125) V. not. V. Faure-Muntian et D. Fasquelle, Rapport sur les plateformes numériques, Assemblée nationale, n° 3127, 2020, p. 77&s.

(126) CNCDH, Avis relatif à la proposition de loi visant à lutter contre la haine sur internet (A - 2019 - 1) du 9 juillet 2019, p. 13.

(127) D. Boullier, Comment sortir de l'emprise des réseaux sociaux, Le Passeur, 2020.

(128) Pour une distinction entre les utilisateurs de mauvaise foi participant volontairement à la propagation de contenus néfastes d'une part, et les usagers de bonne foi y contribuant par négligence ou ignorance d'autre part, v. CNPEN, Enjeux d'éthique dans la lutte contre la désinformation et la mésinformation, Bulletin de veille n° 2, 21 juill. 2020, p. 14 et s.

(129) CSA, Recommandation n° 2019-03 du 15 mai 2019 aux opérateurs de plateforme en ligne dans le cadre du devoir de coopération en matière de lutte contre la diffusion de fausses informations, point 5.b : " appeler la vigilance des utilisateurs sur les contenus qui ont fait l'objet de signalements ".

(130) Voir supra.

(131) Voir Cass., crim., 17 mars 2015 et TGI Pau, ch. corr., 12 nov. 2018 précités.