La loi contre la haine en ligne suffira-t-elle ?

Le texte, qui doit encore passer devant le Sénat, donne plus de pouvoir au CSA et crée de nouvelles sanctions afin de responsabiliser les acteurs du Net. Toutefois, certains s’inquiètent pour la liberté d’expression ou encore la souveraineté de l’État. La députée en charge de la loi, Laetitia Avia, répond à ces craintes.

© Assemblée nationale

Laetitia Avia, députée Lrem.

Le texte, qui doit encore passer devant le Sénat, donne plus de pouvoir au CSA et crée de nouvelles sanctions afin de responsabiliser les acteurs du Net. Toutefois, certains s’inquiètent pour la liberté d’expression ou encore la souveraineté de l’État. La députée en charge de la loi, Laetitia Avia, répond à ces craintes.

La loi Avia s’attaque à un enjeu colossal : lutter contre la haine en ligne. Et il y a du travail car les propos racistes, homophobes, terroristes ou encore pédopornographiques sont légion sur la toile. Pour y parvenir, une mesure phare : l’obligation pour les plateformes internet de retirer les contenus « manifestement illicites » sous vingt-quatre heures. Les sites devront informer les auteurs concernés ainsi que la ou les personnes ayant signalé le message litigieux de leur décision de le retirer ou non. 

Préserver la liberté d'expression

Le temps imparti est court et les détracteurs du texte craignent que les opérateurs, pour se conformer à la loi et ne pas risquer de sanctions, jouent la carte de la sur-censure ou de la pré-censure, plutôt que de séparer le bon grain de l’ivraie judicieusement. Or, si les contenus venaient à être retirés au moindre signalement, la loi contre la haine en ligne pourrait nuire à un principe démocratique fondamental : « Il y a un risque que le Conseil constitutionnel estime que cette proposition de loi porte atteinte à la liberté d’expression, commente Caroline Eckly, avocate chez BRL Avocats. Il y a également un risque que le process uniformisé de contrôle des propos tenus sur Internet neutralise toute divergence d’opinions au risque de parvenir à une stérilisation des débats. »

Pour la députée LREM en charge du texte, Laetitia Avia, la liberté d’expression est déjà mise à mal. « Elle est en recul. Il y a des personnes qui hésitent à donner leur avis, à montrer leurs convictions, voire quittent les réseaux sociaux de peur de déferlantes de haine. » L’élue indique également avoir échangé avec le Conseil d’État afin de respecter les fondamentaux démocratiques. Et de préciser : « La loi ne crée pas l’obligation de retrait des contenus haineux. Cette obligation relevait déjà de la loi de 2004 pour la confiance dans l’économie numérique. Nous avons en revanche explicité les contenus dits “manifestement illicites”, le délai de retrait - fixé à vingt-quatre heures -, et renforcé les contrôles et les sanctions pour que la loi soit ­pleinement effective. » 

La loi, déjà passée devant l’Assemblée nationale en première lecture et qui sera au Sénat à la rentrée, prévoit deux types de punition. Les sites internet vont informer les utilisateurs des modalités générales des dispositifs de modération mis en place, des moyens et les ressources dédiés à la lutte contre les contenus haineux et des voies de recours. En cas de manquement à cette obligation de transparence, une sanction administrative d’un montant maximum de 4 % du chiffre d’affaires de la plateforme pourra être prononcée par le CSA. Un volet pénal, qui concerne les entreprises et leurs représentants, est également dans les tuyaux, avec la création d’un parquet spécialisé dans le numérique. Particuliers et associations pourront porter plainte. Les dirigeants s’exposent à une peine de prison d’un an et de 250 000 euros d’amende (1,25 million d’euros pour une personne morale) pour non retrait d’un contenu manifestement haineux. Un délit est aussi prévu pour refréner les signalements abusifs. 

Du pain sur la plance pour les plateformes et les régulateurs

Dans une communication, l’Asic (Association des services internet communautaires), Syntec Numérique et Tech In France ont demandé à bénéficier de l’aide d’une instance indépendante afin d’être aiguillés sur les contenus dits « gris ». C’est-à-dire ceux qui posent des problèmes d’interprétation : « Il n’est pas possible de légiférer sur le contenu gris, comme nous l’a indiqué le Conseil constitutionnel. On peut néanmoins travailler sur le non-législatif, précise Laetitia Avia. Cédric O, secrétaire d’État chargé du numérique, va mettre en place un groupe de travail qui réunira les plateformes et le CSA, afin d’aider chacun à mieux appréhender les contenus gris. »
« Le CSA va avoir de nouvelles compétences et devrait donner des lignes directrices pour apprécier la nature de ces contenus et aussi les comportements de censure excessifs des opérateurs, ajoute l’avocate Caroline Eckly. Ensuite, ce sont vraisemblablement les positions des juges qui permettront d’aider à faire le tri. » 

Les opérateurs fourbissent leurs armes. Par exemple, Facebook travaille à la constitution d’un conseil de supervision mondial, qui examinera les décisions controversées prises par les modérateurs de l’entreprise. Si quelqu’un estime que la suppression de son commentaire est une erreur ou si le public s’oppose à un commentaire qui a été validé malgré un signalement, le conseil pourra intervenir. Néanmoins, ce système ne pourra probablement pas être suffisamment réactif dans certaines situations qui nécessiteraient des prises de décisions rapides étant donné la viralité de certains posts. 

Ce concept de conseil vient de Noah Feldman, auteur et professeur à Harvard, qui a vendu en janvier 2018 le principe d’une « Cour Suprême de Facebook » à la chief operating officer du réseau social, Sheryl Sandberg, rapporte Bloomberg. Or, les mots ont un sens et cette dénomination vient apporter de l’eau au moulin des détracteurs du texte qui estiment que le gouvernement français se décharge d’une partie du judiciaire. En effet, l’État, qui n’a pas les moyens de faire la police sur tout le Web, souhaite responsabiliser les plateformes. Au risque d’abandonner par là même une partie de sa souveraineté ? « C’est déjà le cas aujourd’hui. Les plateformes retirent les contenus et le font sans aucun contrôle, avec les règles qu’elles se fixent », déplore Laetitia Avia. D’où l’intérêt de leur imposer un cadre. Un observatoire va également être mis sur pied, de manière à tirer les ­premiers enseignements du texte et, si besoin, le faire évoluer dans le temps.


L’exemple allemand 


Le texte français s’inspire des textes allemands. De l’autre côté du Rhin, une loi est entrée en vigueur en janvier 2018. Baptisée NetzFG, elle a notamment été rendue nécessaire par la déferlante de haine sur la toile suscitée par l’accueil massif de migrants dès 2015. Les plateformes sont tenues de supprimer dans un délai de vingt-quatre heures les messages haineux et doivent publier tous les six mois le détail des contenus supprimés et motiver leurs décisions. En cas de défaut systématique de suppression de contenu illégal, les sites internet encourent une sanction maximale de 50 millions d’euros. Le gouvernement a prévu de faire un premier bilan d’impact d’ici fin 2020. 

Le Centre for European Policy Studies a sorti une étude sur le sujet fin 2018. En un an, Facebook, Twitter, Google (YouTube) et Change.org ont reçu 509 606 signalements, dont 1 704 et 264 818 pour les deux premiers réseaux sociaux. Le taux de retrait le plus important est affiché par Google (27,1 %) et le moins important par Twitter (10,8 %). Le site de microblogging étant connu pour être très attaché à la liberté d’expression. S’il y a eu quelques polémiques sur les retraits de contenus (la suppression du compte d’une politicienne d’extrême droite a par exemple fait couler beaucoup d’encre), les cas de censure semblent être limités. À noter que la majorité des contenus a été retirée sous vingt-quatre heures.

En ce qui concerne les sanctions, Facebook a été la première entreprise à s’être fait taper sur les doigts. Début juillet, la société de Mark Zuckerberg s’est vu infliger une amende de 2 millions d’euros par la justice allemande. Son formulaire pour signaler les contenus étant niché dans une page spécifique et donc considéré comme « caché ». 

« NetzDG n’a pas provoqué de demandes massives de suppressions. Elle n’a pas non plus contraint les plateformes internet à adopter une approche “retirer, réfléchir plus tard”, expliquent les auteurs de l’étude du Centre for European Policy Studies. Parallèlement, il n’est pas certain que NetzDG ait obtenu des résultats significatifs dans l’éradication du discours haineux. » 

« Tout ne marche pas encore parfaitement, mais il y a des choses très positives », a pour sa part indiqué fin 2018 le secrétaire d’État au ministère de la Justice, Gerd Billen. Il n’est pas exclu que la loi évolue. Et l’expérience allemande devrait continuer à servir d’étalon pour les autres pays.

Olivia Vignaud

Vous avez apprécié cet article ? Likez Magazine Décideurs sur Facebook !

Boris Martor rejoint Bird & Bird

Boris Martor rejoint Bird & Bird

En provenance d’Eversheds Sutherland, le spécialiste du financement de projets Boris Martor rejoint Bird & Bird accompagné de son équipe.

Freshfields Bruckhaus Deringer réalise un doublé

Freshfields Bruckhaus Deringer réalise un doublé

Marc Perrone et Christophe Seraglini rejoignent le bureau parisien de Freshfields Bruckhaus Deringer en qualité d’associés.

L’Europe, terre de protection des données personnelles

L’Europe, terre de protection des données personnelles

Depuis l’adoption du RGPD le 14 avril 2016, les pays membres de l’Union européenne peuvent sanctionner les entreprises et institutions publiques non c...

Marie-Laure Denis, la diplomate de la donnée

Marie-Laure Denis, la diplomate de la donnée

À la tête de la Cnil (Commission nationale informatique et libertés) depuis février, Marie-Laure Denis connaît bien le monde de la régulation. Grâce à...

Avocats : mobilisation générale contre la réforme des retraites

Avocats : mobilisation générale contre la réforme des retraites

Ils se sont donné rendez-vous ce lundi 16 septembre place de l’Opéra à Paris. La plupart des barreaux de France ont répondu à l’appel du Conseil natio...

Stibbe se renforce en IP

Stibbe se renforce en IP

Philippe Campolini rejoint Stibbe en qualité d’associé et intègre la pratique propriété intellectuelle à Bruxelles.

Éric Boillot arrive chez Rossi Bordes & Associés

Éric Boillot arrive chez Rossi Bordes & Associés

Le cabinet d’avocats d’affaires spécialisé en conseil et contentieux se renforce grâce à l’arrivée de cet associé venu de chez Simmons & Simmons.

Curtis renforce sa pratique en droit bancaire et financier

Curtis renforce sa pratique en droit bancaire et financier

Jean-Norbert Pontier intègre le bureau parisien de Curtis, accompagné de sa collaboratrice Mathilde Scholz.

Lire plus d'actualités

Newsletter savoir pour agir

N'avancez plus à l'aveugle

Ne plus afficher ce message