Le texte, qui doit encore passer devant le Sénat, donne plus de pouvoir au CSA et crée de nouvelles sanctions afin de responsabiliser les acteurs du Net. Toutefois, certains s’inquiètent pour la liberté d’expression ou encore la souveraineté de l’État. La députée en charge de la loi, Laetitia Avia, répond à ces craintes.

La loi Avia s’attaque à un enjeu colossal : lutter contre la haine en ligne. Et il y a du travail car les propos racistes, homophobes, terroristes ou encore pédopornographiques sont légion sur la toile. Pour y parvenir, une mesure phare : l’obligation pour les plateformes internet de retirer les contenus « manifestement illicites » sous vingt-quatre heures. Les sites devront informer les auteurs concernés ainsi que la ou les personnes ayant signalé le message litigieux de leur décision de le retirer ou non. 

Préserver la liberté d'expression

Le temps imparti est court et les détracteurs du texte craignent que les opérateurs, pour se conformer à la loi et ne pas risquer de sanctions, jouent la carte de la sur-censure ou de la pré-censure, plutôt que de séparer le bon grain de l’ivraie judicieusement. Or, si les contenus venaient à être retirés au moindre signalement, la loi contre la haine en ligne pourrait nuire à un principe démocratique fondamental : « Il y a un risque que le Conseil constitutionnel estime que cette proposition de loi porte atteinte à la liberté d’expression, commente Caroline Eckly, avocate chez BRL Avocats. Il y a également un risque que le process uniformisé de contrôle des propos tenus sur Internet neutralise toute divergence d’opinions au risque de parvenir à une stérilisation des débats. »

Pour la députée LREM en charge du texte, Laetitia Avia, la liberté d’expression est déjà mise à mal. « Elle est en recul. Il y a des personnes qui hésitent à donner leur avis, à montrer leurs convictions, voire quittent les réseaux sociaux de peur de déferlantes de haine. » L’élue indique également avoir échangé avec le Conseil d’État afin de respecter les fondamentaux démocratiques. Et de préciser : « La loi ne crée pas l’obligation de retrait des contenus haineux. Cette obligation relevait déjà de la loi de 2004 pour la confiance dans l’économie numérique. Nous avons en revanche explicité les contenus dits “manifestement illicites”, le délai de retrait - fixé à vingt-quatre heures -, et renforcé les contrôles et les sanctions pour que la loi soit ­pleinement effective. » 

La loi, déjà passée devant l’Assemblée nationale en première lecture et qui sera au Sénat à la rentrée, prévoit deux types de punition. Les sites internet vont informer les utilisateurs des modalités générales des dispositifs de modération mis en place, des moyens et les ressources dédiés à la lutte contre les contenus haineux et des voies de recours. En cas de manquement à cette obligation de transparence, une sanction administrative d’un montant maximum de 4 % du chiffre d’affaires de la plateforme pourra être prononcée par le CSA. Un volet pénal, qui concerne les entreprises et leurs représentants, est également dans les tuyaux, avec la création d’un parquet spécialisé dans le numérique. Particuliers et associations pourront porter plainte. Les dirigeants s’exposent à une peine de prison d’un an et de 250 000 euros d’amende (1,25 million d’euros pour une personne morale) pour non retrait d’un contenu manifestement haineux. Un délit est aussi prévu pour refréner les signalements abusifs. 

Du pain sur la plance pour les plateformes et les régulateurs

Dans une communication, l’Asic (Association des services internet communautaires), Syntec Numérique et Tech In France ont demandé à bénéficier de l’aide d’une instance indépendante afin d’être aiguillés sur les contenus dits « gris ». C’est-à-dire ceux qui posent des problèmes d’interprétation : « Il n’est pas possible de légiférer sur le contenu gris, comme nous l’a indiqué le Conseil constitutionnel. On peut néanmoins travailler sur le non-législatif, précise Laetitia Avia. Cédric O, secrétaire d’État chargé du numérique, va mettre en place un groupe de travail qui réunira les plateformes et le CSA, afin d’aider chacun à mieux appréhender les contenus gris. »
« Le CSA va avoir de nouvelles compétences et devrait donner des lignes directrices pour apprécier la nature de ces contenus et aussi les comportements de censure excessifs des opérateurs, ajoute l’avocate Caroline Eckly. Ensuite, ce sont vraisemblablement les positions des juges qui permettront d’aider à faire le tri. » 

Les opérateurs fourbissent leurs armes. Par exemple, Facebook travaille à la constitution d’un conseil de supervision mondial, qui examinera les décisions controversées prises par les modérateurs de l’entreprise. Si quelqu’un estime que la suppression de son commentaire est une erreur ou si le public s’oppose à un commentaire qui a été validé malgré un signalement, le conseil pourra intervenir. Néanmoins, ce système ne pourra probablement pas être suffisamment réactif dans certaines situations qui nécessiteraient des prises de décisions rapides étant donné la viralité de certains posts. 

Ce concept de conseil vient de Noah Feldman, auteur et professeur à Harvard, qui a vendu en janvier 2018 le principe d’une « Cour Suprême de Facebook » à la chief operating officer du réseau social, Sheryl Sandberg, rapporte Bloomberg. Or, les mots ont un sens et cette dénomination vient apporter de l’eau au moulin des détracteurs du texte qui estiment que le gouvernement français se décharge d’une partie du judiciaire. En effet, l’État, qui n’a pas les moyens de faire la police sur tout le Web, souhaite responsabiliser les plateformes. Au risque d’abandonner par là même une partie de sa souveraineté ? « C’est déjà le cas aujourd’hui. Les plateformes retirent les contenus et le font sans aucun contrôle, avec les règles qu’elles se fixent », déplore Laetitia Avia. D’où l’intérêt de leur imposer un cadre. Un observatoire va également être mis sur pied, de manière à tirer les ­premiers enseignements du texte et, si besoin, le faire évoluer dans le temps.

L'exemple allemand

Le texte français s’inspire des textes allemands. De l’autre côté du Rhin, une loi est entrée en vigueur en janvier 2018. Baptisée NetzFG, elle a notamment été rendue nécessaire par la déferlante de haine sur la toile suscitée par l’accueil massif de migrants dès 2015. Les plateformes sont tenues de supprimer dans un délai de vingt-quatre heures les messages haineux et doivent publier tous les six mois le détail des contenus supprimés et motiver leurs décisions. En cas de défaut systématique de suppression de contenu illégal, les sites internet encourent une sanction maximale de 50 millions d’euros. Le gouvernement a prévu de faire un premier bilan d’impact d’ici fin 2020. 

Le Centre for European Policy Studies a sorti une étude sur le sujet fin 2018. En un an, Facebook, Twitter, Google (YouTube) et Change.org ont reçu 509 606 signalements, dont 1 704 et 264 818 pour les deux premiers réseaux sociaux. Le taux de retrait le plus important est affiché par Google (27,1 %) et le moins important par Twitter (10,8 %). Le site de microblogging étant connu pour être très attaché à la liberté d’expression. S’il y a eu quelques polémiques sur les retraits de contenus (la suppression du compte d’une politicienne d’extrême droite a par exemple fait couler beaucoup d’encre), les cas de censure semblent être limités. À noter que la majorité des contenus a été retirée sous vingt-quatre heures.

En ce qui concerne les sanctions, Facebook a été la première entreprise à s’être fait taper sur les doigts. Début juillet, la société de Mark Zuckerberg s’est vu infliger une amende de 2 millions d’euros par la justice allemande. Son formulaire pour signaler les contenus étant niché dans une page spécifique et donc considéré comme « caché ». 

« NetzDG n’a pas provoqué de demandes massives de suppressions. Elle n’a pas non plus contraint les plateformes internet à adopter une approche “retirer, réfléchir plus tard”, expliquent les auteurs de l’étude du Centre for European Policy Studies. Parallèlement, il n’est pas certain que NetzDG ait obtenu des résultats significatifs dans l’éradication du discours haineux. » 

« Tout ne marche pas encore parfaitement, mais il y a des choses très positives », a pour sa part indiqué fin 2018 le secrétaire d’État au ministère de la Justice, Gerd Billen. Il n’est pas exclu que la loi évolue. Et l’expérience allemande devrait continuer à servir d’étalon pour les autres pays.

Olivia Vignaud

Prochains rendez-vous

2 juillet 2024
SAFE
Le nouveau rendez-vous du risk management et de la responsabilité
CONFÉRENCES ● EXPOSITION ● COCKTAIL

25 juin 2024
Leaders League Alliance Summit
L'événement qui rassemble le meilleur du Corporate, du monde juridique et de l'innovation
CONFÉRENCES ● DÉJEUNER D'AFFAIRES  LEGALTECH SHOW ● REMISE DE PRIX   COCKTAIL 

Voir le site 

02 octobre 2024
Sommet du Droit en Entreprise
La rencontre des juristes d'entreprise
DÉJEUNER ● CONFÉRENCES ● DÎNER ● REMISE DE PRIX

Voir le site »

02 octobre 2024
Rencontres du Droit Social
Le rendez-vous des acteurs du Droit social
CONFÉRENCES ● DÉJEUNER  

Voir le site »

Newsletter Flash

Pour recevoir la newsletter du Magazine Décideurs, merci de renseigner votre mail

GUIDE ET CLASSEMENTS

> Guide 2024