La France anticipe la mise en œuvre du règlement européen « Digital Services Act »
Amendement N°1170 au projet de loi confortant le respect des principes de la République
Quelques mois après la décision du Conseil Constitutionnel sur la loi visant à lutter contre les contenus haineux sur internet (dite « loi Avia »), les députés réunis en commission spéciale pour examiner le projet de loi confortant le respect des principes de la République ont adopté, à l’initiative du Gouvernement, un amendement visant à renforcer les obligations des plateformes en matière de lutte contre certaines catégories de contenus illicites.
Le dispositif proposé, qui complète l’arsenal législatif prévu par la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (« LCEN »), s’inspire du volet préventif de la loi Avia, déclaré contraire à la Constitution en conséquence de la censure de son volet répressif.
Le Gouvernement a affirmé qu’il est indispensable, pour assurer l’effet utile du dispositif, que celui-ci soit applicable aux plateformes établies à l’étranger, notamment dans d’autres États membres de l’Union européenne et que la dérogation au principe du pays d’origine, prévue par la directive sur le commerce électronique, peut être justifiée par l’objectif de protection de la dignité humaine.
L’adoption de ce texte permettrait à la France d’anticiper l’entrée en vigueur du règlement « Digital Services Act » (« DSA »), présenté par la Commission européenne le 15 décembre 2020, qui vise à imposer à l’échelle de l’Union européenne des obligations renforcées aux plateformes en matière de transparence et de lutte contre les contenus illicites sur internet. A ce titre, afin de tenir compte des négociations en cours sur ce règlement, il est prévu que les dispositions du présent article s’appliqueront à compter de la date d’entrée en vigueur de la loi et jusqu’au 31 décembre 2023, date à laquelle le règlement DSA s’y substituera.
Sous le contrôle du CSA, le dispositif impose aux plateformes, qu’elles soient ou non établies sur le territoire français, de mettre en œuvre des procédures et des moyens humains et technologiques proportionnés permettant :
- D’informer, dans les meilleurs délais, les autorités judiciaires ou administratives des actions mises en œuvre à la suite des injonctions émises par ces dernières ;
- D’accuser réception sans délai des demandes de ces autorités tendant à la communication des données dont elles disposent pour permettre l’identification des utilisateurs qui sont à l’origine de la mise en ligne des contenus litigieux, et d’informer ces autorités des suites données à ces demandes ;
- De conserver temporairement les contenus qui leur ont été signalés et qu’elles ont retirés ou rendus inaccessibles afin de pouvoir les mettre à disposition de l’autorité judiciaire pour les besoins de la recherche, de la constatation et de la poursuite des infractions pénales.
Elles devront également publier des conditions générales d’utilisation claires et transparentes prévoyant l’interdiction de mettre en ligne des contenus illicites et détaillant les moyens et modalités de modération développés pour détecter, identifier et traiter ces contenus ainsi que l’ensemble des procédures liées (suspension ou résiliation de compte des utilisateurs ayant mis en ligne de manière répétée des contenus illicites ; suspension de l’accès au dispositif de notification à l’égard des utilisateurs qui en abusent).
Au-delà de cette obligation de transparence, les plateformes seront tenues de proposer aux utilisateurs un dispositif de notification des contenus haineux illicites et de mettre en place une procédure de recours interne afin de permettre aux utilisateurs de contester leurs décisions de modération.
Il est précisé que l’ensemble de ces dispositifs doit être aisément accessible et facile d’utilisation et permettre un traitement approprié des recours, garantissant l’information de l’utilisateur, et qui ne soit pas uniquement fondé sur l’utilisation de moyens automatisés.
Outre ce socle commun d’obligations, applicable à l’ensemble des plateformes visées par la LCEN, les plateformes dont l’activité sur le territoire français dépasse un certain seuil de nombre de connexions seront soumises à des obligations renforcées leur imposant, notamment de : procéder chaque année à une évaluation des risques systémiques liés au fonctionnement et à l’utilisation de leurs services en matière de diffusion de contenus illicites et d’atteinte aux droits fondamentaux (notamment à la liberté d’expression) ; mettre en œuvre des mesures raisonnables, proportionnées et efficaces visant à atténuer les risques de diffusion de ces contenus ; et rendre compte au public de l’évaluation de ces risques et des mesures mises en place.
Le texte confie au CSA le soin de contrôler et évaluer la mise en œuvre et le respect, par les plateformes, de ces obligations. Le Conseil pourra prononcer des mises en demeure et, lorsque cela est justifié, des sanctions pouvant atteindre 6% du chiffre d’affaires mondial total de l’exercice précédent de la plateforme.
Le projet de loi sur le respect des principes de la République, dans sa version adoptée par la Commission spéciale, doit désormais être discuté en séance publique, avant d’être transmis au Sénat.