EXAMEN
DES ARTICLES
DE LA PROPOSITION DE LOI
CHAPITRE IER
SIMPLIFICATION
DES DISPOSITIFS DE NOTIFICATION DE CONTENUS HAINEUX EN LIGNE
Article
1er
(art. 6 de la loi n° 2004-575 pour la confiance dans
l'économie numérique)
Obligation pour les grandes plateformes
de supprimer en 24 heures certains contenus manifestement illicites ;
liste des contenus et répression pénale des manquements ;
exercice des droits reconnus
à la partie civile par les associations
de lutte contre les discriminations
L'article 1 er de la proposition de loi tend à créer une nouvelle obligation de suppression de certains contenus « haineux » manifestement illicites par les grandes plateformes (réseaux sociaux ou moteurs de recherche à fort trafic accessibles sur le territoire français), dans les 24 heures après leur notification, dont la méconnaissance serait pénalement réprimée par un nouveau délit (un an de prison et 250 000 euros d'amende, somme portée au quintuple pour les personnes morales).
1. Le rôle des hébergeurs face aux contenus illicites sur internet : un régime de responsabilité protecteur mais des obligations de coopération
Pour recevoir et émettre des informations ou accéder à des services en ligne, les utilisateurs d'internet dépendent d'une chaîne d'intermédiaires techniques aux activités variées : fournisseurs d'accès à internet, hébergeurs de données et prestataires de services aux dénominations diverses (annuaires, forums, moteurs de recherche, réseaux sociaux, etc.).
Plus facile à identifier - et à attraire en justice - et souvent plus solvables que les auteurs de contenus illicites diffusés grâce à eux sur internet, ces intermédiaires font l'objet depuis les années 2000 d'un régime juridique protecteur destiné à éviter que l'engagement trop systématique de leur responsabilité pénale ou civile ne soit un frein à leur développement économique ou à la libre expression sur internet.
Les hébergeurs :
La notion d'hébergeur a été définie il y a près de 15 ans, elle figure dans la directive e-commerce (« service de la société de l'information consistant à stocker des informations fournies par un destinataire du service ») et dans la LCEN qui la transpose (« personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services »). Outre les prestataires d'hébergement traditionnels offrant des espaces de stockage de données (comme OVH), sont apparus depuis les années 2010 des prestataires de services nouveaux, utilisant des algorithmes d'indexation, de classement et de mise en avant, valorisant et diffusant des textes, images ou vidéos produits par les utilisateurs eux-mêmes, et permettant aux internautes de former des réseaux de relations et d'échanges. L'essor du « Web 2.0 » a ainsi mis à mal la distinction juridique classique entre hébergeur et éditeur. La jurisprudence - à qui il est seule revenu d'actualiser la notion faute de révision de la directive e-commerce -, vérifie désormais pour octroyer le statut d'hébergeur l'absence de « rôle actif de nature à lui confier une connaissance ou un contrôle des données stockées » 10 ( * ) . Dès lors, eu égard à leur rôle, ont pu être qualifiées d'hébergeurs et bénéficier du régime protecteur de responsabilité aménagée de nombreuses plateformes de partage de contenus créés par leurs utilisateurs, qu'il s'agisse de sites de partage de vidéos ( Youtube , Dailymotion ...), de réseaux sociaux ( Facebook , Twitter , LinkedIn , Viadeo ), de forums de discussion ou d' agrégateurs d'actualités, de plateformes commerciales de mise en relation ( eBay , PriceMinister ...), de sites de streaming , de comparateurs de prix ( Shopping.com ). Il en est allé de même pour les moteurs de recherche ( Google , Qwant ...), eu égard au caractère largement automatisé des opérations d'indexation et de présentation des contenus. |
Transposant en droit français la directive « e-commerce » du 8 juin 2000 11 ( * ) , la loi pour la confiance dans l'économie numérique (LCEN) du 21 juin 2004 prévoit ainsi un régime de responsabilité spécifique pour les fournisseurs d'accès 12 ( * ) et les hébergeurs 13 ( * ) à raison des contenus à la diffusion desquels ils contribuent. Les acteurs exerçant une activité d'intermédiaire dans la mise à disposition de contenus en ligne voient leur responsabilité plus facilement écartée que dans le régime de droit commun, en contrepartie d'une obligation de collaboration dans la lutte contre la diffusion des contenus illicites.
Les hébergeurs , en particulier , bénéficient d'une exonération facilitée de leur responsabilité civile et pénale : c elle-ci ne peut être engagée en l'absence de connaissance de l'illicéité des contenus stockés ou, en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont procédé promptement à leur retrait . Ce régime protecteur s'applique ainsi à un spectre d'acteurs extrêmement large qui englobe désormais les grandes plateformes bien connues : les moteurs de recherche ( Google , Qwant ) les réseaux sociaux (Facebook , Twitter ), les plateformes de diffusion de vidéos ( YouTube , Dailymotion ), etc.
En outre, les hébergeurs ne peuvent pas être soumis à une obligation générale de surveillance des informations qu'ils stockent ni de recherche des activités illicites (sous réserve des demandes « ciblées et temporaires de l'autorité judiciaire »).
En échange de ce régime favorable, les intermédiaires techniques sont tenus de coopérer avec la puissance publique pour lutter contre la diffusion desdits contenus illicites : cela se traduit par une obligation de recueil et de conservation de données sur leurs utilisateurs, de dénonciation des activités illicites, de transparence, voire de blocage des contenus.
La « responsabilisation » des
hébergeurs :
En l'état du droit, en France, les hébergeurs doivent : - retirer promptement tout contenu illicite dont ils ont connaissance (2 et 3 du I de l'article 6 de la LCEN) ; - détenir et conserver pendant une certaine durée les données d'identification et de connexion de tout contributeur à la création d'un contenu en ligne (ce qui doit faciliter l'engagement et l'efficacité de poursuites ultérieures) ; - répondre aux réquisitions de l'autorité judiciaire aux fins de communication de ces données identifiantes (II de l'article 6 de la LCEN) ; - se conformer aux décisions administratives (article 6-1 de la LCEN) et aux jugements ordonnant le blocage de certains contenus illicites (8 du I de l'article 6) ; - mettre en place, pour certaines infractions particulièrement odieuses, un mécanisme de notification « facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données » (7 du I de l'article 6 de la LCEN) ; - informer « promptement » les autorités publiques compétentes en cas de signalement d'activités illicites (idem) ; - et rendre publics les moyens qu'ils consacrent à cette lutte (idem). Des dispositions pénales spécifiques viennent sanctionner le manquement de tout hébergeur à ces obligations de coopération (1 et 2 du VI de l'article 6 de la LCEN). |
2. Le texte adopté par l'Assemblée nationale : imposer à certains hébergeurs une obligation de résultat (retrait en 24 heures des contenus odieux), sanctionnée par un nouveau délit
Dans le dernier état de sa rédaction, l'article 1 er , qui a subi des modifications substantielles à l'Assemblée nationale en commission puis en séance, créerait une obligation de retrait ou de suppression pour tout contenu « haineux » manifestement illicite, dans les 24 heures après sa notification aux grandes plateformes (réseaux sociaux ou moteurs de recherche à fort trafic) accessibles sur le territoire français. La méconnaissance en serait pénalement réprimée par l'instauration d'un nouveau délit spécifique puni d'un an de prison et 250 000 euros d'amende par infraction.
Par sa portée , ce dispositif se veut radicalement nouveau, puisqu'il s'agirait désormais bien d'une « obligation de résultat », selon les termes de la rapporteure de l'Assemblée nationale : énoncé au sein d'un nouvel article 6-2, le régime spécifique instauré aurait vocation à se combiner avec le régime général de responsabilité des intermédiaires techniques issu de la LCEN (« sans préjudice des dispositions [de] l'article 6 »), imposant pour une sous-catégorie d'hébergeurs, et pour un sous-ensemble de contenus illicites, de nouvelles contraintes particulières et des sanctions spécifiques.
Son champ d'application organique et territorial recouvrirait ainsi certains grands opérateurs de plateformes en ligne présents en France : les réseaux sociaux 14 ( * ) et les moteurs de recherche 15 ( * ) qui dépassent des seuils d'activité sur le territoire français déterminés par décret.
Interrogé par votre rapporteur, le Gouvernement n'a malheureusement pas été en mesure d'indiquer précisément ni les types de seuils et niveaux envisagés, ni le nombre d'opérateurs susceptibles d'être concernés en fonction desdits seuils, faisant seulement référence au décret pris pour l'application des obligations de transparence et de loyauté instaurées depuis la loi « République numérique » (seuil fixé en la matière à cinq millions de visiteurs uniques par mois, par plateforme, calculé sur la base de la dernière année civile 16 ( * ) ) ;
Le champ d'application matériel de l'obligation de retrait a été modifié lors de l'examen du texte en commission puis en séance, et a fait l'objet d'âpres discussions et de nombreux amendements destinés à l'élargir à un nombre croissant d'infractions.
En l'état du texte transmis, ce champ recouvrirait les contenus relevant manifestement de certaines infractions ayant un caractère particulièrement odieux : injures aggravées, apologies de certains crimes, provocations à la discrimination, à la haine ou à la violence, harcèlement sexuel, exposition de mineurs à des messages violents ou pornographiques, traite des êtres humains, proxénétisme, pédopornographie et provocation au terrorisme (infractions visées, par référence, au 7 du I de l'article 6 de la LCEN qui prévoit la mise en place de dispositifs de notification par les hébergeurs au titre de leur devoir de coopération dans la lutte contre certains contenus illégaux, auxquelles ont été ajoutées les injures à caractère discriminatoire) :
Fondement textuel |
Description de l'infraction |
PPL initiale |
Texte transmis |
Cinquième
alinéa
de
l'article 24
|
Apologie des crimes d'atteinte volontaire à la vie, d'atteinte volontaire à l'intégrité de la personne, d'agression sexuelle, de vol aggravé, d'extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l'humanité, des crimes de réduction en esclavage ou d'exploitation d'une personne réduite en esclavage ou des crimes et délits de collaboration avec l'ennemi, y compris si ces crimes n'ont pas donné lieu à la condamnation de leurs auteurs |
OUI |
OUI |
Sixième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Cris ou chants séditieux |
OUI |
NON |
Septième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Provocation à la discrimination, à la haine
ou à la violence à l'égard d'une personne ou d'un groupe
de personnes à raison de leur origine ou de
leur appartenance ou
|
NON |
OUI |
Huitième alinéa de l'article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Provocation à la haine ou à la violence à l'égard d'une personne ou d'un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l'égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du code pénal. |
NON |
OUI |
Troisième alinéa de l'article 33 de la loi du 29 juillet 1881 sur la liberté de la presse |
Injure commise par les mêmes moyens envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée |
OUI |
OUI |
Quatrième
alinéa
de
l'article 33
|
Injure commise dans les mêmes conditions envers une personne ou un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap. |
OUI |
OUI |
Article
222-33
|
Harcèlement sexuel |
NON |
OUI |
Article
225-4-1
|
Traite des êtres humains |
NON |
OUI |
Articles 225-5 et 225-6 du code pénal |
Proxénétisme |
NON |
OUI |
Article
227-23
|
Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d'image pornographique d'un mineur ; consultation habituelle ou en contrepartie d'un paiement d'un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs |
NON |
OUI |
Article
227-24
|
Fabrication, transport, diffusion ou commerce de message violent ou pornographique susceptible d'être vu ou perçu par un mineur |
NON |
OUI |
Article
421-2-5
|
Provocation directe à des actes de terrorisme ou apologie publique de ces actes |
NON |
OUI |
La précision que seules les illicéités ayant un caractère manifeste relèvent de l'obligation de retrait en 24 heures transpose explicitement, au sein du nouveau régime de responsabilité instauré par le présent article pour les grands opérateurs de plateformes, une importante réserve d'interprétation 17 ( * ) énoncée par le Conseil constitutionnel à propos du cadre général de la LCEN.
Le régime particulier d'obligation de retrait des contenus manifestement illicites et de sanction instauré par le texte est, pour le reste, bien plus rigoureux que celui prévu par la LCEN. Alors que la LCEN prévoit une obligation de « prompt » retrait (dont le respect a ainsi vocation à être apprécié en fonction du contenu, de l'illicéité alléguée et des diligences de l'hébergeur) et ne détaille pas les conditions concrètes d'engagement de la responsabilité pénale en cas de manquement (qui pourrait être recherchée au titre de la complicité avec l'auteur des contenus 18 ( * ) ), la proposition de loi crée, elle, une obligation de retrait dans un délai préfix (24 heures après notification) dont la méconnaissance est réprimée par l'instauration d' un nouveau délit spécifique, chaque « non retrait » de contenu étant passible d'une sanction pénale (quelle que soit, à cet égard, l'infraction sous-jacente dont relève ledit contenu illicite).
Les peines encourues sont fixées par un renvoi à celles prévues au 1 du VI de l'article 6 de la LCEN soit, en l'état actuel du droit :
- pour les hébergeurs personnes physiques ou le dirigeant de droit ou de fait d'une personne morale exerçant cette activité, un an d'emprisonnement et 75 000 euros d'amende ;
- pour les personnes morales, outre une amende de 375 000 euros 19 ( * ) , l'interdiction, pour une durée de cinq ans au plus, d'exercer directement ou indirectement l'activité professionnelle dans l'exercice ou à l'occasion de laquelle l'infraction a été commise , et l'affichage de la décision prononcée ou la diffusion de celle-ci soit par la presse écrite, soit par tout moyen de communication au public par voie électronique.
La proposition de loi, dans son article 3 bis, propose cependant d'augmenter considérablement le montant de ces amendes, portant les sanctions encourues, par infraction, à 250 000 euros pour les personnes physiques, et donc à 1,25 million d'euros pour les personnes morales.
3. Une intention louable mais un dispositif inabouti : le risque de nombreux effets pervers et des obstacles juridiques non résolus
L'intention première des auteurs de cette proposition de loi est louable et il existe un large consensus pour tenter de mieux responsabiliser les grandes plateformes qui jouent un rôle décisif dans la diffusion sur internet de propos constituant des infractions.
Les travaux et propositions du Sénat ces dernières années en attestent d'ailleurs :
- la commission d'enquête du Sénat pour une souveraineté numérique, dont votre rapporteur était membre, a récemment formulé à l'unanimité plusieurs recommandations pour améliorer la régulation des acteurs « systémiques » du numérique et pour mieux responsabiliser les plateformes ;
- le Sénat a également pris position sur ce sujet en adoptant, à l'initiative de notre collègue Catherine Morin-Desailly, présidente de la commission de la culture et rapporteure pour avis du présent texte, une résolution européenne en faveur d'une révision de la directive « e-commerce » (qui appelle à faire émerger un « troisième statut », à côté de celui des hébergeurs et des éditeurs, défini au niveau européen, et ménageant la liberté d'expression et la compétitivité des acteurs du secteur).
Néanmoins, la rédaction proposée par le texte de cet article reste très inaboutie - car trop déséquilibrée aux dépens de la liberté d'expression - et juridiquement fragile - alors même qu'elle touche à la matière pénale et intervient dans un champ régi par le droit de l'Union européenne.
3.1 Sur-censure et contournement du juge : un risque de déséquilibre au détriment de la conception française de la liberté d'expression
Votre rapporteur a été alerté des risques d'effets pervers que présente ce texte par les nombreux acteurs de la société civile qu'il a entendus en audition (représentants des avocats, de Conseil national du numérique, de la Commission nationale consultative des droits de l'Homme, des associations de défense des libertés numériques) ou dont il a reçu contributions.
Comme eux, votre rapporteur estime que, tel qu'il est envisagé à ce stade, le dispositif reste trop déséquilibré et ne manquera pas d'entraîner de nombreux effets pervers et un risque de rompre les équilibres de notre conception traditionnelle de la liberté d'expression.
En exigeant des opérateurs de plateformes qu'ils apprécient le caractère manifestement illicite des messages haineux signalés dans un délai particulièrement bref, alors, d'une part, que cet exercice de qualification juridique est difficile pour certaines infractions contextuelles, et alors, d'autre part, qu'ils sont sous la menace de sanctions pénales explicites et dissuasives en cas d'erreur, ce dispositif encouragera mécaniquement les plateformes à retirer - par excès de prudence - des contenus pourtant licites. Un trop grand zèle dans la suppression de contenus et un comportement de « sur-censure » n'engageront d'ailleurs pas, eux, la responsabilité pénale des plateformes, quand celle des personnes notifiant à tort restera quasiment impossible à rechercher en pratique 20 ( * ) . Votre rapporteur ne doute dès lors pas que les grands opérateurs de plateformes auront vite fait le bilan des risques économiques et réputationnels encourus par eux entre, d'une part, les retraits insuffisants pénalement sanctionnés par la puissance publique et, d'autre part, les cas de retraits excessifs où ils s'exposent seulement au mécontentement d'utilisateurs individuels...
Mais d'autres effets pervers sont également à redouter :
- la multiplication du recours à des filtres automatisés 21 ( * ) de reconnaissance, d'analyse et de retrait des contenus par les plateformes, sans intervention humaine, alors qu'il s'agit de prendre des décisions touchant aux droits fondamentaux des utilisateurs ;
- l' instrumentalisation des signalements par des groupes organisés de pression ou d'influence (« raids numériques » contre des contenus licites mais polémiques), prospérant sur l'attitude trop précautionneuse des plateformes face au risque de sanction pénale ;
- l' impossibilité de prioriser , dans un délai couperet uniforme de 24 heures, les nombreuses notifications à traiter (en privilégiant les contenus les plus nocifs qui ont un caractère d'évidence et doivent être retirés encore plus rapidement - terrorisme, pédopornographie- et d'autres infractions, moins graves ou plus « contextuelles », nécessitant d'être analysées pour en apprécier le caractère manifestement illicite).
Enfin, la faculté donnée à chacun de s'exprimer librement, de publier des vidéos ou des photos, et plus largement de partager des contenus, suppose un équilibre délicat entre la liberté reconnue aux personnes et la protection des droits d'autrui.
L'une des garanties essentielles pour assurer cet équilibre repose sur l'intervention de l'autorité judiciaire. Or le dispositif proposé ferait essentiellement reposer l'appréciation du caractère illicite d'un contenu sur les seules plateformes, en lieu et place de l'autorité judiciaire. Il est alors plus que probable que, pour trancher, les références juridiques (Premier Amendement tempéré par leurs conditions générales d'utilisation draconiennes) et les moyens (les algorithmes qu'ils développent et les modérateurs humains qui sont généralement leurs sous-traitants) seront ceux des géants américains du numérique, parfois éloignés des règles posées par l'Union européenne et notre législation nationale.
Dans un champ aussi sensible que celui des droits fondamentaux de nos concitoyens, c'est au juge, et à lui seul, qu'il doit normalement revenir d'apprécier le caractère abusif de l'exercice de la liberté d'expression. Votre rapporteur ne se résout pas à renforcer aussi massivement l'influence qu'ont les grandes plateformes étrangères en France en leur déléguant sans garanties la police de la liberté d'expression sur internet.
3.2 Un « droit pénal purement expressif » ? Des problèmes d'imputabilité, d'intentionnalité et de cumul
Alors même que ce texte entend instaurer un nouveau délit en cas de « non retrait » de certains contenus, votre rapporteur est frappé que des représentants du parquet qu'il a entendu n'aient pas hésité à qualifier le dispositif proposé de « droit pénal purement expressif » , les peines encourues n'ayant pas réellement vocation à être prononcées en pratique mais répondant à un pur objectif d'affichage, à vocation dissuasive.
En l'état du texte, les dispositions pénales proposées présentent d'abord un problème d'imputabilité . Faute d'avoir reçu des réponses satisfaisantes permettant de la lever, votre rapporteur relève qu'une ambiguïté demeure quant aux personnes susceptibles d'être poursuivies du fait de l'absence de retrait en 24 heures des contenus « haineux ». Pour définir la sanction pénale, le texte proposé par le 6 e alinéa de l'article 1 er de la proposition de loi renvoie en effet aux seules« peines prévues » au 1 du VI de l'article 6 de la LCEN, sans jamais préciser l'imputabilité de l'infraction énoncée.
À supposer même que cette difficulté soit surmontée, s'agissant des personnes physiques , la seule dont la responsabilité pénale semble pouvoir être recherchée n'est sans doute, en pratique, ni le modérateur de contenu chargé de l'examen du contenu illicite, ni le dirigeant de l'entreprise si celle-ci a son siège à l'étranger, mais, selon le Gouvernement 22 ( * ) , le « représentant légal » nommé en France. Votre rapporteur relève pourtant que l'article 3, qui prévoit l'obligation de sa désignation, ne fait de ce représentant qu'un simple « interlocuteur référent » chargé de « recevoir les demandes de l'autorité judiciaire » dénué de pouvoir de décision ou de direction au sein des opérateurs.
S'agissant des personnes morales , les difficultés à engager leur responsabilité ont été soulignées par la rapporteure de l'Assemblée nationale elle-même, qui indique dans son rapport, à propos de la LCEN : « votre rapporteure n'a trouvé aucun cas où un hébergeur avait vu sa responsabilité pénale engagée à raison des contenus qu'ils stockaient, pour des raisons tenant à la fois à des contraintes procédurales lourdes et des considérations budgétaires limitant le pouvoir d'action de l'autorité judiciaire mais aussi aux difficultés à qualifier l'intention pénale des organes dirigeants des hébergeurs concernés, domiciliés à l'étranger et dont il faut démontrer la complicité » . Votre rapporteur ne voit pas en quoi le dispositif proposé par le présent article règlerait chacune de ces très sérieuses difficultés.
Le dispositif pénal proposé soulève en outre un problème d'intentionnalité dans la caractérisation de l'élément moral 23 ( * ) . Dans le cas de l'absence de retrait en 24 heures d'un contenu manifestement illicite au regard des infractions « haineuses » visées par la proposition de loi, votre rapporteur s'interroge si la simple absence de retrait suffira bien à entraîner la condamnation de la personne physique ou morale (« obligation de résultat ») ou si, plus vraisemblablement, il sera nécessaire pour l'autorité de poursuite de caractériser une absence de diligences normales de l'opérateur dans sa capacité à qualifier l'illégalité manifeste d'un contenu.
Il ressort des échanges de votre rapporteur avec des magistrats comme avec les services de la Chancellerie que l'intentionnalité ne pourra selon eux être caractérisée que lorsque l'absence de retrait en 24 heures aura été constatée à plusieurs reprises et qu'il sera donc établi qu'elle résulte d'une absence de volonté de la mettre en oeuvre.
Votre rapporteur, regrette que ces dispositions ne figurent pas expressément et bien plus clairement dans la loi pénale (mais il s'agirait alors plutôt d'instaurer une obligation de moyens). Il estime en tout état de cause juridiquement tortueux ce processus, qui ne pourra reposer en l'état du texte que sur l'engagement quasi-systématique de l'action publique contre les plateformes en cas de non retrait d'un contenu manifestement illicite, pour en démontrer le manque de diligences. Cet engagement supposera d'abord qu'une plainte soit déposée par les personnes ayant demandé le retrait, et que l'autorité judiciaire dispose de moyens suffisants pour engager des poursuites. Si de tels moyens existent désormais, notamment la plainte en ligne, pour faciliter la première étape du processus, ceux du Parquet, comme des juges du siège, demeurent limités et devraient d'abord être consacrés à la poursuite des auteurs des contenus illicites.
Enfin, votre rapporteur relève que la coexistence des deux régimes de responsabilité semble pouvoir amener les opérateurs à subir une double sanction pénale pour un même fait : d'une part, au titre du délit spécifique de « non retrait » en 24 heures d'un contenu haineux (instauré par l'article 1er de la proposition de loi), et d'autre part, au titre de l'infraction constituée par le contenu illicite dont ils assurent le stockage lui-même, l'absence de « prompt retrait » engageant alors leur responsabilité pénale à ce titre (en application du 3 du I de l'article 6 de la LCEN).
3° Une contrariété probable au droit européen
Selon la Commission européenne, à qui le dispositif proposé a été notifié, le texte rédigé par l'Assemblée nationale semble contraire à plusieurs principes majeurs du droit de l'Union européenne : la libre prestation des services , précisée par la directive « e-commerce » pour les services de la société de l'information, ainsi que la liberté d'expression, garantie par la Charte des droits fondamentaux. La Commission mentionne ainsi expressément dans son avis transmis au Gouvernement une possible violation des principes du « pays d'origine », de responsabilité aménagée des hébergeurs , et de l'interdiction d'instaurer une surveillance généralisée des réseaux.
Résumé des observations de la Commission européenne
Violation de la libre prestation
- Violation du principe du « pays d'origine » (Article 3(1), (2) et (3)) Les États membres ne peuvent restreindre la libre circulation des services de la société de l'information en provenance d'un autre État membre, et c'est à ce dernier de veiller à ce que les prestataires établis sur son territoire respectent les dispositions relevant du domaine coordonné par la directive « e-commerce » (principe du « pays d'origine »). La proposition de loi s'appliquera aux plateformes en ligne qui atteignent un seuil de connexions depuis le territoire français, sa portée territoriale s'étend donc aux plateformes en ligne établies dans d'autres États membres. Pourtant, la proposition de loi notifiée impose des obligations 24 ( * ) potentiellement très lourdes aux plateformes en ligne. Ces mesures constituent une restriction à la prestation transfrontalière des services. Les seuils prévus pour s'assurer de la proportionnalité de ces obligations sont sans incidence sur le fait qu'un nombre significatif de plateformes sera touché par ces restrictions. Au surplus, ledit seuil d'activité ne résulte d'aucune analyse d'impact quantitative ni qualitative ; aucune information n'a été fournie afin de justifier une corrélation directe entre le nombre de connexions depuis le territoire français et la taille de la plateforme en ligne. - Absence de motifs valables pour déroger à ce principe (Article 3(4)) Toute dérogation au principe du pays d'origine doit être ciblée (« prise à l'encontre d'un service de la société de l'information ») et proportionnelle à l'objectif poursuivi. En ce qui concerne le caractère ciblé des mesures, la Commission n'est pas convaincue que cette exigence soit satisfaite en l'espèce. Elle a également des doutes en ce qui concerne la proportionnalité de cette mesure. |
Violation du régime de responsabilité
aménagée des hébergeurs
La directive sur le commerce électronique prévoit, sous certaines conditions, une exclusion de responsabilité pour les fournisseurs de services d'hébergement. Pour en bénéficier, un fournisseur de services d'hébergement se doit d'agir « promptement » pour retirer les informations ou rendre l'accès à celles-ci impossible lorsqu'il en a effectivement connaissance. - L'allègement des notifications : une violation des règles permettant de présumer une prise de connaissance avérée des fournisseurs de services d'hébergement et ainsi d'engager leur responsabilité Du point de vue de la Commission, les conditions minimales de notification prévues dans la proposition de loi (articles 1 er bis et 1 er ter A) ne respecteraient pas les normes établies par la CJUE et les recommandations de la Commission en la matière : elle n'impose en effet plus d'identifier ni l'emplacement exact du contenu illicite, ni les dispositions légales prétendument enfreintes. - L'obligation d'agir dans un délai fixé (24 h) : une charge excessive, un risque de sur-blocage et d'atteinte à la liberté d'expression Selon la directive, un service d'hébergement est tenu d'agir promptement après notification ; ce délai doit être proportionné et raisonnable compte tenu, notamment, du contenu illicite concerné. Il doit également permettre une certaine flexibilité dans certains cas justifiés. La Commission estime qu'il est peu probable que les rares garanties prévues (retrait limité au « manifestement illicite », contre-notifications) soient suffisantes afin de supprimer le risque de sur-blocage et d'atteinte à la liberté d'expression dû à l'établissement d'un délai fixe aussi court (24 heures) et aux lourdes sanctions prévues. - L'obligation d'empêcher la réapparition de contenus haineux : une violation de l'interdiction d'instaurer des obligations générales de surveillance Selon la proposition de loi (article 2), les plateformes en ligne seraient tenues de mettre en oeuvre les moyens appropriés pour empêcher la rediffusion de tout contenu supprimé ou déréférencé. Pour respecter cette obligation, les plateformes en ligne pourraient en pratique être contraintes d'appliquer un filtrage automatique et général de tout leur contenu. La proposition de loi ne fournit pas des garanties appropriées et proportionnées à cet égard. Le champ d'application du texte inclut également des types de contenus nécessitant une évaluation approfondie de leur contexte pour être qualifiées d'illicites. La proposition de loi risque ainsi : - d'entraîner la suppression de contenus licites et par conséquent de porter atteinte à la liberté d'expression ; - de porter atteinte à la protection de la vie privée et des données à caractère personnel des utilisateurs ; - et de porter atteinte à la liberté d'entreprise des plateformes en ligne. |
Rappelant l'existence de plusieurs initiatives législatives européennes en cours, la Commission européenne a invité formellement la France à surseoir à l'adoption de ce texte.
Pressé par votre rapporteur qui souhaitait connaître le contenu de ces observations, l'analyse que le Gouvernement en faisait et les suites qu'il comptait y donner , le cabinet du secrétaire d'État au numérique a refusé de les lui transmettre 25 ( * ) , tout en l'assurant lors de son audition qu'il en serait tenu compte pour procéder à quelques ajustements marginaux , sans remettre en cause sa détermination à faire rapidement aboutir la proposition de loi.
Malgré les questions de votre rapporteur, le Gouvernement a ainsi été incapable de détailler la nature des ajustements requis - ni même de dévoiler le calendrier selon lequel il envisageait d'apporter ces corrections.
Il n'a pas non plus donné suite à la suggestion du président de la commission des lois, Philippe Bas, de lever la procédure accélérée pour permettre, grâce à la poursuite de la navette, d'envisager sereinement de nouvelles solutions plus conformes au droit.
Dès lors, le dispositif prévoyant une nouvelle sanction pénale proposé par l'article 1 er restant manifestement encore inabouti - trop déséquilibré aux dépens de la liberté d'expression, probablement inapplicable et contraire au droit européen -, votre rapporteur n'a pu que proposer au Sénat sa suppression ( amendement COM-26 ).
Certaines dispositions intéressantes méritant cependant d'être conservées ou améliorées, votre commission les a intégrées, à l'initiative du rapporteur, au régime général prévu par la LCEN, en prévoyant ainsi :
- la substitution de messages aux contenus haineux retirés et la possibilité (et non l'obligation) de leur conservation en vue d'enquêtes judiciaires ;
- l' ajout des injures publiques à caractère discriminatoire et du négationnisme aux contenus devant faire l'objet d'un dispositif technique de notification spécifique mis en place par les hébergeurs.
Enfin, l'intitulé du chapitre I er de la proposition de loi a été adapté pour tenir compte de ces modifications.
Votre commission a adopté l'article 1 er ainsi modifié.
Article 1er bis (supprimé)
Formalisme de la nouvelle
procédure de notification
d'un contenu manifestement haineux
L'article 1er bis de la proposition de loi fixe un formalisme allégé pour la nouvelle procédure de notification des contenus haineux auprès des opérateurs de plateforme en ligne à fort trafic.
Par cohérence avec la suppression de la procédure spécifique de signalement de certains contenus haineux auprès des plateformes à fort trafic, à l'article 1 er , votre commission a supprimé le présent article dont les dispositions fixaient un formalisme particulièrement allégé pour ces notifications.
Adoptant en conséquence les amendements identiques COM-27 de votre rapporteur et COM-2 de notre collègue Jean-Pierre Grand, votre commission a supprimé l'article 1 er bis .
Article 1er ter A
(art. 6 de la loi n° 2004-575 pour la confiance
dans l'économie numérique)
Simplification du formalisme des
notifications prévues par la LCEN pour engager de la
responsabilité des hébergeurs à raison de contenus
illicites
Introduit par un amendement du Gouvernement en séance à l'Assemblée nationale, l'article 1 er ter A de la proposition de loi tend à faciliter la procédure de notification des contenus illicites auprès des hébergeurs prévue par la loi pour la confiance dans l'économie numérique (LCEN), en réduisant les informations à fournir par les notifiants.
1. Les notifications prévues par la LCEN : un formalisme rigoureux pour engager de la responsabilité des hébergeurs à raison de contenus illicites
La directive « e-commerce » 26 ( * ) et la loi du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN) qui la transpose 27 ( * ) ménagent un régime de responsabilité atténuée en faveur des hébergeurs . En raison de la nature même de leur activité, qui rend techniquement et économiquement difficile le contrôle de la totalité des contenus stockés, et pour éviter une surveillance généralisée des réseaux qui découlerait d'une responsabilité solidaire et automatique du fait de tous ces contenus, l'engagement de leur responsabilité civile ou pénale est notamment tributaire de la connaissance qu'ils ont, ou pas, du caractère illicite d'un contenu donné .
Les prestataires de services d'hébergement ne peuvent ainsi voir leur responsabilité engagée dans deux hypothèses :
- en l'absence de connaissance de l'illicéité des contenus stockés ;
- en cas de connaissance de l'illicéité manifeste des contenus stockés, s'ils ont procédé promptement à leur retrait.
La philosophie de la directive « e-commerce » repose donc sur le fait que l'illicéité de certains contenus stockés a vocation à être portée à la connaissance des hébergeurs soit à la suite de démarches effectuées de leur propre initiative (les grandes plateformes déploient ainsi des dispositifs automatisés de reconnaissance de certains contenus), soit via les notifications qui leur sont adressées par des tiers.
Ces signalements de contenus illicites ne faisant pas l'objet de développements spécifiques dans la directive « e-commerce », une certaine latitude a été laissée en la matière aux États membres.
En France, pour faciliter l'engagement de la responsabilité des hébergeurs, la LCEN a instauré une présomption de connaissance par ceux-ci de l'existence d'un contenu dès lors que la notification qui leur est adressée comprend certains éléments précis (sur leur auteur, le contenu notifié, l'illicéité alléguée, et les démarches préalables entreprises).
En outre, tout en excluant de mettre à leur charge une obligation générale de surveillance des informations qu'ils traitent, la LCEN soumet les intermédiaires techniques à une obligation particulières de collaboration à la lutte contre certains contenus odieux 28 ( * ) et contre les activités illégales de jeux d'argent. À ce titre, fournisseurs d'accès internet comme hébergeurs doivent mettre en place un dispositif de signalement , « facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données », spécifique pour ces infractions .
La méconnaissance de cette obligation est pénalement sanctionnée par un an d'emprisonnement et de 75 000 euros d'amende ou, dans le cas de personnes morales, une amende de 375 000 euros.
2. Une simplification bienvenue qui doit toutefois respecter le droit européen et mieux tenir compte des facilités techniques offertes par les plateformes
L'Assemblée nationale a adopté en séance un amendement du Gouvernement simplifiant drastiquement le formalisme des « notifications LCEN » : les données relatives au notifiant seraient considérablement réduites (l'adresse électronique remplaçant par exemple l'indication des professions, domicile, nationalité, lieu et date de naissance des personnes physiques), l'exigence de « localisation précise » du contenu litigieux disparaîtrait, tout comme celle d'indiquer les dispositions légales violées.
Votre rapporteur salue cette démarche de simplification des mécanismes de notification des contenus, qui doit permettre de faciliter les signalements en évitant un formalisme parfois trop fastidieux qui peut décourager certaines victimes.
Dans ses observations, la Commission européenne estime toutefois que la rédaction envisagée par l'Assemblée nationale risque de ne pas respecter les exigences de la directive « e-commerce ».
Selon elle : « contrairement à la norme établie actuellement dans la LCEN, il ne serait pas nécessaire pour une notification d'identifier l'emplacement exact du contenu faisant l'objet de ladite notification. La recherche active d'un tel emplacement incombe ainsi à la plateforme, qui devra par exemple parcourir de nombreux contenus (comme de longues vidéos ou de longs textes). De plus, le projet notifié supprimerait l'exigence actuelle prévue par la LCEN permettant d'identifier les dispositions légales prétendument enfreintes. Ceci impliquerait que les plateformes en ligne pourraient être amenées à évaluer toutes les dispositions nationales concernant toutes les catégories de contenus relevant de l'article premier »
Dès lors, à l'initiative de votre rapporteur, votre commission a adopté un amendement COM-28 qui, outre une correction rédactionnelle, rétablit l'exigence que la notification, pour valoir présomption de connaissance du contenu signalé auprès des hébergeurs, indique bien :
- premièrement, la localisation précise du contenu,
- et, deuxièmement, les motifs juridiques de l'illicéité alléguée.
Toutefois, par souci de simplicité, votre rapporteur a souhaité tenir compte des possibilités techniques désormais offertes par la plupart des grandes plateformes en réservant explicitement les cas où :
- un dispositif technique directement accessible depuis le contenu litigieux permet de procéder précisément à la notification (la première exigence devrait alors être considérée comme remplie) ;
- la plateforme a prévu un dispositif technique de notification proposant d'indiquer la catégorie d'infraction à laquelle peut être rattaché ledit contenu litigieux (la seconde exigence devrait ainsi être considérée comme remplie).
En outre, il a souhaité dispenser les personnes notifiant des contenus odieux de l'obligation qui leur est faite, sous le régime actuel, d'apporter la preuve des démarches entreprises pour contacter préalablement l'auteur des propos litigieux. Cette exigence de la LCEN est une « sur-transposition » qui ne figure pas dans la directive « e-commerce » et ne résulte ni de la jurisprudence ni des lignes directrices de la commission européenne. Elle ne constitue pas une garantie pour les hébergeurs et, dans le cas très particulier des contenus odieux, obligerait indument les victimes à poursuivre un contact malvenu avec l'auteur de propos haineux.
Votre commission a adopté l'article 1 er ter A ainsi modifié.
Article 1er ter B
(art. 6-2 [nouveau] de la loi n° 2004-575
pour la confiance dans l'économie numérique)
Notification
de contenus haineux par une association
de protection de l'enfance saisie
par un mineur
L'article 1 er ter B de la proposition de loi ouvre aux associations de protection de l'enfance sur internet la possibilité de notifier un contenu haineux lorsqu'elles en sont saisies par un mineur.
Figurant parmi les utilisateurs les plus actifs des réseaux sociaux, l es mineurs sont particulièrement exposés aux cyberviolences et, plus généralement aux contenus illicites . Sans avoir un caractère statistiquement représentatif, une enquête 29 ( * ) réalisée dans les établissements où l'association Génération numérique intervient permet de dresser un premier tableau du phénomène : plus de la moitié des jeunes seraient exposés à des propos haineux sur internet, la tranche d'âge des 15-18 ans étant davantage confrontée aux contenus choquants que celle des 11-14 ans (du fait notamment de sa forte présence sur les réseaux sociaux). Si 42 % des mineurs exposés à des propos choquants sur internet déclare ne pas réagir, c'est à 29 % parce qu'ils ne savaient pas comment répondre, et pour 25 % parce qu'ils considèrent que c'est inutile.
Fruit de réflexions transpartisanes, le présent article, introduit en séance à l'Assemblée nationale, entend dès lors donner un fondement législatif à l'action de certaines associations qui proposent de servir d'interface aux mineurs pour effectuer, à leur place ou en leur nom, la notification auprès des hébergeurs des infractions dont ils sont victimes ou témoins sur internet. Les mineurs bénéficient ainsi de l'appui moral et technique de professionnels qui ont une plus grande familiarité avec les dispositifs de notification, savent plus aisément qualifier juridiquement les propos litigieux, et peuvent leur proposer écoute et conseils pour y faire face.
L'association e-Enfance, reçue en audition par votre rapporteur, opère ainsi un numéro national gratuit et confidentiel (12 000 appels en 2019) ainsi qu'un site internet. Elle bénéficie du statut de « signaleur de confiance » (« trusted flagger ») auprès de la plateforme publique PHAROS et de certains grands opérateurs privés (comme YouTube , par exemple), permettant un traitement accéléré des signalements qui font l'objet d'une pré-qualification juridique.
Le dispositif adopté prévoit ainsi de consacrer dans la loi de telles initiatives en précisant les rôles et obligations respectifs de ces associations (condition d'agrément ; information à chaque stade de la procédure du mineur qui l'a saisie et, obligatoirement, de ses représentants légaux ; conservation des données) et des plateformes (accusé de réception ; obligation de réponse et d'information sur les suites données à la notification).
Lors de leurs auditions, les associations de protection de l'enfance sur internet se sont cependant inquiétées auprès de votre rapporteur de ce que, dans de nombreux cas, les contenus litigieux qui leurs sont signalés pour en obtenir le retrait font référence à la vie affective et aux pratiques ou orientations sexuelles - vraies ou supposées - des victimes mineures, qui ne souhaitent parfois pas les voir dévoilées de cette façon. En l'état, le dispositif proposé risquerait donc de décourager lesdits mineurs de recourir à ces associations pour leur venir en aide.
Pour répondre à ce problème sans revenir sur l'indispensable information due aux représentants légaux, votre commission a adopté l'amendement COM-30 de son rapporteur qui prévoit une exception limitée au cas où cela serait contraire à l'intérêt de l'enfant.
Au bénéfice d'un amendement COM-29 de cohérence rédactionnelle de son rapporteur, votre commission a adopté l'article 1 er ter B ainsi modifié .
Article 1er ter (supprimé)
Sanction des notifications abusives ou
malveillantes
L'article 1 er ter de la proposition de loi tend à créer un délit de signalement abusif d'un contenu sur la base du dispositif prévu à l'alinéa 3 de l'article 1 er de la proposition de loi. Le fait de signaler un contenu comme étant illicite alors que l'inexactitude de ce fait est connue serait sanctionné d'un an d'emprisonnement et de 15 000 euros d'amende.
Cet article reprend la sanction figurant au 4 du I. de l'article 6 de la LCEN qui punit « le fait, pour toute personne, de présenter [...] un contenu ou une activité comme étant illicite dans le but d'en obtenir le retrait ou d'en faire cesser la diffusion, alors qu'elle sait cette information inexacte » « d'une peine d'un an d'emprisonnement et de 15 000 euros d'amende ».
Par cohérence avec la suppression du dispositif auquel cette infraction est liée et dans la mesure où un dispositif équivalent existe déjà dans la LCEN, votre commission a adopté les amendements identiques COM-31 de son rapporteur et COM-4 de notre collègue Jean-Pierre Grand, et supprimé cet article.
* 10 CJUE, 23 mars 2010, Google c. Louis Vuitton Malletier, C-236/08 à C-238/08
* 11 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur.
* 12 À savoir les personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne.
* 13 À savoir les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d'écrits, d'images, de sons ou de messages de toute nature fournis par des destinataires de ces services.
* 14 « Service de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics ».
* 15 Ajoutés à l'initiative de la rapporteure de la commission des lois de l'Assemblée nationale, suivant la recommandation du Conseil d'État dans son avis sur la proposition de loi, il s'agit juridiquement des « [services de communication au public en ligne reposant] sur le classement ou le référencement, au moyen d'algorithmes informatiques, de contenus proposés ou mis en ligne par des tiers ».
* 16 Article D.111-15 du code de la consommation.
* 17 Selon le Conseil constitutionnel, en effet, les 2 et 3 du I de l'article 6 de la LCEN « ne sauraient avoir pour effet d'engager la responsabilité d'un hébergeur qui n'a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n'a pas été ordonné par un juge » (décision n° 2004-496 DC du 10 juin 2004, cons. 9).
* 18 La responsabilité pénale en cas de non-retrait du contenu ne repose ainsi pas sur une infraction spécifique, et le fondement sur lequel elle pourrait être engagée est sujet à débat. Sans doute en partie du fait de cette difficulté, aucune poursuite n'a à ce jour été engagée pour ce motif selon les informations obtenues du ministère de la justice lors de son audition.
Comme le relève la doctrine : « Cette disposition n'a jamais eu vocation à édicter de sanction. Il ne s'agit donc pas d'une incrimination ; elle ne crée pas une infraction nouvelle. Au mieux, ce texte définit un mode particulier de participation à une infraction commise par d'autres. Compte tenu du fait qu'il n'y a aucune raison de déroger ici à la responsabilité qu'assure à titre principal le directeur de la publication, il faut considérer que ce texte institue une sorte de complicité d'un genre nouveau » ( Emmanuel Dreyer , « Responsabilités civile et pénale des médias » LexisNexis, 3 e éd. 2012; cité par Laure Marino « Responsabilités civile et pénale des fournisseurs d'accès et d'hébergement », JurisClasseur Communication, fasc. 670, août 2015 (mis à jour en décembre 2017)).
* 19 Par renvoi aux articles 131-38 et 131-39 du code pénal, soit cinq fois le montant de l'amende pour les personnes physiques.
* 20 La possibilité a été ajoutée au texte par un amendement de séance à l'Assemblée nationale (article 1 er ter) mais, comme le relevait justement le Conseil constitutionnel au sujet de l'infraction de notification abusive réprimée dans le cadre général de la LCEN « Il est vrai que la loi prévoit un garde-fou contre les dénonciations qui auraient pour seul objet d'obtenir le retrait de l'information (4 du I de l'article 6). Mais un tel détournement de procédure est tout sauf évident et, étant sanctionné pénalement, il ne sera reconnu que restrictivement et tardivement. Ce garde-fou ne mettrait donc l'hébergeur que faiblement à l'abri des dénonciations intempestives ».
* 21 Déjà largement déployés pour lutter contre des infractions qui ont un caractère d'évidence ou peuvent bénéficier de recoupements avec des bases de données d'images (terrorisme, pédopornographie), l'utilisation d'algorithmes ou de techniques automatisées de filtrage pourrait s'étendre indument, sans garantir une intervention humaine pour qualifier certaines infractions.
* 22 Selon l'exposé sommaire de l'amendement 299 du Gouvernement adopté en Séance à l'Assemblée nationale : « Sa responsabilité pénale pourra être engagée, dans les conditions du droit commun de l'article 121-1 du code pénal (délégation de pouvoirs et moyens mis à sa disposition pour mettre en oeuvre les obligations de la présente loi), en tant qu'auteur ou complice de l'infraction visée à l'article 6-2 de la loi. »
* 23 L'article 121-3 du code pénal dispose : « Il n'y a point de crime ou de délit sans intention de le commettre.
« Toutefois, lorsque la loi le prévoit, il y a délit en cas de mise en danger délibérée de la personne d'autrui.
« Il y a également délit, lorsque la loi le prévoit, en cas de faute d'imprudence, de négligence ou de manquement à une obligation de prudence ou de sécurité prévue par la loi ou le règlement, s'il est établi que l'auteur des faits n'a pas accompli les diligences normales compte tenu, le cas échéant, de la nature de ses missions ou de ses fonctions, de ses compétences ainsi que du pouvoir et des moyens dont il disposait . »
* 24 La commission cite à ce titre l'obligation de nommer un représentant légal sur le territoire français (article 3); la nécessité de fournir un mécanisme de notification dans la langue de l'utilisateur (article 2); l'obligation d'adopter des mesures appropriées afin d'éviter la rediffusion de contenus illégaux (article 2, paragraphe 5 bis); l'obligation de se conformer aux lignes directrices et recommandations du Conseil supérieur de l'audiovisuel (article 4), ainsi qu'aux obligations de transparence et de rapport (vraisemblablement en français) déterminées par le Conseil supérieur de l'audiovisuel (article 3).
* 25 Ces observations ont été publiées dans la presse spécialisée (par les journaux NextINpact et Contexte), elles sont disponibles en ligne à l'adresse suivante :
https://www.nextinpact.com/news/108451-loi-contre-cyberhaine-telecharger-lettre-incendiaire-adressee-par-commission-europeenne.htm
* 26 Article 14 « Hébergement »
* 27 I de l'article 6
* 28 Le champ d'application matériel des infractions visées a été régulièrement étendu par le législateur et couvre désormais un vaste ensemble assez disparate :
- apologie des crimes de guerres et des crimes contre l'humanité, l'incitation à la haine raciale et la diffusion d'images pédopornographiques prévues initialement en 2004 ;
- incitation à la violence et les atteintes à la dignité humaine en 2007 et 2016 ;
- incitation aux violences faites aux femmes en 2010 ;
- incitation à la haine à l'égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap ainsi que la provocation à la commission d'actes de terrorisme et leur apologie en 2014 ;
- et incitation aux violences sexistes en 2018.
* 29 Enquête conduite par Renaissance numérique et Génération numérique en association avec la DILCRAH et le Comité interministériel à la prévention de la délinquance et de la radicalisation sur l'exposition des jeunes aux contenus choquants sur internet, mars 2018.
Les résultats de cette enquête sont disponibles à l'adresse suivante :
https://www.renaissancenumerique.org/ckeditor_assets/attachments/252/enquete_rn_gn_mars2018.pdf