commission des lois |
Projet de loi République numérique (1ère lecture) (n° 325 ) |
N° COM-157 1 avril 2016 |
AMENDEMENTprésenté par |
|
||||
MM. PELLEVAT, LAUFOAULU et RAPIN, Mme CANAYER et MM. GRAND et CARLE ARTICLE 23 |
Alinéa 7
Supprimer cet alinéa
Objet
L’introduction de cette disposition, qui oblige les opérateurs de plateformes en ligne, par l’intermédiaire desquels des contenus illicites sont susceptibles d’être diffusés à grande échelle à destination des consommateurs résidant en France, à « [élaborer] des bonnes pratiques contre la mise à la disposition du public, par leur entremise, de contenus illicites, notamment par la mise en œuvre de dispositifs techniques de reconnaissance automatisée de tels contenus », est problématique à plusieurs titres :
- Le périmètre des contenus concernés par cette disposition est extrêmement large, puisqu’il recouvre l’ensemble des contenus illicites ;
- Cette disposition revient à soumettre l’opérateur de plateforme à une obligation de surveillance généralisée. Or, imposer une telle obligation à ces acteurs contrevient à la fois au droit de l’Union européenne (CJUE, 16 février 2012, Sabam c. Netlog) et à la loi pour la confiance dans l’économie numérique, qui prévoient le régime de responsabilité limitée de l’hébergeur.
- Enfin, cette disposition est de nature à conduire la plateforme à procéder un filtrage automatique et a priori des contenus, qui est préjudiciable à la liberté d’expression. Dans son rapport Ambition numérique, le Conseil national du numérique s’inquiétait de l’essor de la censure préventive automatisée et appelait à encadrer ces pratiques par une obligation renforcée d’intervention humaine. Si la détection des éventuels contenus illicite doit pouvoir se faire de manière automatisée, il est impératif que l’action de retrait reste le fait d’une décision humaine.