UNE OCCASION MANQUÉE DE RÉFORMER
RÉELLEMENT
LE CADRE JURIDIQUE POUR LES GÉANTS DU NET
• Mieux prendre en compte les spécificités du modèle économique des grandes plateformes en ligne
Le modèle économique des grandes plateformes repose sur l'exploitation par des algorithmes, aussi puissants qu'opaques , de très grandes quantités de données - en particulier de données à caractère personnel -, utilisées pour le ciblage des contenus et des publicités, en vue de maximiser le temps passé par l'utilisateur sur leurs services et, partant, les revenus publicitaires des plateformes.
Ø Créer un nouveau régime européen de responsabilité renforcée pour les fournisseurs de services intermédiaires utilisant des algorithmes d'ordonnancement des contenus , à raison de ladite utilisation.
Ø Renforcer l'autonomisation des utilisateurs en :
o désactivant par défaut les systèmes de publicité ciblée et de recommandations de contenus ;
o facilitant l'accès aux informations les concernant .
Ø S'assurer de la légalité et de la sécurité des algorithmes d'ordonnancement des contenus, de modération et d'adressage de la publicité utilisés par les plateformes en ligne en :
o mettant en place, au niveau européen, des normes minimales en matière d'éthique et de respect des droits fondamentaux, obligatoires pour tous les algorithmes, dès leur création ( legacy by design ) ;
o rendant publics les algorithmes, aux fins de recherche par des tiers des risques potentiels pour les droits fondamentaux, avant leur première utilisation et après chaque modification substantielle ;
o prévoyant des audits réguliers des algorithmes auto-apprenants .
Ø Ajouter les risques induits par les systèmes algorithmiques , notamment de recommandation des contenus, et de sélection et affichage de la publicité à la liste des risques systémiques que les très grandes devront évaluer annuellement.
Ø Afin de protéger au maximum la liberté d'expression, se concentrer sur la lutte contre la viralité des contenus illicites : inviter les plateformes à d'emblée réduire la visibilité des contenus signalés , si leur caractère illicite n'est pas manifeste.
• Introduire des mesures spécifiques de protection des enfants :
Ø Prendre systématiquement en compte les mineurs dans l'évaluation et l'atténuation des risques .
Ø Désactiver par défaut les systèmes de recommandation des contenus et interdire la publicité ciblée pour les mineurs.
Ø Instaurer un droit à l'oubli pour les mineurs.
• Garantir dès à présent l'adaptabilité du règlement aux futures évolutions des usages, technologies et marchés numériques
Ø S'assurer de la robustesse des concepts et dispositions du règlement, face aux services numériques émergents .
Ø Réduire le délai d'évaluation du règlement de cinq ans deux ans .