M. Marc-Philippe Daubresse. C’est le Parlement qui doit prévoir cela !
Mme Dominique Faure, ministre déléguée. De façon générale, les auteurs de la proposition de loi partent du présupposé que les usages de la biométrie dans l’espace public soulèvent tous les mêmes questions, alors que les problématiques opérationnelles et les besoins de légiférer ne nous semblent pas correspondre.
Ainsi, nous regrettons que les auteurs ne distinguent pas plus nettement l’usage a priori le plus complexe, à savoir la reconnaissance faciale en temps réel à des fins de police administrative, d’autres usages beaucoup moins attentatoires comme la recherche d’un individu dans le cadre d’une enquête.
Ce faisant, votre commission a voulu que relève de la loi tout traitement recourant à la biométrie, ce qui rigidifiera considérablement le droit des traitements de données. Cette idée est à rebours des exigences européennes dans ce domaine, qui nous font de plus en plus obligation de recueillir et d’inscrire de la donnée biométrique pour assurer l’interopérabilité et la fiabilisation des fichiers.
De plus, cette approche est frontalement contraire à la recommandation n° 18 de votre rapport d’information, qui visait à « mettre en place, par la prise de décrets en Conseil d’État, la possibilité pour les forces de sécurité nationale d’interroger à l’occasion d’une enquête judiciaire ou dans un cadre de renseignement certains fichiers de police par le biais d’éléments biométriques ».
Vous l’aurez compris, mesdames, messieurs les sénateurs, si le Gouvernement salue la volonté de votre assemblée de traiter ces sujets – je salue particulièrement le sénateur Daubresse, dont nous connaissons l’engagement sur les sujets régaliens et de sécurité et son souci de garantir au ministère de l’intérieur les moyens de son action – et partage l’utilité de les traiter, nous ne sommes pas pleinement convaincus de l’opportunité de légiférer maintenant.
Il paraîtrait plus pertinent au ministre de l’intérieur et à moi-même de renvoyer à un projet de loi en capitalisant bien évidemment sur vos travaux. Néanmoins, malgré toutes ces réserves et pour souligner la qualité de votre œuvre, le Gouvernement émettra un avis de sagesse sur votre texte.
M. Philippe Bas, rapporteur. Très bien !
Mme Marie-Pierre de La Gontrie. Seulement un avis de sagesse ?
M. le président. La parole est à M. Arnaud de Belenet.
M. Arnaud de Belenet. Monsieur le président, madame la ministre, mes chers collègues, « Houla » ! (Sourires.)
M. Philippe Bas, rapporteur. Houlala !
M. Arnaud de Belenet. C’est souvent la réaction que suscite l’évocation de la reconnaissance biométrique et d’un débat sur le sujet.
Est-ce en raison de cette crainte d’entraîner des réactions irrationnelles et des jeux de posture que cet enjeu n’a pas été intégré à la loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions ? Cela me fait souvent penser au personnage d’Élisa, dans une pièce de Léonore Confino, qui appelle à brûler la langue de bois et à avoir le courage d’affronter les débats irrationnels. C’est ce que nous faisons collectivement.
Je vous remercie, madame la ministre, d’envisager de faire évoluer ce texte en un projet de loi. Je vous ferai observer qu’il arrive aussi que certaines initiatives gouvernementales prennent la forme de propositions de loi.
M. Arnaud de Belenet. Il arrive encore que certaines propositions de loi soient amendées et améliorées par le Gouvernement dans le cadre d’un échange avec le Parlement. (Sourires.) J’espère que c’est ce que nous sommes en train de commencer à faire.
Le développement rapide des technologies de reconnaissance biométrique nécessite à présent leur appropriation par les pouvoirs publics pour ne pas les laisser à la main des seuls opérateurs privés. Ces mêmes technologies impliquent un débat public, que beaucoup demandaient : il s’agit non pas de subir, mais de choisir collectivement la société dans laquelle nous voulons vivre.
Je remercie le président de la commission des lois, François-Noël Buffet, d’avoir pris d’initiative de nous confier cette mission d’information ; je remercie également Marc-Philippe Daubresse et Jérôme Durain du travail que nous avons mené ensemble dans un souci constant d’équilibre.
C’est cette même préoccupation d’équilibre qui a conduit un très grand nombre de nos collègues des groupes Les Républicains et Union Centriste à cosigner ce texte. Je peux vous assurer que mon groupe soutient cette proposition de loi.
Je salue aussi la position très rationnelle, pondérée et unanime de la commission des lois lors de la remise de notre rapport d’information.
Je remercie enfin notre rapporteur de son expertise, son exigence et son travail. Je lui exprime, comme à l’accoutumée, une reconnaissance qui n’est pas seulement faciale… (Sourires.)
La présente proposition de loi tend à transcrire les conclusions des travaux de la mission d’information précitée et vise à ce titre deux objectifs principaux : d’une part, répondre aux besoins de régulation de ce système de surveillance, d’autre part, permettre aux pouvoirs publics d’utiliser à titre exceptionnel ces technologies, de les comprendre, de les maîtriser, d’en tester l’utilité. Le principe est l’interdiction, l’expérimentation l’exception.
Remanié par la commission des lois, l’article 1er tend à poser clairement l’interdit du traitement des données biométriques aux fins d’identifier une personne à distance dans l’espace public et dans les espaces accessibles au public, sauf évidemment à y consentir.
Fixer cet interdit de manière durable en le crantant dans la loi n’est pas seulement nécessaire, c’est un marqueur civilisationnel. Il n’est pas de bon ou de mauvais moment pour faire ce choix politique, un choix de société comme nous en faisons assez rarement. Habituellement, nous excellons dans la technique juridique ; là, nous prenons une décision politique très claire : nous refusons une société de surveillance – mieux, selon les mots choisis par Philippe Bas, nous lui faisons obstacle – et garantissons les libertés publiques.
L’interdit corollaire de la catégorisation et de la notation à partir de données biométriques est également inscrit dans la proposition de loi.
Les expérimentations, quant à elles, sont très encadrées : limitées à trois ans, elles sont régulièrement évaluées et dans le cadre d’un rapport public et par le Parlement. Elles sont soumises à un régime de contrôle : les usages de la reconnaissance biométrique dans l’espace public répondent à une procédure d’autorisation spécifique, de la part des magistrats pour les usages judiciaires et de celle de la Commission nationale de contrôle des techniques de renseignement pour les usages administratifs.
Pour ce qui concerne les usages judiciaires, la commission a estimé que le recours à la reconnaissance biométrique ne devait être expérimenté que dans le cadre des enquêtes et des instructions portant sur des infractions d’une exceptionnelle gravité. En conséquence, elle a très fortement resserré le périmètre de l’expérimentation.
La reconnaissance biométrique a posteriori ne pourrait être utilisée que dans le cadre des enquêtes portant sur des faits de terrorisme, de trafic d’armes, d’atteintes aux personnes punies d’au moins cinq ans de prison ou de procédures de recherche de personnes disparues ou en fuite.
La reconnaissance biométrique en temps réel, comme l’a considéré la commission, ne concernerait que les cas extrêmes : enquêtes portant sur des faits de terrorisme ou d’atteintes aux intérêts fondamentaux de la Nation, sur des infractions relatives à la criminalité organisée ou sur des disparitions de personnes mineures.
De plus, la commission a entendu renforcer au maximum le régime de contrôle de cette expérimentation ainsi que les garanties associées. Elle a ainsi soumis l’usage a posteriori à une autorisation expresse de l’autorité judiciaire qui devra préciser l’origine et la nature des données exploitées. Elle a également confié au seul juge des libertés et de la détention le soin de procéder au renouvellement de l’autorisation de recourir aux traitements biométriques en question.
Pour ce qui est des usages administratifs, la commission a restreint le champ de l’expérimentation en prévoyant que le système d’authentification biométrique obligatoire ne pourrait concerner les habitants des zones concernées.
Elle a aussi précisé que seul l’État pourrait mettre en œuvre les traitements de données biométriques utilisés dans le cadre de cette expérimentation. C’est important à souligner, car il s’agit bien de notre souveraineté : il ne faudrait pas que toute une série de technologies, faute de législation dédiée, partent à l’étranger. Il faut plus précisément que l’État maîtrise lesdites technologies pour pouvoir exercer son contrôle légitime et protéger nos libertés publiques.
Avec Marc-Philippe Daubresse et ceux qui nous ont accompagnés, nous nous sommes efforcés d’être particulièrement restrictifs et exigeants sur les conditions de l’expérimentation.
La commission, grâce aux initiatives de notre rapporteur, a réussi à aller plus loin. J’y vois là un gage considérable donné à ceux qui pourraient s’inquiéter pour nos libertés. J’y vois aussi une bonne façon d’entamer ce nécessaire débat et le parcours de ce texte, tout aussi nécessaire. (Applaudissements sur les travées des groupes UC et Les Républicains.)
M. le président. La parole est à M. Jean-Claude Requier.
M. Jean-Claude Requier. Monsieur le président, madame la ministre, mes chers collègues, je vous l’annonce d’emblée : j’ai eu un a priori mitigé en découvrant cette proposition de loi.
M. Philippe Bas, rapporteur. Ah !
M. Jean-Claude Requier. Voilà quelques semaines, lors de l’examen de la loi relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions, nous avions admis l’expérimentation de l’utilisation de la vidéoprotection dite ou augmentée au travers du traitement par algorithme des images. D’ailleurs, cette nouveauté juridique suivait les recommandations formulées par nos collègues Marc-Philippe Daubresse, Arnaud de Belenet et Jérôme Durain dans leur rapport d’information intitulé La reconnaissance biométrique dans l’espace public : 30 propositions pour écarter le risque d’une société de surveillance.
Il m’avait alors semblé qu’une limite avait été fixée, celle de ne pas aller jusqu’à la biométrie, et qu’il s’agissait d’une bonne limite. Je m’étais même permis d’exprimer, au cours de la discussion générale, mon « sentiment profond que le fait de présenter l’innovation technologique comme une solution évidente demeure une chimère potentiellement dangereuse ».
Et voilà que vous proposez dans ce nouveau texte d’expérimenter le recours à la biométrie. Pourquoi ne pas laisser vivre l’expérimentation des algorithmes avant de nous engager dans une nouvelle voie ?
Si la technologie peut aider, nous en convenons, elle est aussi facteur de dérives. Nous pouvons d’ailleurs déjà en observer certaines. Je pense en particulier à ce que la Chine développe depuis plusieurs années, à savoir un système étatique de « crédit social » qui consiste en l’attribution d’une note aux citoyens en fonction de leur comportement. Ce dispositif repose sur une collecte de données des personnes sur leur comportement dans la rue ou dans les transports. Tout cela donne une note qui permet d’identifier la qualité du citoyen et d’en déduire le périmètre de ses droits. Pour y parvenir, l’usage de la biométrie est essentiel aux autorités.
Nous sommes déjà dans ce que les scénarios d’anticipation les plus préoccupants pouvaient proposer voilà à peine quelques années. Aussi, j’aime à répéter à cette tribune combien le groupe RDSE est fermement attaché aux libertés.
À cet égard, les limites fixées tant par les auteurs de la proposition de loi que par notre rapporteur sont évidemment à saluer, d’autant qu’il est inenvisageable de ne pas les inscrire dans la loi. Elles tiennent compte des inquiétudes et des risques encourus par notre société. Je pense à l’interdiction de catégoriser des personnes sur la base de leurs données biométriques, à l’interdiction de noter des personnes, toujours sur la base de ces données, ou encore à l’interdiction des systèmes de reconnaissance biométrique en temps réel ou a posteriori dans l’espace public.
Seulement, tout le monde sait bien que le législateur peut défaire ce qu’il a fait. Ces garde-fous sont certes indispensables, mais ils seront insuffisants le jour où il sera question de les faire sauter.
J’en viens maintenant à la série d’expérimentations que proposent les auteurs du texte. Chacun s’accordera autour de la nécessité de sécuriser les événements particulièrement exposés à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes. Je pense bien évidemment aux jeux Olympiques et Paralympiques. Chacun s’accordera également à vouloir faciliter la constatation des infractions à la loi pénale, le rassemblement des preuves de ces mêmes infractions et la recherche de leurs auteurs.
En quelques mots, les expérimentations proposées visent toutes des buts légitimes dont la gravité justifie certaines innovations en matière de surveillance ou d’investigation.
Si ces dispositifs devaient être institués, il faudrait en effet les accompagner, comme le proposent les auteurs du texte, d’un comité scientifique et éthique chargé d’évaluer régulièrement l’application des mesures. Le fait que la Cnil soit associée à ce dispositif comme chef de file de la régulation des systèmes d’intelligence artificielle est aussi de nature à me rassurer.
Ce texte traduit donc une recherche d’équilibre. Il tend à instituer des garde-fous, ce qui ne m’empêche pas de plaider pour une forme de prudence. Aussi, malgré des réserves assez importantes quant au développement de la biométrie, et même si la position de notre groupe n’est pas unanime – c’est souvent le cas –, une partie majoritaire d’entre nous votera en faveur de cette proposition de loi. (M. le rapporteur et M. Marc-Philippe Daubresse applaudissent.)
M. le président. La parole est à M. Stéphane Le Rudulier. (Applaudissements sur les travées du groupe Les Républicains.)
M. Stéphane Le Rudulier. Monsieur le président, madame la ministre, mes chers collègues, la présente proposition de loi de nos collègues Marc-Philippe Daubresse et Arnaud de Belenet est une initiative inédite en matière de technologie biométrique et une première traduction législative d’un encadrement de son utilisation qui manquait cruellement à notre arsenal juridique.
Ce texte traduit une réelle ambition : celle de garantir le juste équilibre entre outils technologiques de sécurité collective et respect de l’État de droit et des libertés fondamentales, dans l’intérêt de nos concitoyens. Les auteurs de cette proposition de loi viennent poser un principe d’interdiction qui fera l’objet d’une liste d’exceptions strictement encadrées par des procédures et des garanties de surveillance collectives et transparentes.
Ce texte est le résultat d’une réflexion parlementaire qui a fait l’objet de trois rapports ces dernières années. Par son travail remarquable, notre rapporteur, le questeur Philippe Bas, est venu renforcer et parfaire l’esprit de cette initiative législative. Le Sénat a ainsi l’occasion de faire entrer la France dans le nouveau millénaire en matière de sécurité.
J’entends les doutes et les interrogations légitimes de certains devant un prétendu État policier qui s’introduirait, grâce à la technologie, dans l’intimité de chacun pour espionner et, pourquoi pas, punir. Après les vaccins qui inoculeraient des puces brevetées par Bill Gates, la vidéoprotection avec reconnaissance faciale dans l’espace public violerait notre intimité… C’est une possibilité, d’où un encadrement strict de son utilisation.
Pourtant, avouons-le, il y a là un paradoxe insensé : nous acceptons chaque jour de céder à des multinationales étrangères la moindre donnée personnelle récoltée au travers de nos téléphones, de nos téléviseurs et de nos enceintes connectées, ou encore, désormais, de nos voitures intelligentes, mais nous refusons que l’État régalien assure notre sécurité par tout moyen technologique, comme la vidéoprotection avec reconnaissance faciale, alors même que telle est sa mission. On donne à des start-up californiennes nos empreintes digitales et les moyens d’identifier nos visages, on leur accorde un accès à notre intimité depuis notre salon au travers d’enceintes connectées et l’on refuserait à l’État d’assurer notre protection dans l’espace public sous contrôle de la Cnil et du Parlement.
Mes chers collègues, la reconnaissance faciale et biométrique n’est qu’une goutte d’eau et un balbutiement dans les avancées de l’intelligence artificielle.
M. Thomas Dossus. Nous voilà rassurés !
M. Stéphane Le Rudulier. Nous le voyons bien avec ChatGPT : l’IA est la révolution du millénaire. Nous ne pouvons rester spectateurs impuissants, rétifs au progrès,…
M. Thomas Dossus. Quel progrès !
M. Stéphane Le Rudulier. … sans même essayer d’encadrer l’utilisation de ces technologies.
La France doit être au rendez-vous de l’histoire. De nombreux pays comme Israël, le Royaume-Uni, l’Allemagne et les États-Unis protègent leur population face à l’explosion de la criminalité organisée et au terrorisme. Nous avons le devoir d’offrir aussi cette protection aux citoyens français.
Permettez-moi d’être très inquiet quand je constate le sous-équipement des principales grandes villes françaises en matière de vidéoprotection. Pourtant, c’est dans ces métropoles que se concentrent la criminalité, la violence et le terrorisme. Rendez-vous compte : seulement 19 caméras pour 10 000 habitants à Marseille ou à Paris, 11 caméras pour la troisième ville de France, Lyon, et 9 pour Toulouse. Dans le même temps, deux capitales européennes majeures, Londres et Berlin, en dénombrent respectivement 180 et 110, toujours pour 10 000 habitants. Nous sommes clairement en retard par rapport à nos voisins.
Comment imaginer que Paris et Marseille, qui accueilleront dans les prochains mois la Coupe du monde de rugby, une messe du pape ou encore les jeux Olympiques, soient quasiment nues en matière de vidéoprotection ? Au-delà de ces grands événements, rappelons tout de même que la France est le pays le plus touristique du monde avec 89 millions de visiteurs par an. La gare du Nord est la plus fréquentée d’Europe avec 700 000 voyageurs quotidiens. Nous devons garantir une protection dans l’espace public à la mesure de notre attractivité.
La France doit s’adapter à son époque : on ne peut lutter contre les délinquants et contre les terroristes du XXIe siècle avec les outils désuets et obsolètes du milieu du XXe siècle.
Pour conclure, je citerai Clemenceau, qui fit tant pour notre sécurité collective : « Il faut savoir ce que l’on veut. Quand on le sait, il faut avoir le courage de le dire ; quand on le dit, il faut avoir le courage de le faire. » (Applaudissements sur les travées du groupe Les Républicains. – M. Arnaud de Belenet applaudit également.)
M. le président. La parole est à M. Pierre-Jean Verzelen.
M. Pierre-Jean Verzelen. Monsieur le président, madame la ministre, mes chers collègues, les évolutions récentes nous mettent devant le fait accompli : nous devons réguler et encadrer de manière adaptée et spécifique la reconnaissance biométrique. Cet outil permet d’identifier un individu grâce à un panel de caractéristiques qui lui sont propres.
L’intelligence artificielle connaît un essor fulgurant. Notre rôle de législateur prend tout son sens dans ce domaine où tout va très vite. Nous avons besoin d’un droit solide et protecteur qui saura s’adapter aux évolutions technologiques. C’est indispensable pour protéger nos droits fondamentaux et nos libertés individuelles. Dans notre pays, la reconnaissance biométrique est très limitée et le droit n’est pas du tout adapté.
Ce sujet revient souvent sur nos travées, comme en atteste la mission d’information à l’origine de cette proposition de loi ou, plus récemment, la loi relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions. Encadrer cette pratique au travers d’un texte qui lui soit propre est nécessaire.
Inévitablement, ce débat rappelle celui d’il y a quelques années sur la vidéosurveillance. La reconnaissance biométrique est là, elle existe ; elle peut être utile pour améliorer la sécurité dans l’espace public et lors de grands événements. Dès lors, pourquoi s’en priver ? Développons intelligemment ce nouvel outil, faisons-le de manière sécurisée, avec un modèle qui nous convient. Fixons nous-mêmes les règles et les limites que nous souhaitons nous imposer.
C’est aussi un enjeu industriel majeur. Le matériel et les logiciels devront être français ou européens : nous savons que nous devons rester souverains en la matière.
Comme cela a été souligné, ce débat représente également un enjeu de gestion des données. Google, Facebook, TikTok : ces plateformes américaines ou chinoises captent à longueur de journée des données relatives à nos populations. Nous peinons à voir émerger des outils européens en la matière. Ne prenons pas le même retard sur la reconnaissance biométrique !
Nous saluons la Commission européenne, qui s’est saisie de la question de l’intelligence artificielle avec l’AI Act. Je rejoins l’avis du rapporteur : nous ne pouvons attendre 2025 et l’entrée en vigueur de ce futur règlement européen. Tout va très vite : beaucoup de nos voisins ont déjà recours à la reconnaissance biométrique. Nous ne sommes pas les États-Unis, où la pratique est encadrée de manière plutôt vague ; nous ne sommes certainement pas non plus la Chine,…
M. Thomas Dossus. Pas encore !
M. Pierre-Jean Verzelen. … où des millions de caméras intelligentes sévissent chaque jour et notent les individus. Nous refusons la société de surveillance qu’impose ce pays à ces habitants.
Cette proposition de loi est donc essentielle. Ses auteurs nous poussent à nous interroger ensemble sur le cadre que nous souhaitons développer ; ils ont le mérite d’ouvrir le débat et de mettre, si je puis dire, le pied dans la porte. (M. Thomas Dossus le déplore.) Nous saluons le travail effectué en commission des lois, sur l’initiative du rapporteur, qui a permis de renforcer les mécanismes initialement proposés.
L’article 1er vise à donner un cadre strict aux interdictions des différentes formes d’identification – à distance, sans le consentement des personnes physiques, ou a posteriori, pour ne citer que ces exemples.
L’expérimentation sur une durée de trois ans va dans le bon sens. Nous devons évaluer ces mécanismes avant une potentielle pérennisation.
La subsidiarité introduite dans les mécanismes est gage de préservation des libertés. La limitation des expérimentations à des cas très précis, à caractère exceptionnel, est centrale. Ces mécanismes sont cruciaux dans la lutte contre le terrorisme et la criminalité organisée et dans la défense des intérêts de la Nation. L’expérimentation prévue concernant les grands événements sportifs et ses conditions de mise en œuvre sont des pistes de réflexion intéressantes pour l’avenir.
Trouver l’équilibre entre la sécurité des Français et le respect de leurs libertés est la ligne de crête sur laquelle nous devons en permanence avancer. La proposition de loi qui nous est soumise est une première étape ; il y en aura, à mon avis, bien d’autres. Nous commençons à aborder le sujet, le débat est lancé. Le groupe Les Indépendants – République et Territoires soutient les grandes orientations de ce texte. (Applaudissements sur des travées du groupe Les Républicains. – M. Arnaud de Belenet applaudit également.)
M. le président. La parole est à M. Thomas Dossus.
M. Thomas Dossus. Monsieur le président, madame la ministre, mes chers collègues, « créer un cadre juridique expérimental permettant, par exception et de manière strictement subsidiaire, le recours ciblé et limité dans le temps à des systèmes de reconnaissance biométrique sur la voie publique, en temps réel, sur la base d’une menace préalablement identifiée et à des fins de sécurisation de grands événements ».
Ces mots sont ceux de l’auteur de la présente proposition de loi, M. Marc-Philippe Daubresse, qu’il a prononcés lors de l’examen de la loi relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions. Il définissait déjà les contours du texte actuel puisque, selon lui, ladite loi n’allait pas assez loin dans les innovations en matière de surveillance.
Notons les précautions, les circonlocutions et les périphrases : elles ne sont pas anodines et résument en réalité les faux-semblants qui sous-tendent le présent texte.
En vérité, le procédé est toujours le même lorsqu’il s’agit de technologies de fichage et de surveillance de masse : à la prudence initiale se substituent la généralisation et la fin des garde-fous.
Les prélèvements ADN, par exemple, ont été introduits dans notre droit en 1998 à la suite de l’affaire Guy Georges et concernaient à l’époque uniquement les condamnés définitifs pour agression sexuelle. Vingt-cinq ans plus tard, le fichier national automatisé des empreintes génétiques répertorie 3 millions d’individus, avec une écrasante majorité de personnes non condamnées. Nous ne comptons plus les prises d’empreintes génétiques pour des participations à des manifestations, par exemple ; refuser de s’y soumettre constitue désormais un délit, passible d’un an de prison et de 15 000 euros d’amende. Ficher l’ADN des militants politiques est devenu coutumier !
La vidéosurveillance a connu le même essor au travers d’un usage exponentiel, qui en a rendu la pratique massive. Depuis la loi relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions, il est possible de confier l’analyse des images à des algorithmes, encore une fois dans le cadre d’une expérimentation… Ne doutons pas qu’elle sera, elle aussi, généralisée !
En effet, à chaque fois, tout commence par des expérimentations, des dispositifs réduits, des initiatives que l’on nous jure strictement encadrées, pour aboutir invariablement à des généralisations. Nos libertés publiques deviennent secondaires pour les apprentis sorciers de la société de surveillance.
Nous sortons à peine de l’examen d’une loi d’exception qui a donné un cadre légal à la surveillance algorithmique durant les jeux Olympiques et Paralympiques que les fanatiques du flicage nous proposent déjà d’aller plus loin. Le risque antiterroriste sert, comme à chaque fois, de faux nez de la surveillance globale.
Qu’importe que la rapporteure spéciale de l’ONU sur la promotion et la protection des droits de l’homme et des libertés fondamentales dans la lutte antiterroriste ait dénoncé l’utilisation du terrorisme comme justification politique pour adopter des technologies à haut risque.
Qu’importe que la Défenseure des droits souligne un « risque inhérent d’atteinte au droit au respect de la vie privée et à la protection des données ».
Qu’importe que le Massachusetts Institute of Technology (MIT) révèle que les technologies de surveillance automatisées présentent des préjugés liés au sexe et à la couleur de peau.
Il nous faudrait innover dans la société de contrôle, toujours plus loin, toujours plus fort, sans jamais réfléchir au modèle de société que cela induit.
Que contient ce texte ? Une forte dose d’hypocrisie. En effet, son article 1er tend à poser un cadre très strict d’interdictions pour empêcher la catégorisation, la notation ou la reconnaissance des personnes par les technologies de biométrie, le tout assorti d’un contrôle sérieux du Parlement, de la Cnil ou de la CNCTR. On aurait pu s’arrêter là, avec quelques sanctions pour des usages illégaux.
Pourtant, que contient le reste du texte ? Une liste d’exceptions à cette interdiction générale. La biométrie ? Jamais, sauf pour contrôler l’accès aux grands événements, pour permettre l’exploitation d’images a posteriori afin de retrouver des auteurs ou des victimes d’infractions, pour surveiller des foules en direct lors d’événements dits à risque ou encore pour aider aux investigations des services de renseignement dans la lutte contre le terrorisme.
La liste est déjà longue, mais elle sera trop courte pour un prochain gouvernement qui pourra introduire à souhait des exceptions supplémentaires. À partir du moment où vous acceptez, avec ce texte, la dissémination, la prolifération de ces technologies, vous devrez assumer un usage qui deviendra général, n’en doutez pas. Ce texte est un cadeau de bienvenue à un prochain gouvernement plus autoritaire qui n’aura qu’à pérenniser l’usage de la biométrie en rallongeant la liste des usages possibles.
Celles et ceux qui sont attachés à la devise républicaine, notamment au premier terme gravé au fronton de nos mairies, celui de « liberté », devraient être horrifiés par ce texte. Les garde-fous n’y changeront rien : l’autorisation, même partielle, de ces technologies ne fera qu’en multiplier le développement et l’usage. La société de surveillance mettra à mal notre démocratie.
L’usage politique de ces technologies ne sera pas entravé par les garde-fous. Les dérives politiques de la surveillance policière sont déjà très concrètes. La Lettre A se faisait encore l’écho la semaine dernière d’un bras de fer entre Matignon et Beauvau quant à la surveillance et la mise sur écoute de militants écologistes.
L’enjeu n’est pas seulement sécuritaire, il est aussi économique. Beaucoup appellent – de telles ambitions ont été énoncées très clairement durant les débats sur la loi d’orientation et de programmation du ministère de l’intérieur (Lopmi) – à promouvoir, soutenir et développer des champions français de la technosécurité.
Au nom de la défense des libertés publiques, nous refusons le projet de société que vous défendez avec ce texte : une société du fichage, du flicage, de l’abolition du privé et de l’intime ; un continuum de sécurité, qui considère tout comme une donnée à traiter, jusqu’au phénotype même des individus ; un carcan indépassable, qui n’a qu’une visée, le contrôle, partout et tout le temps.
C’est pourquoi nous vous proposerons la suppression de la plupart des articles de cette proposition de loi, à laquelle nous nous opposerons.