- Mercredi 17 juillet 2019
- Jeudi 18 juillet 2019
- Examen d'une note scientifique sur la reconnaissance faciale (Didier Baichère, rapporteur)
- Examen de la note scientifique sur les technologies quantiques : l'ordinateur quantique (Cédric Villani, député, rapporteur)
- Examen de la note scientifique sur les technologies quantiques : la programmation quantique (Cédric Villani, député, rapporteur)
- Examen de la note scientifique sur les technologies quantiques : cryptographies quantique et post-quantique (Cédric Villani, député, rapporteur)
- Examen d'une note scientifique sur la politique vaccinale en France (Jean-François Eliaou et Cédric Villani, députés, rapporteurs, et Florence Lassarade, sénatrice, rapporteure)
Mercredi 17 juillet 2019
- Présidence de M. Gérard Longuet, sénateur, président -
La réunion est ouverte à 17 h 30.
Audition contradictoire sur le problème des soudures de l'EPR de Flamanville
M. Gérard Longuet, sénateur, président de l'Office. - Je suis très heureux de vous accueillir aujourd'hui au Sénat pour cette audition ouverte à la presse consacrée au réacteur EPR (réacteur à eau pressurisée de type evolutionary power reactor) de Flamanville, et tout spécialement à la façon dont les problèmes de soudures identifiés sur celui-ci ont été gérés par les différents acteurs concernés.
Je remercie de leur présence les acteurs de la sûreté nucléaire venus nombreux. Faute de pouvoir tous les citer, je les salue collectivement, au travers du président de l'Autorité de sûreté nucléaire (ASN), M. Bernard Doroszczuk et du directeur général de l'Institut de radioprotection et de sûreté nucléaire (IRSN), M. Jean-Christophe Niel. Cette audition est un prolongement naturel de leurs auditions des 16 mai et 27 juin derniers, au cours desquelles ils ont appelé l'attention de la représentation nationale sur les anomalies qui nous intéressent aujourd'hui. Je salue également les représentants des grands industriels de la filière nucléaire, MM. Xavier Ursat, directeur exécutif groupe en charge de l'ingénierie et des projets « nouveau nucléaire » pour EDF et, Philippe Braidy, directeur général de Framatome. Je remercie enfin nos deux experts indépendants, qui représentent ici la société civile, Mme Monique Sené, membre du Haut comité pour la transparence et l'information sur la sécurité nucléaire (HCTISN), et M. Yves Marignac, directeur de WISE-Paris et porte-parole de l'association négaWatt.
En tant qu'organe commun aux deux assemblées, chargé d'informer le Parlement sur les problèmes d'ordre scientifique et technologique, l'Office parlementaire (Opecst) est particulièrement bien placé pour examiner cette question. Depuis sa création, voici 35 ans, il a consacré plus d'une vingtaine de ses rapports - de l'ordre de 10 % - à des sujets touchant, de près ou de loin, au contrôle de la sûreté et de la sécurité nucléaires, ou à sa transparence. J'en profite d'ailleurs pour saluer Bruno Sido, ancien président de l'Office, toujours très attentif à ces questions.
Je voudrais revenir, pour éclairer nos débats d'aujourd'hui et illustrer la pertinence de l'intervention de l'Office, sur deux de ses rapports consacrés au contrôle de la sûreté et de la sécurité nucléaires, publiés il y a plus de 20 ans. Le premier s'inquiétait, dès 1991, des conséquences, en termes de maîtrise industrielle, de l'absence de construction de nouveaux réacteurs nucléaires. Sept ans plus tard, en 1998, un nouveau rapport, constatant l'absence de clarification sur la politique industrielle en matière nucléaire, alertait sur le fait que « l'absence de planification risque de conduire à une catastrophe industrielle ».
Au final, la construction de l'EPR de Flamanville n'a commencé qu'en 2007, soit dix ans après la mise en service du dernier réacteur du parc en activité, à Civaux. Je crois qu'il s'agit là d'un des éléments permettant d'expliquer une part des difficultés rencontrées ces dernières années dans la construction de l'EPR de Flamanville. A contrario, il faut bien constater que le savoir-faire industriel acquis par la Chine, dotée du plus important programme nucléaire mondial avec une vingtaine de réacteurs en construction, lui a permis d'éviter ces déconvenues et d'achever la construction du premier réacteur EPR en moins de 10 ans, même si le chantier chinois a aussi largement bénéficié de l'expérience de Flamanville.
Le nucléaire est une fierté française. Le Parlement a toujours été attentif à cette filière, pour la soutenir ou garantir la sécurité, par exemple avec les lois de 1991 ou de 2006 sur les déchets. Cette politique n'a jamais été remise en cause. Cette audition vise à replacer le débat devant la représentation parlementaire et les citoyens qui souhaitent être informés en toute clarté. Cette industrie qui fonctionne bien depuis plusieurs décennies donne le sentiment d'hésiter. La société a évolué ; le marché de l'énergie est devenu concurrentiel, voire conflictuel. Les intervenants ont changé. L'information circule plus vite, dans une société où le doute est devenu hyperbolique. L'opinion est beaucoup plus exigeante et demande des comptes aux ingénieurs et aux experts. Votre présence contribuera à nous éclairer.
M. Cédric Villani, député, premier vice-président de l'Office. - Je tiens aussi à mon tour à remercier tous les acteurs de la filière nucléaire qui sont ici présents pour éclairer les parlementaires et nos concitoyens. Le sujet est important et sensible : l'opinion publique s'inquiète d'entendre parler régulièrement des difficultés d'un chantier de longue haleine, entamé en 2007, qui s'accompagnent de délais successifs et donc de surcoûts. Il est important de traiter les incidents avec responsabilité et transparence, pour bien éclairer l'opinion publique. Récemment, des problèmes ont été détectés sur certaines soudures de l'EPR de Flamanville. L'objet de notre audition est de voir comment ces problèmes de soudures ont été pris en compte. Cette audition s'inscrit donc dans une démarche de contrôle, à l'image de celles que nous avons pu avoir sur Parcoursup après celle sur son prédécesseur APB, ou sur le risque de tsunami sur les côtes françaises, dix ans après le précédent rapport de l'Office sur le sujet.
M. Xavier Ursat, directeur exécutif groupe en charge de l'ingénierie et des projets « nouveau nucléaire » d'EDF. - Merci pour votre invitation à participer à ce débat sur un sujet crucial pour toute la filière nucléaire française, toute l'activité nucléaire civile dans notre pays et, bien évidemment, pour EDF. Cette industrie installée depuis longtemps dans notre pays présente des atouts et des compétences exceptionnelles qui sont mises en oeuvre chaque jour. Un chiffre est révélateur : en juillet 2019, le parc nucléaire d'EDF a dépassé le seuil correspondant à l'équivalent de 2000 années de fonctionnement d'un réacteur nucléaire. C'est exceptionnel.
J'en viens au problème des soudures de Flamanville que je vais vous présenter avec humilité, sans me cacher derrière mon petit doigt. Nous faisons face à une difficulté sérieuse sur le chantier de Flamanville, qui résulte d'un déficit de traitement de ces soudures par EDF, Framatome et ses sous-traitants durant toute la durée du chantier. Il est important de bien analyser le problème, de déterminer la meilleure manière de le surmonter et d'en tirer tous les enseignements pour l'avenir.
Les soudures défectueuses concernent les tuyauteries d'évacuation de la vapeur du circuit secondaire du réacteur à eau pressurisée (EPR) de Flamanville, qui évacuent la vapeur sous pression des générateurs de vapeur vers la salle des machines, et donc transportent l'énergie du coeur du réacteur vers les installations qui vont ensuite produire de l'électricité. À Flamanville, ces lignes vapeur ont été conçues, à l'origine, selon un référentiel dit d'exclusion de rupture, référentiel exigeant qui requiert une réalisation avec un niveau de fabrication de haute qualité, dans la mesure où l'application de ce référentiel repose sur l'hypothèse qu'une rupture de ces lignes est hautement improbable, ce qui a des conséquences sur les études de sûreté.
Les exigences de haute qualité ont été respectées pour les tuyaux constituant les différents tronçons des lignes vapeur. En revanche, le management d'EDF a pris conscience, en 2017, que ces exigences n'avaient été que partiellement déclinées pour la réalisation des soudures qui se situent entre les tuyaux. Les lignes vapeur, en effet, sont des lignes assez longues qui vont des générateurs de vapeur à l'intérieur du bâtiment réacteur, vers le bâtiment auxiliaire, puis vers la salle des machines, avec, évidemment, des soudures entre les différents tronçons de tuyaux. Après de nombreux échanges avec l'ASN et l'IRSN, ainsi qu'après la découverte de défauts sur certaines de ces soudures, EDF a décidé, en juillet 2018, de remettre à niveau les soudures des lignes vapeur situées à l'intérieur et à l'extérieur du bâtiment réacteur.
Sur le circuit, huit soudures sont situées entre les deux parois de l'enceinte de confinement. EDF, en juillet 2018, avait proposé de les conserver en l'état, en démontrant que la qualité obtenue pour ces soudures, bien que non conforme au référentiel, était néanmoins suffisante pour garantir un fonctionnement du réacteur en toute sûreté, ce qui signifie qu'elles présentaient des caractéristiques mécaniques suffisantes pour faire face à tous les cas de fonctionnement de l'installation. Le 3 décembre 2018, nous avons remis à l'Autorité de sûreté un dossier technique précisant la démarche de justification en l'état des huit soudures de traversée. Nous avons eu de nombreux échanges au cours du premier trimestre 2019 avec l'ASN. Celle-ci a réuni, le 9 avril 2019, le groupe permanent d'experts pour les équipements sous pression nucléaire (GP ESPN). Dans son avis rendu le 11 avril 2019, le groupe permanent a considéré « qu'EDF, à défaut de renoncer à tout ou partie de l'exclusion de rupture, doit procéder à la remise en conformité de ces traversées. Compte-tenu des risques avancés par EDF pour les scénarios de remise en conformité présentés, il est indispensable d'ouvrir les champs d'investigation ».
EDF a alors fait évoluer sa stratégie pour tenir compte de cet avis. Nous avons proposé une nouvelle stratégie devant le collège des commissaires de l'ASN, le 29 mai 2019, puis formellement, par courrier, le 7 juin 2019. EDF proposait de procéder à la remise à niveau des huit soudures de traversée dans un délai raisonnable après la mise en service de l'installation. Elle entendait apporter tous les éléments justifiant le fonctionnement en toute sûreté du réacteur dans l'intervalle et s'engageait à compléter cette justification par un suivi en service, ainsi que des dispositifs de nature à conforter la robustesse de l'installation. Le 19 juin 2019, l'ASN a néanmoins décidé de demander à EDF de remettre à niveau les soudures avant le démarrage de l'installation. Nous respectons cette décision et nous travaillons désormais à remettre en conformité ces soudures de traversée.
La tuyauterie vapeur principale est insérée dans un pare-jet, qui est enchâssé dans le génie civil du bâtiment. Au milieu du dispositif, entre les parois de l'enceinte, ces tuyauteries sont soudées à un flasque de même diamètre intérieur, raccordé au génie civil du bâtiment. Les soudures à reprendre se situent à ce niveau.
Trois scénarios sont à l'étude pour la remise en conformité des soudures de traversée. Le premier scénario, qui semble le plus faisable, consiste à extraire ces traversées par l'extérieur du bâtiment réacteur, depuis les bâtiments des auxiliaires de sauvegarde. Cela suppose de démonter un certain nombre d'équipements installés dans ces bâtiments pour pouvoir sortir l'ensemble de la tuyauterie des traversées, la reprendre, la réinsérer, puis enfin réinstaller les équipements dans les bâtiments des auxiliaires de sauvegarde.
Le deuxième scénario minimise les montages et démontages. Il consiste à intervenir directement dans l'espace entre les murs d'enceinte. L'inconvénient de ce scénario est qu'il nous force à travailler dans un espace confiné. Il s'agit de toucher à des matériels très sensibles, sur lesquels on n'a pas le droit à l'erreur. Le risque de mise en oeuvre est donc plus élevé que dans le premier scénario.
Nous étudions enfin un troisième scénario de remise à niveau par l'intérieur des lignes, grâce à l'introduction d'un robot dans la tuyauterie qui referait les soudures depuis l'intérieur. Ce scénario est intéressant dans la mesure où il limite les démontages et remontages de matériels, mais il requiert un robot capable de réaliser cette intervention.
Pour chacun de ces scénarios, nous sommes en train d'élaborer une description technique précise de l'intervention envisagée, un planning détaillé de cette intervention, une analyse complète des risques, car il faut remettre les soudures en conformité avec le référentiel sans générer d'autres risques sur l'installation, un schéma industriel, c'est-à-dire un schéma d'intervention coordonnée avec tous les industriels partenaires d'EDF, et, enfin, une évaluation des coûts de l'intervention. Sans attendre le choix du scénario, nous avons d'ores et déjà décidé d'engager les approvisionnements les plus critiques en tuyauterie ou en matériels, afin de ne pas être dépourvus le moment venu.
Nous souhaitons convenir avec l'ASN du cadre d'instruction de chacun des scénarios afin d'être en mesure de valider une démarche de remise à niveau robuste, avec le meilleur compromis en termes de planning, de risques et de sécurité.
J'ajoute que, comme le niveau de finition est très élevé à Flamanville, si l'on exclut les soudures sur le circuit secondaire, nous devrions lancer les essais à chaud de l'installation dans quelques semaines, qui seront ensuite suivis de la reprise des soudures, hors traversée puis de traversée. Je veux aussi préciser que l'enjeu du débat ne concerne pas le modèle EPR en lui-même, mais sa mise en oeuvre et la qualité de la réalisation à Flamanville. Le modèle EPR fonctionne déjà avec succès à Taishan en Chine, où la première tranche a été mise en service commercial au mois de décembre 2018 tandis que l'unité Taishan 2 vient d'être connectée au réseau.
Nous devrons tirer les enseignements de ces incidents pour nos futurs projets. La perte d'expérience liée à l'arrêt de la construction nucléaire pendant une assez longue période en France est l'un des éléments qui explique la situation actuelle. Il est indispensable d'assurer une traçabilité très précise de toutes les démarches tout au long d'un chantier. Aujourd'hui, toute l'entreprise EDF est mobilisée pour réparer les soudures de traversée dans les meilleurs délais, et selon le meilleur schéma industriel. Nous sommes conscients des enjeux, tant l'industrie nucléaire est importante en France pour son mix électrique décarboné. Il s'agit aussi de l'une des industries majeures de notre pays.
M. Philippe Braidy, directeur général de Framatome. - Vous voulez comprendre les raisons des difficultés que nous rencontrons : je n'éluderai pas la question. Un mot d'abord sur l'exclusion de rupture qui est un principe défini, dès l'origine de l'EPR, dans le rapport de sûreté. Areva, Framatome aujourd'hui, en a une certaine paternité. Il vise à simplifier, en permettant de ne pas prendre en compte certains accidents de rupture dans la conception des composants et des structures environnantes, comme c'est écrit dans le rapport de sûreté. Il repose sur la défense en profondeur, c'est-à-dire sur plusieurs critères de défense, dont la bonne qualité de la conception et de la fabrication, ainsi que le maintien de l'installation dans le domaine autorisé pour éviter que les accidents puissent survenir, ce qui peut faire intervenir des dispositifs tels que des soupapes. Donc ce principe s'appuie sur plusieurs critères. Dans le cas de l'EPR, il s'agissait, pour la conception, de la réduction du nombre de soudures, de l'utilisation de métaux nouveaux, avec des qualités de ductilité meilleures, de la prise en compte de chargements aux limites plus conservatives, etc.
Framatome, avec le groupement d'entreprises Fives-Nordon et Ponticelli Frères, était en charge de la réalisation des soudures. La difficulté est de transcrire ce principe de sûreté, qui englobe plusieurs aspects, dans des normes que doivent suivre les fabricants et toute la chaîne des sous-traitants au quotidien, sur les chantiers, pour garantir que le résultat sera atteint. Tel est le défi auquel l'industriel est confronté. À l'époque, dans l'état de l'art, dans le rapport de sûreté ou les décisions des groupes permanents, il était admis que le règlement de conception et de construction des matériels mécaniques (RCC-M), de niveau 1, qui était le plus exigeant, permettait d'atteindre ces objectifs de qualité, au vu de l'expérience acquise sur le parc EDF, notamment le palier N4. L'objectif de résilience des métaux était fixé à 100 joules pour le palier ductile.
Que s'est-il passé ensuite, après l'édiction de ces normes en 2005-2007 ? En 2011-2012, l'entreprise Fives-Nordon préfabrique à Nancy les traversées en cause. Ne lui est notifiée que la nécessité de respecter le RCC-M. On découvre alors qu'on est un peu « en limite » vis-à-vis d'un certain nombre de critères RCC-M. On en vient à s'interroger sur le retour d'expérience dont on disposait avec le palier N4. On se demande si ce que l'on croyait facile à atteindre est si facile à atteindre dans les faits. Areva et Framatome ont alors progressivement durci leurs exigences pour tenir également compte aussi d'autres aspects identifiés dès le début, comme le vieillissement des matériaux. Il s'agissait de garantir par une norme le respect des critères de haute qualité, quelles que soient les conditions de fonctionnement de la centrale et durant toute sa durée de vie prévisionnelle. Cette norme a été progressivement renforcée dans les spécifications transmises aux fabricants et aux sous-traitants.
Il convient de remettre l'affaire dans son contexte : les années 2011 à 2017 représentent une période durant laquelle l'exclusion de rupture constituait un élément nouveau dans le corpus réglementaire et où nous devions appliquer une réglementation sur les équipements sous pression pour le secteur nucléaire, en liaison étroite avec EDF et l'ASN. Nos équipes étaient alors focalisées sur la construction du premier EPR, sur la mise en oeuvre du nouveau corpus réglementaire et sur sa traduction dans des normes industrielles, avec une chaîne d'approvisionnement qui n'avait pas travaillé depuis longtemps sur un projet d'une telle dimension.
Nous appuyons l'action d'EDF, notre actionnaire, pour la réussite du projet EPR. EDF a présenté à l'ASN un projet de démarrage de la centrale en l'état, moyennant des mesures conservatoires, en termes de surveillance et d'exploitation. Les experts, qui ont analysé les soudures selon la qualité du métal utilisé et la capacité de résistance aux différentes sollicitations, ont estimé leur intégrité garantie. Suivant l'avis de l'ASN, nous sommes toutefois en train de travailler à la réparation des soudures.
Au regard de cette expérience, il apparaît que nous devons travailler sur le partage des spécifications avec l'ASN et avec les différentes entreprises concernées, ainsi que sur le renforcement des systèmes de contrôle sur les chantiers. En amont, lorsque sont lancées des opérations de grande ampleur, il convient que toutes les parties prenantes soient informées des objectifs et des référentiels requis, afin de les traduire au stade de la production. En outre, la stabilité du cahier des charges apparaît essentielle. Nous avons mis en place une procédure de retour d'expérience en interne, afin d'améliorer le lien entre la conception et la fabrication, et nous sommes dotés d'outils pour traduire nos exigences dans nos processus de fabrication industrielle et ceux de nos sous-traitants.
M. Bernard Doroszczuk, président de l'Autorité de sûreté nucléaire. - Les éléments présentés par M. Ursat correspondent, dans les grandes lignes, à la chronologie de la découverte des anomalies et de leur traitement. Je reviendrai, en revanche, sur les propos tenus par M. Braidy s'agissant de la conformité des soudures par rapport aux exigences.
Les anomalies présentes sur les traversées de l'enceinte de Flamanville ne sont pas récentes : elles ont été découvertes par EDF et par Framatome en juillet 2015, mais l'ASN n'en a été informée qu'en janvier 2017. Le niveau de qualité des soudures ne résulte pas de la réglementation applicable aux équipements sous pression, mais d'une proposition faite par EDF et par Framatome dans le cadre de l'instruction de la demande d'autorisation de création de l'EPR. Les niveaux d'exigence retenus pour la construction des traversées de l'enceinte avaient été atteints lors de la construction du dernier réacteur du palier N4 à Civaux, comme sur des réacteurs construits à l'étranger, notamment en Chine et en Grande-Bretagne. Malheureusement, ils n'ont été ni formulés ni transmis au fabricant et aux sous-traitants, les entreprises Fives-Nordon et Ponticelli Frères, chargées de réaliser les soudures. Aussi, dès la fabrication en usine, les tronçons de traversées d'enceinte ne répondaient pas au niveau de qualité requis par l'exploitant.
Après avoir été informés par EDF, nous avons immédiatement été mobilisés pour évaluer l'ampleur de l'écart par rapport au référentiel d'exclusion de rupture. Dès le mois de février 2017, une inspection sur le site de Flamanville, où des opérations de soudage se poursuivaient, était lancée sur le circuit vapeur secondaire, dont la construction et l'assemblage avaient démarré en avril 2016. Nous avons alors constaté que les exigences de qualité liées au référentiel d'exclusion de rupture n'avaient pas non plus été communiquées aux entreprises qui réalisaient les travaux sur le site. Au total, 66 soudures étaient soumises aux dites exigences, soit 8 sur les traversées de l'enceinte et 58 à l'extérieur. Il s'agissait donc d'une défaillance globale sur l'ensemble du circuit vapeur secondaire.
Nous avons ensuite engagé un dialogue technique avec EDF et Framatome, avec l'appui de l'IRSN, pour réfléchir au moyen de traiter les écarts constatés. À deux reprises, en février puis en octobre 2018, nous avons écrit que la stratégie présentée par EDF, consistant à justifier le maintien en l'état des huit soudures de traversée, paraissait peu réaliste et qu'il convenait qu'EDF les répare et lance les opérations d'approvisionnement et de qualification nécessaires. Néanmoins, en décembre 2018, EDF a fait le choix de présenter une telle stratégie, laquelle a fait l'objet d'une instruction approfondie par la direction des équipements sous pression de l'ASN, avec l'appui de l'IRSN.
Précédemment, les informations dont nous disposions étaient essentiellement liées à des écarts identifiés sur certaines caractéristiques mécaniques des soudures visées par les exigences de haute qualité. Le débat portait donc sur l'acceptabilité des soudures n'ayant pas atteint le niveau de qualité exigé. Mais, pour pouvoir instruire le dossier devant le groupe permanent d'experts sur les équipements sous pression, nous avons demandé à EDF de nous fournir des éléments complémentaires, notamment une cartographie des conditions de réalisation des huit soudures incriminées. Il est alors apparu que nous nous trouvions face à une défaillance industrielle générale de la chaîne de conception, de fabrication et de contrôle des soudures, de nombreuses anomalies et écarts par rapport aux exigences ayant été relevés. Les coupons témoins indiquaient que ni les modes opératoires, ni les matériaux ne convenaient, ce qui interrogeait sur la possibilité d'engager une démarche de justification. En conséquence, le groupe permanent d'experts, réuni les 9 et 10 avril 2019, a conclu qu'EDF ne pouvait pas postuler que les soudures ne présentaient pas de risque de rupture et, sur ce fondement, justifier l'absence de réparation. EDF a alors envisagé une seconde stratégie pour être autorisée à mettre le réacteur en service en l'état, moyennant des justifications et la réalisation de réparations trois ou quatre ans après le démarrage de l'installation. Nous avons examiné la proposition et rendu, le 19 juin, un avis signifiant qu'elle ne nous paraissait pas réaliste et qu'il convenait de privilégier une réparation avant la mise en service du réacteur.
Je tire trois enseignements des constats effectués sur les soudures de traversée de l'enceinte et du circuit vapeur principal, comme sur d'autres composants de l'EPR. D'abord, l'expérience et la compétence industrielles se sont affaiblies dans le secteur du nucléaire et il convient de les renforcer, afin de garantir la qualité des installations nécessaire à la confiance dans le nucléaire. Il apparaît, ensuite, que la filière nucléaire française a fait le choix d'une logique de justification technique a posteriori lorsqu'elle est confrontée à des écarts sur des équipements, plutôt que de les réparer. Elle parie sur le futur, alors que, dans certains cas, la correction immédiate des écarts aurait été plus simple. Un industriel me disait récemment que 80 % des écarts industriels pouvaient être corrigés pour éviter des logiques de justification coûteuses et incertaines, la justification devant être réservée aux cas les plus complexes. Le bon sens industriel, hélas, a été écarté dans le dossier qui nous préoccupe... Enfin, l'ASN doit en tirer un enseignement en termes de contrôle : les opérations d'inspection sont priorisées sur les équipements les plus importants - chaudière nucléaire, cuve, générateur de vapeur, circuit primaire principal et certaines parties du circuit secondaire. Entre 2005 et 2016, nous avons réalisé 64 inspections chez les fabricants chargés de la construction de l'EPR, dont cinq ont concerné le soudage mais aucune l'enceinte. Il nous faut réfléchir à mieux identifier et contrôler les cas d'exclusion de rupture qui ressortissent non à la réglementation mais au décret d'autorisation de création de l'EPR et d'un choix volontaire de l'exploitant.
M. Jean-Christophe Niel, directeur général de l'Institut de radioprotection et de sûreté nucléaire (IRSN). - Les lignes vapeur partent des générateurs de vapeur dans l'enceinte, traversent l'espace entre les enceintes, les bâtiments des auxiliaires de sauvegarde et rejoignent la turbine dans la salle des machines. Trois types de phénomènes sont susceptibles de se produire en cas de rupture des tuyauteries : une augmentation brutale du refroidissement de l'eau du circuit primaire ; une libération importante de vapeur pouvant engendrer une augmentation considérable de la pression dans l'enceinte, dans l'espace entre les enceintes ou dans les bâtiments des auxiliaires de sauvegarde ; ou l'agression d'autres équipements au point de les rendre indisponibles.
Les réacteurs nucléaires français sont construits sur le principe de défense en profondeur qui revient à mettre en oeuvre des niveaux de défense successifs vis-à-vis du risque accident : le premier niveau consiste, par la qualité des équipements, à éviter un incident ; le deuxième niveau vise à les détecter et à éviter qu'ils ne deviennent des accidents : le troisième niveau consiste en la maîtrise des accidents ; enfin, le quatrième niveau vise la maîtrise des accidents de fusion du coeur.
Des dispositions doivent donc être prises pour éviter un accident et, le cas échéant, pour limiter les conséquences d'une défaillance. Lorsque cela n'est pas possible, par exemple pour la cuve du réacteur, l'exploitant doit compenser l'absence de la troisième ligne de défense, la maîtrise de l'accident, par le renforcement de la prévention de la défaillance. S'agissant de la tuyauterie, cela se traduit par une conception optimisée limitant le nombre de soudures et les contraintes mécaniques, le choix d'un matériau adapté et le renforcement des contrôles. Telle est la définition de la démarche d'exclusion de rupture, utilisée, lorsque les premiers niveaux de défense en profondeur ne peuvent être atteints, sur les composants du circuit primaire : la cuve, l'enveloppe des générateurs de vapeur et l'enveloppe des pompes primaires. Elle s'applique aussi aux tuyauteries principales vapeur, les super pipes, des réacteurs existants, soit à environ cinquante mètres de tuyaux pour l'EPR.
En 2004, les directives techniques pour la conception et la construction de la prochaine génération de réacteurs nucléaires, dont l'EPR, ont été publiées par l'ASN, sur le fondement d'échanges entre les experts allemands et français. Elles indiquent explicitement que la démarche d'exclusion de rupture est applicable aux tuyauteries de vapeur des circuits secondaires principaux. Appliquant ces directives, EDF n'a pas étudié les conséquences de la rupture complète des tuyaux dans la démonstration de sûreté de l'EPR et n'a pas prévu de dispositif de maintien de la tuyauterie comme il en existe dans les réacteurs finlandais. L'exploitant a également soumis ces éléments, dans le décret de création de 2007, à des exigences renforcées, notamment un niveau de résilience fixé à 100 joules pour le métal. Hélas, l'ASN, via l'analyse de coupons témoins, a constaté le non-respect de cette norme, en usine comme sur site. La qualité de réalisation n'est donc pas celle attendue au regard des exigences d'exclusion de rupture.
EDF a décidé de réparer les soudures des tuyauteries vapeur pour les mettre en conformité avec le référentiel fixé, à l'exclusion des huit soudures situées au niveau des traversées, proposant de justifier, par des calculs de mécanique, qu'elles résisteraient aux sollicitations. À cet effet, l'exploitant a engagé un programme d'étude et de construction de maquettes pour caractériser les propriétés mécaniques des soudures, sans résultat probant. L'IRSN a donc considéré, dans l'avis rendu à l'ASN, que ces éléments étaient insuffisants pour justifier l'application de la démarche d'exclusion de rupture et qu'il convenait de procéder à la remise en conformité des soudures des traversées plutôt que de chercher à justifier leur acceptabilité.
La situation des traversées diffère de celle constatée auparavant sur les calottes de cuves où avait été constaté un excès de carbone. L'avis de l'IRSN et de l'ASN avait alors été positif, car aucun défaut n'avait été détecté dans les calottes et plus de 1 500 essais avaient été réalisés sur trois calottes dans des conditions analogues à celles de l'EPR, ce qui avait permis de connaître précisément le comportement mécanique du matériau présentant les excès de carbone et de constater qu'il était conforme à ce qui était attendu.
En 2018 et en 2019, la contribution de l'IRSN à l'expertise de l'ASN sur ce dossier des soudures représente un travail correspondant à 3,5 personnes à temps plein, qui a des conséquences sur le traitement des autres dossiers.
M. Gérard Longuet, sénateur, président de l'Office. - Vos propos ont le mérite de la clarté. EDF et Framatome nous ont expliqué la genèse d'un chantier difficile ; l'ASN et l'IRSN nous ont fait part des informations ayant conduit à leurs conclusions. J'aimerais connaître la réaction de MM. Ursat et Braidy sur les dernières observations qui ont été présentées. Monsieur Doroszczuk, vous avez attiré notre attention sur le fait que les inspections sur les équipements nucléaires ne concernaient pas les tuyaux transportant de l'eau sous forte pression. Toutefois, si l'eau, même si elle n'est pas irradiée, s'échappe, cela peut entrainer des conséquences inquiétantes. Je souhaiterais, pour ma part, comprendre pourquoi l'exclusion de rupture s'applique au chantier de Flamanville et pas à l'EPR finlandais, dont Framatome est le maître d'ouvrage, ni à l'EPR chinois, pour lequel EDF a joué un rôle de premier plan.
M. Xavier Ursat. - S'agissant des lignes vapeur, il existe deux types de référentiel : un référentiel d'exclusion de rupture ou proche de l'exclusion de rupture, où il faut travailler la qualité des lignes pour garantir l'intégrité du circuit et se doter éventuellement de dispositifs de protection supplémentaires, et un référentiel de fuite avant rupture, qui présuppose l'existence d'un phénomène avant-coureur précédant un incident et prévoit l'arrêt immédiat de l'installation en cas de fuite. La réglementation française a retenu le premier type de référentiel.
Chaque ligne vapeur de Flamanville transporte un quart de la puissance générée par le réacteur ; leur qualité est donc indispensable. Le fait générateur des anomalies constatées réside dans le fait que le référentiel d'exclusion de rupture a été insuffisamment décrit et décliné auprès des fournisseurs lors des différentes phases de construction et d'installation. Le phénomène de la perte d'expérience industrielle a probablement aussi joué. Je réfute, en revanche, l'idée du pari sur l'avenir développée par le président de l'ASN : depuis ma prise de fonction il y a quatre ans, j'ai toujours rappelé aux équipes qu'il n'existait qu'une ligne de conduite dans l'activité nucléaire, assumer la réalité.
Sur le chantier de Flamanville, nous avons dû faire face à de multiples sujets, que nous avons traités aussi rapidement que possible. Il est vrai, cependant, que nous n'avons prévenu l'ASN des anomalies constatés sur les soudures qu'en janvier 2017. Les professionnels concernés ont, en effet, mis du temps à prendre conscience que les écarts au référentiel s'agissant des valeurs de ténacité et de résilience résultaient d'une défaillance plus large due au fait que ledit référentiel n'avait pas été suffisamment spécifié et décliné. Une fois l'ASN prévenue, nous avons analysé précisément les écarts réels, et envisagé s'il était possible de maintenir les soudures en l'état. En juillet 2018, nous avons pris la décision de les remplacer, à l'exclusion de celles des traversées, qui sont exemptes de défaut, exception faite du problème de qualité de la réalisation. Plus précisément, je vois M. Marignac réagir, sept soudures sont exemptes de tout défaut et une soudure a montré un problème de dimensionnement, pour lequel cependant même le GP ESPN a reconnu qu'il n'était pas nécessaire de prévoir un traitement différent que pour les autres soudures.
Compte tenu de la complexité de la reprise et de notre conviction de pouvoir démontrer que leurs caractéristiques mécaniques suffisaient à faire face aux cas de charge - et ainsi à garantir la sécurité de l'installation - nous avons choisi de proposer une démarche de justification en l'état, y compris en refaisant des soudures dans les mêmes conditions. Ce n'est aucunement une fuite en avant. M. Niel a évoqué des valeurs qui n'allaient pas ; il s'agit en réalité d'une valeur qui n'était pas conforme. Globalement, les mesures ont conforté notre position et mis en évidence des marges significatives dans le fonctionnement à chaud de l'installation.
EDF est très préoccupée par les questions de sûreté. Nous ne prenons pas le sujet à la légère. Sur ces huit soudures, nous avons estimé pouvoir montrer que les marges étaient suffisantes, compte tenu de la complexité du remplacement. Nous avions proposé un programme de caractérisation très complet que l'on ne peut pas assimiler à une fuite en avant.
Je ne peux que partager le troisième enseignement cité par le président de l'ASN. Il faut assurer la traçabilité des exigences de bout en bout. Lors de la construction d'un EPR, on a tendance à passer davantage de temps sur les équipements les plus importants ; or le cas de Flamanville nous enseigne que le geste professionnel, y compris un geste qui peut paraître simple, comme la réalisation de la soudure en usine ou sur site, fait partie des fondamentaux de la sûreté et réclame une énergie importante. L'ASN a tiré cet enseignement pour elle-même, afin de faire porter le contrôle sur les bons endroits ; nous tirons le même enseignement sur tous nos projets futurs.
M. Philippe Braidy. - Il est exact qu'un problème a été constaté sur les soudures de traversée en juillet 2015 ; mais à l'époque tous les acteurs, y compris les organismes notifiés par l'ASN, en ont validé la conformité au RCC-M. Le référentiel s'est progressivement durci ; il a été diffusé à un moment où certaines soudures avaient déjà été réalisées. Aujourd'hui, nous jugeons rétrospectivement les écarts à ce référentiel, alors que le rapport de sûreté fixait un objectif de résilience de 100 joules, palier ductile. En fonctionnement, ce palier est de 60 degrés pour le métal en question. Les normes que nous avons fixées, peut-être un peu tard, permettaient de tenir cet objectif de cent joules de zéro à 300 degrés.
Je conviens avec M. Doroszczuk que la défaillance a été globale : nous ne sommes pas allés assez loin, collectivement, dans la définition des attentes autour de l'expérience de rupture. Nous nous sommes référés trop longtemps aux normes du RCC-M avant de comprendre qu'il fallait aller plus avant dans la définition des spécifications. Je partage donc les enseignements tirés par l'ASN, y compris la nécessité d'apporter une correction rapide. Cependant, une grande partie des processus que nous mettons en oeuvre sont conjoints avec l'ASN. C'est une exigence qui s'imposera à tous.
M. Bernard Doroszczuk. - Je n'ai pas parlé de fuite en avant mais de justification a posteriori. C'est le résultat d'un pari industriel, qui impliquait un risque. Une tendance est apparue, sur les soudures mais aussi sur d'autres opérations de pression, consistant à justifier les écarts constatés aux normes plutôt que de réaliser des opérations de correction.
Ainsi, des anomalies ont été découvertes en 2010 sur les traversées d'enceinte de l'EPR d'Olkiluoto, en Finlande. Les raccordements autour étaient encore limités. Areva et les autorités finlandaises ont décidé leur remplacement immédiat, qui a été réalisé en moins d'un an. La découverte des anomalies à Flamanville date de 2015, soit au même stade de développement du projet, et EDF n'a toujours pas agi.
Ensuite, je ne peux laisser dire que l'anomalie découverte et partagée en 2015 par Bureau Veritas, mandaté par l'ASN pour le suivi et le traitement des écarts, ne concernait que l'application du code de construction. C'est cet écart qui a fait comprendre à Framatome que le référentiel d'exclusion de rupture n'avait pas été appliqué. Or, et j'ai en ma possession un document d'EDF qui l'atteste, Framatome a décidé de traiter séparément cet écart relevé par Bureau Veritas et l'écart de conformité par rapport au décret d'autorisation de création qui concerne les lésions de structure. Il est impossible de prétendre que l'on ne savait pas. Les équipes projet, à tout le moins, savaient, chez EDF et Framatome, que le référentiel d'exclusion de rupture n'était pas appliqué. L'ASN en a été informée en janvier 2017, un an et demi plus tard.
Mme Monique Sené, Haut comité pour la transparence et l'information sur la sécurité nucléaire (HCTISN). - Je suis mandatée par le HCTISN pour vous dire que les recommandations de son rapport n'ont pas été prises en compte, et que la transparence a fait défaut. Les dossiers transmis n'étaient pas assez clairs pour être compris dans les commissions locales d'information (CLI), ce qui a provoqué une phase de désarroi. Le HCTISN s'est donc efforcé de présenter le dossier de manière intelligible, avec des mots simples. Cette audition montre la nécessité de la transparence, et que la sûreté et la protection de l'environnement et des personnes doivent toujours être mises au premier plan, avant que les ennuis arrivent. Il est temps pour EDF de reprendre un dialogue digne de ce nom avec la société.
M. Gérard Longuet, sénateur, président de l'Office. - Nous ne pouvons que partager la préoccupation que vous exprimez mais, d'une certaine façon, EDF y répond ici.
M. Yves Marignac, directeur de WISE-Paris. - Je vous remercie de votre invitation. J'alerte depuis quelques années sur ce que je considère comme une crise systémique de la gouvernance du risque nucléaire. Malheureusement, ce que j'ai entendu aujourd'hui me conforte dans cette inquiétude : les industriels ne semblent pas prendre la mesure de la gravité des événements ; l'IRSN et l'ASN reconnaissent que, ne travaillant que par sondage et sur la base des dossiers des exploitants, ils ont du mal à les amener à se conformer à des exigences légitimes.
J'ai récemment caractérisé le problème des soudures comme la dérive de trop ; j'espère qu'il provoquera une prise de conscience sur un nécessaire changement des règles. Les éléments fournis par l'IRSN et l'ASN sont clairement accablants. EDF nous explique que le haut management n'a pris conscience du problème qu'en 2017 ; si c'est le cas, c'est très inquiétant car les premiers problèmes ont été détectés dès 2012 ou 2013. La défaillance évoquée par l'IRSN et l'ASN intervient à tous les niveaux : conception, contractualisation, réalisation, suivi et contrôle, information des autorités et du public.
Tout en disant tenir un discours de vérité, Framatome n'a pas expliqué pourquoi l'exigence d'exclusion de rupture, qui figurait dans la contractualisation entre l'entreprise et EDF, ne se retrouvait pas dans celle qui la liait à son sous-traitant. C'est une question simple, qui mérite une explication simple ; au lieu de cela, vous nous renvoyez à des référentiels, en nous proposant une reconstruction a posteriori.
Monsieur Ursat, les huit soudures ne sont pas toutes exemptes de défaut : vous l'avez reconnu, même si le défaut constaté était secondaire au regard du problème principal. Sur tous les plans, je constate une forme de déni par les exploitants de la gravité des événements et des correctifs à apporter.
Monsieur Niel a fait une comparaison avec les calottes de cuves : il y a en effet des similarités dans l'origine et le déroulement. En revanche, les conclusions sont différentes. Au sein du groupe permanent, je me suis personnellement opposé à l'avis selon lequel les calottes de cuve pouvaient être remises en service, avec des marges de sécurité réduites. Cependant, dans ce dossier, les experts et spécialistes des matériaux jugeaient l'acier des calottes suffisamment robuste ; à l'inverse, la discussion technique au sein du groupe permanent sur ces soudures a montré que, de l'avis général des experts, la qualité était insuffisante pour justifier le maintien en l'état. Comment EDF a-t-elle pu penser le contraire et proposer, dans un deuxième temps, une stratégie consistant à laisser les soudures trois ou quatre ans en l'état ? Je rappelle que le problème de qualité de tenue de ces soudures n'est pas lié au vieillissement. En d'autres termes, comment, en envisageant de les laisser fonctionner trois ou quatre ans, a-t-on pu prendre un vingtième du risque qu'il y aurait à laisser en état les soudures sur l'ensemble de la vie du réacteur ?
À mon sens, l'introduction du référentiel d'exclusion de rupture dans des équipements qui ne le nécessitent pas strictement, c'est-à-dire qui ne font pas partie des composants principaux historiquement soumis à cette exigence, est problématique. La défense en profondeur comporte plusieurs niveaux. L'exclusion de rupture consiste à placer une exigence plus forte sur le premier niveau, celui de la qualité de conception et de réalisation, se privant par là même du niveau de gestion d'une situation de rupture. La défense en profondeur s'en trouve ainsi affaiblie : si la qualité requise n'est pas atteinte, la démonstration de sûreté risque de ne plus fonctionner.
L'une des questions les plus intéressantes soulevées en groupe permanent, qui n'a pas reçu de réponse, portait sur le principe, retenu par EDF, consistant à placer une très forte exigence de qualité sur des soudures situées à des endroits où la réparation est impossible en cas de qualité insuffisante, sans prévoir de véritable point d'arrêt avant leur mise en place.
J'en reviens à la dérive de trop : il est urgent de remettre à plat le système de gouvernance, ce qui nécessite un dialogue technique plus poussé entre les acteurs institutionnels, les experts non institutionnels que nous sommes, la société civile et la représentation nationale.
M. Gérard Longuet, sénateur, président de l'Office. - Pourrions-nous être éclairés sur la composition et le rôle des groupes d'experts ?
M. Olivier Gupta, directeur général de l'ASN. - Le groupe permanent d'experts pour les équipements sous pression nucléaire (GPESPN) est l'un des huit groupes permanents placés auprès de l'ASN. Il compte une trentaine de membres issus d'horizons très divers : des experts de la sûreté comme ceux de l'IRSN, mais aussi relevant d'autorités d'autres pays - finlandais, britanniques, belges -, des experts issus de la société civile, des experts issus de l'industrie, parfois retraités d'EDF ou de Framatome, ou des bureaux de contrôle comme Bureau Veritas, mais aussi de prestataires. Le groupe compte aussi des professeurs d'université dans le domaine de la mécanique des matériaux. Le groupe fonctionne par consensus. Les rapports sont préparés par les équipes de l'ASN - pour les autres groupes permanents, les rapports sont plutôt préparés par les équipes de l'IRSN - puis font l'objet d'un débat sur les différents sujets soulevés par le rapport, comme par exemple la qualité des soudures. Les débats ont lieu en présence des industriels concernés par le rapport, mais lorsque vient le temps de la rédaction de l'avis du groupe d'experts, seuls les experts sont présents pour délibérer.
Mme Émilie Cariou, députée. - Merci pour cet exposé très clair tant de la part de l'exploitant que des autorités de contrôle. Au-delà du souci technique concernant les soudures et de la perte de compétence régulièrement mentionnée dans les différents rapports concernant l'EPR, l'exposé de l'ASN met en évidence un problème de stratégie suivie par l'industriel, consistant à apporter des justifications a posteriori. Cette stratégie est-elle également mise en oeuvre à l'égard des autres recommandations de l'ASN, notamment celles ayant fait suite à Fukushima, qui recommandent des travaux qui ne sont pas aujourd'hui réalisés ?
Membre de la commission des finances, je m'interroge aussi sur la dimension financière liée à ces questions : EDF se met-elle financièrement en position de répondre aux recommandations émises par les experts de l'IRSN et de l'ASN ?
Quelle est l'échéance et quel est le coût des travaux concernant l'EPR de Flamanville ? Et qui va supporter le surcoût : EDF ? Framatome ? Orano ?
Enfin, le décret d'autorisation de création (DAC) de l'EPR de Flamanville était valable jusqu'en 2017. Il a été prolongé jusqu'en 2020 malgré des modifications substantielles depuis le début du chantier. Une nouvelle prolongation est-elle prévue ?
J'en finis par une question transmise par ma collègue Barbara Pompili, présidente de la commission du développement durable et de l'aménagement du territoire de l'Assemblée nationale : dès lors que les citoyens demandent davantage de transparence en matière de décision publique, surtout sur des sujets aussi sensibles que le nucléaire, pourrait-on aller plus vite et plus fort dans le dialogue technique avec la société civile et les associations ? Que fait l'ASN en la matière et comment l'IRSN entend-il engager des discussions avec la société civile dans un cadre pluraliste avec des experts non institutionnels ?
M. Bruno Sido, sénateur. - Vous avez opportunément rappelé l'histoire de la filière nucléaire, et la rupture qui date d'environ une vingtaine d'années, qui s'est traduite par des pertes de savoir-faire et d'expérience. Or, cette filière de production d'énergie est remarquable et a été jusqu'à présent soutenue par nos concitoyens. Ce soutien repose sur la confiance des Français dans les responsables de la filière nucléaire : ingénieurs, opérateurs, etc. La confiance ne se décrète pas. La loi du 13 juin 2006 a organisé la filière nucléaire autour d'organismes respectables et respectés : CEA, IRSN, ASN, EDF, Areva, Framatome. Le ministère joue aussi un rôle essentiel. Or, d'après les informations dont nous disposons, le chantier de l'EPR de Flamanville a connu un nombre très important d'anomalies, dont les défauts de soudure des tuyauteries d'évacuation de la vapeur qui nous préoccupent principalement aujourd'hui.
Je m'interroge sur plusieurs points : pourquoi les informations mettent-elles autant de temps à être transmises entre acteurs - constructeur, sous-traitants, autorités de contrôle ? À l'évidence, une chaîne d'information très longue fonctionne mal. Il ressort de l'analyse des anomalies qu'il y a un manque de surveillance du chantier de l'EPR de Flamanville. Or, cette surveillance devrait être permanente car les retards coûtent très cher.
Au final, je me demande s'il ne faudrait pas revoir totalement l'organisation du secteur nucléaire qui fait participer beaucoup d'intervenants mais de manière insuffisamment articulée. Il y a eu des défaillances industrielles, et me semble-t-il aussi des falsifications de documents. L'arbre - les soudures - ne doit pas cacher la forêt - une incapacité à réagir vite. C'est rassurant que l'on se soit aperçu d'écarts par rapport aux spécifications initiales, mais l'efficacité de l'organisation globale est en cause. Le Gouvernement, qui a créé des autorités indépendantes, ne peut pas se laver les mains de la situation. Il doit agir pour réorganiser la filière et tirer les leçons des échecs du chantier de Flamanville.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Nous avons observé le passé, mais intéressons-nous à l'avenir et aux solutions à apporter aux problèmes constatés à Flamanville : laquelle des trois options envisagez-vous de retenir ? Qui va faire ce choix ? EDF seul ou avec les autorités de contrôle, ASN et IRSN ?
M. Claude de Ganay, député. - Je me félicite de l'échange d'aujourd'hui, qui montre qu'il y a de la transparence. C'est le rôle de l'Office de réunir les parties prenantes et d'échanger ...
M. Gérard Longuet, sénateur, président de l'Office. - Je crois au Parlement !
M. Claude de Ganay, député. - ... sans qu'il soit nécessaire de se réunir à Versailles. La question des délais et de la réactivité face au problème des soudures m'interpelle fortement et me surprend. Pourquoi le référentiel de fuite avant rupture, retenu en Finlande, n'est-il pas celui retenu par la France ?
M. Bernard Doroszczuk. - Mme Cariou a posé une question très importante en demandant si la stratégie de justification de l'industriel était spécifique à l'EPR ou s'appliquait de manière plus générale. La question ne se pose que si l'on détecte un écart de conformité. Dans cette situation, soit on corrige immédiatement, soit on cherche à expertiser voire à justifier l'écart. Ces questions sont fortement liées à la construction neuve. Dans le cadre du projet EPR, nous avons constaté le recours large par l'industriel à cette approche de justification a posteriori des écarts.
Les suites apportées à Fukushima s'inscrivent dans une autre logique. La décision a en effet été prise de renforcer la sécurité nucléaire en conséquence de nouvelles études effectuées après Fukushima. Une décision récente de l'ASN a consisté à reporter les délais de correction en raison des difficultés industrielles rencontrées - d'ailleurs liées plus à des questions de génie civil que mécaniques - qui sont parfaitement compréhensibles du fait de la complexité des actions à mettre en oeuvre. Nous avons repoussé des délais qui concernent des mesures de sûreté supplémentaires par rapport à l'existant, mais les exigences qui s'imposaient lors de la construction des réacteurs continuent de s'imposer. Il n'y a donc pas de question de justification d'écart pour les réacteurs existants.
M. Xavier Ursat. - Le dernier budget prévu pour l'EPR de Flamanville est de 10,9 milliards d'euros, hors intérêts intercalaires. Face à la situation de non-conformité des soudures des tuyauteries d'évacuation de la vapeur, nous avons pris une décision inhabituelle mais sage, consistant à étudier plusieurs scenarios de remise à niveau. Nous voulons étudier chaque scénario dans les moindres détails, en partageant nos analyses avec l'ASN et en observant comment chaque scénario peut faire l'objet d'un agrément de l'ASN. Nous voulons avoir une vision complète et robuste avant de passer à la phase du choix du scénario. Ce ne sera qu'après ce choix que nous pourrons faire connaître le coût et le calendrier correspondant, ce qui risque de prendre plusieurs mois.
Dans notre esprit, Flamanville est une tête de série des EPR, avec de nombreuses perspectives internationales, notamment en Inde et en Chine. Le coût de Flamanville est une question importante, mais ce qui importe aussi est de finir ce projet et d'ouvrir la voie à de nouvelles perspectives.
Le DAC de Flamanville court jusqu'à avril 2020, après une première prolongation de trois ans. Nous avons déposé une nouvelle demande de prolongation.
M. Gérard Longuet, sénateur, président de l'Office. - Le problème de l'information est au coeur de la confiance. Nos compatriotes ont, sur les progrès de la science et de la technologie, un regard plus critique que par le passé. Il y a pour partie dans cette attitude, c'est une opinion personnelle, une forme de paresse intellectuelle, car il est plus facile de dénigrer que de chercher à analyser. Pour ma part, je préfère essayer d'analyser et le rôle de l'Office est précisément de permettre la transparence de l'information nécessaire pour analyser et se faire une opinion éclairée. Je suis favorable au nucléaire, c'est de notoriété publique, mais c'est parce que j'y suis favorable que je souhaite une transparence complète.
Bruno Sido a évoqué la question du manque de surveillance des chantiers. Soit, mais les difficultés rencontrées ne peuvent se réduire à cela. Les choses sont plus complexes. Nous rencontrons tous dans nos communes des difficultés sur des chantiers pourtant modestes, qu'il s'agisse de réaliser l'isolation de l'école primaire ou la réparation du toit de la salle polyvalente. Imaginons ce que cela peut donner sur un chantier dix mille fois plus important... Je voudrais simplement dire que je me réjouis que Framatome soit désormais détenu par EDF : cela clarifiera les relations et simplifiera la conduite du chantier.
Sur cette question de la confiance, je me dis aussi que le Gouvernement, actionnaire d'EDF, responsable de la politique de l'énergie et garant des autorités indépendantes, pourrait s'engager davantage pour préciser sa vision et son projet. Le nucléaire fait partie du patrimoine national. On peut le craindre et le rejeter ; on peut aussi se dire que c'est un atout ; c'est, quoi qu'il en soit, une responsabilité gouvernementale. D'après les débats sur le texte en cours au Sénat, le Gouvernement semble avoir plutôt confiance dans le nucléaire, puisqu'il a reporté de dix ans le délai pour en réduire la part au sein de notre mix électrique.
Il me semble que Catherine Procaccia a obtenu la réponse à sa question : EDF va prendre le temps de valider la bonne solution pour résoudre le problème posé par ces soudures.
Concernant la différence entre les deux stratégies, fuite avant rupture ou exclusion de rupture, cette dernière stratégie requiert par définition un niveau d'exigence plus élevé sur les soudures, puisqu'elles ne doivent céder en aucun cas.
Je voudrais poser une question à la fois à l'ASN et à EDF. Lorsque le président d'un exécutif local est face à un dossier complexe, il se tourne parfois vers la Chambre régionale des comptes pour solliciter son avis avant de prendre une décision. Or, cette dernière refuse de le donner au motif qu'elle est juge et non conseil. Qu'en est-il dans les relations entre l'ASN et EDF ? Que doit être le rôle de l'autorité de contrôle ? Peut-elle conseiller avant de juger ? Ou parce que vous allez juger, cela vous interdit-il de conseiller ?
M. Bernard Doroszczuk. - Je n'utiliserais pas le mot « conseil ». Ce qui est clair, et c'est d'ailleurs la pratique de l'ASN, c'est que nous ne pouvons pas prendre une décision éclairée si nous n'avons pas un dialogue technique approfondi avec l'exploitant. Quand nous sommes arrivés au terme de ce dialogue technique, quand les positions des uns et des autres ont été explicitées, nous passons par une autre phase, qui est celle du contradictoire. Sur la base d'un document qui formalise le projet de décision, l'exploitant peut encore exprimer un certain nombre de remarques. Donc nous sommes en dialogue permanent et, sur de très nombreux sujets, des convergences se dégagent. Néanmoins, chacun doit rester dans son rôle. La proposition vient de l'exploitant ; nous l'examinons ; nous la débattons et nous décidons.
Monsieur Ursat a évoqué précédemment les différents scénarios de réparation envisagés par EDF. Il a, me semble-t-il, bien expliqué le genre de travail qui peut être accompli entre EDF et l'ASN : un travail d'expertise des trois scénarios par EDF, suivi d'un dialogue avec l'ASN pour que chacun des scénarios puisse être assorti, de notre part, non pas d'un conseil mais d'éléments clairs sur le processus de validation, sur les difficultés éventuelles, de telle manière qu'en retour EDF dispose de toutes les informations venant de l'ASN pour prendre sa décision. Nous ne sommes pas des censeurs. Nous ne sommes pas en dehors du contexte industriel. Nous avons besoin d'un dialogue approfondi avant de décider.
M. Xavier Ursat. - La méthode mise en oeuvre pour trouver la meilleure façon de remettre à niveau les soudures de traversée pourrait être utilisée plus souvent. Jamais EDF ni l'ASN ne refusent le dialogue, mais je crois que nous avons besoin, sur des sujets par nature complexes, d'une vraie phase de partage des différentes options, incluant la façon de les instruire de la part de l'ASN. Ensuite, chacun joue son rôle. Mais nous devons approfondir cette phase initiale, qui vient avant la démarche d'agrément proprement dite, où nous examinons les scénarios ensemble - je ne pense pas qu'il s'agisse d'un gros mot, car je le souligne, chacun dans notre rôle, nous sommes responsables de la sûreté. Ne l'oublions pas : EDF, dans ses centrales nucléaires, est le premier responsable de la sûreté. C'est avec une telle approche que nous construirons les meilleures solutions et c'est comme cela que nous donnerons de la sécurité aux projets et celle-ci va dans le sens de la sûreté.
M. Yves Marignac. - Monsieur le président, votre question soulève un point essentiel et pour l'éclairer, je reviendrai sur le parallèle avec le dossier d'instruction de la cuve de l'EPR. Dans ce dossier, l'instruction technique s'est bien terminée du point de vue du risque industriel. Au moment où EDF avait fait le choix de mettre la cuve en place alors que les contrôles n'avaient pas été exécutés pour écarter la suspicion d'une concentration excessive en carbone, l'ASN avait souligné qu'il n'était pas en son pouvoir d'empêcher EDF de poser la cuve et de prendre ainsi le risque industriel correspondant. Je ne reviens pas sur la discussion qui s'en est suivie, soulignant que le risque industriel pris était tellement énorme que la décision d'EDF pouvait constituer une situation de fait accompli.
Je crois qu'il y a vraiment besoin que des options soient discutées. Je salue donc la procédure mise en place visant à réfléchir en amont aux différentes options techniques de réparation. D'une façon générale, l'instruction technique de ce type de dossiers est trop prisonnière de l'option technique prise par l'exploitant. Il faut plus de proactivité de la part des organismes d'évaluation et de contrôle. Aller plus vite et plus fort dans le dialogue technique est nécessaire et nous en avons besoin le plus en amont possible. C'est de cette manière qu'on évitera les situations de justification a posteriori parce que les choses sont installées et qu'il paraît trop difficile de revenir dessus. Donc, j'encourage ce dialogue technique auquel les experts non institutionnels doivent être, à un certain point, partie prenante.
M. Bruno Sido, sénateur. - Il n'a pas été répondu à ma question sur l'organisation de l'ensemble. Oui, il faut plus de dialogue entre l'autorité de sûreté et l'exploitant, qui, il faut le rappeler, est aussi en charge de la sécurité. Mais est-ce suffisant ? Comment en particulier éviter ces retards successifs et ces longs temps de réaction ? Comment éviter que cela se renouvelle ?
M. Gérard Longuet, sénateur, président de l'Office. - Il y a deux décisions prises par le Gouvernement, qui vont dans ce sens et que j'approuve totalement. La première est de mettre chacun dans son camp et, en particulier, Framatome dans celui d'EDF. Cela n'a pas toujours été le cas et cela a parfois été compliqué. La seconde décision est de gérer séparément, au sein d'EDF, les activités de production d'énergie nucléaire. Le nucléaire est spécifique. Il exige de la compétence, de la technicité, de la démocratie et de la transparence. Il n'est pas né ainsi, mais aujourd'hui c'est l'attente de la société dans tous les pays industriels. Je suis sûr que nous vendrons cette technologie à l'Inde, qui en a besoin. Mais il faut vendre en même temps la culture du sérieux, de la mesure, du contrôle et de la transparence.
Mme Émilie Cariou, députée. - J'attendais d'autres réponses. Est-ce que ce type de stratégie est mis en oeuvre sur d'autres problématiques ? Est-ce que systématiquement on va mettre en oeuvre des stratégies de justification plutôt que de mise en conformité ? Par ailleurs, fixer des normes sans avoir le financement, cela n'a aucun sens. On a beaucoup d'autorités indépendantes. En particulier, il y en a une que vous n'avez pas citée : l'Autorité des marchés financiers. EDF est une société cotée ! Comment passer des préconisations de l'ASN au provisionnement et aux normes comptables ? Je n'ai pas eu réponse.
M. Xavier Ursat. - Sur le plan du budget, la démarche que je viens d'expliquer pour la reprise des soudures est une démarche saine. Par ailleurs, il n'y a pas de stratégie de report de justification. Nous avons mis un temps long, je le reconnais ici, et on aurait pu faire mieux, à nous apercevoir qu'une non-conformité ponctuelle renvoyait en fait à une difficulté d'ordre plus large et plus systémique. Une fois que nous l'avons constaté, nous avons réparé les soudures concernées, sauf les soudures de traversée qui, selon nos calculs qui sont des calculs sérieux, pouvaient être laissées en l'état car cela nous paraissait en conformité avec les enjeux de sûreté et le pragmatisme industriel. Il n'y a donc pas de stratégie générale de report de justification. Lorsqu'un écart est constaté, il est généralement corrigé. Dans certains cas exceptionnels et l'ASN contrôle que ces cas sont admissibles, EDF agit autrement. Mais EDF est un industriel responsable. Il sait que la confiance et le sérieux doivent être au coeur de son action. L'ASN a pris une décision. Dès le lendemain de la décision, nous étions au travail pour l'appliquer.
M. Gérard Longuet, sénateur, président de l'Office. - L'Office parlementaire vous donne l'occasion de le dire très clairement et je vous en remercie.
M. Cédric Villani, député, premier vice-président de l'Office. - Au terme de ces débats, je voudrais souligner l'importance de cette audition, avec une vraie charge émotionnelle et de très gros enjeux. Le débat d'aujourd'hui n'était pas pour ou contre le nucléaire mais visait à plusieurs questions : quelle procédure de contrôle, comment réagir en cas d'alerte et quelle mise en oeuvre des correctifs nécessaires ?
On a bien vu que les difficultés se traduisent par des retards importants, une prolongation de DAC, des coûts qui grimpent, avec déjà à ce jour un budget de près de 11 milliards d'euros. On voit aussi que ces alertes ont une traduction au niveau de la confiance, un enjeu décisif aujourd'hui.
On a observé également le rôle et l'esprit des mécanismes de la sûreté. On s'est aperçu de l'intérêt d'une audition en contradictoire, pratique pas si répandue au Parlement, qui permet des discussions interactives et d'éviter les malentendus ou que quelqu'un esquive le débat.
J'ai vu assez peu d'auditions aussi dures au cours des deux ans que j'ai passés à ce stade à l'Office. Le débat a été mis sur la table de manière claire, parfois tranchante. Il est important qu'il en soit ainsi devant la représentation nationale qui doit faire son travail de contrôle. Cela a permis de démontrer qu'il n'y a pas de partie liée, comme on l'entend parfois, entre EDF et l'ASN et de démontrer qu'il n'y a pas non plus de parti pris pronucléaire de l'Office, comme le montre aussi l'invitation des acteurs de la société civile. Il y a bien une volonté de voir et de dire les choses en transparence. J'ajoute que les propos de M. Ursat montrent qu'il n'y a aucune volonté d'EDF de fuir ses responsabilités.
J'insiste aussi, au-delà du débat sur l'existant et sur l'EPR de Flamanville, sur le fait que c'est bien l'avenir d'une filière qui est en jeu avec en particulier les perspectives d'exportation. Cela nous engage avec un très grand impératif.
Sur la question de la justification a posteriori, l'impact sur la confiance a été négatif. Pour éviter de telles conséquences, il est important de bien répondre à la deuxième remarque de M. Doroszczuk, c'est-à-dire d'éviter la facilité que pourrait constituer la justification a posteriori plutôt que les réparations. Ce n'est pas une question de compétence technique mais c'est l'impression qui se dégage dans l'opinion publique et il est donc important, dans ce contexte, de suivre la demande faite par l'ASN. Nous avons vu que cela sera bien pris en compte dans la description qui a été faite par EDF des différents scénarios.
Sur la possibilité d'utiliser un robot, on se souvient des robots réparateurs du CEA qui ont conduit au très grand succès du CEA LIST, l'un de nos fleurons dans la recherche robotique et sur l'intelligence artificielle. De cette situation particulière naîtra donc peut-être un savoir-faire précieux dans bien d'autres situations et on pourra dire que de cette difficulté est né un progrès incontestable.
Il est important de prendre en compte toutes les remarques exprimées aujourd'hui. Nous avons bien entendu la volonté d'EDF de le faire. Le cas échéant d'ailleurs, les réponses faites à l'oral pourront être complétées à l'écrit. Nous ne voulons rien cacher du contradictoire, mais souhaitons à l'inverse la pleine transparence. C'est ainsi que nous pourrons avancer en confiance.
M. Gérard Longuet, sénateur, président de l'Office. - J'ajoute : faites-le vite ! Vous êtes à la tête d'un système industriel qui emploie environ 200 000 salariés et qui représente des perspectives de présence mondiale, dans un secteur, l'énergie, où le nucléaire a sa place. La maturité des comportements doit l'emporter contre les obscurantismes. Le Parlement sera fier d'avoir contribué à rapprocher les points de vue dans le respect de la science et de la technique.
M. Cédric Villani, député, premier vice-président de l'Office. - Quels enseignements peut-on encore tirer ? Nous étions face à des difficultés d'ordre non pas scientifique mais industriel dans lesquelles le processus joue un rôle important. Il s'agit de questions de culture et de ressources humaines. Plusieurs fois, l'Office a été averti de cette perte de culture et de compétence. Il faut en être conscient pour la suite, pour le maintien des savoir-faire et des expertises.
Ensuite, le devoir de l'ASN sera d'être plus exhaustif, avec ses moyens, dans ses contrôles, c'est-à-dire qu'elle ne devra pas s'intéresser seulement aux gros équipements. L'ASN se saisira de cette mission élargie avec grande rigueur, cela ne fait pas de doute.
Je fais enfin mienne la conclusion de Gérard Longuet, le Parlement est fier d'avoir pu contribuer à faire avancer le débat en la matière. Cette séance était longue et nécessaire.
La réunion est close à 20 heures.
Jeudi 18 juillet 2019
- Présidence de M. Gérard Longuet, sénateur, président de l'Office -
La réunion est ouverte à 9 h 15.
Examen d'une note scientifique sur la reconnaissance faciale (Didier Baichère, rapporteur)
M. Gérard Longuet, sénateur, président de l'Office. - Didier Baichère va nous présenter son projet de note scientifique sur la reconnaissance faciale, sujet passionnant qui recoupe le travail de la commission d'enquête du Sénat sur la souveraineté numérique, dont je suis le rapporteur. L'identité fait en effet partie de la souveraineté de l'État, puisque ce sont les États qui, jusqu'à présent, la distribuaient et qui peuvent désormais en être d'une certaine façon dépossédés par des dispositifs tels que la reconnaissance faciale.
M. Didier Baichère, député, vice-président de l'Office. - J'ai abordé le sujet de la reconnaissance faciale lors de la préparation de la première note scientifique de l'Office qui traitait des objets connectés, j'avais alors pensé que ce thème pourrait faire l'objet d'une autre note scientifique. Le travail préparatoire de cette dernière a duré un peu moins de quatre mois, qui m'ont permis de découvrir un sujet que je ne connaissais pas et d'auditionner les acteurs du domaine, notamment le secrétaire d'État au numérique, Cédric O, le coordonnateur interministériel pour l'intelligence artificielle (IA), des représentants des ministères de l'intérieur et des armées - étant rappelé que je suis pour ma part membre de la commission de la défense nationale -, les représentants de la CNIL, de l'Association des maires de France (AMF) mais également une bonne partie de l'« écosystème » industriel avec en particulier des représentants d'IDEMIA, de Microsoft, d'Amazon, de Qwant et de Google, ainsi que, enfin, des chercheurs en informatique, en sciences sociales et en droit.
Le projet de note qui vous a été distribué et transmis avant-hier présente trois aspects de la reconnaissance faciale que je voudrais évoquer ici : une brève description historique et un état des lieux technologique, une présentation des enjeux légaux, enfin, un point sur les questions éthiques relatives à ces dispositifs. Cette note trouve par ailleurs tout à fait sa place dans l'actualité, de nombreux articles de presse traitant régulièrement de cette question, souvent accompagnée de méconnaissances, la science-fiction et la réalité étant généralement mêlées en ce qui concerne ces technologies.
La vision par ordinateur a vu le jour dans les années 1970 avant de connaître un véritable essor dans la décennie suivante. Comme pour les objets connectés, c'est l'industrie qui a la première utilisé ces dispositifs : quand on parle d'objets connectés, on pense généralement aux montres ou aux enceintes, mais il s'agissait à l'origine plutôt d'applications industrielles. Aujourd'hui, s'agissant de la reconnaissance faciale, il faut distinguer de mon point de vue deux choses : l'authentification - qui permet de comparer l'identité d'une personne avec ce qu'elle prétend être, l'exemple le plus marquant étant le dispositif Parafe qui permet de passer les frontières dans les aéroports et pour lequel aucune donnée n'est conservée -, et l'identification - qui vise à reconnaître dans une foule une personne en la comparant à une base d'images, ce qui peut être mis en place par exemple avec des personnes volontaires comme lors de l'expérimentation au carnaval de Nice en février dernier ou par des entreprises au sein de leurs locaux. Ces deux types d'applications sont souvent confondus, ce qui peut faire naître certains fantasmes, bien qu'ils ne soulèvent pas les mêmes enjeux. De plus, les performances de ces deux types de dispositifs ne sont pas identiques : les dispositifs d'authentification peuvent avoir des taux de reconnaissance supérieurs à 99,5 % contrairement aux dispositifs d'identification qui en sont encore loin. Plusieurs études dont une du Massachusetts Institute of Technology (MIT), ont montré que les dispositifs de reconnaissance faciale présentaient des biais puisque les hommes blancs sont systématiquement mieux reconnus que les femmes noires par exemple. La raison tient à ce que ces dispositifs sont développés en les « entraînant » sur des bases d'images qui manquent de diversité.
Il faut, de plus, bien avoir à l'esprit que ces outils ont pour objet de donner des indications de correspondance entre deux images. Pour ce faire, il est nécessaire de fixer un seuil de correspondance au-delà duquel deux images sont supposées pouvoir représenter la même personne. La définition de ce seuil dépend bien évidemment du degré de fiabilité attendu et des usages faits de ces outils, la reconnaissance d'un client fidélisé ne nécessitant bien évidemment pas les mêmes performances que la détection d'un individu recherché. Les usages de ces dispositifs sont en effet multiples : des entreprises de transport comme le groupe ADP ou la SNCF veulent utiliser des portiques munis de dispositifs de reconnaissance faciale afin de fluidifier les flux de passagers dans les aéroports ou les gares ; d'autres pourraient vouloir cibler leur marketing ou utiliser des systèmes de paiement sophistiqués qui permettent de reconnaître une personne à son entrée dans un magasin, de détecter les produits qu'elle prend et de débiter automatiquement son compte in fine ; enfin, des collectivités territoriales expriment le souhait de coupler leurs caméras de vidéoprotection à des algorithmes de reconnaissance faciale. En la matière, l'expérimentation réalisée par la mairie de Nice fait figure de première en France. Ont ainsi été testés différents dispositifs permettant par exemple de détecter la présence d'une personne non autorisée sur un char ou de retrouver des enfants perdus. Pour cette commune de 350 000 habitants, la mairie de Nice a investi très fortement depuis 2008 dans les équipements de vidéoprotection. Elle dispose maintenant d'environ 500 agents de police municipale, dont 100 au centre de supervision urbain, et de plus de 2 000 caméras de précision, réparties dans la ville mais aussi dans les transports en commun. Ce terrain était donc propice à la mise en place de l'expérimentation évoquée, qui permet d'analyser les avantages que les collectivités territoriales pourraient tirer de ces technologies.
Les dispositions légales qui encadrent l'utilisation de ces outils dépendent des usages qui en seront faits. Tout d'abord, la directive européenne dite « Police/Justice » [Directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l'égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d'enquêtes et de poursuites en la matière ou d'exécution de sanctions pénales, et à la libre circulation de ces données (...)] est applicable aux traitements réalisés pour le compte de l'État dans le cadre de l'exercice de ses prérogatives de puissance publique. Ces traitements nécessitent en France un décret pris en Conseil d'État après avis de la CNIL. Pour le moment, le seul fichier de police judiciaire qui le permet est le traitement des antécédents judiciaires (TAJ). L'extension à d'autres fichiers nécessiterait un autre décret pris en Conseil d'État.
Pour les autres utilisations, c'est le règlement (UE) 2016/679 du Parlement européen et du Conseil dit "règlement général sur la protection des données (RGPD)" qui s'applique. Jusqu'à son entrée en vigueur, les utilisateurs devaient demander l'autorisation à la CNIL avant de pouvoir mettre en place ces traitements. Le RGPD a consacré à l'inverse la responsabilisation du responsable du traitement et de son éventuel sous-traitant, qui doivent réaliser une analyse d'impact et la communiquer à la CNIL uniquement s'ils détectent des risques résiduels élevés. Le consentement est l'un des fondements légaux mobilisables pour mettre en place ces traitements.
Ces dispositions légales ne permettent que difficilement l'expérimentation d'outils de reconnaissance faciale en conditions réelles. Or ces expérimentations sont nécessaires à la maîtrise de ces dispositifs afin de ne pas se voir imposer les solutions proposées par les géants du numérique ; elles correspondent donc à un véritable enjeu de souveraineté. Dans ces conditions, il semble primordial d'ouvrir la possibilité, par exemple dans le cadre d'une loi d'expérimentation, de mener ce type de tests. Je relève que le Comité d'organisation des Jeux Olympiques de 2020 qui auront lieu à Tokyo a annoncé que les accès des athlètes, de leurs accompagnants et des journalistes se feront à l'aide de systèmes de reconnaissance faciale. Aussi est-il nécessaire que des expérimentations puissent être menées en France afin que les cadres d'emploi soient bien maîtrisés avant les Jeux Olympiques de Paris prévus en 2024.
Les nombreux exemples qui sont apparus récemment dans la presse permettent de mettre en lumière les enjeux éthiques et sociétaux de ces dispositifs. L'utilisation à grande échelle de la reconnaissance faciale en Chine et les dérives liées au système de « crédit social » qui y est mis en place cristallisent les craintes. Il est important de noter également que l'acceptabilité sociale de ces dispositifs a progressé avec le développement des applications économiques de cette technologie. Les consommateurs, qui n'y ont tout d'abord vu qu'un moyen de gagner du temps, se sont habitués à l'utilisation de la reconnaissance faciale. Mais les exemples de diffusion de ces dispositifs sans cadre légal donnent naissance à beaucoup de craintes et de rejet. Il est donc nécessaire, comme y a publiquement appelé la CNIL à l'automne dernier, que puisse se tenir un grand débat public sur ce sujet. Récemment, le Forum économique mondial s'est associé au Conseil national du numérique pour lancer une étude de douze mois : j'ai d'ailleurs eu la chance de participer à son lancement au nom de l'Office il y a quelques semaines, pour essayer de faire l'état des lieux des expérimentations qui seront nécessaires pour avancer sur la reconnaissance faciale en Europe, en France et au niveau mondial, mais en respectant les libertés fondamentales. Cette expérimentation regroupe des partenaires comme La Poste, la SNCF, Aéroports de Paris. Ces expérimentations à grande échelle nous semblent essentielles pour construire un cadre de régulation stable qui prenne en compte les limites dont elles auront mis la nécessité en évidence.
Comme nous l'avons vu avec l'expérimentation menée à Nice, les collectivités territoriales sont amenées à être en pointe sur l'utilisation de ces dispositifs. Des métropoles comme Dijon ou Saint-Étienne avancent sur ces questions. Il y a chez elles une certaine maturité et une maîtrise suffisante des outils de vidéoprotection pour leur permettre d'envisager le déploiement de cette technologie. Il est cependant primordial que l'État fixe le cadre et ne laisse pas les maires ou les présidents de région ou de département faire des choix dont ils ne perçoivent peut-être pas suffisamment l'ensemble des implications éthiques ou juridiques.
Les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) n'ont pas tous la même position sur la question de leur responsabilité dans le développement de cette technologie. Je ne souhaite pas faire de « tri » entre les GAFAM mais Microsoft et Google ont appelé très tôt à la tenue d'un débat démocratique sur ces dispositifs et ont partagé les principes qui structurent leur stratégie dans ce domaine alors qu'Amazon considère pour sa part ne fournir que des briques technologiques et estime que la responsabilité incombe à l'intégrateur et à l'utilisateur. Il me semble que nous devons, et c'est une des recommandations sur lesquelles nous reviendrons plus tard, être extrêmement vigilants sur cette question et ne pas laisser les grands industriels fuir leur responsabilité.
Nous avons interrogé les ambassades de France dans différents pays afin d'obtenir des informations sur la façon dont ces outils étaient utilisés et traités à l'étrangers. Aux États-Unis, la reconnaissance faciale occupe depuis peu le devant de l'actualité : plusieurs villes, dont San Francisco, étudient actuellement différentes modalités d'interdiction par leurs services, alors qu'il a été montré que l'État fédéral utilise sans autorisation particulière l'ensemble des fichiers des permis de conduire pour faire de la reconnaissance faciale, ou que des habitants se battent à Brooklyn contre l'installation d'un dispositif de reconnaissance faciale dans leur immeuble privé. Au Royaume-Uni, la vidéoprotection est largement implantée depuis de nombreuses années. La police de Londres a mené plusieurs expérimentations de dispositifs de reconnaissance faciale et des outils de marketing ciblé sont déjà présents dans les bus : ils visent à identifier par exemple si, dans le bus, il y a plutôt des femmes ou des hommes, et suivant le cas, la publicité s'adapte en temps réel aux personnes qui sont présentes. Bien que la population soit habituée à ces dispositifs, des oppositions se font entendre comme dans le cas célèbre d'un homme verbalisé pour trouble à l'ordre public parce qu'il refusait de participer à une expérimentation menée par la police de Londres.
Ces exemples montrent que d'autres pays ont déjà réalisé des expérimentations qui ont fait apparaître des enjeux éthiques et que la France doit se doter d'un cadre qui lui permette de faire de même.
Pour conclure, nous avons formulé, à la suite des quatre mois qu'a duré cette étude, plusieurs recommandations que je vais maintenant vous présenter.
Tout d'abord, comme je viens de le dire, il faut élaborer rapidement un cadre législatif, qui pourrait prendre la forme d'un projet de loi d'expérimentation ou bien d'amendements parlementaires. Il s'agirait de permettre de lancer des expérimentations à plus grande échelle, c'est-à-dire d'encourager la mise en place d'un écosystème académique et industriel pour tester les technologies de reconnaissance à l'échelle d'une gare ou d'un aéroport, ou encore d'une collectivité territoriale, pour être certain que ces dispositifs soient fiables et qu'y soit intégré un volet sociologique qui permette d'en étudier les aspects éthiques.
Nous recommandons également que la CNIL puisse jouer un rôle d'accompagnement dans l'innovation et dans l'incitation à ce qu'on appelle la « privacy by design » afin que tous les dispositifs soient emprunts du respect des données personnelles, dans l'esprit de ce que fait l'Autorité de régulation des communications électroniques et des postes (ARCEP) qui a mis en place des « bacs à sable » à disposition des acteurs de l'écosystème des télécommunications pour qu'ils soient en mesure de tester des solutions, qui, le cas échéant, pourront de ce fait ne pas être retenues. Il s'agirait ainsi de confier une nouvelle mission à cette autorité de régulation.
Dans le même ordre d'idées, nous préconisons une recommandation, qui figurait dans le chapitre V du rapport de Cédric Villani sur l'intelligence artificielle, qui consiste en la création d'un corps d'experts pluridisciplinaires qui puissent auditer les dispositifs de reconnaissance faciale. Nous n'avons pas eu suffisamment de temps pour arrêter une position tranchée sur l'organisme auquel devrait être rattaché ce corps d'experts.
Comme je le disais tout à l'heure, il importe de rappeler la responsabilité de l'ensemble des acteurs : concepteurs, intégrateurs et responsables du traitement. Il faut insister sur le rôle que seront amenés à jouer à l'avenir les géants du numérique qui, malgré toutes leurs déclarations de bonne volonté, auront sans doute besoin que l'on légifère pour développer une reconnaissance faciale éthique.
Il est également indispensable que nous nous assurions que, quels que soient les dispositifs qui seront mis en place, la décision finale demeure humaine. Par exemple dans l'exemple de la ville de Nice, la décision d'intervenir lors de la recherche d'une personne disparue doit demeurer de la responsabilité d'un être humain.
Nous proposons aussi de mener des études sur l'acceptabilité sociale de ces technologies en fonction des catégories de population.
Enfin, et pour conclure, il me paraît essentiel d'améliorer la formation à l'économie de la donnée qui intervient d'ailleurs dans nombre d'autres sujets traités par l'Office. En effet nos concitoyens ne sont pas suffisamment conscients de cette économie et ne sont donc pas toujours capables de prendre des décisions éclairées. Le premier exemple qui me vient en tête est celui du pass Navigo anonyme, dont je n'ai appris l'existence que très récemment. Les gens n'ont pas forcément connaissance que ce dispositif existe et que le pass Navigo classique, même si son objectif premier n'est pas d'être en capacité de suivre l'ensemble de nos déplacements, recueille des données les concernant. Il me semble que l'on n'a pas suffisamment expliqué en quoi ces données étaient importantes et quelles étaient les possibilités de s'en affranchir. Je pense que cette formation ne doit pas intervenir à l'université ou dans les écoles d'ingénieurs, car c'est trop tard, mais très en amont, dès le CM2, au moment de la présentation des institutions et de la citoyenneté et avant que nos enfants rentrent dans la préadolescence au cours de laquelle ils vont utiliser de manière intensive toutes les nouvelles technologies. Il serait intéressant de mener cette réflexion avec le Laboratoire d'innovation de l'Éducation nationale.
Je précise enfin que la note s'appuie sur une cinquantaine de références détaillées, pour les lecteurs qui désireraient aller plus loin sur ce sujet.
M. Gérard Longuet, sénateur, président de l'Office. - En ma qualité de président de l'Office, je remercie et félicite Didier Baichère pour son excellent travail, qui constitue un élément de l'application de l'intelligence artificielle au quotidien. Je cède la présidence à Catherine Procaccia, étant appelé comme rapporteur à une réunion de la commission d'enquête du Sénat sur la souveraineté numérique, qui recoupe le sujet de ce jour.
Présidence de Mme Catherine Procaccia, sénateur, vice-présidente de l'Office.
M. Bruno Sido, sénateur. - Je m'étonne que vous ne vous interrogiez pas sur la pertinence de résister à ce mouvement. Vous écrivez que la généralisation semble inéluctable. Pourquoi ? On peut résister à ce Big Brother. Tant que l'on ne demande rien à personne, pourquoi irait-on vous identifier ? Vous évoquez l'utilisation de tels dispositifs par l'État dans le cadre de ses prérogatives de puissance publique. Mais l'État n'est pas là pour nous écraser ou nous ennuyer, il est là pour nous protéger, et pas spécialement par la reconnaissance faciale. Si vous rentrez dans une banque ou allez chez votre médecin, pourquoi pas, mais quand on ne demande rien d'autre que le droit de respirer librement dans la rue ou à la campagne ? Je ne vois pas pourquoi il faudrait donner aux uns ou aux autres le droit de vous reconnaître, ou, comme en Chine, de vous donner des bons ou des mauvais points parce que vous marchez trop vite, que vous êtes mal habillé ou que vous êtes déguisé en personne du sexe opposé. J'ai l'impression que vous n'abordez pas ce côté insupportable, qui n'est pas inéluctable si vous résistez.
Mme Anne Genetet, députée. - J'entends ce que vous dites, cher collègue. Mais je vis dans un pays asiatique où la reconnaissance faciale est partout. Si, en tant que citoyenne, je m'interroge sur le degré de liberté dont je me priverais tous les jours, la réponse est : absolument aucun. Avec les limites que notre collègue Didier Baichère a évoquées, une réflexion éthique est à mener. Cela renforce le rôle de l'État qui est de nous protéger. On est beaucoup plus efficace avec la reconnaissance faciale. Dans le nouveau terminal 4 de l'aéroport de Singapour, avec un système de reconnaissance faciale poussé, le trafic des passagers est totalement fluide. Il n'est plus besoin de s'arrêter, d'ouvrir sa valise, de se déshabiller...
M. Bruno Sido, sénateur. - Quand vous rentrez dans un aéroport ou que vous montez dans un avion, vous demandez quelque chose. Mais quand vous ne demandez rien à personne, quand vous vous promenez dans la rue, l'anonymat est une liberté.
M. Didier Baichère, député. - Je vous rejoins tous les deux. J'ai un avis personnel, que j'essaie de dépasser dans la note scientifique que je vous présente ici. On est effectivement déjà entré dans l'ère de la reconnaissance faciale, j'ai pu en décembre dernier apprécier la fluidité de l'aéroport de Singapour. Il en va de même pour les collectivités locales, je le sais bien en tant que conseiller municipal. Une collectivité, qui a installé un système de vidéoprotection depuis des années - le cas emblématique de la ville de Nice est le plus abouti -, se pose forcément la question de la reconnaissance faciale. Pour optimiser le service rendu aux citoyens, se développent des applications qui ne sont pas de type Big Brother, mais améliorent la gestion des flux de personnes. Il en est de même dans les aéroports ou dans les grands événements sportifs. Le Royaume-Uni est entré dans la reconnaissance faciale par la question de l'accès aux stades, en croisant les images avec les fichiers des hooligans. La question se posera dans toutes les villes où il y a un grand stade, pour la sécurité de tout le monde. Pour savoir si les citoyens en ont envie, il faut impérativement établir un cadre législatif d'expérimentation large. Je suis passé vite sur les partenariats d'ADP et de la SNCF. Les premières expérimentations larges ont été faites dans une gare ferroviaire londonienne, avec des passagers volontaires, pendant plusieurs mois, pour évaluer si cela améliorait les flux et diminuait le sentiment d'insécurité. Si on ne fait pas ce genre d'expérimentations en France, on ne pourra pas en connaître les effets sur nos concitoyens. L'étude de douze mois qu'ont lancée le forum économique mondial et le conseil national du numérique est essentielle pour les mêmes raisons. Il s'agit d'analyser ce que les citoyens souhaitent ou ne souhaitent pas. Nous avons commencé à dessiner un diagramme distinguant les applications régaliennes de sécurité et les applications de la vie courante. Je rentre dans un magasin, est-ce que j'ai envie qu'on me propose un soin de beauté ou une alimentation adaptée à ma morphologie ? Les douze mois de cette étude permettront de mesurer le degré d'acceptation par les citoyens. Puis nous en tirerons des conclusions pour légiférer, notamment pour protéger les libertés individuelles. Aujourd'hui, nous n'avons pas de cadre légal pour expérimenter. Si la population rejette massivement cette technologie, nous en tirerons les conséquences et maintiendrons la législation actuelle. Sachant que la France a traditionnellement une position plutôt protectrice sur ces sujets, nos collègues européens nous poussent à aller de l'avant.
Mme Anne Genetet, députée. - Avec la reconnaissance faciale, la donnée existe, mais cela ne veut pas dire que quelqu'un nous observe en permanence. Personnellement, je ne me sens pas surveillée en permanence. Il est légitime de s'interroger sur la reconnaissance faciale, mais dans la vie de tous les jours, beaucoup d'autres dispositifs nous suivent à la trace : carte Vitale, carte de crédit, adresse postale... La reconnaissance faciale n'en est qu'un de plus, et il faut essayer d'en comprendre les enjeux. Mais nous ne sommes pas surveillés nuit et jour par un gardien de prison. Pour l'accès aux données, il faut revenir à la question de l'économie de la donnée.
M. Didier Baichère, député. - Nous sommes en présence d'un débat de société, qui revêt un aspect générationnel aussi peut-être. Ce qui m'inquiète, c'est que les industriels entrent dans le domaine directement par l'usage, ce qui tend à biaiser ainsi toute la réflexion. Si quelqu'un est habitué à déverrouiller plus vite son téléphone par un dispositif biométrique et qu'il n'a pas été éduqué à l'économie de la donnée, au sens le plus noble du terme, il n'est pas forcément en capacité de refuser la reconnaissance faciale. Dans un autre domaine, sur la question de la bioéthique, certaines personnes iront spontanément faire un séquençage d'ADN sur internet, où sont présentes uniquement des sociétés étrangères. Ils ne se rendent pas compte que ce faisant ils auront donné leur séquençage ADN à une entreprise américaine. Être formé à l'économie de la donnée, c'est être un citoyen éclairé, ayant conscience notamment des préjudices possibles. Je ne pense pas qu'on puisse « arrêter la machine », même si ce n'est pas à moi de le dire. Par contre il faut être éclairé.
M. Bruno Sido, sénateur. - Il faut pouvoir conserver des espaces de liberté et bien poser la question dans la note.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Depuis hier, j'entends beaucoup parler de l'application FaceApp. Sait-on quelle est l'utilisation faite de tous ces visages et pourquoi cette application a "explosé" dans la nuit de mardi à mercredi ?
M. Didier Baichère, député. - Je ne connais pas le cas ni qui est derrière, mais c'est le même exemple qu'avec le séquençage ADN. Sous l'angle de l'amusement, de l'usage, vous avez donné à une société votre image jeune et une image de vous plus âgé. Une base de données compile ces images, pour faire progresser la reconnaissance faciale. Vous n'êtes pas maître de vos propres données, car vous ne vous êtes pas posé la question de l'éthique, mais avez seulement vu l'aspect amusement. Vous avez donné votre photo, votre gabarit, à quelqu'un qui pourra s'en resservir.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Cela devient les données de tout le monde.
M. Didier Baichère, député. - Soit on se défend, ce qui est la posture de la France depuis de nombreuses années, soit on souhaite un cadre d'expérimentation vaste. Lors de son audition, le ministre Cédric O a semblé d'accord pour tester ces sujets. Si la France n'est pas motrice, elle se fera imposer par l'extérieur un cadre légal européen. Nous devons expérimenter avec les chercheurs, avec les industriels, bref avec tout un écosystème à maîtriser et encourager en termes de souveraineté. Plusieurs centres d'excellence, comme Sofia Antipolis, sont capables de proposer des solutions, y compris des solutions de protection. Lors de leur audition, les dirigeants de Qwant ont indiqué que la solution qu'ils proposent aux collectivités permet de flouter les visages. Si le besoin apparaît de croiser avec un fichier, le masque peut être levé. Des solutions de protection existent, il suffit de décider de les utiliser.
M. Cédric Villani, député, premier vice-président de l'Office. - Je partage ce qui a été dit. Dans bien des situations, ces technologies ont de forts potentiels, tant bénéfiques que négatifs. Il faut s'emparer de ces technologies et les mettre en débat, il ne faut pas croire qu'en évitant le sujet elles ne s'inviteront pas d'elles-mêmes. Dans certaines situations particulières, la reconnaissance faciale sera d'une efficacité extrême, par exemple pour l'identification d'un auteur d'attentat. L'enjeu principal est le garde-fou : quel mécanisme mettre en place pour que seule la personne qui y a droit et est dans le bon contexte y ait accès ? Comme le disait Anne, un monde dans lequel tout le monde est surveillé en permanence n'est pas acceptable, mais sous réserve que la situation reste bien contrôlée, une fenêtre s'ouvre pour la reconnaissance faciale. L'Europe sera comme toujours le continent qui globalement régulera le plus. Il faut que nous soyons attentifs à la façon dont s'organisera le débat. Aux États-Unis, des expérimentations sont en cours, certaines villes ont choisi d'interdire l'usage de la reconnaissance facile, comme San Francisco, d'autres non. Un usage qui paraît inacceptable aujourd'hui pourra être acceptable demain, parce que les conditions ou les mentalités auront changé. Une question importante est celle de la conservation de l'information. Les applications comme Telegram ont un succès extraordinaire parce qu'elles garantissent une transmission d'information sans fuite, sans piratage, à l'exception peut-être de certains organismes étatiques étrangers...
Mme Anne Genetet, députée. - En termes de communication, c'est la messagerie sécurisée « Tchap » qui est conseillée par le Gouvernement pour l'Assemblée nationale et le Sénat, mais l'information sur ce sujet est restreinte. « Signal » semble également être mieux protégé que Telegram.
Mme Huguette Tiegna, députée, vice-présidente de l'Office. - Je remercie notre collègue pour sa présentation. Notre débat d'aujourd'hui sur la reconnaissance faciale me rappelle celui d'il y a quelques années sur les empreintes digitales. À l'époque les gens ne voulaient pas donner leurs empreintes digitales, car ils pensaient que cela pouvait être un moyen pour l'État de les confondre, dans telle ou telle situation. Si l'initiative vient de l'État, les gens ont tendance à s'y opposer systématiquement car ils perçoivent l'aspect répressif individuel mais pas forcément le côté sécuritaire de protection plus globale de la population. On l'a vu lors de l'audition publique de l'Office sur les compteurs communicants. Certains étaient opposés à ce que l'on puisse relever leurs données, alors qu'ils les laissent sur les réseaux sociaux sans s'interroger. Pour moi, la reconnaissance faciale dans le domaine sécuritaire ne pose pas de problème. Quand les gens permettent le séquençage de leur ADN, ils veulent seulement connaître leur filiation, et tant que ce n'est pas dans les mains de l'État, cela ne les gêne pas. Je suis d'accord avec l'idée qu'il faut mettre en place un dispositif permettant l'expérimentation de la reconnaissance faciale, tout en se posant les bonnes questions : comment circonscrire ces expérimentations ? Comment impliquer nos concitoyens ? On peut aussi observer que depuis des années Google ou d'autres savent flouter les gens sur les photos utilisées pour les applications de localisation. Mais il faudra trouver les mots pour convaincre nos concitoyens, c'est certain.
Je voudrais également évoquer les technologies qui permettent d'implanter des puces sur des êtres humains, pour pouvoir les identifier en cas d'infraction ou de terrorisme. Est-ce que la reconnaissance faciale est la dernière technologie à même de préserver la sécurité, n'en existe-il pas de nouvelles encore plus efficaces ?
M. Didier Baichère, député. - Nos interlocuteurs n'ont pas évoqué d'exemples d'autres technologies. Dans le cas de Parafe, le taux de certification dépasse 99,5 %. La note scientifique cite d'autres exemples avec des faux positifs. On voit bien qu'on n'a pas encore une fiabilité suffisante pour tout ce que l'on peut imaginer vouloir faire.
S'agissant de la relation aux citoyens, nous avons eu une restitution intéressante, lors d'une réunion de l'Office en juin 2018, par des membres du comité de 22 citoyens mis en place par le Comité consultatif national d'éthique. Ceux-ci nous ont expliqué comment ils avaient travaillé, alors qu'ils ne connaissaient rien au sujet de la bioéthique, autour duquel ce comité avait été créé. Nous avons en France des dispositifs permettant, à un moment déterminé, de mener une réflexion avec des industriels, des chercheurs et des citoyens. Qu'est-ce qui nous empêcherait d'engager un tel débat citoyen sur le sujet de la reconnaissance faciale ? Des sociologues donneraient ainsi leur avis sur les aspects éthiques des expérimentations. Un collège de citoyens pourrait donner son avis sur les recommandations. C'est une voie à explorer peut-être.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Nous devons maintenant décider de l'autorisation de publier la note scientifiques n° 14.
M. Bruno Sido, sénateur. - Il me semble qu'il conviendrait de faire référence, dans la note sur la reconnaissance faciale, au rapport de l'Office sur l'intelligence artificielle, publié en mars 2017.
M. Didier Baichère, député. - Oui, bien entendu.
M. Bruno Sido, sénateur. - La note pourrait-elle également évoquer la possibilité de ne pas accepter le caractère inéluctable, évoqué dans le texte, du déploiement de ces dispositifs, pour protéger les libertés individuelles ?
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - C'est déjà le cas.
La publication de la note scientifique n° 14 sur la reconnaissance faciale est autorisée.
Examen de la note scientifique sur les technologies quantiques : l'ordinateur quantique (Cédric Villani, député, rapporteur)
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Il me semble que le sujet est un peu plus compliqué pour certains d'entre nous que le sujet de la reconnaissance faciale qui a été abordé par Didier Baichère mais je compte sur l'approche pédagogique de notre premier vice-président pour mettre ces notes à la portée des non scientifiques.
M. Cédric Villani, député, premier vice-président de l'Office. - Les trois notes n° 15, 16, et 18 sont la suite, ou plutôt le corps du sujet des technologies quantiques, après la note n° 13 qui en constituait une introduction générale. Ces trois nouvelles notes 15, 16 et 18 développent chacune un domaine particulièrement notable des technologies quantiques : nous examinerons ainsi successivement l'ordinateur quantique, la programmation quantique et la cryptographie quantique et post quantique.
Les termes « ordinateur quantique » font penser au hardware, au matériel qui va calculer. La programmation quantique correspond plus à la façon dont on programme un ordinateur quantique, autrement dit ce qui tiendra lieu de logiciel. Enfin, les cryptographies quantique et post-quantique concernent les protocoles de sécurisation des échanges d'informations confidentielles.
Cet ensemble de notes constituera une contribution asses complète aux travaux de la mission qui a été confiée par le gouvernement à Paula Forteza sur les technologies quantiques ; mission qui a démarré le 5 avril dernier et qui doit se conclure à la reprise de la session parlementaire. La mission de Paula Forteza poursuivra ce travail et, en particulier, fera des recommandations sur la politique du gouvernement : quels montants investir, etc...
Nous allons commencer par l'ordinateur quantique en évoquant la question de la performance des supercalculateurs actuels. Nous savons que le développement du calcul numérique a été marqué par une augmentation exponentielle des performances depuis plusieurs décennies avec la fameuse « loi de Moore ». Cette dernière peut s'exprimer suivant différents indicateurs, mais si l'on retient celui de la densité de transistors, un palier est attendu d'ici 2022.
C'est dans ce contexte que l'ordinateur quantique apparaît comme une solution ambitieuse, prenant le relais des technologies classiques, qui sont en train d'atteindre leurs limites.
Un ordinateur quantique est presque entièrement différent d'un ordinateur classique, et ce dès son unité élémentaire de fonctionnement : pour un ordinateur classique, l'unité élémentaire est le bit, qui peut prendre soit la valeur 0, soit la valeur 1. L'équivalent quantique est le qubit, pour « quantum bit ». L'objet physique peut être par exemple un atome ou un ion, dans un état quantique. Cela veut dire qu'il peut être dans une superposition d'états, comme le fameux chat de Schrödinger, dont l'état quantique correspondrait à moitié « état vivant » plus moitié « état mort ». Toutes les opérations logiques qui s'effectuent sur un système quantique vont se faire sur ce modèle, avec une combinaison des états A et B. Un ordinateur fondé sur une technologie quantique permet ainsi d'opérer sur un grand nombre d'états à la fois avec, en théorie, une démultiplication spectaculaire de la vitesse de calcul. Dans un ordinateur classique, rajouter un bit permet de représenter une valeur de plus avec laquelle on peut calculer ; en revanche, pour un ordinateur quantique, comme les opérations s'effectuent sur toutes les combinaisons possibles de ces états, rajouter un qubit double le nombre de valeurs sur lesquelles on va pouvoir travailler.
La mise en oeuvre d'un ordinateur quantique est extrêmement complexe, et rencontre encore de nombreux verrous technologiques. Malgré les annonces qu'on peut voir ici et là, il n'existe aucune machine dans le monde aujourd'hui que l'on puisse qualifier d'ordinateur quantique. Il existe des précurseurs, des « embryons », des combinaisons d'un certain nombre de qubits, mais aucun ne permet pour l'instant de faire des calculs significatifs. Un des principaux problèmes consiste à conserver, sur une durée de temps suffisante pour effectuer les calculs, le caractère quantique des qubits, qui est menacé par les perturbations extérieures. Ce phénomène de décohérence marque la frontière avec le monde classique. De la même façon, notre corps est constitué d'atomes dont chacun, s'il est isolé, est un objet quantique. Mais nous sommes, au final, et jusqu'à preuve du contraire, des êtres classiques dans un état bien défini. Quand on lance une pièce en l'air une fois, le résultat est aléatoire, mais quand on lance une pièce en l'air un million de fois, on sait très bien qu'à la fin, on obtiendra 50 % de pile et 50 % de face, il n'y a pas d'incertitudes là-dessus, pas de combinaisons de pile et de face, mais une résolution de l'incertitude, si l'on peut dire.
Quand on établit des raisonnements, on considère le qubit comme un objet parfait sur lequel, grâce à des combinaisons d'états, on peut travailler sur plusieurs valeurs à la fois et effectuer des opérations pour résoudre des calculs. En pratique, comme ils ne sont jamais parfaits et souvent bruités, il faut faire la distinction entre le qubit physique, qui est imparfait, et le qubit logique, qui sera parfait et sur lequel on pourra travailler informatiquement. Concrètement, un grand nombre de qubits physiques sera nécessaire pour réaliser un seul qubit logique. Quand on parle de grand nombre, ça peut être mille, ça peut être cent mille, ce qui veut dire que là où un algorithme va nécessiter un certain nombre de qubits logiques, pour sa réalisation physique, il faudra 1 000, 10 000, 100 000 fois plus de qubits physiques, ce qui représente des quantités absolument considérables : les prototypes les plus récents possèdent environ 50 qubits physiques alors qu'il en faudrait au minimum 50 000 pour réaliser des opérations. On est donc encore très loin d'une « révolution quantique », c'est-à-dire du moment où les ordinateurs quantiques commenceront à être compétitifs par rapport aux ordinateurs actuels, et encore plus loin d'une « suprématie quantique », où les ordinateurs quantiques seront beaucoup plus performants que les ordinateurs classiques.
Plusieurs formes concurrentes de qubit sont étudiées en parallèle par diverses équipes. Comme indiqué dans la note, une des technologies se fonde sur des ions qui se retrouvent piégés dans une cavité dans un certain état quantique. Une autre utilise des atomes froids à la place des ions. La technologie la plus aboutie en France est celle des semi-conducteurs. Compétitive au niveau mondial, elle peut devenir une technologie d'avenir et est développée au CEA LITEN à Grenoble. Il y a là un enjeu à la fois scientifique et industriel, économique mais aussi d'innovation pour identifier la forme de qubit qui sera la plus rentable et qui se prête le mieux à une intégration à grande échelle.
De plus, des discussions portent sur la création d'un standard international pour établir des comparaisons objectives qui permettront de dire que telle ou telle technologie ou telle ou telle équipe est la plus en avance.
Personne ne sait à quel horizon se réalisera l'ordinateur quantique ; ça peut être quelques années, ou 10, 20 ans ou encore plus. Il est presque certain que l'ordinateur quantique n'arrivera pas de sitôt ; et même quand il apparaîtra, il n'aura pas vocation à remplacer l'ordinateur classique. La voie la plus probable sera une coexistence entre les ordinateurs classiques et les ordinateurs quantiques. Peut-être même une coexistence de plusieurs technologies d'ordinateur quantique ! Ces dernières années, dans le cas de la reconnaissance faciale, par exemple, on a vu des architectures, dites en réseaux de neurones et basées sur des processeurs graphiques, cohabiter avec des architectures classiques ; de la même façon, on pourra voir des technologies classiques et quantiques cohabiter dans le futur.
Même quelques qubits bruités pourront se combiner à une architecture classique pour apporter, sur certaines tâches précises, des « accélérations quantiques », avec, pour un algorithme, une partie du travail traitée de façon classique et une partie traitée de façon quantique.
Il reste beaucoup d'incertitudes pour l'instant, mais, en même temps, il s'agit de technologies sur lesquelles il est vital pour la France de se positionner, avec un possible enjeu majeur en termes d'équipements à travers le monde.
M. Bruno Sido, sénateur. - Est-il possible de préciser dans combien de temps ces technologies complexes vont commencer à se concrétiser ?
M. Cédric Villani, député, premier vice-président de l'Office. - Tout le monde aimerait bien le savoir ! Il est certain que toutes les importantes annonces récentes d'acteurs tels qu'IBM, tels que certaines grandes universités américaines, etc. portant sur des ordinateurs quantiques opérationnels sont très exagérées, et doivent être regardées avec une grande circonspection. Le délai à partir duquel ces technologies pourraient se concrétiser reste très incertain. Les experts consultés ont donné des réponses variables : pour les uns, c'est l'affaire de quelques années, pour d'autres d'au minimum vingt ans.
Mme Anne Genetet, députée. - S'agissant du délai, quels sont les obstacles techniques qui empêchent de préciser l'échéance ? Par ailleurs, concernant l'impact environnemental de ce type de machines, on sait qu'aujourd'hui l'ensemble des outils de la digitalisation produisent 50 % de gaz à effet de serre de plus que le transport aérien, et que l'envoi d'un message avec une pièce jointe s'accompagne d'une consommation du même ordre de grandeur que celle d'une ampoule basse consommation durant une heure. Quelle serait l'empreinte carbone de ces ordinateurs quantiques ?
M. Cédric Villani, député, premier vice-président de l'Office. - La consommation de l'ordinateur quantique sera inférieure, toutes choses égales par ailleurs, à celle de l'ordinateur classique, ne serait-ce que parce qu'il sera beaucoup plus efficace. En une opération, il effectue un grand nombre d'opérations réalisées avec des ordinateurs classiques, ce qui représentera une très grande économie. Comme on le verra pour l'algorithmique ou la cryptographie, l'attrait de l'ordinateur quantique est qu'il permet de résoudre en moins d'opérations certains problèmes nécessitant de façon classique un nombre considérable d'opérations, parce qu'il traite plusieurs valeurs à la fois.
En revanche, il faut noter que l'ordinateur quantique demandera de travailler à de très basses températures, avec un apport d'énergie important pour le refroidissement. En termes de système, à coup sûr, il faudra beaucoup plus d'énergie pour le maintenir en état. Les ordinateurs classiques ont déjà besoin de froid, mais pas du tout au même niveau que les ordinateurs quantiques. En revanche, on gagnera en consommation sur le temps d'exécution. Quant au bilan au final, il est beaucoup trop tôt pour l'évaluer.
Les obstacles sont multiples. Actuellement, on sait réaliser une unité logique, de la même façon que par le passé on savait construire un transistor. Par la suite, les performances de l'ordinateur résultaient du nombre de transistors que l'on parvenait à combiner, à intégrer sur une puce. Petit à petit, on a réussi à en mettre de plus en plus. Il s'agissait de problèmes de miniaturisation, d'efficacité, de manière de mettre en place les systèmes d'impression des circuits, etc.
À ce jour, en matière d'ordinateur quantique, on parvient à mettre en oeuvre une unité, par exemple un atome refroidi, ou un ion piégé dont on parvient à contrôler l'état, en agissant avec tel ou tel dispositif pour le transformer, le mettre en communication avec un autre ion, etc. On le fait pour un, pour deux ou pour trois atomes ou ions. Au fur et à mesure, une course à l'accroissement du nombre de ces unités s'est développée. Le problème n'est pas tant de les faire tenir ensemble sur le plus petit espace possible, mais d'arriver à faire en sorte qu'ils restent tous en cohérence : si l'on change quelque chose à un endroit, cela doit changer quelque chose de façon pleinement cohérente pour les autres.
Au contraire, dans un système macroscopique, si l'on change l'état d'un atome à un endroit, cela ne change rien à l'état des autres atomes ailleurs, créant ainsi une décohérence, parce que les atomes agissent au final de façon indépendante. Comment parvenir, du point de vue physique, à des conditions tellement parfaites que toute la cohérence soit préservée, malgré le grand nombre de qubits ? Il s'agit de vrais problèmes de physique fondamentale. Pour l'instant, les meilleurs systèmes parviennent à quelques dizaines de ces unités, alors qu'il en faudrait au minimum mille fois plus.
Mme Huguette Tiegna, députée, vice-présidente de l'Office. - Pour ceux qui n'ont jamais fait de physique quantique, le sujet de ces trois notes s'avère ardu. Est-il possible de faire le point sur l'état de la recherche sur ces technologies en France ? Sommes-nous en avance, ou d'autres pays sont-ils plus en avance que nous ? Dans la mesure où tu as beaucoup travaillé sur l'intelligence artificielle, comment vois-tu l'évolution dans les années à venir, entre celle-ci et les technologies quantiques ? Ces deux technologies peuvent-elles collaborer, compte tenu notamment des enjeux en matière de consommation d'énergie ?
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Dans la continuité de cette question, en dehors des États-Unis, est-ce que les pays asiatiques, notamment la Chine, mènent des recherches sur les ordinateurs quantiques ?
M. Cédric Villani, député, premier vice-président de l'Office. - La France dispose d'une très forte école de physique quantique théorique, avec des prix Nobel comme Claude Cohen-Tannoudji ou Serge Haroche, et des nobélisables comme Alain Aspect. L'expertise française est mondialement reconnue en la matière.
Pour ce qui est du développement de l'ordinateur quantique, nous avons, en France, des laboratoires et des équipes de très bon niveau. L'équipe du CEA-LITEN à Grenoble, mentionnée précédemment, est l'une des quelques équipes les plus reconnues dans le monde sur ce sujet, l'une des rares qui peut prétendre peut-être détenir la solution pour l'ordinateur quantique de demain.
La coopération avec l'intelligence artificielle est un sujet qui a, pendant longtemps, constitué un vrai problème. Tout récemment, des solutions et des algorithmes sont apparus pour mettre les technologies quantiques au service de l'intelligence artificielle. Dans ce domaine, il existe aussi des développements et une expertise en France, qui ne sont pas négligeables.
Pour ce qui est de la distribution au plan international, dans un certain nombre de pays développés, des équipes travaillent sur les technologies et la programmation quantiques. La Chine ne communique pas tellement sur le sujet. Sur certains aspects, comme la cryptographie quantique, la Chine a fait des annonces fortes voici quelques années. Comme sur tous les grands enjeux technologiques et scientifiques actuels, la Chine a un important programme de recherche en cours. Si l'on prend du recul, sur le plan des équilibres géopolitiques, le grand fait de la dernière décennie et de la décennie en cours est la montée en puissance de la Chine, par rapport à la redistribution des cartes internationales.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - L'objectif des ordinateurs quantiques est de permettre de travailler beaucoup plus vite et de traiter plus de données qu'avec les ordinateurs actuels. Est-ce que cela signifie que si l'on n'évolue pas dans la conception des ordinateurs, dans cinq ou dix ans, le monde ne pourra plus fonctionner avec les puissances des ordinateurs actuels ?
M. Cédric Villani, député, premier vice-président de l'Office. - Nous sommes dans une course générale à l'augmentation des performances, avec des besoins exprimés de plus en plus forts, des calculs de plus en plus gourmands, etc. L'ordinateur quantique est la solution permettant d'éviter la stagnation, c'est-à-dire la situation dans laquelle l'amélioration des performances des ordinateurs va stagner, alors que pendant des décennies on a vu les performances augmenter, aussi bien en termes de capacité de stockage que de vitesse de calcul. Nous avons tous observé le passage des disquettes au disque dur, la miniaturisation des ordinateurs, les puissances de calcul extraordinaires des téléphones, l'augmentation spectaculaire des performances des machines en général, etc. Dans les années qui viennent, on arrive aux limites envisageables de cette augmentation. L'ordinateur quantique est, pour l'instant, la meilleure piste pour continuer à poursuivre dans le futur l'amélioration des performances.
Pour compléter ma réponse précédente, comme mentionné en page 2 de la note, actuellement des systèmes de cinq à vingt qubits sont réalisés, avec un taux d'erreur sur les opérations de l'ordre de 2 à 5 %. Ces systèmes comportent donc d'importantes incertitudes, évidemment complètement inacceptables pour la plupart des applications. L'enjeu consiste à les réduire au maximum, tout en conservant l'état quantique, à parvenir à des conditions physiques de robustesse et de stabilité permettant de rester sans erreur le plus longtemps possible, avec le système le plus important possible en taille logique. Le passage des qubits physiques aux qubits logiques a pour objet de regrouper les premiers, individuellement peu fiables, pour constituer une unité globale qui puisse être considérée comme fiable.
Aujourd'hui, l'ordinateur à cinquante qubits mentionné précédemment, le plus performant, réalise une multiplication simple avec un taux d'erreur de quelques pourcents, par exemple 3×5 avec 2 % d'erreur. Ce n'est encore qu'un début !
Je vous propose de vous présenter maintenant la note sur la programmation quantique, les deux sujets, ordinateur et programmation, étant parallèles.
Examen de la note scientifique sur les technologies quantiques : la programmation quantique (Cédric Villani, député, rapporteur)
M. Cédric Villani, député, premier vice-président de l'Office. - Il y a toujours eu, d'une part, le hardware, le matériel, d'autre part, le software, le logiciel, avec une course entre les deux. Dans les débuts de l'informatique, le hardware constituait le facteur limitant et il fallait trouver toutes sortes d'astuces pour utiliser le moins de mémoire possible, le moins d'opérations possibles. On a ensuite connu une époque où c'était la programmation qui était déficiente et tout le monde passait son temps à imaginer les moyens de corriger les bugs de programmation.
Maintenant, il s'agit de développer à la fois le hardware et le software en termes quantiques. Ce ne sont pas les mêmes experts qui développent l'ordinateur quantique et la programmation quantique, même si évidemment les uns regardent ce que les autres font. La programmation quantique est déjà un sujet à part entière, et ce depuis bien avant l'arrivée des ordinateurs quantiques. Pour simplifier, la question est comment programmer un ordinateur quantique le jour où il arrivera ? On parle d'architectures différentes mais aussi de langages et de protocoles différents pour écrire un programme informatique.
Il faut faire la distinction entre le langage de « haut niveau », qui nous est compréhensible et est orienté vers les problèmes à résoudre, indépendant des spécificités du matériel ; c'est le langage qu'on apprend dans nos écoles d'informatique. Et puis le langage de « bas niveau », qui va dicter au processeur les opérations élémentaires et qui va dépendre de l'architecture physique. L'interface entre les programmes de « haut niveau » et les programmes de « bas niveau », c'est une science en soit, c'est de l'optimisation et de la compilation. Sur une architecture classique, la compilation est l'étape qui transforme le programme écrit en langage Pascal ou bien Python en un langage exécutable par le processeur.
Pour avoir un ordinateur quantique et un programme opérationnels, il faudra prendre en compte les spécificités de la mécanique quantique et en particulier son caractère probabiliste, au contraire de l'informatique classique qui est déterministe.
Des plateformes de programmation quantique ont déjà été mises au point, soit par des équipes académiques, soit par des équipes industrielles. Certaines mettent à disposition de l'utilisateur des qubits dans le cloud pour permettre à des communautés de se former et de se développer. Côté français, apportant ainsi une contribution majeure, Atos a mis en ligne sa Quantum Learning machine simulant sur un supercalculateur classique Bull le fonctionnement d'un ordinateur quantique disposant de 30 à 41 qubits, qui intègre les spécificités des différentes technologies de qubits (ions piégés, supraconducteurs...).
À ce jour, peu d'algorithmes quantiques ont été découverts. Le plus important et le plus célèbre est l'algorithme de Shor pour la factorisation de très grands nombres, nous en reparlerons plus précisément dans l'examen de la note suivante, sur la cryptographie. L'algorithme de Shor est un algorithme de factorisation extrêmement efficace, qui a rendu son auteur célèbre. Il a fait entrevoir un futur dans lequel des problèmes aujourd'hui inaccessibles en informatique classique seront à portée de main avec l'informatique quantique.
Pour reprendre la question précédente, nous allons probablement nous retrouver dans un scénario à deux choix : soit, grâce au quantique, nous nous emparons collectivement de tâches inaccessibles aujourd'hui, en le mettant au service du bien commun ; soit, a contrario, un acteur privé ou étatique développera ces technologies, et lui seul sera capable de réaliser certaines actions, qui lui donneront un avantage comparatif important.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Peut-on citer un exemple simple de problème qui sera accessible et qui ne l'est pas actuellement ?
M. Cédric Villani, député, premier vice-président de l'Office. - L'exemple classique, dont je parlais précédemment, est justement l'algorithme de Shor. La plupart des protocoles de chiffrement et de déchiffrement actuels reposent sur la factorisation de très grands nombres : pour un ordinateur classique, multiplier est simple mais l'opération inverse consistant à factoriser est compliqué. L'algorithme de Shor utilisé sur un ordinateur quantique permet de retrouver les facteurs rapidement. De manière générale, les procédés de chiffrement reposent sur des problèmes réputés difficiles pour l'ordinateur classique. En revanche, un ordinateur quantique opérationnel pourrait a priori résoudre ces problèmes très rapidement.
En complément, une autre catégorie de problèmes se prête très bien à l'informatique quantique : les problèmes d'optimisation pour lesquels, à partir d'un grand nombre de paramètres, il s'agit de trouver la meilleure solution : la meilleure façon de faire rentrer différents objets dans un sac, de visiter toutes les villes d'un itinéraire, de réaliser une activité donnée au moindre coût... De nombreux problèmes d'optimisation, qui demandent un temps de calcul extraordinaire avec des architectures classiques, seront possibles de façon beaucoup plus simple avec un ordinateur quantique.
En ce qui concerne l'IA, l'optimisation ne représente qu'une petite partie du problème général mais c'en est néanmoins bien une. Le grand enjeu actuellement pour l'IA concerne toute la partie statistique, pour arriver à identifier des corrélations. Tout l'enjeu sera de déterminer quelle partie sera plutôt à traiter de façon quantique et quelle partie sera plutôt à traiter de façon classique.
M. Bruno Sido, sénateur. - Il est quand même étonnant qu'on sache dire ce que permettra de réaliser l'ordinateur quantique, que précisément l'on ne sait pas produire aujourd'hui !
M. Cédric Villani, député, premier vice-président de l'Office. - C'est justement toute la beauté de la science informatique, qu'il convient de bien différencier de l'informatique en tant qu'industrie. La science de l'informatique est la science de la complexité. Peu lui importe avec quels moyens physiques on réalise des opérations. Elle s'interroge sur le nombre d'opérations, sur leur degré de complexité, les instructions à utiliser, etc. Elle se demande, par exemple, combien d'opérations seront nécessaires pour multiplier deux nombres de mille chiffres chacun. Si le temps requis pour une multiplication élémentaire d'un chiffre par un autre chiffre est connu, est-il possible d'en extrapoler le temps total nécessaire ?
Cet exemple n'est pas anodin. On a cru pendant longtemps que multiplier un nombre à n chiffres par un autre nombre à n chiffres demanderait, en gros, n opérations au carré (n2), parce que chacun des chiffres sera multiplié par tous les chiffres de l'autre nombre. On s'est rendu compte, probablement voici quelques décennies, que cela pouvait être réalisé beaucoup plus vite, en n puissance 1,1 ou 1,2 opérations (n1,1 ou n1,2). Des algorithmes de multiplication rapide sont aussi apparus, avec des techniques basées sur les transformations de Fourier, permettant de réduire considérablement le nombre d'opérations nécessaires. Il s'agit d'informatique au sens de théories de la complexité, qui ne s'intéresse pas au dispositif physique, mais à la complexité de l'ensemble de l'opération.
M. Jean-François Eliaou, député. - Pourquoi ne faut-il pas n2 opérations ? Parce qu'on retrouve des combinaisons qui se reproduisent et qui rendent facile une multiplication déjà effectuée ?
M. Cédric Villani, député, premier vice-président de l'Office. - Je n'ai pas souvenir d'avoir vu une justification de ce « n puissance un plus epsilon » (n1+å) complètement explicitée. Je me souviens l'avoir lu dans un ouvrage de Leslie Valiant. Les grands ouvrages comme ceux de Donald Knuth ne s'intéressent pas aux mécanismes physiques, mais uniquement au nombre d'opérations élémentaires à réaliser et à leur complexité. Ils classifient les problèmes abstraits suivant les difficultés à résoudre, les dispositifs permettant de les surmonter, etc. Pour cette raison, la discipline se développe bien avant l'apparition des ordinateurs quantiques, de la même façon que la théorie de la programmation est apparue bien avant les langages, avec des précurseurs comme Ada Lovelace.
Pendant longtemps on s'est demandé - certains se le demandent encore - si la programmation quantique restera uniquement une discipline universitaire, ou sera effectivement mise en oeuvre dans les laboratoires de recherche, et pour les utilisateurs.
Aujourd'hui, on voit que les ordinateurs disposent de cinquante qubits, là où il leur en faudrait mille fois plus. Le jour où l'on aura des ordinateurs performants, capables de résoudre des tâches complexes, la question se posera de façon très forte et concrète. Un encadré en page deux de la note évoque précisément cet algorithme de Shor qui, en 1994, a vraiment, d'un coup, mis sous les feux de la rampe la question de la programmation quantique, en montrant que le problème de la factorisation, alors perçu comme très difficile, deviendrait facile à résoudre si l'on pouvait disposer d'ordinateurs quantiques. On voit que sur un tel sujet, les avantages comparatifs obtenus peuvent être considérables. Comme indiqué dans l'encadré, il faut commencer par représenter le problème dans un formalisme adapté au calcul quantique, avec une combinaison d'états, comme des atomes qui se trouveraient à 10 % dans un état, 20 % dans un deuxième, 2 % dans un troisième, etc. tant qu'ils restent dans un état quantique et tant qu'on n'effectue pas de mesure les obligeant à prendre un état unique défini.
Une fois le problème mis sous cette forme, on agit sur tous ces objets à la fois. On commence par préparer le problème d'une façon permettant de le traiter en beaucoup moins d'opérations qu'avant, un peu comme si au lieu de passer en revue toutes les pages d'un livre de façon linéaire, opération très longue, on agissait simultanément sur toutes les pages du livre à la fois, par exemple pour effectuer une correction ou un changement de fonte. Mais, au préalable, il faut se mettre en situation de traiter le problème de manière quantique, par exemple en ouvrant le livre et en collant toutes les pages les unes à côté des autres.
La démarche lancée aujourd'hui par Atos, permet, à défaut de disposer d'un ordinateur quantique, de simuler par des ordinateurs classiques le comportement de celui-ci, de façon à se « faire la main », algorithmiquement parlant. Si l'on pouvait à peu de frais simuler le fonctionnement d'un ordinateur quantique, cela signifierait qu'on saurait résoudre à peu de frais des problèmes qui sont du ressort de celui-ci. Tel n'est pas le cas, bien entendu. Les ordinateurs quantiques les plus complexes simulés par Atos comportent quelques dizaines de qubits, ce qui correspond aussi aux meilleurs systèmes qu'on parvient à fabriquer actuellement physiquement.
M. Bruno Sido, sénateur. - Encore une fois, la liberté est menacée si l'on parvient à décrypter rapidement les messages avec ces technologies.
M. Cédric Villani, député, premier vice-président de l'Office. - C'est justement l'enjeu des questions de cryptographie quantique, sur lesquelles porte la note suivante. Aujourd'hui, la liberté implique aussi de pouvoir transmettre un message avec un bon niveau de confiance sur le fait qu'il ne sera pas lu.
Examen de la note scientifique sur les technologies quantiques : cryptographies quantique et post-quantique (Cédric Villani, député, rapporteur)
M. Cédric Villani, député, premier vice-président de l'Office. - Je vous propose d'aborder maintenant le dernier volet de nos travaux sur les technologies quantiques : les cryptographies quantique et post-quantique.
Les communications tiennent une place centrale dans notre société et les technologies utilisées aujourd'hui permettent d'échanger de l'information sur de très grandes distances, à très haut débit, et de sécuriser les données échangées, que ce soit pour des questions de défense, de diplomatie ou plus simplement des questions de codes de cartes bancaires, de mots de passe sur Internet...
Un des piliers de la sphère numérique aujourd'hui correspond aux méthodes de chiffrement et déchiffrement qui s'appuient sur des techniques mathématiques réputées complexes pour un ordinateur classique.
Je dis « réputées » parce que, dans la plupart des cas, on utilise des problèmes dont tout porte à croire qu'ils sont inviolables. Il ne s'agit pas de simplement chercher toutes les façons de résoudre le problème ; le cadre des théories sur la complexité permet aussi d'apporter une réflexion théorique sur le sujet en classifiant les problèmes. Certains de ces problèmes ont été identifiés comme étant extrêmement difficiles et ont été retenus pour traiter cette confidentialité, et en particulier la question de la factorisation des très grands nombres, évoquée précédemment, ou encore du logarithme discret.
Les méthodes de cryptographie sont soit symétriques, soit asymétriques : dans le premier cas, une clef secrète, partagée au préalable, est utilisée pour chiffrer les messages échangés entre deux personnes ; et dans le second cas, on se « met d'accord » sur la clef secrète en amont de la communication. En pratique, les deux techniques sont utilisées.
L'exemple le plus emblématique est le chiffrement RSA, pour Rivest, Shamir et Adelman, qui repose sur la factorisation en nombres premiers de nombres à 617 chiffres.
On peut, à chaque fois, complexifier ces algorithmes en augmentant la taille de la clef, en passant de 617 à 1 000 par exemple. Plus on augmente la taille, et plus l'attaque devient difficile.
Depuis les années 1990, on sait que l'utilisation de l'algorithme de Shor combinée à un ordinateur quantique, à condition qu'il possède des milliers de qubits, est susceptible de menacer la sécurité de l'agorithme RSA, mais aussi d'autres algorithmes de chiffrement.
La question est donc : quand arrivera l'ordinateur quantique et à partir de quand faudra-t-il s'en inquiéter ?
On pourrait se dire : attendons de voir venir car l'incertitude sur l'arrivée de l'ordinateur quantique est grande.
Pourtant, on ne peut pas faire ça, parce que les protocoles de chiffrement ont été inclus dans un ensemble de couches informatiques, de sorte que si on doit modifier ces protocoles et tout ce qui sera « cassable » un jour par l'ordinateur quantique, cela nécessitera des années.
Or le temps nécessaire pour modifier ces protocoles correspond pratiquement à celui qu'il faudra pour développer un ordinateur quantique dans les scénarios les plus optimistes. D'où l'importance de développer dès maintenant des algorithmes dit post-quantiques, c'est à dire capables de résister à l'ordinateur quantique. Un algorithme post-quantique ne signifie pas algorithme quantique, mais un algorithme reposant sur de la programmation classique et capable de résister à une tentative de déchiffrement par un ordinateur quantique.
Depuis 2017, un appel à projets mondial pour la définition de nouveaux standards de cryptographie post-quantique, est organisé par le National institute of standards and technology, le NIST américain, qui sélectionne les candidats. La France participe sous la forme d'un consortium de chercheurs et d'industriels.
Une méthode est considérée comme robuste dans ce domaine après environ une dizaine d'années de tests concluants.
Donc, même si l'ordinateur quantique s'inscrit dans un horizon lointain, il faut se préoccuper dès maintenant des évolutions du protocole de sécurisation.
M. Bruno Sido, sénateur. - Mais pour réussir, ne faut-il pas connaître justement ce que le l'ordinateur quantique et les programmes quantiques ne savent pas faire ?
M. Cédric Villani, député, premier vice-président de l'Office. - Absolument, et c'est là aussi tout l'enjeu de la théorie de la complexité avec les ordinateurs quantiques. L'ordinateur quantique parvient, pour l'instant, à résoudre certaines classes d'algorithmes. Il se trouve que le chiffrement en est un, mais on ne peut pas dire, pour n'importe quel problème, que l'ordinateur quantique saura le résoudre. L'ordinateur quantique pourra en résoudre certains. Pour les autres, tout porte à croire que l'ordinateur quantique sera aussi inefficace que l'ordinateur classique. Les scientifiques théorisent sur ce sujet.
M. Bruno Sido, sénateur. - Pour donner un ordre de grandeur, combien de temps faut-il pour décrypter avec les ordinateurs classiques le chiffrement réalisé durant la guerre par les Allemands avec la machine Enigma ?
M. Cédric Villani, député, premier vice-président de l'Office. - Aujourd'hui, il serait décrypté par force brute, ce qui alors était infaisable. Mais il est difficile d'évaluer le temps que ce décryptage demanderait.
À l'époque, ce qui était prodigieux c'est le travail de modélisation, de théorisation et de mise en probabilités qui a été réalisé. La partie « mécanique », réalisée par ordinateur, était indispensable, mais la partie modélisation était extraordinairement astucieuse.
Grâce à Alan Turing et à l'équipe avec laquelle il collaborait, le travail de déchiffrage a pu être réalisé. Effectivement, il a joué un rôle majeur dans la seconde guerre mondiale, en particulier parce que le débarquement de Normandie ne pouvait être gardé secret et qu'il était impossible à effectuer en présence des sous-marins allemands, dont la détection nécessitait cette opération de déchiffrage. L'échec de cette dernière aurait à coup sûr conduit à une ou deux années de guerre supplémentaires.
Cet exemple est historique, parce qu'il montre à quel point un décryptage mathématique peut changer l'histoire, et aussi parce qu'il combine forces mécaniques et modélisation poussée. Encore aujourd'hui, on a du mal à comprendre comment Turing a pu penser sa façon de reconstituer l'information statistique.
On considère Turing comme le fondateur de la discipline qu'est l'intelligence artificielle et aussi comme le fondateur de la notion de complexité algorithmique, avec un article précurseur sur les nombres calculables. En mathématique, on considère qu'un nombre, par exemple la racine carrée de deux, existe et on réalise des opérations avec lui. En informatique, on se demande s'il est compliqué de le calculer, à quelle vitesse il peut être calculé et le nombre d'opérations nécessaires pour le faire.
M. Jean-François Eliaou, député. - Les points de départ et d'arrivée du calcul doivent-ils être connus ?
M. Cédric Villani, député, premier vice-président de l'Office. - On ne connaît pas le point d'arrivée, au sens où la racine carrée de 2 est une valeur abstraite idéale. La question pour l'informatique est de l'approcher au plus près, à 10-6, 10-10 ou 10-12 près. On sait que dans la Babylone antique la racine carrée de 2 était déjà approchée à 10-6, ce qui représente une précision inouïe.
Selon l'algorithme utilisé, le temps passé peut-être gigantesque ou très court. Par dichotomie, comme enseigné à l'école, en dix opérations, il est possible d'obtenir une précision au millième, soit avec trois chiffres, alors qu'un bon algorithme, dit babylonien, permet de parvenir à vingt chiffres.
Dans un cas, grossièrement, chaque opération ajoute une unité de précision, alors que dans l'autre elle double la précision. Cet exemple montre que, même sur un cas simple, le choix de l'algorithme conduit à des différences de vitesse extraordinaires. De même, selon qu'on arrive à mettre en oeuvre l'algorithme classique ou l'algorithme quantique, on se retrouve, pour certains problèmes, avec des temps d'exécution et un nombre d'opérations totalement différents.
Pour résister à l'ordinateur quantique, il s'agit effectivement de trouver ce qu'il ne saura pas faire. C'est un sujet sur lequel travaillent également des équipes françaises. Sur tout ce qui est abstrait, on peut faire confiance à la France pour avoir les bons experts, que ce soit en physique fondamentale, en algorithmique, ou en mathématiques. C'est un sujet qui va très vite s'imposer.
M. Bruno Sido, sénateur. - On dit que l'école de mathématiques française est excellente. Mais il en existe d'autres, par exemple des Polonais ont particulièrement travaillé sur Enigma. Dans le monde, quelles sont les bonnes écoles de mathématiques ?
M. Cédric Villani, député, premier vice-président de l'Office. - Il est exact que dans le cas d'Enigma l'école polonaise a joué un rôle capital. C'est l'une des grandes écoles du XXe siècle. En revanche, elle a été absolument dévastée par la seconde guerre mondiale, avec une hémorragie dont elle ne s'est jamais remise. Les grandes écoles mathématiques reconnues dans le monde sont sans conteste les écoles française, russe, historiquement allemande - même si son apogée remonte au XIXe siècle, et, sur le tard, américaine. Aux XVIIe et XVIIIe siècles, la position de la France était incontestée, avec une place pour la Grande-Bretagne. Au XIXe siècle, la compétition se jouait entre la France, l'Allemagne et la Russie, qui arrive un peu plus tard dans le jeu. Au XXe siècle on retrouve les mêmes acteurs, avec en plus les États-Unis. Quand on inclut l'informatique, il faut toujours ajouter Israël, un acteur absolument de premier plan en informatique théorique, cryptographie théorique, etc.
M. Bruno Sido, sénateur. - Quelle est la place de la Chine ?
M. Cédric Villani, député, premier vice-président de l'Office. - La Chine monte en puissance et occupe toutes les premières places après les pays vedettes. En termes de volume, la recherche chinoise s'accroît de façon considérable, au point d'engorger les revues scientifiques et de mettre tout le système sous tension, compte tenu du volume et de la qualité qui augmentent simultanément. Les moyens mobilisés en Chine sont sans équivalent. De manière générale, la concentration des moyens chinois sur les sciences n'a pas d'équivalent dans le reste du monde.
Je vous propose de conclure en évoquant maintenant la cryptographie quantique, dont le paradigme est complètement différent des techniques antiques pour assurer une cryptographie.
La cryptographie quantique utilise les principes de la mécanique quantique et en particulier le phénomène d'intrication qui permet de « lier » deux systèmes physiques, dans le même état, et de conserver cette connexion à distance, même très grande.
Les deux systèmes intriqués peuvent alors être envoyés à deux endroits différents, à travers une fibre optique par exemple, et si un système est intercepté d'un côté, alors le second est aussi impacté de l'autre côté, les deux destinataires recevant exactement la même information. Cette information peut être une clé secrète qui servira ensuite à se transmettre des messages, une clé qui sera tellement longue qu'on pourra garantir son inviolabilité. On appelle cela de la « distribution quantique de clés » ou Quantum key distribution. Les principes de physique quantique sont alors utilisés pour assurer la sécurisation des réseaux et la détection des intrusions. Des liaisons quantiques sécurisées sont déjà utilisées depuis une douzaine d'années dans le canton de Genève en Suisse pour des votes électroniques et, en 2016, la Chine a fait une annonce spectaculaire de communication quantique par satellite avec l'Autriche sur plus d'un millier de km.
La question de savoir si ça peut se généraliser en un futur Internet quantique est ouverte, mais il s'agit là de prospective de long terme.
En conclusion, d'une part la cryptographie post-quantique repose sur des méthodes de chiffrement classiques et vise à résister à la puissance de calcul des futurs ordinateurs quantiques, d'autre part, les techniques quantiques, elles, tirent parti des lois de la physique quantique pour assurer une bonne sécurisation. Ces deux axes sont comme les deux faces complémentaires de la révolution apportée par l'ordinateur quantique, avec la cryptographie quantique qui en est déjà à la preuve de concept.
M. Jean-François Eliaou, député. - Concernant la machine Enigma, qu'est-ce qu'un procédé électromécanique ? S'agit-il de l'ancêtre de l'ordinateur ?
M. Cédric Villani, député, premier vice-président de l'Office. - Il s'agissait de réseaux électriques comportant des jonctions. Suivant qu'elles étaient ou pas établies, elles représentaient une opération logique. Le problème consiste toujours à traduire une question logique en une question électrique : autrement dit, un courant qui passe ou pas. Ainsi, l'opération « et » correspond à tel état, l'opération « ou » à tel autre, etc. Pour Enigma, on disposait d'un processus de validation développé spécifiquement à cette fin, qui permettait automatiquement de vérifier si certaines hypothèses étaient à abandonner. Un moment clé est survenu quand il s'est avéré nécessaire de réaliser le déchiffrage à grande échelle. Les Américains ont, pour leur part, juste apporté la capacité de fabriquer en grande série. Une partie de ce dispositif représentait un ancêtre de l'électronique, telle qu'on la connaît.
L'ordinateur qui a été conçu par la suite prenait une partie de son inspiration dans les procédés de décryptage. Sur ce point, la source qui fait référence est la biographie d'Alan Turing intitulée « The Enigma », par Andrew Hodges, dont le film est supposé avoir été tiré, mais qui est bien préférable à ce dernier.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Le film a eu au moins l'avantage de faire connaître le livre.
M. Bruno Sido, sénateur. - Il faut dire que les alliés ont quand même eu la chance de tomber sur la machine, parce qu'un sous-marin qui était supposé couler n'a pas coulé.
M. Cédric Villani, député, premier vice-président de l'Office. - Effectivement, certains épisodes ont permis de récupérer des clés précieuses, dont un concernant un sous-marin. Des fautes des opérateurs allemands ont également été exploitées.
La publication des notes scientifiques n° 15 sur l'ordinateur quantique, n° 16 sur la programmation quantique et n° 18 sur les cryptographies quantique et post-quantique est autorisée.
Examen d'une note scientifique sur la politique vaccinale en France (Jean-François Eliaou et Cédric Villani, députés, rapporteurs, et Florence Lassarade, sénatrice, rapporteure)
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Nous allons passer à la dernière note et je vous prie d'excuser l'absence de Florence Lassarade. La note sera donc présentée par Jean-François Eliaou et Cédric Villani.
M. Cédric Villani, député, premier vice-président de l'Office. - On l'a vu, on s'en souvient, la question des vaccinations fait partie des grands débats du début de la législature, le gouvernement ayant proposé l'extension de la liste des vaccins obligatoires de 3 à 11.
Avant, étaient obligatoires les vaccins contre la diphtérie, la poliomyélite et le tétanos (DTP), maintenant le sont aussi ceux contre la rougeole, les oreillons, la rubéole (ROR), l'hépatite B, la coqueluche, les infections à méningocoques, à pneumocoques et à Haemophilus influenzae de type B.
La décision prise par Agnès Buzyn, ministre de la Santé, entendait remédier au problème de la mauvaise couverture vaccinale pour certains vaccins, notamment celui contre la rougeole.
Pour l'Office, il y avait un réel intérêt à produire une note scientifique sur le sujet, aussi documentée et équilibrée que possible. La note est complétée par un grand nombre de références, ce qui traduit le fait que ce sujet présente de nombreux aspects sous-jacents pour lesquels l'analyse doit procéder maladie par maladie.
Il s'agit aussi d'un sujet vivement débattu : c'est la raison pour laquelle mener l'opération à bien a constitué un véritable casse-tête pour notre conseillère scientifique en sciences de la vie, face aux positions des personnes consultées qui pouvaient être contradictoires les unes par rapport aux autres.
Finalement, la note a été élaborée à froid, après la polémique suscitée par l'extension des obligations, donc dans un contexte un peu dépassionné et avec le recul nécessaire pour prendre en compte les résultats de cette première année et demie d'extension des vaccinations obligatoires.
Florence Lassarade et Jean-François Eliaou, co-rapporteurs, sont respectivement pédiatre de formation et professeur d'immunologie. Ils étaient donc parfaitement légitimes - et même tout désignés - pour réaliser ce travail.
Pour en venir au sujet, tout d'abord, il convient de rappeler que le vaccin est l'une des grandes inventions, en santé publique, contre les maladies infectieuses, qui a permis d'augmenter la durée de vie moyenne, conjointement avec l'amélioration de l'hygiène et le développement des antibiotiques.
Bien que, par le passé, le développement des vaccins ait été relativement empirique, aujourd'hui, cela constitue un enjeu de recherche à part entière. Il faut aussi rappeler que malgré ce bilan, il y a un sentiment de défiance d'une partie de la population, d'importance absolument non négligeable, qui s'est manifesté dès le premier vaccin obligatoire, celui développé contre la variole.
Plus récemment, ce sentiment a été nourri notamment par des suspicions de maladies entraînées par les vaccins. Cela a notamment été le cas du vaccin ROR et de l'autisme, dans une étude d'Andrew Wakefield, à la fin des années 90 - étude qui s'est révélée frauduleuse par la suite. Une partie des Français hésitent à se faire vacciner, voire refusent la vaccination, et la France est le pays d'Europe dans lequel cette défiance est la plus marquée, d'assez loin.
Les personnes hésitantes cherchent à se renseigner tous azimuts sur internet, sur les réseaux sociaux, sur les forums, mais continuent tout de même à accorder du crédit et de la confiance au médecin de famille. Regagner la confiance des citoyens était un des enjeux de la mesure voulue par le gouvernement.
Parmi les stratégies qui doivent être mises en oeuvre, il y a au premier rang la recherche de la transparence. Je salue à ce propos les efforts de Santé publique France en ce sens, avec le site vaccination-info-service.fr. Il y a aussi les efforts de pédagogie, à la fois des autorités de santé envers les médecins, puisqu'il semble que 8 % des médecins eux-mêmes ne soient pas confiants vis-à-vis de la vaccination, et aussi les efforts de pédagogie des médecins à l'égard de leurs patients. Et puis, finalement, il y a toute la question des réseaux sociaux et de leurs efforts pour ne pas mettre en avant des contenus comportant de fausses informations médicales. Ceci s'inscrit donc dans le cadre de tous les débats actuels sur la régulation des contenus des réseaux sociaux.
Le contexte dans lequel la vaccination et la politique vaccinale s'inscrivent comporte ainsi des enjeux scientifiques, des enjeux de santé et des enjeux de confiance et d'information.
M. Jean-François Eliaou, député. - Je voudrais revenir sur le sujet de l'inquiétude, qui, effectivement, est stratégique dans une politique médicale ou de santé publique qui consiste à vacciner un grand nombre d'individus.
Il faut bien avoir en tête qu'en médecine et en sciences existe la notion de rapport bénéfices-risques. Et dans le cas des vaccins, les scientifiques et les médecins observent que peu de produits de santé peuvent se targuer d'un aussi bon rapport bénéfices-risques. En effet, toute intervention médicale comporte un risque - y compris pour la personne qui vaccine : elle peut se blesser avec la seringue, si l'on veut envisager toutes les éventualités. Mais ce qui est important, c'est d'estimer ou d'évaluer ce rapport bénéfices-risques et de vérifier qu'il est extrêmement favorable, c'est le cas de la vaccination.
Il n'empêche que de nombreuses personnes, ainsi que des médecins, ont des inquiétudes. Il me semble important de ne pas rester sur le statu quo actuel et d'utiliser ces inquiétudes pour dynamiser la recherche. La recherche en vaccinologie doit contribuer à améliorer les vaccins, notamment leur efficacité, et à diminuer les risques potentiels, tout cela concourant à améliorer la confiance des concitoyens et des professionnels dans la vaccination.
La vaccination actuellement vise à administrer à une personne saine un produit qui mime une première rencontre avec un agent infectieux, sans entraîner d'infection. C'est-à-dire, si l'on fait un peu d'immunologie, faire passer une personne d'une réponse immunitaire dite primaire à une réponse immunitaire dite secondaire.
La réponse primaire correspond au type de réponse du système immunitaire lorsqu'il n'a encore jamais rencontré l'agent infectieux ; c'est une réponse d'efficacité moyenne, nécessitant un certain temps de latence après la rencontre de l'agent infectieux. La réponse secondaire est le type de réponse immunitaire observé lorsque le système immunitaire a déjà rencontré l'agent infectieux ; cette réponse est plus efficace et plus rapide, ce qui apporte une protection à la personne vaccinée vis-à-vis d'un agent pathogène.
Un aspect important dans la réponse immunitaire secondaire tient à l'effet mémoire. Lorsque l'on administre un vaccin à un individu, on lui permet de déployer une réponse extrêmement efficace en cas de rencontre du pathogène, et ce, sur le long terme, par l'induction d'une mémoire immunologique. Se pose alors le problème de la variabilité de la durée de cette mémoire en fonction des individus et des germes.
Par ailleurs, la tendance en vaccinologie est d'administrer un antigène seul, c'est à dire, pour l'expliquer simplement, un extrait du germe. Le plus souvent, l'antigène est synthétique. Il est préféré au germe entier atténué ou tué - une bactérie ou un virus - qui, dans de très rares cas, à la suite de son administration, pouvait recouvrer ses propriétés pathogènes. Injecter un antigène permet de s'affranchir de ce risque.
Il faut bien noter que les petites manifestations telles que la fièvre ou les douleurs articulaires observées à la suite d'une vaccination ne sont pas dues à la maladie contre laquelle le vaccin protège, mais à la stimulation du système immunitaire et à la réponse immunitaire qui s'en suit. Ces manifestations peuvent être soulagées par la simple prise de paracétamol.
Toutefois, dans le cas de l'administration d'un antigène seul, le peptide synthétique injecté n'induit pas toujours de réponse immunitaire efficace ; c'est pourquoi on utilise des adjuvants. La combinaison d'un adjuvant avec un antigène permet de stimuler la réponse immunitaire et de diriger cette réponse contre l'antigène inoculé. L'objectif étant de faire passer l'individu à une réponse immunitaire secondaire spécifique d'un agent pathogène d'emblée, si celui-ci était rencontré.
La question de l'existence de cas où le vaccin peut déclencher des maladies et notamment des maladies auto-immunes, a été posée. Une hypothèse est que, lorsque la réponse immunitaire est déclenchée, celle-ci ne soit pas spécifique de l'antigène - le peptide vaccinal - mais qu'elle se dirige contre un constituant du soi, c'est-à-dire un élément contre lequel le système immunitaire n'est pas censé se retourner - c'est la définition de la maladie auto-immune.
C'est donc un défi, pour la vaccination mais aussi pour l'immunothérapie, qui est de plus en plus utilisée pour le traitement de cancers et qui induit aussi artificiellement une réponse immunitaire, d'induire une réponse spécifique, contre un antigène et pas contre un constituant du soi.
Il y a eu des cas rapportés dans la littérature où des vaccins ont été responsables d'une réaction auto-immune ayant entraîné une maladie. Cela a été le cas pour un vaccin contre le virus H1N1, pour lequel ont été observés chez certains patients des épisodes de narcolepsie. Il faut bien noter que la narcolepsie n'est pas une maladie auto-immune, mais dans ces cas, il a néanmoins été montré que les symptômes avaient une origine auto-immune.
En revanche, les suspicions de scléroses en plaques dans le cas du vaccin contre l'hépatite B, pour lesquelles il y a eu des procès, n'ont jamais été avérées.
Il existe également une défiance liée aux adjuvants, concernant particulièrement ceux à base de sels d'aluminium. En France, certains chercheurs ont montré que l'accumulation de sels d'aluminium dans les tissus et, notamment au niveau des macrophages - cellules du système immunitaire - pouvait induire des manifestations neuromusculaires ou neurologiques. Ces travaux n'ont cependant pas été repris par d'autres scientifiques, alors qu'en sciences de la vie, il est considéré qu'un travail doit être répliqué pour être complètement validé.
Pour trancher ce débat, l'institut Cochrane va travailler de façon rétrospective, par le biais de méta-analyses, pour évaluer si des cas pathologiques peuvent être formellement liés à l'accumulation de sels d'aluminium. Pour information, on retrouve des sels d'aluminium dans d'autres produits, plus courants, comme les déodorants. Il ne s'agit là pas d'injection en l'espèce, mais il existe aussi d'autres produits, à l'instar de ceux utilisés dans les immunothérapies à base d'allergènes, qui sont injectés et qui, sur le long terme, constituent une source d'aluminium bien plus importante.
Je voudrais revenir sur la notion de protection : d'une part, la protection individuelle qu'offre la vaccination, d'autre part, la protection collective. Lorsque l'on vaccine quelqu'un, on le protège ; ce faisant, comme on l'aura empêché de contracter la maladie, on protège aussi son entourage. C'est en ce sens que l'on parle de « couverture vaccinale ». Si la couverture vaccinale est suffisante, elle empêche l'agent infectieux de se répandre dans la population, mais ce n'était pas le cas pour plusieurs vaccins, notamment celui contre la rougeole. On calcule qu'il faut une couverture vaccinale de 97 % dans le cas de la rougeole, alors que la couverture vaccinale en 2017 ne s'élevait qu'à 80 %, pour les enfants ayant eu le rappel.
Il ne faut pas oublier que la rougeole est une maladie potentiellement mortelle, et que, régulièrement, des gens en meurent. C'est donc un problème de santé publique, et le fait de rendre le vaccin obligatoire vise à obtenir une couverture vaccinale suffisante.
De même, le fait de différencier entre statut recommandé, d'une part, et obligatoire, d'autre part, laisse penser que certains vaccins sont moins importants que d'autres, comme si les maladies qu'ils entraînent étaient moins graves, ce qui est faux.
Il importe maintenant de réaliser un suivi des mesures prises pour évaluer leurs effets réels.
Depuis un an et demi, les résultats sont positifs : la couverture vaccinale est remontée pour le ROR (rougeole, oreillons, rubéole), pour le vaccin contre l'hépatite B également (+ 8 points).
Ce qui montre bien que le débat et la polémique ont finalement abouti à un résultat favorable. Le fait de partager de l'information sur ce thème a été très important. Il faut aussi remarquer qu'il n'y a pas eu, depuis cette mesure, d'augmentation des effets indésirables.
Il existe toutefois, si je puis dire, des « trous dans la raquette » de la vaccination. La grippe notamment n'est qu'un vaccin annuel, car les tentatives pour produire un vaccin universel qui pourrait protéger contre toutes les souches ont pour l'instant échoué et cela fait toujours l'objet de travaux de recherche. Des vaccins spécifiques sont donc produits, tous les ans, correspondant aux quatre souches présumées circulantes.
Un autre point est le fait que la grippe est une maladie grave à deux âges de la vie : chez les jeunes enfants et chez les personnes âgées. De plus, chez ces dernières - les seules pour lesquelles le vaccin est remboursé en France - l'efficacité en termes de protection vaccinale n'est pas très bonne, alors que ce sont elles qui sont le plus à risque. Se pose donc la question de savoir s'il faut également vacciner les enfants contre la grippe ou vivement recommander leur vaccination, ainsi que le personnel soignant de façon obligatoire. Pour les personnels soignants, l'aspect protection collective est effectivement à prendre en compte de façon primordiale puisqu'ils sont en contact avec des personnes dont la santé est fragile.
Je voudrais insister sur un autre point : le vaccin contre le papillomavirus est peu utilisé, alors que celui-ci est responsable de cancers du col de l'utérus, une pathologie fréquente, qu'on peut certes dépister, mais qui, tout de même, est grave. Le vaccin est maintenant remboursé par la Sécurité sociale, mais seulement pour les filles, alors que le virus est porté également par les garçons, qui peuvent le transmettre. Il faut aussi savoir que les garçons peuvent développer des cancers dus à ces souches de papillomavirus (HPV 18 et HP 16) ; c'est pourquoi nous préconisons la vaccination pour les garçons également, ainsi que son remboursement par la Sécurité sociale.
On note par ailleurs que la recherche n'a toujours pas abouti pour certains vaccins, comme ceux attendus contre le paludisme et contre le VIH.
Je voudrais terminer sur un point qui me paraît très important : la personnalisation de la vaccination. Lors de l'administration d'un peptide vaccinal, ce peptide est reconnu grâce aux cellules présentatrices de l'antigène, portant les récepteurs d'histocompatibilité, qui présentent l'antigène aux lymphocytes. Les récepteurs d'histocompatibilité sont encodés génétiquement (gènes HLA), et diffèrent d'une personne à l'autre. Lors du choix du peptide vaccinal, sa compatibilité avec toute la diversité des récepteurs d'histocompatibilité doit être vérifiée. Il faut aussi veiller à ce que la diversité génétique, notamment des habitants des pays en voie de développement - là où il y a le plus grand nombre d'individus atteints par des maladies infectieuses - soit dûment prise en compte dans l'élaboration des vaccins.
L'universalité des vaccins constitue un premier défi, la durée de la mémoire en est un autre. Je disais tout à l'heure que cette durée était variable d'un individu à l'autre et d'un pathogène à l'autre. Le fait que, après la grippe pandémique dite grippe espagnole en 1918 1920, des personnes soient restées protégées des virus grippaux pendant 80 ans après, tandis que d'autres ne le sont restées qu'une dizaine d'années, en constitue une bonne illustration, et cette différence doit être prise en compte. La baisse de l'immunité est d'ailleurs un des facteurs qui expliquent la résurgence de la rougeole.
M. Cédric Villani, député, premier vice-président de l'Office. - Merci pour ces premières conclusions intéressantes, ce bilan clairement positif un an et demi après une décision controversée. C'est un sujet qu'il conviendra de suivre à long terme.
La question de la politique vaccinale s'inscrit dans un large cadre et comprend les résultats en terme de santé publique mais il y a aussi une dimension qui relève de l'information, de l'image et de la confiance.
Sur ces sujets, on ne peut pas dissocier les questions de la recherche en laboratoire, de la diffusion de la connaissance et enfin de la façon dont on s'adapte au contexte, aux pratiques, aux préoccupations sociales.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - A été mentionnée une meilleure acceptabilité des vaccins, grâce à la politique menée, à l'initiative de la ministre de la Santé. Cette acceptabilité sociale ne provient-elle pas du fait que les médecins, cette fois soutenus par la ministre chargée de la santé, étaient plus à même d'être entendus qu'antérieurement, quand, dans les médias, on donnait plus facilement la parole à ceux qui évoquaient les dangers des vaccins qu'aux autres ?
S'agissant du papillomavirus, j'ai vu se développer la controverse, en tant que membre de la commission des affaires sociales du Sénat pendant longtemps, portée notamment par un sénateur ancien secrétaire d'État à la santé. Dans sa position, être contre était assez étonnant, mais il s'en est suivi un coup d'arrêt complet de la vaccination contre le papillomavirus. Mes filles étaient à peu près à l'âge où l'on procède à cette vaccination, mais quand j'ai voulu les faire vacciner, même mon propre médecin était très prudent, ce qui témoigne de l'importance de la formation et de l'information des praticiens. Il fallait peut-être effectivement passer par cette phase d'extension des obligations vaccinales.
À cet égard, à l'étranger, on exige un certain nombre de rappels de vaccinations à l'entrée à l'université. Qu'en est-il en France ? On sait bien aussi que le développement et la réapparition de certaines maladies sont liés au fait que des personnes viennent de l'étranger sans être vaccinées.
À propos de l'absence de vaccin contre le paludisme, dans le prolongement de notre rapport pour l'Office sur les biotechnologies, j'ai reçu récemment, il y a quelques semaines, les représentants d'un laboratoire qui travaille sur plusieurs pistes de mise au point d'un vaccin sûr contre le paludisme. Il existe aussi d'autres techniques ; qui s'appuient sur le forçage génétique chez le moustique ; pour ma part, j'ai du mal à comprendre qu'on puisse craindre des conséquences sur les moustiques et pas sur les centaines de milliers de morts dues au paludisme.
En dernière remarque, je voudrais savoir si, dans les nombreuses références indiquées en fin de note, vous vous êtes référés au travail effectué pour l'Office sur les adjuvants vaccinaux par Corinne Bouchoux et Jean-Louis Touraine. En l'espèce, Corinne Bouchoux, qui était une élue « écolo », était venue devant notre commission des affaires sociales présenter ce rapport issu des auditions contradictoires organisées par l'Office sur le sujet. Je crois me souvenir qu'elle a été contestée au sein de la commission, y compris par les membres de son groupe politique, en raison de son approche trop anti-vaccination. Les choses semblent avoir un peu évolué, mais je crains que les progrès restent fragiles : il suffirait qu'une personne décède ou présente une maladie grave suite à une vaccination, et que cela fasse l'objet de beaucoup de publicité, pour anéantir tous les efforts faits. J'espère, je suis certaine même, que votre note scientifique présentée à trois parlementaires, contribuera à appuyer la politique vaccinale nécessaire. C'est, du moins en France, un travail permanent...
M. Jean-François Eliaou, député. - En réponse à plusieurs questions, je relèverai en premier lieu, sous forme de boutade, que le fait d'être secrétaire d'État à la santé ne suffit pas à donner toutes les compétences dans le domaine sanitaire.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - En l'occurrence, il était médecin aussi.
M. Jean-François Eliaou, député. - Ce n'était en tout cas pas une raison pour s'opposer à la vaccination dans ce cas de figure. Quoi qu'il en soit, l'acceptabilité de la vaccination repose sur plusieurs points, dont l'obligation, qui constitue un peu le dernier recours. La ministre a eu le courage de le faire. Il faut avoir conscience qu'il s'agit d'un sujet de santé publique et d'épidémiologie : si le résultat obtenu depuis peu est fragile et peut être remis en cause par un seul cas de maladie développée à la suite d'une vaccination, à comparer à la protection de millions de personnes, il faut garder à l'esprit qu'il faut procéder par une approche statistique en termes de couverture vaccinale. Je ne dis pas qu'il faille accepter de sacrifier un individu pour l'ensemble des autres, mais l'approche doit être épidémiologique et s'inscrire dans une perspective de santé publique, même si ce serait extrêmement malheureux pour un individu donné de développer le cas échéant une maladie liée à une vaccination, - si tant est que cela soit effectivement le cas.
Ce débat est analogue à celui autour du déremboursement de l'homéopathie : il ne s'agit pas d'interdire l'homéopathie, mais à terme de ne plus la rembourser. Il y a eu un débat considérable : effectivement, l'homéopathie est considérée comme un traitement individuel, mais comme il s'agit de médicaments, il faut des tests de validation, fondés sur des études épidémiologiques sur de grands nombres de cas, permettant d'estimer l'efficacité thérapeutique sur une cohorte d'individus. Certains disent que ce type d'étude n'est pas adapté au cas de l'homéopathie, mais il demeure qu'il s'agit de médicaments qui, s'ils sont remboursés par la Sécurité sociale, doivent avoir prouvé leur efficacité.
Autre point essentiel, l'information : il n'y a rien de pire que de cacher la réalité au public, la transparence s'impose, notamment avec la publication à intervalles réguliers des résultats, en termes d'efficacité, de la politique vaccinale en France. Je vise les résultats concernant le niveau de protection de la population, donc le nombre d'individus protégés, mais aussi la diminution du nombre d'individus qui, vaccinés ou pas vaccinés, développent la maladie. Je pense en particulier à la rougeole et aux cas de personnes qui sont malades bien qu'elles aient été vaccinées. De manière générale, la recherche en vaccinologie est importante.
Enfin, s'agissant du vaccin contre le paludisme, cela fait des années que l'on nous dit qu'il est presque prêt...
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Il faudra voir aussi à quel prix le futur vaccin sera vendu et comment il sera diffusé dans les pays qui en ont le plus besoin.
M. Cédric Villani, député, premier vice-président de l'Office. - La question de l'accessibilité aux médicaments est essentielle, surtout dans un contexte dans lequel les faux médicaments sont légion.
Mme Huguette Tiegna, députée. - Merci pour cette note sur la politique vaccinale en France. On a remarqué, ces dernières années, que des maladies qui avaient disparu, en tout cas en France, réapparaissaient. Il faut prendre en considération le déplacement des populations, le réchauffement climatique, et tout ce qui accompagne ces phénomènes, plus généralement les personnes qui arrivent en France de l'étranger. Nous avons eu une discussion sur ce thème pendant le débat sur le projet de loi sur l'asile, avec l'idée qu'il faut que cette population soit couverte par la vaccination, parce que vacciner tout le monde ne sert pas qu'à protéger l'individu, mais aussi à prévenir des épidémies que nous ne souhaitons pas voir se développer. Aujourd'hui, pouvez-vous nous dire si la politique vaccinale de la France intègre ces aspects, ou bien nous cantonnons-nous à l'argument politique consistant à traiter d'abord les Français ?
M. Jean-François Eliaou, député. - Je répondrai en deux temps.
Première réponse : l'aide médicale d'État ; il y a eu des débats autour de ce sujet à l'Assemblée nationale, pendant la discussion du projet de loi pour une immigration maîtrisée et un droit d'asile effectif. Il y en aura vraisemblablement de nouveau au moment de la discussion du projet de loi de finances pour 2020 à l'automne.
Lorsqu'une personne a attrapé une maladie sur le territoire français ou y arrive déjà malade, la maladie ne connaît pas, ni identité, ni nationalité, ni couleur de peau, ni religion et se propage de façon tout à fait égalitaire et universelle. L'AME en l'occurrence me semble absolument indispensable, et c'est une vision à très court terme, ségrégationniste et débile, j'insiste sur ce dernier terme, que de dire qu'il faut soigner les Français et se désintéresser des autres : si on ne soigne pas les autres, ils peuvent contaminer les Français et donc ce serait complètement paradoxal.
Par ailleurs, nous avons une tradition universaliste à la Henri Dunant : je pense que lorsqu'un pays a les moyens, comme la France, il doit soigner tout le monde, même ses ennemis, en suivant ainsi un principe qui fait partie du serment que j'ai prêté et auquel je suis très attaché.
Est-ce qu'il y a une politique vaccinale systématique pour les personnes qui entrent, même de façon clandestine, dans notre pays ? Je ne sais pas, il faut que nous interrogions le Gouvernement à ce sujet, mais je souligne que les maladies dont souffrent les migrants peuvent aussi avoir été attrapées en France. La vaccination est absolument indispensable, y compris pour les personnes qui arrivent sur notre territoire, clandestinement ou pas. Vis-à-vis de la politique d'immigration et d'asile en France, il faut vacciner tout le monde.
Lorsque l'on revient aux conditions de promiscuité du XIXe siècle, voire même avant, le manque d'hygiène conduit au retour de la tuberculose par exemple, qui avait totalement disparu. Il faut tenir compte également de l'immuno-dépression, liée à la malnutrition, etc. Il faut prévoir une politique de santé pour l'immigration et, le cas échéant, réfléchir à un amendement pour le PLFSS 2020.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Est-ce qu'on envisage par exemple que quelqu'un qui bénéficie de l'AME soit automatiquement vacciné pour les vaccins obligatoires, quel que soit son âge ?
M. Cédric Villani, député, premier vice-président de l'Office. - Chers collègues, j'en viens aux recommandations qui concluent cette note.
En premier lieu, il pourrait y avoir l'instauration d'un examen annuel de la stratégie vaccinale, pour mieux prendre en compte l'avancée des connaissances, tant dans la propagation des maladies infectieuses que dans l'optimisation de la stratégie vaccinale. Aussi bien pour ce qui est de l'avancée des connaissances que pour l'optimisation de la stratégie vaccinale, on a vu, après une année de mise en oeuvre, de premières évolutions sensibles, que nous devons continuer à surveiller.
Le cas échéant, il faudrait envisager d'étendre les recommandations (avec remboursement) ou obligations, notamment pour les vaccins contre la grippe et contre la rougeole pour le corps médical.
Il faut bien sûr poursuivre les efforts de transparence et de pharmacovigilance, notamment avec la recherche d'une meilleure déclaration des effets indésirables, dont on pense que 80 à 95 % ne seraient pas déclarés.
Enfin, il convient de mieux suivre les vaccinations, notamment dans les écoles et les crèches, à quoi contribuerait la mise en place d'un carnet de vaccination dématérialisé.
Autant de sujets, de questions qui viennent dans le sillage de notre note.
J'ajouterais qu'a été exprimé le souhait d'organiser une audition publique, cet automne, sur le thème de l'hésitation vaccinale, notamment avec des sociologues, des psychologues, pour examiner les mécanismes qui conduisent à douter des vaccins, les stratégies de messages pro-vaccinaux à envisager par différents canaux, l'examen de ce qui a été réalisé par des réseaux sociaux pour limiter les fake-news antivaccinales par exemple.
La communication de Facebook sur la limitation de propagation de telles fake news nous conduit à nous demander comment se met en place cette nouvelle politique des réseaux sociaux. Il faudrait également inviter de bons vulgarisateurs scientifiques. Au-delà des recommandations de bon sens que je viens de présenter, cela nous permettrait de parachever le travail entamé avec cette note scientifique et d'apporter une réelle réévaluation par l'Office du virage de la politique vaccinale négocié à l'automne dernier.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Pour information, je signale un récent article mentionnant une campagne de vaccination contre le paludisme chez les enfants de moins de 5 ans au Malawi. Si l'on fait une campagne centrée sur les enfants, c'est sans doute que l'on pourrait se rapprocher du but.
Je voudrais ajouter que je souhaiterais que nous puissions travailler sur la thématique de la phagothérapie, qui fait l'objet de nombreux articles. Ce sujet n'est pas lié à la vaccination, mais plutôt à celui de la résistance aux antibiotiques et donc de leur avenir.
M. Cédric Villani, député, premier vice-président de l'Office. - Nous pourrions organiser une audition publique sur ce thème, ou préparer une note scientifique, ou envisager une séquence combinant les deux. La question peut toutefois se poser de l'élargissement du sujet à l'antibiorésistance.
M. Jean-François Eliaou, député. - La phagothérapie consiste à utiliser des virus bactériophages pour tuer des bactéries responsables de maladies. Quid toutefois de l'innocuité du virus introduit dans le corps du patient ? Ce serait intéressant en tout cas de publier une note sur le sujet.
M. Cédric Villani, député, premier vice-président de l'Office. - Mes chers collègues, il convient maintenant de statuer sur la publication du projet de note n° 17 ?
La publication de la note scientifique n° 17 sur la politique vaccinale en France est autorisée.
M. Cédric Villani, député, premier vice-président de l'Office. - Avec le feu d'artifice final que représentent ces cinq notes scientifiques numérotées de 14 à 18, se concluent nos travaux au titre de cette session parlementaire.
À la rentrée, s'ouvriront de nouvelles perspectives, avec notamment la phagothérapie, la résistance aux antibiotiques, notre projet de colloque parlementaire sur le conseil scientifique au politique et un certain nombre d'autres sujets.
Notre prochaine réunion aura en principe lieu le 26 septembre avec un bilan de la mise en place du plan Intelligence artificielle par le Gouvernement, qui nous sera présenté par Bertrand Pailhès, coordinateur interministériel sur l'intelligence artificielle.
Je profite de l'occasion pour remercier tous les collègues qui ont dépensé de l'énergie et du temps pour nos travaux, toute l'équipe du secrétariat de l'Office qui n'a pas ménagé ses efforts. Je ferai une mention spéciale pour nos nouveaux conseillers scientifiques, qui ont travaillé sur les notes scientifiques de ce matin, et dont le soutien est très vite apparu très précieux, de même que l'apport de nos valeureux stagiaires.
Je signale également que notre remarquable audition contradictoire d'hier soir sur le réacteur de Flamanville n'est pas passée inaperçue, les médias l'ayant mise en valeur dès tôt ce matin.
Mme Catherine Procaccia, sénateur, vice-présidente de l'Office. - Peut-on rappeler quelles sont les études en cours ?
M. Cédric Villani, député, premier vice-président de l'Office. - Nous avons quatre études en cours :
- une saisine par la commission de la culture, de l'éducation et de la communication du Sénat sur l'intégrité et les publications scientifiques,
- une saisine par la commission des affaires économiques du Sénat sur la valorisation énergétique des terres agricoles,
- une saisine par la commission de l'aménagement du territoire et du développement durable du Sénat sur la pollution plastique,
- et une étude, prévue par la loi, pour évaluer le plan national de gestion des matières et déchets radioactifs (PNGMDR) 2019-2021.
Par ailleurs, Huguette Tiegna travaille sur une note scientifique sur les enjeux sanitaires du cannabis, Michel Amiel prépare une note scientifique sur les neurosciences et la responsabilité pénale des mineurs, et Jean-Luc Fugit une note sur les satellites et leurs applications. Nous pouvons envisager d'autres notes scientifiques également.
En conclusion, je vous souhaite de bonnes vacances à toutes et tous et vous donne rendez-vous à la rentrée.
La réunion est close à 12 h 25.