Mardi 28 mai 2019
- Présidence de M. Franck Montaugé, président -
La réunion est ouverte à 15 heures.
Audition de M. Thierry Breton
M. Franck Montaugé, président. - Notre commission d'enquête poursuit ses travaux avec l'audition de M. Thierry Breton. Cette audition est diffusée en direct sur le site internet du Sénat. Elle fera également l'objet d'un compte rendu publié. Enfin, je rappelle, pour la forme, qu'un faux témoignage devant notre commission d'enquête serait passible des peines prévues aux articles 434-13, 434-14 et 434-15 du code pénal. Monsieur Breton, je vous invite donc à prêter serment de dire toute la vérité, rien que la vérité, levez la main droite et dites : « Je le jure. ».
Conformément à la procédure applicable aux commissions d'enquête, M. Thierry Breton prête serment.
C'est à un double titre que nous vous recevons aujourd'hui. Vous êtes d'abord un chef d'entreprises. Après avoir dirigé Thomson ou France Télécoms, vous êtes actuellement président-directeur général d'ATOS, l'un des fleurons français des services informatiques. La société que vous dirigez a intégré le CAC 40 en 2017 et sa capitalisation boursière atteint aujourd'hui plus de 7 milliards d'euros.
Mais vous êtes également ancien ministre de l'Économie, des Finances et de l'Industrie. C'est donc également l'homme d'État que nous interrogeons aujourd'hui, car l'objectif de notre commission d'enquête n'est pas seulement de dresser des constats : il est aussi de trouver les voies du renouveau de l'action publique en la matière.
Anticipant la loi « PACTE », vous avez proposé à vos actionnaires une nouvelle « raison d'être » pour ATOS, à savoir contribuer à façonner ce que vous appelez l'espace informationnel. Vous considérez que cet espace, dans lequel les données circulent, sont stockées et sont traitées, vient s'ajouter aux espaces territoriaux, maritimes et aériens. Estimez-vous que la France - ou l'Europe ? - ait les capacités de reconquérir ce nouvel espace, de redevenir pleinement souveraine, alors que la quasi-totalité de la chaîne du numérique, de la technique aux services en ligne, est dépendante des entreprises américaines, et peut-être chinoises demain ? Vous estimez que sans supercalculateurs européens, sans microprocesseurs spécifiques, indispensables à la puissance de calcul considérable que nécessite l'intelligence artificielle, tous les discours légitimes sur notre souveraineté numérique resteront vains. Pouvez-vous étayer ce propos et nous dire quelles sont, selon vous, les briques technologiques nécessaires à la souveraineté numérique de notre pays ?
Enfin, le ministre de l'Économie a annoncé une nouvelle démarche en vue de créer un cloud « souverain », à laquelle il a annoncé qu'Atos participerait. Nous savons que les précédentes tentatives en ce sens se sont soldées par un échec, et que les contours de la notion de cloud « souverain » ne sont la plupart du temps, pas clairement définis par ceux qui l'utilisent. Que pensez-vous de cette initiative et comment l'entreprise que vous dirigez pourrait y participer ? Le cloud n'est-il pas déjà en voie d'être dépassé par les objets connectés et le edge computing ?
M. Thierry Breton. - Merci Monsieur le Président. Je suis très heureux de me retrouver au Sénat pour aborder cette question de la souveraineté numérique.
Vous me demandez si la France dispose des moyens de reconquérir ou plutôt de trouver sa place dans l'espace informationnel, en cours de constitution. Il est un des espaces de structuration de l'activité humaine. Il y a eu d'abord l'espace territorial où, pendant des millénaires, on a créé des valeurs et vécu. Puis a émergé l'espace maritime, qu'il a fallu conquérir et organiser et qui a nécessité la mise en oeuvre de règles communes contre la piraterie. Ensuite est venu l'espace aérien qu'il a fallu, à son tour, conquérir et organiser. La structuration de chacun de ces espaces a généré des richesses et a impliqué des contreparties d'ordre fiscal. Il y a désormais un quatrième espace, l'espace informationnel. L'activité humaine s'organise désormais dans ces quatre espaces interconnectés aux règles de fonctionnement distinctes.
Plutôt que de le reconquérir, il s'agit de bien appréhender et d'organiser cet espace informationnel qui s'est constitué depuis ces vingt-cinq dernières années. Les pouvoirs publics et les représentants des territoires doivent jouer un rôle dans cette organisation dont l'aboutissement réclamera au moins un siècle. En effet, cet espace, plus dense et complexe de jour en jour, est porteur de dérives, faute d'être organisé et totalement régulé. On y voit ainsi des fortunes s'y créer de manière très rapide, des injustices s'y commettre et des crimes s'y perpétrer. L'organisation de cet espace est d'ailleurs un sujet dont votre commission s'est emparé légitimement.
La France, comme beaucoup d'autres pays, dispose des moyens de s'approprier cet espace. Une telle démarche relève de sa responsabilité. C'est un élément de la souveraineté : il y a une souveraineté sur l'espace informationnel comme il y a une souveraineté sur les espaces territorial, maritime et aérien. Avant de préciser les moyens de l'organisation de cet espace, il faut, au préalable, le définir en tant que tel. Cet espace informationnel est constitué par les informations que nous traitons et générons. Il a donc une réalité. En 2018, l'espace informationnel de la planète représentait 33 Zettabytes - soit trente-trois mille milliards de milliards d'informations - et devrait atteindre cette année 40 Zettabytes, soit l'équivalent du nombre de grains de sables sur la planète ou encore de soleils dans les 200 000 milliards de galaxies aujourd'hui observables. La progression de cet espace obéit également à la Loi de Moore, selon laquelle les capacités des microprocesseurs sont multipliées par deux tous les dix-huit mois, tandis que les coûts en sont divisés par deux. Ainsi, tous les dix-huit mois le nombre d'informations, créées par l'humanité depuis la nuit des temps jusqu'à nos jours, double, soit, chaque année, une augmentation de 60 % des informations que l'activité humaine crée.
Ces informations sont créées autant par les individus dans leurs activités quotidiennes que les entreprises, en relation avec leurs clients ou dans leurs activités industrielles. ATOS, troisième acteur mondial et leader européen en cybersécurité, protège les données de ses clients, les traite, les stocke, processe ces informations ; en d'autres termes organise leur patrimoine informationnel, afin de prévenir les pannes et les agressions. Ces informations sont actuellement gérées soit dans des data centers ou centres de données mais aussi dans des clouds, - véritables « fermes de données » permettant de mutualiser des équipements afin de baisser les coûts production et de stockage -, qui sont localisés. ATOS est d'ailleurs le premier opérateur européen de clouds.
Un autre chiffre me semble intéressant pour vos travaux : aujourd'hui, 80 % des données générées sont stockées à travers le cloud - qu'il soit public, hydride, c'est-à-dire privé et public, ou encore privé, c'est-à-dire mis en oeuvre par des entreprises exclusivement pour leurs propres opérations multi-sites et de façon fermée - et les centres de données ; les 20 % restant le sont aujourd'hui à l'extérieur, c'est-à-dire par des objets connectés, comme les véhicules équipés de capteurs ou les objets domestiques, comme des smartphones. Ces équipements génèrent ainsi des informations avec des capteurs, les traitent localement, et éventuellement les remontent pour faire de la maintenance prédictive. En d'autres termes, ces équipements traitent ces données au plus près du lieu de leur production.
Ces proportions, d'ici 2025, devraient être inversées du fait de l'Internet of Things (IoT) et de l'edge computing, qui correspond à la nécessité d'amener de la puissance de calcul là où sont créées ces données, de façon à pouvoir interagir localement avec des algorithmes d'intelligence artificielle de plus en plus performants et entraînés au préalable grâce aux gigantesques réservoirs de données des clouds et des centres de données. Ces nouveaux algorithmes, créés à partir de machines apprenantes (machine learning) grâce aux données connectées provenant des centres de données, seront répartis partout, au plus près de la production de ces données, avec 75 milliards d'objets connectés d'ici 2023, soit 10 par habitant de la planète, contre 23 milliards aujourd'hui. Cette accélération sur temps court souligne la pertinence de vos interrogations sur les questions de souveraineté.
Pour les spécialistes, comme ATOS, du traitement et de la valorisation des données, il est possible de créer des algorithmes d'intelligence artificielle ou d'utiliser ceux qui ont été développés par d'autres sociétés. Ainsi, Google a développé Tensorflow qui est le langage de base de l'intelligence artificielle. Au terme de trois années de négociation, ATOS vient d'ailleurs de passer un accord avec Google qui lui permet d'utiliser, de manière séparée, ses algorithmes dans ses propres centres de données, à la demande de ses clients. Ce procédé permet ainsi d'utiliser ces algorithmes tout en évitant le vol de données et en protégeant la cybersécurité de nos clients. Il nous faut ainsi être ouverts sans être naïfs, afin de répondre aux attentes de nos clients.
Si la sécurité des données est essentielle aux entreprises, elle l'est également pour l'État. Comme ministre en charge de l'Economie, des Finances et de l'Industrie, je m'étais déjà préoccupé de l'économie immatérielle. J'avais, en ce sens, créé l'Agence pour la protection du patrimoine immatériel de l'État, qui existe encore. En effet, les données du patrimoine immatériel sont multiples et doivent être protégées. Sans doute pourriez-vous attirer l'attention du ministère de l'Economie et des Finances sur l'importance des activités de cette agence.
L'État doit ainsi s'interroger sur les données qui relèvent exclusivement de sa souveraineté et distinguer celles qui doivent être partagées pour créer de la valeur notamment. En effet, dans cet espace informationnel, certaines données ne peuvent absolument pas être partagées, tandis que d'autres peuvent être échangées. Contrairement à l'Europe, les États-Unis et la Chine possèdent des réservoirs homogènes de données considérables qui ont permis l'émergence des GAFA. C'est grâce à l'exploitation de ces données, à l'aide de technologies relativement simples, que des géants du numérique ont pu émerger dans ces pays-continents.
La difficulté provient du fait que ces données sont souvent utilisées sans le consentement de leurs utilisateurs. Ce qui pose la question de savoir comment définir la propriété des informations - comment établir un cadastre - au sein de ce nouvel espace informationnel. La spécificité européenne, comme l'illustre le règlement général sur la protection des données personnelles (RGPD), consiste à promouvoir la protection de l'individu. S'il s'agit d'un début de cadastre, encore faudrait-il l'appliquer uniformément au sein des différents pays européens afin d'éviter la création de barrières ! Par ailleurs, la mise en oeuvre de cette réglementation, dont j'ai soutenu l'adoption, est quelque peu détournée par les utilisateurs qui acceptent d'accéder aux services, sans prendre le temps de lire les conditions générales d'utilisation. On se donne certes bonne conscience, mais au final, nos données partent n'importe où et ce, avec notre consentement ! Il faut ainsi réexaminer les dispositifs en vigueur, l'harmonisation européenne ne me paraissant pas, pour l'heure, tangible.
Parallèlement, conformément à l'idée du Free Flow of Data promue par la Commission européenne, certaines données, notamment les données industrielles qui ne sont pas stratégiques, doivent pouvoir circuler, de manière à créer - comme aux États-Unis et en Chine - des réservoirs de données et nourrir des algorithmes qui fourniront les applications de l'intelligence artificielle de demain. Ces algorithmes seront ainsi définis avec les spécificités propres à l'Europe, ce qui nous dispenserait d'utiliser des algorithmes disponibles sur étagère développés par d'autres acteurs et qui pourraient s'avérer porteurs de risques (virus, portes dérobées...).
Que faire pour développer et maintenir cette souveraineté ? En Europe, nous avons la chance d'avoir ATOS, qui est l'un des grands fabricants mondiaux de supercalculateurs qui se répartissent désormais entre la France, la Chine et les États-Unis. Aux États-Unis, Cray a récemment été rachetée par HP. ATOS aurait souhaité pouvoir procéder à cette acquisition mais la « main invisible » en a décidé autrement, comme auparavant sur SGI.
M. Gérard Longuet, rapporteur. - Le Gouvernement des États-Unis, en particulier le Department of Defense (DoD) ?
M. Thierry Breton. - J'ai prêté serment, je n'ai pas d'informations sur cet aspect de la transaction, je ne peux donc pas répondre à cette interrogation. Toujours est-il qu'HP est l'un des grands constructeurs. IBM est également présent sur le marché des processeurs ou Power PCs, mais ceux-ci sont loin de constituer le standard technologique aujourd'hui. ATOS - qui est l'équivalent européen d'HP - fournit, de son côté, les principales administrations européennes et nationales, dans le domaine de la défense, du renseignement, ainsi que des centres de recherches et des centres académiques. Notre société vient également d'être choisie par le Gouvernement indien. L'Europe est donc dotée de capacités importantes en la matière, et nous les maintenons.
Mais nos concurrents chinois et américains reçoivent des subventions conséquentes pour développer leurs supercalculateurs. Nous ne jouons pas du tout à armes égales avec eux ! Il faut travailler en partenariat avec les pouvoirs publics. Il serait temps que nos ingénieurs de l'armement, qui passent beaucoup de temps avec nos concurrents, regardent ce que nous faisons ! Encore faudrait-il spécialiser nos ingénieurs, notamment issus de l'École polytechnique, dans ce domaine très important, dont le groupe ATOS est un acteur incontournable. En outre, nous fournissons au Commissariat à l'Énergie atomique (CEA) et aux ingénieurs militaires les supercalculateurs nécessaires à la modélisation de l'usage des armes nucléaires. Enfin, le Japon est également présent, avec l'entreprise Fujitsu, sur ce créneau, mais essentiellement dans son marché domestique.
La semaine dernière, nous venons de lancer les applications du edge computing, que l'on pourrait traduire par les capacités de calcul à la frontière, en périphérie. C'est l'enjeu d'apporter la puissance de calcul pour le traitement des données là où elles sont produites. On en crée tellement que les bandes passantes seront dans l'incapacité de les remonter ! C'est la raison pour laquelle on parle désormais de « fog computing ». Or, il est désormais nécessaire d'interagir en temps réel. Prenons l'exemple d'une voiture connectée qui représente 30 pétaoctets de données par jour, pour qu'elle puisse se mouvoir et interagir en temps réel. La connexion au cloud impliquant un temps de réaction trop lent ; la célérité de la réaction requiert une intervention locale. Le Sequana Edge est notre première réponse à cet enjeu. Il s'agit d'une boîte de 60 cm sur 30 cm pour 8 kilos qui contient jusqu'à 200 pétaflop - soit la capacité de notre plus gros calculateur il y a dix ans -, pour un coût de dix mille euros. Il a vocation à être installé dans une usine - pour connecter et faire interagir des milliers de capteurs - ou même dans un véhicule- même si ce supercalculateur devrait consommer autant d'énergie que le véhicule pour se mouvoir ! On peut encore délocaliser ce type de supercalculateur dans un supermarché pour effectuer du paiement automatique ou dans un grand chef-lieu régional pour assurer la vidéo-surveillance en temps réel. Cela implique évidemment, en aval, le développement d'algorithmes et de programmes pour ces usages, comme la reconnaissance faciale. Ce type de solution a donc vocation à assurer le traitement des informations recueillies au niveau local, car il n'est pas nécessaire de les faire remonter dans un cloud.
Pour certaines applications de souveraineté, qui concernent la sécurité des personnes, le suivi ou encore les activités régaliennes de l'État, les infrastructures doivent demeurer critiques. Veillons à ce que des lois d'extraterritorialité ne puissent faire jurisprudence, dans cet espace informationnel, à l'instar du Patriot Act, selon lequel le juge fédéral américain peut se saisir de toute information à partir de son traitement par un acteur de nationalité américaine, ou de la législation chinoise selon laquelle, depuis 2017, les entreprises nationales ont l'obligation de coopérer avec les services de renseignements de Pékin, pour des motifs d'intérêt national. Nous ne pouvons donc être naïfs face aux impératifs de notre souveraineté. Outre les pouvoirs publics, les entreprises sont de plus en plus conscientes que ces données font partie de leur patrimoine informationnel.
Nos solutions seront compatibles avec la 5G, technologie très particulière qui permet, contrairement à la 4G, de travailler à très hautes fréquences, soit entre 2,5 et 3 gigahertz, se traduisant par une pénétration des ondes de 500 à 600 mètres, voire d'un kilomètre. Les ondes de la 5G sont également nanométriques, ce qui entrave leur pénétration des murs, sinon des fenêtres. L'usage de la 5G intervient ainsi au terme de celui de la fibre, lorsqu'il s'agit de désenclaver des déserts numériques. Cependant, si cette technologie ne permet guère de suivre des objets en mouvement, son implantation en zone très dense ou dans une usine assure la connexion directe d'un nombre conséquent de capteurs. Son usage devrait ainsi être plus industriel que celui de la 4G. On déploie déjà des usines virtuelles avec des avatars de machines, par exemple pour anticiper leur usure, sans la 5G. D'ailleurs, son modèle économique n'est pas encore stabilisé à l'heure où le prix de réserve des licences mises aux enchères n'est pas encore connu. La 5G servira, selon moi, avant tout à accompagner les objets connectés.
Pour pouvoir réaliser de telles machines, encore faut-il disposer des processeurs idoines ! C'est l'un des combats que nous menons au niveau européen. Avec le président de SAP, M. Jim Hagemann Snabe, devenu depuis lors président de Siemens, nous avons promu auprès de la Commission européenne la souveraineté européenne sur les données, c'est-à-dire la création d'un espace homogène de données en Europe, où les données des Européens puissent être stockées, traitées, processées sur le territoire européen et selon nos règles. Prenons garde à ce que les entreprises travaillant sur le sol européen appliquent nos propres règles ! C'est là un message de bon sens et un combat que l'on continue à mener. Cette dimension dépasse le simple cadre national qui intéresse votre commission.
S'agissant des processeurs, aujourd'hui, ceux-ci sont essentiellement américains, taïwanais et sud-coréens. L'industrie européenne, avec STmicroelectronics, existe, mais nous sommes très loin de réaliser les processeurs spécifiques aux supercalculateurs. La Commission a fini par débloquer 250 millions d'euros dans le cadre d'un programme de développement d'un processeur purement européen, dont ATOS est le chef de file. Bien qu'insuffisant, c'est un début. Pour être efficaces et pour faire face à la concurrence internationale, ces financements doivent être plutôt concentrés sur un petit nombre d'acteurs.
La prochaine génération de microprocesseurs devrait toucher aux limites de la matière, en atteignant 7 nanomètres, et démontrer les limites de la Loi de Moore. Dès lors, nous pourrions entrer dans l'ère du quantique, qui aurait de réelles incidences sur la sécurité des systèmes, en particulier sur le chiffrement de l'algorithme RSA fondé sur la quantification en nombres premiers qui ne résistera pas à la puissance de calcul de ces nouveaux dispositifs.
Enfin, s'agissant de la cybersécurité, nous allons passer, dans les cinq ans qui viennent, d'un paradigme de protection relativement localisé, impliquant quotidiennement des hackers et des gangs parfois soutenus par des États, à une dimension globale, qui va complexifier le travail de nos agences spécialisées et de nos personnels réunis en cyber-brigades, dont je veux ici saluer le travail remarquable et les très grandes compétences. Il nous faut disposer de ressources pour protéger notre patrimoine et savoir être offensifs, comme dans les trois autres espaces. Le problème devient désormais global, c'est-à-dire totalement holistique et planétaire.
M. Gérard Longuet, rapporteur. - C'est une réelle joie, à la fois intellectuelle et personnelle, que d'accueillir M. Thierry Breton dans cette salle qui lui est familière depuis sa collaboration avec M. René Monory et sa contribution à la création du Futuroscope de Poitiers.
M. Thierry Breton. - Alors ministre de l'Industrie, vous m'aviez également conseillé de rejoindre, après le Futuroscope, le Groupe Bull comme directeur de sa stratégie. L'histoire a voulu que plusieurs décennies plus tard, j'ai été très heureux de faire racheter Bull par ATOS.
M. Gérard Longuet, rapporteur. - J'en viens à la Loi de Moore. Celle-ci a-t-elle un avenir ? Le quantique, qui permet un travail de masse avec des puissances inouïes de calcul et d'analyse, fournit-il une relève vraisemblable ? Dans le cloud, comme dans le stockage des données, existe-t-il une fongibilité des stockages de l'un à l'autre ? Le stockage est-il éternel ? En outre, qu'est-ce qu'une donnée et quel est le temps, au final, de son déploiement ? Tout le cinéma-fiction nous montre des comptes bancaires gigantesques pillés instantanément et on imagine également le détournement de données scientifiques au bénéfice d'un État par des intervenants malfaisants. Nous allons passer d'une logique de fermes de données très largement localisées à un système très largement décentralisé et épars.
M. Thierry Breton. - Ce système sera mixte, les deux coexisteront !
M. Gérard Longuet, rapporteur. - Comment l'Autorité de l'État peut-elle appréhender cette réalité ?
Enfin, troisième sujet plus général : votre entreprise sait gagner de l'argent. Nous avons beaucoup travaillé sur les plateformes et les systèmes d'information. En fait, cette économie du net nous surprend, du fait de son apparente gratuité. Celle-ci pourrait d'ailleurs être qualifiée de sournoise, puisque toutes les opérations créant de la valeur ajoutée sont fallacieusement éprouvées comme gratuites. Un internet payant, reposant sur la tarification du service et à la prestation, à l'instar du Minitel, ne permettrait-il pas une indépendance mutuelle du prestataire et du consommateur ? Compte tenu de l'importance des investissements, peut-on concevoir comme durable une économie reposant sur la croyance que l'on va pouvoir vendre tout à n'importe qui, puisqu'on saura l'essentiel de chacun dans le monde entier ?
M. Thierry Breton. - Votre dernière question fait clairement référence à la théorie du marché biface qui a valu le Prix Nobel à M. Jean Tirole. Cette logique repose sur la monétisation implicite des utilisateurs des plateformes dont le service peut être gratuit, tandis que l'exploitation de leurs données en fournit la face payante. Si ce n'est pas la seule, économie envisageable, force est de constater que c'est l'un des aspects du Net qui fonctionne. Mais il y a de nombreuses dérives comme les fake news, ou encore la parcellisation et l'individualisation de l'espace informationnel - chaque individu peut ainsi recevoir tout autant qu'émettre, ce qui le place au centre de son propre espace informationnel, mais c'est un territoire mouvant au gré des « likes » émis temporairement par d'autres internautes. C'est une réalité aujourd'hui et il nous sera difficile de revenir en arrière.
En revanche, il importe de l'organiser davantage. Dans ce marché biface, un apprentissage devra se faire jour, de manière spontanée ou plus contrainte et régulée. Certaines données personnelles doivent être sanctuarisées et ne pas pouvoir être partagées, telles que les données de santé, tandis que d'autres, moyennant une contrepartie éventuellement financière, impliqueraient l'accord des personnes concernées. La prise de conscience que ces données peuvent avoir une valeur est l'un des combats à conduire pour les années qui viennent. À partir de cette prise de conscience, le marché biface devrait être mieux organisé. Votre question présuppose d'ailleurs qu'il y a une forme de tromperie, avec d'un côté le vol de nos données et, de l'autre l'amas de fortunes considérables constitué « sur le dos » des personnes connectées. Il convient de mieux organiser ce marché grâce à cette segmentation entre les données les plus intimes qui ne seront monétisées à aucun prix et d'autres qui le seront selon une gradation à définir.
Votre seconde question concernait les localisations des données et leur matérialisation. Cette interrogation, qui évoque en définitive le rapprochement des espaces territorial et informationnel, s'avère complexe. Elle recoupe d'ailleurs les préoccupations de nos clients quant à la migration des données - qui peuvent être définies comme des paquets d'états mis sur des supports sous la forme de 1 et de 0 (les fameux « bits ») et indexés sous forme de métadonnées - au sein du cloud. Est-il possible de retrouver ces données une fois disséminées dans le cloud ? Cette question, dite de la réversibilité, s'avère difficile - car les données se déplacent dans le cloud - et concerne d'ailleurs en premier chef les clouds « souverains » : on doit être capable de pouvoir, à tout instant ou dès le moment où les données représentent une valeur, les restituer intégralement aux clients qui le demandent. D'ailleurs, dans certains clouds publics, les données migrent en fonction des conditions de remplissage. Il faut ainsi veiller à optimiser constamment le stockage de ces données au sein des centres de données et des clouds, qui sont, du reste, plus polluants encore que le transport aérien dans son ensemble ! Notre prestation vise à permettre à tous nos clients de récupérer l'intégralité de leurs données, sans aucune trace s'ils le souhaitent. Ce point est très important car, dans l'espace informationnel, contrairement aux autres espaces, la trace est, en principe, ineffaçable.
Je suis à présent très heureux, en réponse au rapporteur, d'évoquer la révolution quantique qui vient de débuter et concerne les prochaines générations de processeurs. Vous avez aimé la révolution informationnelle ; vous allez adorer la révolution quantique ! On commence à atteindre les limites de la Loi de Moore établie en 1965 de manière empirique. En effet, on double aujourd'hui la capacité de stockage du silicium tous les dix-huit mois. Les lois physiques retrouvant les lois économiques, le doublement du stockage impliquant la division par deux de son coût. Désormais, les capacités de calcul d'un smartphone sont plus importantes que celles du superordinateur des années 80, le Cray ! Si la Loi de Moore semble s'être constamment vérifiée, les niveaux de gravure atteignent désormais 10 nanomètres et devraient, dans quelques années, n'être que de 5 nanomètres, soit quelques atomes. Pour pouvoir créer ces puces, il faut être en mesure de les graver avec un laser. Nous sommes donc à la limite de la matière macroscopique pour traiter, tel que nous le faisons actuellement, l'information. Richard Feynman, Prix Nobel de physique, a eu la géniale intuition d'utiliser les capacités de la physique et de la mécanique quantiques - qui abreuvent déjà notre monde, avec l'IRM, le laser, les horloges nucléaires et les transistors - pour démontrer les propriétés de superposition et d'intrication. Ainsi, le phénomène de superposition permet, comme son nom l'indique, de superposer différents états en définissant un système comme une succession possible dont l'état est figé une fois la mesure faite ; tant que le système n'est pas figé, il est donc porteur de toutes les possibilités. Dès lors, un Qbit ne va plus porter un 1 ou un 0, mais toute la superposition possible des états entre le 0 et le 1, ce qui permet de décupler, de manière exponentielle, les capacités de calcul. Dès qu'on fige, on trouve alors la solution. C'est pourquoi, il est possible de mettre en parallèle ces Qbits, via la technologie des ions piégés, au laboratoire d'Innsbruck, ou celle, mise en oeuvre au CEA, du refroidissement à - 273 degrés des atomes de carbone, afin d'assurer leur supraconductivité. Ainsi, les techniques de superposition sont maîtrisées en France par les partenaires d'ATOS, qu'il s'agisse des laboratoires du CEA, de l'Université de Saclay, de l'Université Pierre et Marie Curie, ou encore d'autres entités situées à Amsterdam et à Innsbruck. La transformation des bits en Qbits permettra d'obtenir la suprématie quantique, c'est-à-dire des capacités de calculs décuplées qui permettront de craquer instantanément, en vertu de l'algorithme de Shor, le chiffrement RSA sur lequel est édifiée toute la sécurité du réseau internet. C'est pourquoi des algorithmes post-quantiques sont déjà à l'étude, à la demande des agences de sécurité. ATOS travaille déjà à la simulation d'un ordinateur quantique - c'est notre Quantum Learning Machine, qui simule jusqu'à 41 Qbits - en créant un langage de programmation idoine sur lequel des générations de chercheurs seront formées à travailler.
Personne ne sait lorsque l'ordinateur généraliste, doté d'une puissance de 50 à 100 Qbits, va remplacer l'ordinateur séquentiel ! Cet ordinateur ne doit cependant pas perdre sa cohérence, lors de sa mise en relation avec le monde extérieur. Il faut ainsi trouver les possibilités de le faire évoluer en parallèle. Même si cette démarche s'avère complexe, elle devrait, un jour prochain, aboutir. Nous constatons en laboratoire la possibilité de faire travailler ensemble des ordinateurs dotés d'un nombre plus restreint de Qbits - de 4 à 10 Qbits - pendant une période plus restreinte, allant jusqu'à deux heures, et de les placer dans des accélérateurs sur des algorithmes particuliers, comme celui qui pourrait casser les polynômes que je viens d'évoquer. L'algorithme de Grover va ainsi permettre, précisément, avec un accélérateur et un programmateur quantiques, de trouver, dans une base de milliards de données, une information pertinente en quelques opérations. En chimie, on peut d'ailleurs modéliser, de façon systématique, des réactions chimiques sur les simulateurs quantiques disposant d'accélérateurs. Ainsi, un pétrolier français vient de nous acheter un simulateur quantique pour simuler des opérations géologiques et des réactions chimiques.
Dans les cinq prochaines années, les grosses machines devraient être dotées d'accélérateurs quantiques, alors qu'il faudra attendre plusieurs décennies avant de créer un ordinateur quantique universel ; l'échelle de temps étant, pour ce dispositif, beaucoup plus longue. En tout cas, nous y travaillons et la Commission européenne a lancé un programme abondé à hauteur de plus d'un milliard d'euros - le « Quantum Manifesto » - qui associera un certain nombre d'entreprises françaises, dont ATOS qui travaillera sur deux programmes. L'Europe commence heureusement à s'y intéresser, emboîtant le pas aux États-Unis et à la Chine.
Enfin, je reviendrai sur l'intrication qui est une autre propriété de la physique quantique : lorsque deux particules sont en interaction, l'évolution de l'une est identique à celle de l'autre, quelle que soit la distance qui les sépare. La découverte de cette propriété des photons intriqués, réalisée par le Professeur Alain Aspect au début des années 1980, peut générer des applications dans le domaine de la protection des communications.
M. André Gattolin. - Vous avez été un homme d'État et vous dirigez une entreprise au capital franco-allemand. Notre commission entend définir les différents niveaux sur lesquels doit s'exercer notre souveraineté. Lorsqu'il s'agit de défendre notre souveraineté nationale, en recourant notamment à la dissuasion nucléaire, nous ne sommes pas dans l'obligation de partager nos technologies ou nos informations. Une souveraineté européenne partagée doit également être reconnue, en raison des échanges avec le reste du monde et de la dimension critique de l'Europe, en matière de capacités technologiques et industrielles, qui garantit à la France l'exercice de sa souveraineté. Comment, selon vous, ces différents niveaux doivent-ils s'articuler dans ce nouvel espace informationnel où l'échange de l'information est la règle ?
M. Thierry Breton. - Sur la souveraineté, lorsque j'étais ministre en charge de l'Economie, des Finances et de l'Industrie, j'avais recensé les technologies clés sur lesquelles le droit de regard, voire plus si nécessaire, de l'État devait s'exercer en cas de rachat d'une entreprise. Depuis, ces listes ont été élargies, y compris par Bruno Le Maire. Des moyens existent et il nous est parfaitement possible d'assumer nos obligations de souveraineté dans le cadre d'un système de régulation transparent et approuvé par la collectivité nationale. L'État peut ainsi faire respecter ce cadre, sans pour autant devoir être actionnaire ! Lorsque nous avons nationalisé, à contre-courant de l'histoire, en 1981 nos entreprises, nous pensions, à tort, que l'État reprenait sa souveraineté en main. C'est faux ! L'actionnariat est fondamentalement distinct de la souveraineté ! Cependant, une régulation et des règles claires, lisibles et pérennes, de manière à favoriser l'investissement des entreprises, sont importantes. C'est donc aux États qu'incombe la définition de ce qui ressort de leur souveraineté, dans un contexte davantage marqué par la parcellisation du monde que par la mondialisation à outrance.
L'Europe doit également se doter de ses propres moyens pour lancer, en contrepartie, une véritable politique industrielle. À l'heure de la désignation du futur président de la Commission européenne, il importe de rappeler l'échec des tentatives européennes de créer des géants européens pour des motifs juridiques. ATOS, dont 12 % du capital appartiennent à Siemens et les sièges se trouvent à Paris et Munich, représente une réelle coopération franco-allemande. Accueillant 33 000 ingénieurs de Siemens, ATOS s'avère, en quelque sorte, un « petit Airbus des technologies de l'information », avec un nombre d'ailleurs plus important de salariés que celui-ci ! Au nom de principes concurrentiels qui n'ont plus de sens aujourd'hui et qui relèvent d'une politique de marché tournée vers le consommateur, on a interdit la création de champions industriels européens ! L'Europe doit, à l'inverse, favoriser les rapprochements des grands groupes européens afin de mobiliser des investissements dans des secteurs particulièrement voraces en capitaux et garantir l'émergence d'une politique industrielle sur laquelle doit désormais s'aligner la politique de la concurrence. Personne n'a le droit d'être naïf dans cet espace informationnel ! Nous disposons des atouts pour y parvenir. Puisque nous doublons tous les dix-huit mois le nombre de données, il est tout à fait possible de rattraper notre retard. Nous sommes ainsi au début d'une histoire et il appartient aux législateurs que vous êtes de nous accompagner dans l'organisation de cet espace informationnel.
M. Pierre Ouzoulias. - J'ai été très sensible sur la généalogie que vous avez tracée des trois espaces antérieurs à l'espace informationnel. Or, les trois premiers reposent sur la notion de frontière, plus ou moins matérialisée, et sur les modalités claires de l'exercice de la souveraineté, c'est-à-dire étymologiquement du latin médiéval « superanus », c'est-à-dire le pouvoir au-dessus duquel rien ne peut s'exercer. Néanmoins, quelle pourrait être, selon vous, la souveraineté sur ce quatrième espace, privé de frontière matérielle et dont 80 % de l'information seront bientôt détenus par des acteurs individuels et disséminés ? Quelle en sera l'organisation politique ?
M. Gérard Longuet, rapporteur. - En effet, où sera placé le sergent de ville ?
M. Thierry Breton. - J'ai beaucoup réfléchi à ces questions. J'avais écrit en 1984 dans un roman intitulé « La Guerre douce » (« Soft War »), où j'abordais déjà ces trois espaces et la thématique de la guerre cyber, avant, en 1990, de commettre un autre ouvrage, intitulé celui-ci « La dimension invisible », dans lequel j'abordais le défi du temps et de l'information. J'y réfléchissais précisément à la notion de frontière.
La notion de frontière émerge totalement dans des espaces à conquérir. Votre question est pertinente. Aujourd'hui, nos infrastructures gèrent et stockent les données. Il y a donc une corrélation entre les données et ces infrastructures. La matérialité se retrouve dans les lieux de stockage et les éventuels stockages quantiques seront, eux aussi, physiques. C'est pourquoi, face à l'augmentation exponentielle et la délocalisation prochaine de ces données, mes collaborateurs vont devoir évoluer d'un métier de gestionnaire d'infrastructures, porteuses de données, à celui de gestionnaires « d'infrastructures d'infrastructures ». Cette évolution va marquer le monde qui vient : ces données vont avoir une adresse, afin d'être utilisées et protégées. C'est comme si vous attribuiez une adresse à chacun des grains de sable.
M. Laurent Lafon. - Qui attribue les adresses ?
M. Thierry Breton. - Aujourd'hui, mon groupe attribue des adresses aux données, dans les algorithmes, pour les protéger. On rentre dans un monde qui s'avère antinomique avec ce qu'on attendait de la mondialisation. En effet, comme l'a démontré Louis de Broglie, la physique quantique repose sur la dualité entre l'onde - la continuité - et la particule. Bien que nous n'en avons pas encore évalué toutes les conséquences, force est de constater que l'on passe de la continuité à la discontinuité et à la parcellisation. Nous entrons ainsi dans un monde profondément parcellisé. C'est la logique des choses ! À partir du moment où chaque individu se considère comme le centre de son propre univers et de son propre environnement, il peut désormais vivre sa culture sans avoir à être abrité dans une zone géographique déterminée. Alors qu'auparavant, les hommes portaient l'information dans un périmètre donné, ils vivent désormais leur culture partout où ils se trouvent et sont devenus le centre de leur culture informationnelle. Aussi, la surface informationnelle n'est pas plane, mais sphérique ! En effet, dans toute sphère, chaque point est le centre. Il faut néanmoins que le Politique trouve un sens au vivre ensemble encore localisé avec des individualités qui vivent déjà dans leur propre univers et selon leur propre règle, dans des communautés qui peuvent s'avérer virtuelles, à l'instar de celles que j'avais esquissées en 1985 dans mon livre « Vatican III ». C'est là un défi ! Sans une structure porteuse et transcendant les individualismes, la parcellisation de l'information, que nous voyons à travers le prisme de la technologie dominante, doit être désormais prise en compte dans nos réflexions pour le siècle qui vient.
M. André Gattolin. - C'est une parcellisation sans cadastre !
M. Thierry Breton. - Il faudra l'inventer autrement. Je pense notamment à l'adressage individualisé, comme la physique quantique nous y invite avec le phénomène d'intrication. La notion de frontière, totalement distincte de celle qui prévaut dans les trois autres espaces, est portée par l'individu le plus parcellaire et, ainsi, par l'information la plus élémentaire. Les frontières de cet espace informationnel, défini par l'agrégation de ces informations et l'évolution de leur sens, seront nécessairement fluctuantes.
M. Gérard Longuet, rapporteur. - Pour prolonger l'observation de notre collègue Pierre Ouzoulias, qui est au coeur de notre réflexion sur la souveraineté, la figure de l'individu centre de son monde s'avère compréhensible. Cependant, au gré des vicissitudes du quotidien, chacun de nous se retourne vers la puissance publique. Ainsi, dans notre société où l'individualisme demeure très fort, la vie numérique, qui s'avère réelle, coexiste avec une vie collective. Existe-t-il un espace national numérique marqué par des règles spécifiques en matière de diffusion de l'information ? Comment intervenir, lorsqu'une plateforme mondialisée se comporte davantage en éditeur qu'en hébergeur de sites aux contenus fortement répréhensibles ? Intervenir est-il possible ou relève-t-il, au contraire, d'un combat perdu d'avance ?
M. Thierry Breton. - C'est une nécessité absolue. Pour preuve, les contenus invraisemblables du dark web, espace criminel lieu de tous les trafics sans aucune barrière. Certaines de nos forces de sécurité surveillent de tels espaces, lieux de tous les trafics, qui doivent être régulés. Certains réseaux sociaux, aux contenus antinomiques avec cette appellation, sont aussi surveillés à juste titre. Si des brigades spécialisées dans la surveillance de ce type d'information doivent être constituées et que des algorithmes spécialisés devraient être mis en oeuvre, il est, en revanche, impossible de placer un représentant de l'ordre public derrière chaque internaute ! Dans nos métiers, où nous avons à protéger nos grands clients contre les cyberattaques, nous constatons que deux cent jours s'écoulent en moyenne entre l'implantation d'un virus par un tiers malveillant et sa détection. Les nouveaux algorithmes d'intelligence artificielle permettent de détecter des signaux faibles et de repérer ainsi l'implantation d'un virus en une seule journée ! Cette démarche, gage d'une réelle réactivité, est également utilisée pour détecter des comportements frauduleux sur des réseaux bancaires et peut également être adaptée, en permettant l'analyse sémantique des contenus diffusés, pour la surveillance des réseaux sociaux.
En outre, il m'est apparu que les incivilités commises chaque samedi depuis l'année dernière étaient analogues à celles que l'on trouve sur l'internet, comme si la différence entre les mondes réel et virtuel était abolie ! Certains États et collectivités publiques procèdent également au suivi, notamment via la vidéo-surveillance de leurs administrés ; une telle démarche pouvant s'avérer particulièrement utile, comme nous l'indique l'événement survenu, il y a peu, à Lyon. Compte tenu de la multiplicité des informations et des messages, les systèmes de surveillance des réseaux devront être renforcés, et leur impact décuplés, grâce à l'utilisation d'algorithmes d'intelligence artificielle. Nous ne sommes qu'au début de cette évolution. Les grands acteurs de l'internet pourraient, à leur tour, mettre en oeuvre des algorithmes spécifiques pour détecter les fake news.
M. Pierre Ouzoulias. - À la Sorbonne, il est possible de scanner les travaux remis par mes étudiants, afin d'en déterminer, le cas échéant, le taux de plagiat !
M. Thierry Breton. - Peut-être serez-vous amenés à imposer ces outils, y compris pour la détection des fake news. Je crois ainsi à ces algorithmes spécifiques qui seront encore améliorés. En outre, le droit à l'anonymat, et ainsi à dire n'importe quoi, sur les réseaux va progressivement disparaître, suite à la mise en oeuvre de ces moyens techniques, qui conduiront, en retour, à responsabiliser les individus. Si la trace informationnelle, à l'instar de ce qu'a illustré l'épisode dramatique de Lyon en conjuguant la vidéosurveillance avec l'historique des données de consultations internet, existe déjà, son exploitation plus poussée sera longue à construire.
M. Jérôme Bignon. - Tout cela va très vite !
M. André Gattolin. - Les capacités accrues de calcul des supercalculateurs, peuvent-elles permettre d'obtenir une forme de rétro-ingénierie et de comprendre les modalités d'élaboration d'algorithmes compliqués ?
M. Thierry Breton. - La réponse à cette importante question est positive. Les algorithmes seront présents partout. Le législateur doit s'emparer de cette question et nous n'avons pas du tout perdu la bataille de l'intelligence artificielle, loin s'en faut. En revanche, que mettra-t-on dans les algorithmes ? La question du contenu éthique des algorithmes doit être abordée, ainsi que celle de la connaissance de leur mode de fonctionnement et des réactions qu'ils provoquent dans un lieu spécifique. On génère une information impliquant une réaction en temps réel ! Nous réfléchissons déjà à ces différents aspects éthiques avec nos clients, en leur offrant la possibilité d'être partie prenante dans la création de ces algorithmes, en fonction de leurs attentes spécifiques et de leurs propres règles internes.
M. Franck Montaugé, président. - Je vous remercie, Monsieur le président, de votre présentation et de vos réponses précises et techniques à nos questions.
Ce point de l'ordre du jour a fait l'objet d'une captation vidéo qui est disponible en ligne sur le site du Sénat.
La réunion est close à 16 h 45.