M. le président. La parole est à M. le secrétaire d’État.
M. Cédric O, secrétaire d’État auprès du ministre de l’économie et des finances et du ministre de l’action et des comptes publics, chargé du numérique. Nous avons déjà eu l’occasion d’aborder le sujet et j’ai indiqué que les projections, en matière de créations et de destructions d’emplois – vous l’avez bien dit –, sont aujourd’hui assez peu claires quant au résultat final.
Ce qui est certain, c’est que certains métiers fortement répétitifs – vous avez parlé de la banque, on peut aussi penser à la distribution ou à certains secteurs industriels – sont effectivement menacés par l’intelligence artificielle, qui traite très bien les tâches répétitives. Cela concerne aussi des métiers plus élevés, dans lesquels il y a beaucoup de données à traiter ; je pense par exemple au métier d’avocat, qui peut être fortement menacé par l’intelligence artificielle, puisque ce métier consiste pour une part à repérer des schémas dans de très grandes bases de données.
Il nous faut donc prévoir la transition ; tel est l’objet de la GPEC, la gestion prévisionnelle des emplois et des compétences, sur laquelle nous sommes mobilisés.
En effet, nous sommes confrontés à une aberration : d’un côté, des métiers sont menacés, mais, d’un autre côté, certains emplois, et non pas seulement des emplois d’ingénieur, sont non pourvus. Ainsi, il y a aujourd’hui 80 000 postes dans le numérique en France, et il y en aura 200 000 en 2022, soit 900 000 à l’échelon européen – 900 000, rendez-vous compte ! –, et, je le répète, il ne s’agit pas que du métier d’ingénieur. Il y a certes des tensions sur le métier d’ingénieur, mais il y en a aussi sur les métiers de technicien et d’opérateur.
La question à se poser est donc celle de la formation. Un certain nombre de cadres doivent être définis à l’échelon national, mais cela doit aussi être traité localement, bassin d’emploi par bassin d’emploi, y compris dans la ruralité. Il se crée aujourd’hui, quasiment partout en France, des emplois liés au numérique et, encore une fois, pas seulement des emplois d’ingénieur ; néanmoins, encore faut-il être capable d’identifier les populations menacées d’ici à trois ans ou cinq ans. Cela permettra de mettre ensuite en place les formations pertinentes – souvent, elles existent déjà et, généralement, ce n’est pas l’argent qui pose problème, mais il faut brancher les bons tuyaux –, afin d’organiser cette période de transition.
C’est donc aux acteurs sur le terrain – c’est la proposition que nous ferons dans les mois qui viennent – de se saisir du sujet, qui est profondément local.
M. le président. La parole est à Mme Nadine Grelet-Certenais.
Mme Nadine Grelet-Certenais. Je remercie également le groupe du RDSE de l’organisation de ce débat, qui est d’une actualité brûlante, en raison notamment des débats sur le projet de loi d’orientation sur les mobilités ; je pense en particulier à l’article 20 de ce texte, qui porte sur les conditions de travail des travailleurs de plateforme.
Ayant organisé ici même, en juin dernier, avec mes collègues Monique Lubin et Olivier Jacquin, un colloque sur la problématique du travail numérique et les risques de formation d’un « cyberprécariat » dépourvu de droits sociaux, je souhaite attirer votre attention, monsieur le secrétaire d’État, sur l’imminence d’une crise sociale profonde, liée à l’expansion du travail numérique, et rebondir ainsi sur l’excellente question de mon collègue Franck Montaugé.
Le récent numéro de l’émission Cash Investigation a opportunément confirmé nos craintes sur la destruction de la citoyenneté sociale des travailleurs, chère au regretté Robert Castel.
En effet, par leur modèle de développement, les sociétés multinationales que nous connaissons bien – Uber, Amazon, Google, et autres – prospèrent sur un vide juridique, que votre gouvernement entretient. Ce vide juridique permet à ces entreprises de ne pas payer de cotisations sociales patronales, en faisant croire aux autoentrepreneurs recrutés qu’ils sont indépendants. Le Conseil national du numérique, le CNNum, l’a confirmé récemment : ces travailleurs sont plus dépendants d’un algorithme que d’une véritable relation humaine.
Pis, tous les systèmes d’exploitation – sans vouloir faire de mauvais jeu de mots – de l’intelligence artificielle reposent sur du travail humain. Des microtâches sont réalisées en Asie, en Afrique et en Europe – en France même – par ce qu’Antonio Casilli appelle les « travailleurs du clic », des travailleurs du numérique sous-payés et complètement invisibles pour le droit du travail. Et tout cela au service de la machine, de l’intelligence artificielle, qui dévoile ainsi son vrai visage.
Il nous faut donc réfléchir à une fiscalité qui permettrait d’imposer les plateformes sur le fondement du travail invisible de ces usagers, et à un dispositif pour rémunérer ces derniers. En effet, la fiscalité est aussi une question de souveraineté.
Au regard de l’augmentation du tâcheronnage numérique, allez-vous changer de braquet, et imposer à ces entreprises un cadre beaucoup plus strict et protecteur, afin d’enrayer cette évolution inquiétante du travail ? Quelles solutions allez-vous mettre en œuvre pour lutter contre cette para-subordination, qui nie les droits de ces travailleurs ?
Il s’agit d’un enjeu politique et sociétal de premier plan.
M. le président. La parole est à M. le secrétaire d’État.
M. Cédric O, secrétaire d’État auprès du ministre de l’économie et des finances et du ministre de l’action et des comptes publics, chargé du numérique. Ce sujet mériterait évidemment plus de deux minutes, mais il occupe beaucoup le quotidien de ma collègue Muriel Pénicaud.
Pour répondre rapidement, il y a évidemment un sujet de transformation et de fragilisation des rapports sociaux, mais il y a aussi un gisement d’opportunités ; dans certains quartiers, l’économie ubérisée a créé de l’emploi et a permis à des gens de se rapprocher de l’emploi. De toute évidence, il faut poser un cadre – on ne peut pas être dans le non-droit total –, mais il faut adapter ce cadre.
Prenons un exemple, celui du livreur de Deliveroo ; il y a une différence entre la personne qui en fait son travail, et qui se trouve, de fait, quasiment dans une relation de salariat, et l’étudiant – comme mon beau-frère, par exemple – qui le fait une heure par soir pour gagner un peu d’argent. Il n’est pas question de traiter ces deux situations exactement de la même manière, que ce soit pour la formation, pour les droits et pour la représentation.
Je pense fondamentalement qu’une partie de la solution – encore une fois, cela mériterait plus de temps – réside dans la représentation syndicale ou para-syndicale. En effet, le bon équilibre sera trouvé dans la tension, parfois dans le rapport de force, qui est nécessaire dans les rapports sociaux.
Le cabinet de Muriel Pénicaud travaille actuellement sur la manière de représenter ces travailleurs et sur la capacité qu’auront les syndicats à négocier avec les employeurs. Je le répète, cela ne peut pas être la même chose pour quelqu’un dont c’est le travail à temps plein ou à quasi-temps plein, et pour quelqu’un qui fait cela comme une activité supplémentaire.
C’est dans cette dialectique, pour répondre très brièvement, que se situe une partie de la réponse.
M. le président. La parole est à M. Jean-Pierre Leleux.
M. Jean-Pierre Leleux. Le rapport d’avril 2018 de notre collègue député Cédric Villani a largement ouvert le débat public et politique, sur l’urgence qu’il y a, en France et en Europe, à amplifier considérablement les moyens et le soutien au développement de la recherche dans le domaine de l’intelligence artificielle. Il s’agit, vous l’avez dit, d’un enjeu majeur pour notre indépendance et notre souveraineté futures.
Cédric Villani tente de nous convaincre qu’il n’est pas trop tard pour entrer dans le jeu de la compétition mondiale ; j’en accepte l’augure, et je me félicite des moyens, même s’ils restent insuffisants, débloqués par le Président de la République – un milliard et demi d’euros – pour mettre un coup de pression et encourager le développement de l’intelligence artificielle en France et en Europe.
Les questions qui se posent sont évidemment très nombreuses ; j’isolerai trois aspects : éthique, juridique et culturel.
Bien sûr, le rapport a cherché à proposer, avec humilité, est-il précisé, les fondements d’un cadre éthique pour le développement de l’intelligence artificielle et du débat dans la société. Quand nous parlons d’éthique ou de valeurs, chez nous, nous nous appuyons sur l’histoire culturelle française et européenne, et nous avons tendance à penser que ces valeurs sont universelles. C’est évidemment loin d’être le cas ; les valeurs ne sont pas du tout les mêmes en Europe, aux États-Unis et encore moins en Chine.
Déjà, des voix s’élèvent pour affirmer que, si nous sommes trop rigides dans notre conception de l’éthique et des valeurs, cela bridera les initiatives des chercheurs, et nous courons alors le risque de prendre un retard concurrentiel, sur le plan technique, par rapport à d’autres pays.
Comment définir, selon vous, les bornes de l’acceptable, voire de l’exigence de notre éthique ? Comment trouver, dans un contexte de concurrence scientifique mondialisée, l’équilibre entre, d’une part, le respect de notre éthique et, d’autre part, l’avancée scientifique de pays qui n’ont pas la même interprétation des valeurs que nous ?
Ma deuxième question concerne l’accompagnement juridique de l’intelligence artificielle, et tout particulièrement celui de la responsabilité civile et morale des actes provoqués par l’algorithme. Jusqu’où faire confiance à la décision du matériel porteur de ces algorithmes ? N’y a-t-il pas des domaines qui comportent des limites, au-delà desquelles la décision humaine doit reprendre la main ou le relais de la décision ?
M. le président. Veuillez conclure.
M. Jean-Pierre Leleux. Ma dernière question concernait la culture ; j’y reviendrai dans ma réplique.
M. le président. Je crains qu’il ne vous reste plus du tout de temps pour une réplique, mon cher collègue…
La parole est à M. le secrétaire d’État.
M. Cédric O, secrétaire d’État auprès du ministre de l’économie et des finances et du ministre de l’action et des comptes publics, chargé du numérique. Je serai très heureux, monsieur le sénateur, de vous répondre hors micro sur votre dernière question.
Sur votre premier point, je suis persuadé qu’il n’est pas trop tard. C’est un peu le dernier wagon qui part, mais on peut encore monter à bord. Pourquoi suis-je persuadé qu’il n’est pas trop tard ? Parce que nous avons la matière première : les cerveaux. La question se pose de savoir comment les retenir et comment faire en sorte qu’ils trouvent ici le terreau leur permettant de se développer et de créer leurs entreprises, mais ce serait bien plus compliqué si l’on ne les avait pas.
Il n’est donc pas trop tard, mais il faut les retenir et en former plus. Pour revenir à ce que disait précédemment le M. le sénateur Ouzoulias, on manque effectivement de personnes compétentes, il faut en former plus. C’est pourquoi nous avons l’objectif de doubler le nombre de formations ; il y avait 18 masters en intelligence artificielle, voilà deux ans ; il y en a 34 aujourd’hui. Cela avance.
Sur la question des valeurs, je pense avoir en partie répondu tout à l’heure. Il faut trouver la ligne de crête, être capable de développer nos propres champions sans abandonner nos valeurs. Ce n’est jamais facile et il n’y a pas de règle préconçue qui s’applique.
Cela dit, il faut, au minimum, libérer les expérimentations – je le disais tout à l’heure à propos des collectivités territoriales et de la reconnaissance faciale –, dans des cadres très limités et très stricts.
En outre, il faut ne pas être naïf ; c’est le sujet de la politique commerciale que j’évoquais tout à l’heure. Ainsi, dès lors que nous aurons fixé le cadre et les valeurs intangibles pour nous, on ne pourra pas permettre à des pays qui développent des algorithmes en contradiction avec nos valeurs de concurrencer nos entreprises, lesquelles ne pourront évidemment pas être compétitives.
Quant à la question juridique, il est difficile d’y répondre aujourd’hui. Beaucoup de questions se posent ; s’il y a un accident impliquant une voiture pilotée par l’intelligence artificielle, qui est responsable ? Une partie de la réponse résidera dans l’expérimentation. Il faut rendre celle-ci possible, parce que beaucoup de réponses se dégageront. Aujourd’hui, en tout cas, il est difficile de vous donner une réponse claire et précise.
M. le président. La parole est à Mme Brigitte Lherbier.
Mme Brigitte Lherbier. Je m’inscrirai dans la continuité du propos de mon collègue Jean-Pierre Leleux.
C’est avec un œil de juriste que j’ai décidé d’aborder le débat que nous avons aujourd’hui.
Le développement des intelligences artificielles fait partie des plus grandes avancées scientifiques de l’histoire de l’humanité. Cette révolution technologique a de plus en plus d’impact dans nos vies quotidiennes, on l’a vu. Imaginer les applications matérielles des intelligences artificielles peut susciter l’émerveillement, mais il nous faut aussi examiner des cas pratiques. Vous venez de l’aborder, monsieur le secrétaire d’État, étudier, par le prisme du droit, un accident de la route impliquant un véhicule autonome est tout aussi intéressant.
Il faut se poser des questions pragmatiques, simples, pour cerner les problèmes juridiques, par exemple en droit de la responsabilité. En tant que législateurs, nous devons nous interroger sur la place que prendront les intelligences artificielles dans notre droit. Qui devrait-on considérer comme pénalement responsable, lors d’un accident grave causé par une voiture autonome ? Le conducteur ? Le propriétaire ? Le constructeur ? L’informaticien ? Ou encore l’auteur des algorithmes ?
On considère aujourd’hui que le conducteur doit toujours être en mesure de prendre le contrôle de sa voiture. Il serait donc en théorie responsable en cas d’accident, mais qu’en serait-il si les véhicules devenaient totalement autonomes ?
La même question pourrait se poser pour les intelligences artificielles prédictives en matière militaire. Qui sera responsable en cas d’échec d’une mission ? Le décideur ou le robot ? J’ai entendu ces questionnements pour la première fois au forum international de la cybersécurité, organisé à Lille, chaque mois de janvier depuis vingt ans, par la gendarmerie nationale. Les militaires ne veulent pas dépendre de l’incontrôlable, ils veulent rester maîtres de toute leur stratégie.
La technologie évolue désormais si vite que nous nous devons de prendre les devants. Gouverner c’est prévoir, n’est-ce pas ?
Monsieur le secrétaire d’État, envisagez-vous cet aspect juridique, ce regard destiné à encadrer de la loi ?
M. le président. Il faut conclure, ma chère collègue.
Mme Brigitte Lherbier. Le Sénat est là pour travailler sur le sujet ; sachez-le, monsieur le secrétaire d’État, nous sommes prêts.
M. le président. La parole est à M. le secrétaire d’État.
M. Cédric O, secrétaire d’État auprès du ministre de l’économie et des finances et du ministre de l’action et des comptes publics, chargé du numérique. J’essaierai de vous répondre le plus précisément possible.
Une petite remarque, tout d’abord : il est vraisemblable qu’il y aura moins d’accidents quand toutes les voitures seront autonomes ; il est intéressant de le préciser. (Sourires.) Du reste, quasiment tous les accidents d’avion – ce n’est pas le cas pour le Boeing 737 MAX – sont aujourd’hui liés à une erreur humaine.
En France, vous le savez, les expérimentations de circulation de véhicules autonomes sur la voie publique sont permises depuis 2015, dans un cadre strict ; je ne reviens pas sur les détails.
En matière de responsabilité civile, le droit commun s’applique ; cette analyse a été validée par le Conseil d’État. En matière pénale, pour ce qui concerne le code de la route, des adaptations sont nécessaires. La loi Pacte a précisé les règles de responsabilité pénale pour les expérimentations – cela fait le lien avec la question précédente.
Ainsi, le conducteur n’est pas responsable pendant les périodes où le système de délégation de conduite est activé ; en cas d’accident, si une faute a été commise dans la mise en œuvre du système de délégation, l’expérimentateur est pénalement responsable d’un délit d’atteinte involontaire à la vie ou à l’intégrité de la personne. Pour l’avenir, un régime permanent doit être élaboré par ordonnance, dans le cadre de l’habilitation prévue à l’article 12 du projet de loi d’orientation des mobilités.
J’ajoute un élément moins technique : la question que vous posez est extrêmement liée, dans le cas de l’intelligence artificielle, à la certification. C’est l’un des plus grands défis des industriels, car, pour une partie des algorithmes ou des techniques utilisées, on ne sait pas expliquer pourquoi l’intelligence artificielle a pris telle ou telle décision. Un des véritables sujets devant nous – c’est une question juridique, sociale et industrielle – réside dans la capacité à mettre en place des certifications.
Ce point est au cœur d’un des grands défis que veut relever l’État dans le cadre de l’agence pour l’innovation de rupture. Nous aurons l’occasion d’en rediscuter, mais il est très important que le Parlement se penche sur le sujet de la responsabilité, en ayant en tête cette idée d’expérimentation et de ligne de crête à trouver entre innovation et protection.
M. le président. La parole est à Mme Florence Lassarade.
Mme Florence Lassarade. Les outils d’intelligence artificielle dans le domaine de la santé se développent depuis plusieurs années, avec notamment l’aide au diagnostic en imagerie ou en matière de chirurgie. La France possède de nombreux atouts, grâce à d’importantes compétences scientifiques, une base médico-administrative solide et, prochainement, une infrastructure numérique, avec la plateforme des données de santé, le Health Data Hub, qui permettra de développer l’intelligence artificielle en santé.
Cela dit, il faut regarder plus loin, car les évolutions sont rapides. Les géants de la technologie numérique, les Gafama – Google, Apple, Facebook, Amazon, Microsoft, Alphabet – cherchent à se diversifier, et à conquérir le secteur de la santé. Ils disposent d’une puissance financière largement supérieure à celle des nations.
Les Gafama sont arrivés dans le domaine de la santé avec une dynamique d’influence et de diffusion de valeurs qui ne sont pas à proprement parler humanistes. Leur avance industrielle peut avoir des conséquences sur les modalités de diffusion de l’intelligence artificielle et de la robotisation en santé.
À titre d’exemple, l’entreprise Verily Life Sciences, filiale d’Alphabet, donc de Google, a lancé la Baseline Study, qui collecte des données phénotypiques sur 10 000 volontaires en quatre ans, en collaboration avec les universités de Stanford et Duke. Entre 2013 et 2017, Alphabet a déposé 186 brevets dans le domaine de la santé.
En France, les données de santé sont et resteront protégées, mais des collectes de données se font via des applications ou des objets connectés, et ces données sont transmises à des entreprises privées sans aucun contrôle. D’autre part, des utilisateurs français pourraient à l’avenir demander à importer une solution d’intelligence artificielle élaborée à l’étranger et non autorisée en France.
Sachant que ces entreprises ne respecteront pas forcément les règles éthiques en vigueur en France et en Europe, il est évident qu’il faut organiser un contre-pouvoir au développement des Gafama dans le secteur de la santé.
Monsieur le secrétaire d’État, comment faire en sorte que les Gafama ne mettent pas la main sur les données de santé des Français ? Quelle stratégie envisagez-vous de mettre en œuvre pour préserver le système de santé français face aux géants américains ?
M. le président. La parole est à M. le secrétaire d’État.
M. Cédric O, secrétaire d’État auprès du ministre de l’économie et des finances et du ministre de l’action et des comptes publics, chargé du numérique. Madame la sénatrice, vous soulignez un sujet extrêmement important, dans lequel il faut avoir une approche tant défensive qu’offensive.
Aujourd’hui, nous avons un cadre assez protecteur des données de santé, mais, je le disais tout à l’heure, dans le cadre du numérique – c’est particulièrement vrai dans le secteur de la santé –, les usages s’imposent.
Nous pourrions donc nous retrouver dans cette situation, assez aberrante : nous interdirions la recherche sur les données des Français ; les Chinois l’autoriseraient chez eux et développeraient des champions ayant des algorithmes permettant de mieux soigner ; et, demain, quand vous aurez le choix entre – pardon de le dire très trivialement – vivre cinq ans de plus en donnant l’accès à vos données et garder celles-ci, mais avoir une espérance de vie un peu réduite, votre choix sera assez rapide…
Voici quel est l’enjeu pour la France, aujourd’hui : nous avons un atout – nous possédons l’une des cinq plus grandes bases de données de santé du monde –, donc il faut faire en sorte, dans un cadre protecteur de la vie privée, de mettre ces données à la disposition de la recherche et d’un certain nombre d’industriels.
De cette manière, c’est nous qui développerons ces champions et ces systèmes. Je pense profondément que les entreprises ont une identité et que, comme c’est le leader qui fixe la norme, il faut faire en sorte que ce leader soit français et européen. Ainsi, on en revient toujours à cette ligne de crête entre innovation et protection, dans un cadre où l’usage s’imposera in fine par rapport à la protection de la vie privée, car on choisira toujours la santé aux dépens de la protection de données.
Autre problème : il faut faire en sorte que ces algorithmes fonctionnent pour les Européens. En effet, on pourrait se retrouver dépendants d’algorithmes chinois ou américains, élaborés sur le fondement de phénotypes ou de problématiques, respectivement, chinois ou américains, et fonctionnant donc moins bien pour des Européens.
Ma réponse sur ce sujet absolument passionnant est trop courte, mais il faut à la fois avoir une attitude défensive et offensive, et faire en sorte que ce soit nous qui développions ces champions, afin d’avoir tant les soins que la valeur créée par ces entreprises.
M. le président. La parole est à Mme Florence Lassarade, pour la réplique.
Mme Florence Lassarade. L’exploitation des données et leur protection sont un sujet très important. Sur le marché noir du net, les données médicales frauduleusement acquises peuvent se monnayer vingt fois plus cher que les données bancaires…
Conclusion du débat
M. le président. Pour clore le débat, la parole est à M. Jean-Claude Requier, pour le groupe auteur de la demande.
M. Jean-Claude Requier, pour le groupe du Rassemblement Démocratique et Social Européen. Monsieur le président, monsieur le secrétaire d’État, mes chers collègues, pour conclure ce débat passionnant sur les enjeux politiques, économiques, mais aussi éthiques, de l’intelligence artificielle, je souhaite revenir sur les principaux points que nos échanges ont évoqués.
Je me félicite tout d’abord de l’intérêt suscité par ce sujet d’actualité, proposé par le groupe RDSE, qui concerne tous les acteurs et tous les territoires.
En introduction, mon collègue Yvon Collin, instigateur de ce débat, a bien insisté sur le développement spectaculaire des technologies d’intelligence artificielle dans le monde actuel. Il a souligné en particulier la place prépondérante des États-Unis et de la Chine, et – hélas ! – le retard européen en la matière.
Vous l’avez également souligné, monsieur le secrétaire d’État, nous vivons aujourd’hui à l’époque des algorithmes et des machines apprenantes. Si l’intelligence artificielle a été inventée au tournant de la Seconde Guerre mondiale, les changements se sont vraiment accélérés depuis vingt ans, à un rythme exponentiel, au point de donner parfois le vertige.
Cette révolution technologique tend à renforcer le clivage entre des zones urbaines hyperconnectées, qui ambitionnent de devenir des « villes intelligentes », et des territoires, souvent ruraux, qui, pour des raisons géographiques, économiques ou démographiques, restent en marge de cette transformation.
Pourtant, les territoires ruraux peuvent tirer un grand parti des applications de l’intelligence artificielle. Dans le domaine de la santé, ces technologies peuvent ainsi contribuer à faire des prédiagnostics à partir des données médicales des patients ou dans le cadre de consultations à distance, alors que la pénurie de médecins généralistes ne pourra être résolue que dans plusieurs années.
Les façons de travailler sont également en plein bouleversement, avec des conséquences qui pourraient profiter à des territoires éloignés des grands centres urbains et de tous les inconvénients qu’ils entraînent – surdensité, saturation des réseaux de transport, stress, pollution, voire troubles à l’ordre public… Nous touchons là à une question structurante de l’aménagement du territoire de demain, un sujet cher à notre groupe.
Le rapport Villani, cité plusieurs fois, contient des développements très intéressants sur l’agriculture augmentée, domaine dans lequel la France pourrait devenir un leader. À l’heure du changement climatique et de la remise en cause de notre modèle agricole, l’agriculture a grandement besoin de technologies de big data pour rester productive, tout en tenant compte des impératifs de protection de l’environnement et de la biodiversité.
Par exemple, un meilleur suivi des rendements ou des troupeaux permettra d’améliorer le bilan énergétique et d’optimiser l’utilisation d’intrants. L’intelligence artificielle pourrait même contribuer à faire émerger de nouveaux modèles de valeur et à améliorer le dialogue entre les agriculteurs et l’industrie agroalimentaire.
Ce potentiel d’innovation ne doit pas faire oublier les aspects plus préoccupants du développement de l’intelligence artificielle. Le livre récent du philosophe Gaspard Koenig, La fin de l’individu, montre les risques de dépossession et de déresponsabilisation des individus lorsque nos vies seront entièrement façonnées par l’intelligence artificielle, ou encore les opportunités, mais aussi les dangers, liés à la police et à la justice prédictives.
Le cadre juridique établi en France, depuis la loi du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, et en Europe, avec le règlement général sur la protection des données, est très protecteur des données personnelles et de la vie privée, contrairement aux cadres américain et surtout chinois.
En revanche, l’Europe doit mobiliser beaucoup plus de moyens pour combler son retard technologique. Le 11 juillet dernier, la Commission européenne a annoncé un financement de 50 millions d’euros pour créer un réseau européen de recherche en intelligence artificielle, dans le cadre du programme Horizon 2020. C’est bien trop peu !
Monsieur le secrétaire d’État, vous avez évoqué la nécessité de constituer de solides équipes de recherche et de pouvoir les conserver en Europe. Dans des secteurs comme l’énergie, la santé ou les transports, nous disposons du savoir-faire et de la taille critique pour faire émerger des champions européens.
Je salue également les initiatives comme le projet de supercalculateur ou encore l’agence européenne pour l’innovation de rupture.
Vous avez mentionné la politique commerciale de l’Union européenne. On pourrait également penser à sa politique de concurrence, dont était chargée la commissaire Margrethe Vestager, qui empêche parfois de faire émerger des champions continentaux. Nous devons progresser sur ce point, afin de pouvoir réaliser « l’Airbus de l’intelligence artificielle », car nous ne pouvons nous résigner à laisser l’Europe à la traîne, s’agissant d’une question aussi fondamentale pour notre économie et pour notre souveraineté.
Permettez-moi de conclure mon propos avec une citation du cinéaste et humoriste américain, Woody Allen, selon lequel « l’intelligence artificielle se définit comme le contraire de la bêtise humaine »… (Sourires. – Applaudissements sur les travées du groupe du RDSE.)