B. LES PROPOSITIONS VISANT À FONDER UNE VÉRITABLE POLITIQUE NATIONALE DE L'IA

6. Développer une filière française ou européenne autonome sur l'ensemble de la chaîne de valeur de l'intelligence artificielle

La première de nos propositions au niveau national est un objectif qui doit tous nous mobiliser, pouvoirs publics nationaux et locaux, décideurs économiques, associations et syndicats : nous devons viser le développement d'une filière française ou européenne autonome sur l'ensemble de la chaîne de valeur de l'intelligence artificielle, même sans chercher à rivaliser avec les puissances américaines et chinoises en la matière. En effet, mieux vaut une bonne IA chez soi qu'une très bonne IA chez les autres. Il s'agit de se protéger par la maîtrise de l'ensemble des couches de la technologie.

Que ce soit au niveau européen, par l'UE ou avec une coopération renforcée entre quelques pays, ou directement au niveau national, la France doit relever ce défi de construire pour elle, en toute indépendance, les nombreux maillons de la chaîne de valeur de l'intelligence artificielle. L'enjeu de la souveraineté nationale sur cette chaîne est crucial, c'est une condition à la fois de notre indépendance en général et d'une véritable autonomie stratégique sur ces technologies d'IA. Lorsqu'une maîtrise complète de la chaîne ne sera pas possible, notre pays pourra se tourner vers ses partenaires européens pour construire les coopérations nécessaires.

Un article récent de dirigeants de Mc Kinsey, publié le 31 octobre 2024 dans Les Échos436(*), se prononce également en faveur « d'une stratégie holistique pour couvrir l'ensemble de la chaîne de valeur de la technologie » en Europe, de l'énergie jusqu'aux applications en passant par les semi-conducteurs, les infrastructures et les modèles. L'Europe est aujourd'hui leader dans un seul des segments de la chaîne de valeur de l'IA, celui très précis de la gravure des puces, et ce grâce à ASML. Cet article, sans y faire référence explicitement, repose sur le constat dressé dans une note du Mc Kinsey Global Institute d'octobre 2024437(*) analysant la place des pays européens dans chacun des maillons de la chaîne de valeur de l'IA.

En dehors de la niche très spécifique d'ASML, les entreprises européennes restent dans la course en matière de conceptions des modèles, d'applications d'IA et de services mais elles ne représentent que moins de 5 % de parts de marché pour les matières premières (silicium en particulier), la conception des processeurs, la fabrication des puces, les infrastructures de calcul en nuage et les supercalculateurs. Ces filières sont à développer.

Outre l'augmentation des investissements, par exemple à travers les marchés publics, comme pour des applications d'IA dans les secteurs de la défense ou de la santé par exemple, Mc Kinsey invite à prendre pleinement position sur le marché des semi-conducteurs (via des technologies émergentes notamment), à lutter contre la fuite des cerveaux en assurant l'attraction des talents, et à former davantage aux métiers des différentes filières de l'IA, par des programmes de requalification de la main-d'oeuvre pour la préparer à ces nouveaux défis.

Vos rapporteurs ont retenu de leurs comparaisons internationales qu'il faut commencer à lutter réellement contre la fuite des cerveaux. L'Inde et la Chine ont toutes deux compris l'importance pour leurs stratégies nationales en IA de retenir leurs talents et d'inciter au retour de leurs expatriés. En créant des écosystèmes compétitifs favorables à l'innovation, en offrant des opportunités de carrière attractives, en renforçant le sentiment national et surtout à travers divers dispositifs concrets, la France pourra suivre la voie ouverte par ces deux pays et limiter voire inverser la tendance à la fuite des cerveaux. Nous devons aller dans cette direction. Notre pays n'est pas un centre de formation destiné à préparer les futurs génies de la Silicon Valley.

7. Mettre en place une politique publique de l'IA avec des objectifs, des moyens et des outils de suivi et d'évaluation

Plutôt que d'annoncer une stratégie sans objectifs, sans gouvernance et sans outils de suivi, visant pourtant à « faire de la France un leader mondial de l'IA », il convient de mettre en place une véritable politique publique de l'IA avec des objectifs, des moyens réels dont une gouvernance digne de ce nom, et, enfin, des outils de suivi et d'évaluation. Ces éléments sont aujourd'hui cruellement absents des politiques publiques menées en France en matière d'intelligence artificielle.

Plus largement, la politique de la Start-up Nation avec son bras armé la French Tech, aussi élitiste qu'inadaptée, est à abandonner au profit d'une politique de souveraineté numérique, cherchant à construire notre autonomie stratégique et à mailler les territoires.

8. Organiser le pilotage stratégique de la politique publique de l'intelligence artificielle au plus haut niveau

La stratégie nationale pour l'IA ne dispose pas d'une gouvernance digne de ce nom et, comme l'ont montré les développements du présent rapport, le coordinateur national à l'intelligence artificielle ne représente qu'une toute petite équipe rattachée à un service de Bercy, la DGE. Il faudra, au moins, mieux coordonner la politique publique nationale de l'intelligence artificielle que nous appelons de nos voeux et lui donner une réelle dimension interministérielle avec un rattachement du coordinateur au Premier ministre.

La nomination d'une secrétaire d'État à l'intelligence artificielle et au numérique va dans le bon sens, mais il faut aller plus loin que ce premier pas symbolique et définir un pilotage stratégique de la politique publique de l'intelligence artificielle au plus haut niveau avec une coordination interministérielle.

9. Former les élèves de l'école à l'Université, former les actifs et former le grand public à l'IA

Il est indispensable de lancer de grands programmes de formation à destination des scolaires, des collégiens, des lycéens, des étudiants, des actifs et du grand public à l'IA. De ce point de vue, les politiques conduites par la Finlande, qui ont été présentées de manière détaillée, sont des modèles à suivre. La démystification de l'IA est une première étape importante et nécessaire pour permettre une adhésion à son développement. Elle favorisera aussi la diffusion de la technologie dans la société et dans nos entreprises. Et des programmes de formation de haut niveau permettront par ailleurs une montée en compétence en IA en France, qui dispose déjà d'atouts importants en la matière.

Il faut aussi promouvoir une vision scientifiquement éclairée et plutôt optimiste de l'intelligence artificielle, telle que celle portée par Yann LeCun par exemple, qui est l'un de nos plus grands experts de ces technologies. L'IA générale reste pour l'heure une perspective peu probable et la question des risques existentiels éventuellement posés par ces technologies n'est pas une priorité, même si elle fait écho aux représentations catastrophistes que le grand public se fait souvent de l'IA en lien avec les récits de science-fiction et le cinéma. Vos rapporteurs, comme leurs prédécesseurs de 2017, jugent indispensable de démystifier l'intelligence artificielle.

10. Accompagner le déploiement de ces technologies dans le monde du travail et la société, notamment par la formation permanente

S'il est difficile de prévoir l'impact précis que l'IA aura sur le marché du travail, comme l'ont montré les développements à ce sujet dans le présent rapport, il faut tout de même accompagner le déploiement de ces technologies, notamment l'IA générative, dans le monde du travail, en particulier par des programmes de formation permanente ambitieux.

LaborIA s'intéresse aux aspects qualitatifs de ces transformations, mais il ne faut pas oublier les enjeux quantitatifs. C'est pourquoi il est recommandé de mener régulièrement des études qualitatives et quantitatives sur l'impact de l'IA sur l'emploi, le tissu social (dont les inégalités) et les structures cognitives en vue d'éclairer les pouvoirs publics et d'anticiper les mutations des pratiques professionnelles et les changements structurels dans les secteurs d'activité. Sur cette base, il sera possible d'ajuster plus efficacement les programmes de formation permanente et d'adapter les politiques publiques, par exemple en matière d'éducation, de recherche ou de soutien à l'innovation.

11. Lancer un grand dialogue social autour de l'intelligence artificielle et de ses enjeux

Le dialogue social par la négociation collective peut être renouvelé par l'introduction de cycles de discussions tripartites autour de l'IA et de ses nombreuses problématiques. Une opération d'envergure nationale, comme un Grenelle de l'IA, pourrait également être organisée.

Le dialogue social autour de l'IA devrait aussi se décliner dans les entreprises avec les salariés, les responsables des systèmes d'information et les DRH pour permettre une meilleure diffusion des outils technologiques et un rapport moins passionné à leurs conséquences. Comme le présent rapport l'a montré, c'est en effet une occasion de favoriser l'appropriation concrète et réaliste de la technologie et de ses enjeux, en se débarrassant des mythes entourant l'IA.

12. Mobiliser et animer l'écosystème français de l'IA

L'écosystème français de l'IA ne doit pas être mobilisé qu'à travers la French Tech, des meet-up à Station F et l'événement annuel VivaTech. Tous les acteurs de l'IA, la recherche publique et privée, les grands déployeurs de systèmes mais aussi l'ensemble des filières économiques via des correspondants IA (qui pourraient être des représentants des DSI par secteur) doivent pouvoir faire l'objet d'une grande mobilisation générale.

C'est un peu l'esprit qui avait régné entre décembre 2016 et mars 2017 lors de la préparation du plan France IA voulu par le Président de la République, alors François Hollande, un plan sans doute trop rapidement enterré au profit d'une stratégie de Start-up Nation dont les impasses et les lacunes apparaissent de plus en plus nettement avec le temps.

Il y manquait tout de même une structure d'animation, raison pour laquelle vos rapporteurs suggèrent de mobiliser l'écosystème français de l'IA autour de pôles d'animation régionaux, en relation étroite avec les universités, les centres de recherche, comme Inria, et les entreprises. Des expériences étrangères ayant concrétisé l'approche initiale de France IA peuvent nous inspirer. La structure NL AI Coalition, créée par le gouvernement néerlandais et rencontrée par vos rapporteurs à La Haye, rassemble ainsi depuis cinq ans l'écosystème public et privé de l'IA aux Pays-Bas, avec le concours du patronat, des universités et des grands centres de recherche. Elle s'appuie sur sept centres régionaux et est organisée en 18 groupes de travail thématiques.

13. Reconduire le programme « Confiance.ai » ou mettre en place un projet équivalent

Le programme « Confiance.ai » s'est interrompu en 2024 alors qu'il ne coûtait pas cher438(*) et était efficace439(*). Il visait à permettre aux industriels d'intégrer des systèmes d'IA de confiance dans leurs process grâce à des méthodes et des outils intégrables dans tout projet d'ingénierie.

Pour ce faire, le programme levait les verrous associés à l'industrialisation de l'IA comme la construction de composants de confiance maîtrisés, la construction de données et/ou de connaissances pour augmenter la confiance dans l'apprentissage ou encore l'interaction générant de la confiance entre l'utilisateur et le système fondé lui-même sur l'IA de confiance. Il réunissait dans une logique partenariale de grands acteurs académiques et industriels français dans les domaines critiques de l'énergie, la défense, des transports et de l'industrie 4.0 comme l'illustre ce graphique.

Les partenaires du programme Confiance.ai

Source : Confiance.ai 

Le programme visait la construction d'une plateforme sûre, fiable et sécurisée d'outils logiciels, qui soit à la fois souveraine, ouverte, interopérable et pérenne dans les secteurs des produits et services critiques les plus concernés, mutualisant les savoir-faire scientifiques et technologiques et contribuant au cadre technique du règlement européen sur l'intelligence artificielle. Dans ce contexte, il est demandé au gouvernement et, en particulier, à la DGE de reconduire le programme « Confiance.ai » ou de mettre très rapidement en place un projet équivalent capable d'allier des expertises en termes de technologie, d'évaluation et de normalisation de l'intelligence artificielle.

Son coût d'environ 3,75 millions d'euros par an est à mettre en regard des 37 milliards d'euros de dépenses proposés par la commission sur l'intelligence artificielle en 2024. Le programme « Confiance.ai » n'en représentait que 1 %, or au vu de ses actions et de ses résultats, il justifie la poursuite d'un effort budgétaire raisonnable et pourtant rentable.

14. Soutenir la recherche publique en intelligence artificielle selon des critères de transversalité et de diversification des technologies

La recherche privée en intelligence artificielle a pris beaucoup d'avance sur la recherche publique, mais cette dernière doit revenir dans la course. La soutenir davantage est un impératif. L'Office juge pertinent de l'orienter vers des activités transdisciplinaires et, plus globalement, transversales autour de « projets de recherche » en IA.

La préoccupation à l'égard de la diversification des technologies est aussi fondamentale : les avancées en IA se font par la combinaison et la recomposition de savoirs et de savoir-faire, pas par l'enfermement dans un modèle unique que l'on chercherait à perfectionner. L'IA générative, à travers son modèle Transformer, ne doit pas devenir la priorité du monde de la recherche, en dépit de l'effet de mode autour de ChatGPT. L'IA symbolique, par exemple, ne doit pas être totalement abandonnée, elle peut s'hybrider avec les IA connexionnistes pour forger de nouvelles approches logiques, imbriquant le signifiant et le signifié et, partant, plus proches des raisonnements humains. D'autres technologies permettant d'apporter plus de logique aux systèmes d'IA générative peuvent également inspirer de nouvelles perspectives pour la recherche, comme les modèles « Mixture of Experts » (MoE), les arbres de pensées ou Trees of Thoughts (ToT) et la génération augmentée de récupération ou Retrieval Augmented Generation (RAG). La prise en compte de modèles de représentation du monde (« World Models ») dans de nouvelles « architectures cognitives » est un autre défi que la recherche devra relever, permettant aux IA de prendre en compte la réalité spatio-temporelle, y compris le monde physique et ses lois. Ce domaine avance lentement mais pourrait connaître une accélération des découvertes440(*).

Pour paraphraser Rabelais qui écrivait que « Science sans conscience n'est que ruine de l'âme », vos rapporteurs affirment que « l'IA sans logique n'est qu'illusion d'intelligence ».

15. Relever le défi de la normalisation en matière d'intelligence artificielle

Il faut permettre à la France de défendre au mieux l'intérêt national ainsi que les intérêts de nos entreprises nationales en matière de normalisation de l'IA, ce qui implique de mobiliser davantage l'Afnor et surtout le Cofrac, aujourd'hui désinvesti sur ce sujet.

Il faudrait aussi maintenir ou augmenter le financement de nos organismes de normalisation qui remplissent leurs missions dans des conditions parfois difficiles.

Enfin, la France doit inviter ses partenaires européens à faire preuve d'une plus grande vigilance dans le choix de leurs représentants dans les comités chargés de la normalisation en IA : s'appuyer sur des experts issus d'entreprises extra-européennes, le plus souvent américaines ou chinoises, n'est pas acceptable.

16. S'assurer du contrôle souverain des données issues de la culture française et des cultures francophones et créer des jeux de données autour des cultures francophones

Il faut à la fois s'assurer du contrôle souverain des données issues de la culture française, notamment des archives détenues par la BNF ou l'Institut national de l'audiovisuel, voire des cultures francophones et créer des datasets autour des cultures francophones, en vue d'alimenter l'entraînement de modèles d'IA reflétant notre environnement linguistique et culturel.

Il s'agit d'un acte de résistance face à la domination linguistique et culturelle anglo-saxonne, en particulier américaine, qui caractérise l'IA aujourd'hui et qui fait courir un risque grave d'uniformisation culturelle et d'appauvrissement linguistique. Les jeux de données autour des cultures francophones pourront être constitués avec le concours de tous les pays de la francophonie.

Les initiatives conduites par certains pays, en particulier par l'Espagne, peuvent contribuer à inspirer notre pays et à aider à la définition du cadre de ces datasets. En effet, le gouvernement espagnol a lancé depuis 2022 un plan national autour de la « nouvelle économie de la langue ». Il vise à placer l'espagnol au coeur de la transformation numérique et de la promotion de la chaîne de valeur de la nouvelle économie de la connaissance et de l'intelligence artificielle. La France doit faire la même chose pour le français. Ainsi, le plan de l'Espagne se décline notamment en constitution de bases de données textuelles dans les langues espagnoles, ces datasets, permettant l'entraînement de modèles et la création de LLM basés sur la langue et la culture espagnoles.

Comme l'Espagne, qui a réservé une part de son plan à ses langues « co-officielles » (catalan, basque, galicien) à côté de l'espagnol, la France pourrait avantageusement consacrer une part de ces jeux de données autour des cultures francophones aux langues régionales (breton, occitan, basque, corse, langues pratiquées dans les territoires ultramarins...) dont l'appartenance au patrimoine national a été consacrée par la Constitution depuis 2008.

17. Préparer une réforme des droits de propriété intellectuelle dont le droit d'auteur pour les adapter aux usages de l'IA générative

Il faut poser les bases d'une réforme des droits de propriété intellectuelle et du droit d'auteur pour les adapter aux usages de l'IA générative et aux problèmes posés plus généralement par l'utilisation de l'intelligence artificielle. Notre législation en matière de propriété intellectuelle et de droits d'auteur applicables à l'IA générative nécessite à l'évidence plusieurs éclaircissements. Le rapport d'information de la commission des lois de l'Assemblée nationale déposé en conclusion des travaux de sa mission d'information sur les défis de l'intelligence artificielle générative en matière de protection des données personnelles et d'utilisation du contenu généré s'est consacré à ce travail de clarification. Les 33 recommandations de nos collègues députés, que nous ne récapitulerons pas ici, fournissent des pistes intéressantes qu'il convient d'évaluer et de soumettre à la délibération441(*).

L'objectif d'une telle réforme sera à la fois de clarifier les régimes juridiques applicables, de protéger les ayants droit des données ayant servi à l'entraînement des modèles mais aussi les créateurs d'oeuvres nouvelles grâce à l'IA. Cela impliquera donc, d'une part, de trancher l'épineuse question de l'équilibre entre les intérêts des ayants droit et intérêt des entreprises développant des modèles d'intelligence artificielle, d'autre part, de lever le doute sur la frontière entre oeuvre originale et contrefaçon ou copie dans le cas d'un travail créé par IA puisque la réforme devra aussi mettre fin au flou juridique entourant le statut des oeuvres créées par l'intelligence artificielle.

La solution des droits voisins, utilisée dans les secteurs de la musique et du cinéma, mais aussi de l'information (dont la presse écrite) à la suite des transformations liées au numérique et à Internet, est une perspective dont il faut débattre.

Face au succès des plateformes de streaming et de service de vidéo à la demande, l'enjeu de ces compensations financières devient grandissant. Il le sera encore plus avec la diffusion de l'IA. L'UE s'est d'ailleurs dotée en 2019 d'une directive sur le droit d'auteur et les droits voisins dans le marché unique numérique442(*), qu'il faudra faire évoluer au rythme des capacités de création de l'IA.

Techniquement, l'utilisation de données propriétaires et surtout de contenus protégés par le droit d'auteur peut non seulement être limitée en amont par le nettoyage des données mais dorénavant corrigée en aval grâce à une nouvelle technologie introduite récemment appelée Model disgorgement ou Machine Unlearning. Les entreprises qui collecteraient illégalement des données pour les utiliser à fin d'entraînement de leurs modèles pourraient par exemple être dans l'obligation non seulement de supprimer les données problématiques et de les abandonner lors de futurs entraînements mais surtout de mettre à jour leurs modèles en faisant comme si ces données n'avaient jamais été utilisées. Plutôt que de réentraîner totalement leurs modèles, les entreprises s'appuieraient alors utilement sur cette technique émergente qui pourra encore être perfectionnée443(*).

18. Confier à l'OPECST le suivi et l'évaluation régulière de la politique publique conduite par le Gouvernement en la matière

La politique nationale en matière d'IA conduite par le Gouvernement devrait faire l'objet d'un suivi et d'une évaluation régulière par l'OPECST. Les aspects scientifiques et technologiques de l'intelligence artificielle ainsi que les enjeux qu'ils soulèvent appellent une expertise et une vigilance à la croisée des mondes politiques et scientifiques, c'est donc logiquement à l'OPECST qu'il convient de faire appel.

Dans le rapport précité de la commission des lois de l'Assemblée nationale, nos collègues députés - ayant constaté que le premier travail parlementaire relatif à l'IA avait été fait dans le rapport de l'OPECST de mars 2017 « Pour une intelligence artificielle maîtrisée, utile et démystifiée », qualifié « d'étude approfondie » - préconisent dans leur 33e recommandation de confier à l'OPECST un suivi permanent des questions relatives à l'intelligence artificielle.

Les rapporteurs Philippe Pradal et Stéphane Rambaud estiment en effet « souhaitable que le Parlement puisse réaliser un suivi permanent des questions relatives à l'intelligence artificielle, dont les implications sont multiples et évolutives. L'Office parlementaire d'évaluation des choix scientifiques et technologiques semble le mieux à même d'assumer cette responsabilité, d'autant qu'il a déjà travaillé sur ce sujet ».

L'actualisation des connaissances sur l'IA et ses enjeux par le présent rapport plaide encore plus en ce sens aujourd'hui.

LISTE DES PERSONNES ENTENDUES

I. INSTITUTIONS

Conseil national du numérique (CNNum)

- Gilles Babinet, co-président, entrepreneur

- Joëlle Toledano, co-présidente, professeure des universités

- Jean Cattan, secrétaire général

- Agathe Bougon, secrétaire générale adjointe, chargée de la communication

- Anne Alombert, philosophe, enseignante-chercheuse à l'université Paris 8 Vincennes à Saint-Denis

- Olga Kokshagina, chercheuse en management

Commission nationale de l'informatique et des libertés (Cnil)

- Bertrand Pailhès, directeur des technologies et de l'innovation, ancien coordinateur national pour l'intelligence artificielle

- Félicien Vallet, chef du service Intelligence artificielle

- Chirine Berrichi, conseillère parlementaire

Direction générale des entreprises

- Loïc Duflot, chef du service de l'économie numérique

- Marie-Léa Rols, chargée de mission pour l'intelligence artificielle

Guillaume Avrin, coordinateur national pour l'intelligence artificielle

Commission de l'intelligence artificielle

- Philippe Aghion, co-président, professeur au Collège de France, à l'Insead et à la London School of Economics

- Anne Bouverot, co-présidente, présidente de l'École normale supérieure

- Cyprien Canivenc, rapporteur général

- Arno Amabile, rapporteur général

Organisation de coopération et de développement économiques

- Nozha Boujemaa, co-présidente du groupe d'experts sur l'IA de confiance à l'OCDE et membre du groupement d'experts de haut niveau sur l'IA auprès de la Commission européenne

- Angélina Gentaz, chargée de mission sur les politiques publiques de l'IA

Association française de normalisation (Afnor)

- Patrick Bezombes, conseiller pour la stratégie et la gouvernance de l'IA, représentant de la France au CEN-Cenelec pour la normalisation européenne de l'IA

II. ANCIENS PARLEMENTAIRES

Cédric Villani, ancien député, ancien président de l'OPECST, mathématicien, professeur des universités, membre de l'Académie des sciences, auteur du rapport « Donner un sens à l'intelligence artificielle » en 2018

Claude de Ganay, ancien député, ancien membre de l'OPECST, auteur du rapport « Pour une intelligence artificielle maîtrisée, utile et démystifiée » de l'OPECST en 2017

III. EXPERTS ET SCIENTIFIQUES

Raja Chatila, membre du conseil scientifique de l'OPECST, professeur émérite à l'université Paris Pierre-et-Marie-Curie (UPMC), directeur de recherche au Centre national de la recherche scientifique (CNRS), membre du comité national pilote d'éthique du numérique (CNPEN), président de l'Initiative mondiale IEEE sur l'éthique des systèmes autonomes et intelligents, co-président du groupe « IA responsable » du Global Partnership on Artificial Intelligence (GPAI), membre du groupe d'experts européen sur l'intelligence artificielle, ancien directeur de l'Institut des systèmes intelligents et de robotique (ISIR)

Daniel Andler, membre du Conseil scientifique de l'OPECST, professeur d'université, membre de l'Académie des sciences morales et politiques

Institut national de recherche en sciences et technologies du numérique (Inria)

- Bruno Sportisse, président-directeur général

- Frédéric Alexandre, directeur de recherche à l'Inria, responsable de l'équipe MNEMOSYNE à l'Institut des maladies neurodégénératives (CNRS-Inria-Université de Bordeaux-CHU Pellegrin)

- Yann Ferguson, sociologue, directeur scientifique de LaborIA

- Sandrine Mazetier, directrice générale déléguée à l'appui aux politiques publiques

Commissariat à l'énergie atomique et aux énergies alternatives (CEA)

- François Terrier, vice-président IA, directeur des programmes du List (systèmes numériques)

- Jérôme Bobin, directeur du département d'électronique et informatique pour la physique (Dedip) et du programme NumPEx (logiciels pour supercalculateurs)

- Hélène Latour, chargée de mission Affaires publiques et institutionnelles

Serge Abiteboul, directeur de recherche à l'Institut national de recherche en sciences et technologies du numérique (Inria), professeur affilié à l'ENS Paris Saclay, membre de l'Académie des sciences et du Collège de l'Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep), président du conseil scientifique de la DGFiP, ancien professeur au Collège de France (Chaire d'informatique), ancien membre du Conseil national du numérique, ancien président du conseil scientifique de la Société d'informatique de France, animateur du blog binaire

Bertrand Braunschweig, coordinateur scientifique du programme national de recherche sur l'IA de confiance « Confiance.Ai », ancien coordinateur de la stratégie nationale de recherche en IA, ancien directeur du numérique à l'Agence nationale de la recherche (ANR), ancien directeur des centres Inria de Saclay et de Rennes

Jean-Gabriel Ganascia, professeur émérite à l'université Paris Pierre-et-Marie-Curie (UPMC), membre de l'Institut universitaire de France, président de l'association française pour l'avancement des sciences (Afas) et des comités d'éthique de Pôle emploi et de Docaposte, ancien président du Comets (Comité d'éthique du CNRS), auteur d'ouvrages sur l'IA destinés au grand public

Laurence Devillers, professeure à l'université Paris-Sorbonne et directrice de recherche au CNRS, Laboratoire d'informatique pour la mécanique et les sciences de l'ingénieur (Limsi de Saclay)

Laurent Alexandre, entrepreneur, conférencier, essayiste, membre de l'Académie des technologies

Christophe Labarde, journaliste, organisateur de l'exposition Irruption - Quand l'intelligence artificielle bouleverse la création

Pierre Fautrel, cofondateur du collectif d'artistes Obvious

IV. ENTREPRISES ET ASSOCIATIONS

Mistral AI

- Audrey Herblin-Stoop, directrice Affaires publiques

- Marie Pellat, ingénieure, spécialiste de la sécurité de l'IA

- Lucile Saulnier, ingénieure, chercheuse en IA

Atos

- Vasco Gomes, responsable technologique Cybersécurité

Dataiku

- Florian Douetteau, co-fondateur et président

LightOn

- Igor Carron, co-fondateur et président

- Olga Lopusanschi, responsable clients

Preligens

- Tugdual Ceillier, chercheur expert en IA

- Marc Antoine, responsable Affaires publiques

XXII

- William Eldin, fondateur et président

- François Mattens, directeur des affaires publiques et des partenariats stratégiques

Microsoft France

- Philippe Limantour, directeur technologique et cybersécurité

- Lionel Benatia, directeur des affaires publiques

Google France

- Jean-Marie Boutin, directeur des relations institutionnelles

- Sarah Boiteux, membre de l'équipe Government affairs and public policy

Meta France

- Martin Signoux, responsable Affaires publiques

IBM France

- Vincent Perrin, directeur technique écosystème, IA et informatique quantique

- Diane Dufoix-Garnier, directrice Affaires publiques

- Thierno-Babacar Ndiaye, alternant au sein de la cellule Affaires publiques

Kaspersky

- Bertrand Trastour, directeur général France

- Amin Hasbini, directeur du centre de recherche Moyen-Orient/ Turquie/ Afrique

- Vincent Prevost, consultant

- Gladys-Anne Okatakyie Yiadom, responsable des affaires publiques

SaferAI

- Siméon Campos, fondateur et président

Cybernetica

- Tariq Krim, fondateur et président

V. DÉPLACEMENT À BRUXELLES

Mercredi 24 et jeudi 25 avril 2024

Commission européenne

- Mauritz-Jan Prinz, conseiller au cabinet de M. Thierry Breton, Commissaire européen chargé du marché intérieur, accompagné par des représentants de la DG Connect de la Commission européenne

Parlement européen

- Svetla Tanova, responsable du European Science Media Hub

- Tambiama Madiega, analyste Politiques numériques au service de recherche du Parlement européen (STOA)

Ambassade de France en Belgique

- François Sénémaud, ambassadeur de France en Belgique

- Séverine Fautrelle, conseillère de coopération et d'action culturelle

Représentation Permanente de la France

- Benoît Blary, conseiller

Hugues Bersini, professeur à l'Université libre de Bruxelles, membre de l'Académie royale de Belgique

Institut Fari (Institut d'intelligence artificielle de la région Bruxelles-capitale)

- Carl Mörch, directeur

VI. DÉPLACEMENT AUX PAYS-BAS

Jeudi 25 et vendredi 26 avril 2024

Europol

- Jean-Philippe Lecouffe, directeur adjoint

- Didier Jacobs, directeur de l'intelligence artificielle

- Emmanuel Kessler, responsable de l'équipe Prévention et sensibilisation du Centre européen de lutte contre la cybercriminalité (EC3)

Ministère de l'intérieur (BZK)

Eva Heijblom, directrice générale Transition numérique des services de l'État

Mark Pryce, responsable Affaires internationales

Ministère des affaires étrangères (BZ)

- Joost Flamand, directeur de la politique de sécurité (DVB)

Ministère des affaires économiques et du climat (EZK)

- Thomas Faber, responsable au sein du département de l'économie numérique

Ministère de l'éducation, de la culture et de la science (OCW)

- Anne-Marie De Ruiter, directrice Europe

Autorité des données personnelles

- Sven Stevenson, directeur de programme à la direction des algorithmes de coordination (DCA)

Organisation néerlandaise pour la recherche scientifique appliquée (TNO)

- Christine Balch, responsable Affaires européennes, stratégie d'entreprise

- Anne Fleur van Veenstra, directrice scientifique au Centre d'innovation et de stratégie sociétale (TNO Vector) et professeur chargé de la gouvernance des données et des algorithmes à l'Université de Leyde

- Freek Bomhof, directeur du programme Applications de l'IA

AI Amsterdam Coalition

- Anita Nijboer, ambassadrice

Université de technologie de Delft

- Han La Poutré, professeur, responsable Recherche et stratégie au CWI (Institut national de recherche en mathématiques et en informatique)

- Alessandro Bozzon, professeur

- Fred Herrebout, responsable Affaires publiques

Centre d'innovation pour l'intelligence artificielle (Innovation Center for Artificial Intelligence - ICAI)/Université d'Amsterdam

- Maarten de Rijke, directeur

Confédération de l'industrie et des employeurs des Pays-Bas (VNO-NCW)

- Stefan Leijnen, directeur IA pour les politiques internationales et européennes

TechLeap

- Maxime Lubbers, responsable Intelligence artificielle

- Abla Chaoui, expert Data et IA

Fabien Bouhier, entrepreneur et investisseur

Ambassade de France aux Pays-Bas

- François Alabrune, ambassadeur de France aux Pays-Bas

- Jean-Jacques Pierrat, attaché de coopération scientifique et universitaire

- Marnix Satter, attaché de coopération scientifique et universitaire adjoint

- Manola Ruff, attachée Industrie et innovation

· Service économique régional de La Haye

- Benoît Lemonnier, conseiller financier régional, adjoint à la cheffe du service

CCI France/Pays-Bas

- Sylvie Craenen, directrice générale

French Tech Amsterdam

- Mylena Pierremont, présidente

VII. DÉPLACEMENT AU ROYAUME-UNI

Du mercredi 21 au vendredi 23 février 2024

Chambre des Lords

- Timothy Clement-Jones, membre de la Chambre des Lords, porte-parole pour l'Économie numérique

AI Safety Institute, ministère de la science, de l'innovation et de la technologie

- Imogen Schon, directrice adjointe

- Anna Bruvere, responsable pour la coopération politique internationale

Innovate UK

- Sarah El-Hanfy, responsable IA et Machine learning

Ada Lovelace Institute

- Fran Bennett, directrice générale par intérim

- Michael Birtwistle, directeur Droit et politiques publiques

Université d'Oxford

- Lionel Tarassenko, professeur de bioingénierie, intelligence artificielle et santé

Google DeepMind

- Ankur Vora, responsable Politique internationale et engagement public

- Dorothy Chou, responsable Affaires publiques

- Jean-Marie Boutin, responsable Affaires publiques Google France

BBC

- Danijela Horak, responsable de la recherche en intelligence artificielle

KPMG

- Dennis Tatarkov, économiste

Tony Blair Institute for global change

- Melanie Garson, responsable Politiques et cybersécurité, professeur de résolution des conflits internationaux et de sécurité internationale au département de science politique de University College London (UCL)

Ambassade de France au Royaume-Uni

- Hélène Duchêne, Ambassadrice de France au Royaume-Uni

· Service pour l'enseignement supérieur, la recherche et l'innovation (ESRI)

- Minh-Hà Pham, conseillère Science et technologie

- Ludovic Drouin, attaché scientifique

- Yanis Gillmann, attaché adjoint Science et innovation

· Service économique régional (SER)

- Karine Maillard, conseillère économique

- Lara Joutard, attachée numérique

VIII. DÉPLACEMENT AUX ÉTATS-UNIS (NEW YORK, WASHINGTON D.C., SAN FRANCISCO)

Du dimanche 14 au dimanche 21 avril 2024

Congrès des États-Unis

- Anna Eshoo, représentante (Démocrate-Californie)

- Todd Young, sénateur (Républicain-Indiana)

- Marsha Blackburn, sénatrice (Républicain-Tennessee)

- Mike Rounds, sénateur (Républicain-Dakota du Sud)

Office of science and technology policy (OSTP) de la Maison-Blanche

- Austin Bonner, directrice générale adjointe Technologies et politiques publiques

- Alex Engler, conseiller politique

ONU et Unesco

- Estelle Zadra, officier de liaison entre l'ONU et l'Unesco pour l'Europe et l'Amérique du Nord

Bureau de l'UE à San Francisco

- Joanna Smolinska, directrice adjointe en charge du numérique

National Science Foundation (NSF)

- Michael Littman, directeur de la division de l'informatique et des systèmes intelligents

- Wendy Nilsen, directrice adjointe de la division de l'informatique et des systèmes intelligents

- Katie Antypas, directrice du bureau Cyberinfrastructures avancées

- Dilma da Silva, directrice adjointe pour la science et l'ingénierie de l'informatique

- Roxanne Nikolaus, responsable de section, Bureau de la science et de l'ingénierie internationales

- Sirin Tekinay, responsable des relations entre la recherche américaine et le G7, le G20 et l'Europe

Université de Stanford

- Emmanuel Candès, co-président de l'Institut de la science des données

- Florence G'sell, professeure invitée Programme Gouvernance des technologies émergentes

- Michelle Pualuan, responsable des programmes

- Marietje Schaake, chargée de mission Politique internationale

Université de Californie Berkeley - CITRIS (Center for information technology research in the interest of society)

- Alexandre Bayen, directeur

- Camille Crittenden, directrice exécutive

- Sandrine Dudoit, doyenne adjointe de la faculté et de la recherche

- Brandie Nonnecke, directeur du laboratoire pour les politiques publiques, les risques et la sécurité (CITRIS Policy Lab)

Université du Maryland

- Michel Cukier, professeur

EveryoneAI

- Mathilde Cerioli, responsable scientifique

- Anne-Sophie Seret, chef de projet

- Céline Malvoisin, experte en développement du langage

Allen Institute

- Rui Costa, directeur général

- Andy Hickl, directeur technique

Meta

- Yann LeCun, directeur scientifique de l'IA, professeur à New York University

- Nicolas Bièvre, ingénieur en IA

Microsoft GitHub

- Mike Linksvayer, vice-président en charge des politiques publiques

- Peter Cihon, directeur des politiques publiques

Google

- Matthieu Lorrain, chef global de l'innovation créative

- Surya Tubach, cheffe de projet, Google Arts & Culture

- Vincent Vanhoucke, directeur en robotique, Google DeepMind

- Inès Mezerreg, ingénieure en intelligence artificielle, Google Research

- Shervine Amidi, ingénieur

OpenAI

- Elisabeth Proehl, responsable de l'équipe Affaires internationales

- Karen Toro, membre de l'équipe Affaires internationales

Anthropic

- Cathy Dinas, cheffe de cabinet

- Alex Tamkin, chef de projet

- Ashley Zlatinov, responsable des politiques publiques

Hugging Face

- Yacin Jernite, chercheur en IA

Nvidia

- Ned Finkle, vice-président en charge des relations extérieures

- Matt Milner, responsable des affaires publiques

Amazon Web Service (AWS)

- Christian Troncoso, directeur de la politique globale IA

- Sasha Rubel, responsable des politiques publiques en IA/machine learning Europe-Afrique-Moyen-Orient

- Sherry Markus, directrice scientifique d'Amazon Bedrock

- Charlotte Baylac, responsable des affaires publiques d'AWS France

Asana

- Rebecca HINDS, responsable de « The Work Innovation Lab »

J&P Morgan Chase & Co

- Manuela Veloso, responsable de la recherche en IA

XBrain

- Gregory Renard, fondateur et président

LaVague

- Daniel Huynh, président-directeur général

Prometheus Computing

- Frédéric de Vaulx, directeur général

Asurion/Simplr

- Clément Ruin, senior data scientist

Appen

- Alice Desthuilliers, responsable produits

Mobioos

- Nolwenn Godard, vice-présidente

Virgile Foussereau, chercheur, Université de Berkeley

Ambassade de France aux États-Unis (Washington D.C.)

- Laurent Bili, ambassadeur de France aux États-Unis

- Damien Cristofari, premier conseiller

- Alexandre Mirlesse, conseiller politique Chancellerie diplomatique

- Mireille Guyader, conseillère scientifique

- Marc Brocheton, conseiller économique, Entreprise et innovation (Service économique régional)

- Pascal Confavreux, conseiller Presse et communication

- Sébastien Pauly, attaché de défense adjoint - Armement

- Pascal Revel, attaché pour la science et technologie

- Ludovic Francis, attaché scientifique adjoint

- Vincent Lépinay, attaché de coopération universitaire

- A. Smith, attachée de presse

- V. d'Alançon, chargée de mission

Consulat général de France à San Francisco

- Frédéric Jung, consul général de France

- Vanessa Bonnet, attachée économique

- Emmanuelle Pauliac-Vaujour, attachée scientifique

- Valentine Asseman, attachée scientifique adjointe

Commissariat à l'énergie atomique et aux énergies alternatives (CEA)

- Sunil Félix, conseiller nucléaire États-Unis/Canada

Centre national de la recherche scientifique (CNRS)

- Sylvie Tourmente, directrice du bureau États-Unis et Canada

Centre national d'études spatiales (CNES)

- Nicolas Maubert, conseiller spatial pour les États-Unis

Institut national de recherche pour l'agriculture, l'alimentation et l'environnement (Inrae)

- Laura Gonçalves de Souza, chargée de mission pour les États-Unis

ANNEXES


* 436 « IA : l'Europe peut encore jouer dans la cour des grands ! » dans Les Échos du 31 octobre 2024 : https://www.lesechos.fr/idees-debats/cercle/opinion-ia-leurope-peut-encore-jouer-dans-la-cour-des-grands-2128995

* 437 La note s'intitule « Time to place our bets: Europe's AI opportunity » et vise à encourager la compétitivité de l'Europe sur la totalité de la chaîne de valeur de l'IA en recourant à une approche à plusieurs niveaux que le cabinet qualifie ainsi : « A holistic approach to help Europe realize generative AI's full potential ». Cf. Alexander Sukharevsky et al., octobre 2024, « Time to place our bets: Europe's AI opportunity », Mc Kinsey Global Institute : https://www.mckinsey.com/capabilities/quantumblack/our-insights/time-to-place-our-bets-europes-ai-opportunity

* 438 Son budget était de 45 millions d'euros sur quatre ans dont une dotation de l'État de 15 millions d'euros, soit environ 3,75 millions d'euros par an.

* 439 Cf. ses actions sur le site de Confiance.ai : https://www.confiance.ai/

* 440 Joshua Bengio, Yann LeCun et d'autres chercheurs travaillent à cette amélioration qualitative. En novembre 2024, un article a ainsi proposé une nouvelle méthode permettant aux IA génératives de modéliser les dynamiques visuelles sans passer par une étape de reconstruction du monde physique dans un espace pixellisé : le Dino-WM pour World Model. Cf. Gaoyue Zhou, Hengkai Pan, Yann LeCun, Lerrel Pinto, 2024, « DINO-WM : World Models on Pre-trained Visual Features enable Zero-shot Planning » : https://arxiv.org/abs/2411.04983

* 441 Rapport d'information de la commission des lois de l'Assemblée nationale déposé en conclusion des travaux de sa mission d'information sur les défis de l'intelligence artificielle générative en matière de protection des données personnelles et d'utilisation du contenu généré de Philippe Pradal et Stéphane Rambaud, rapport d'information n° 2207, 16e législature : https://www.assemblee-nationale.fr/dyn/16/rapports/cion_lois/l16b2207_rapport-information

* 442 Cette directive, qui visait notamment à protéger le monde de la presse, impose par exemple aux plateformes numériques telles que Google ou Facebook, de rémunérer les éditeurs et les journaux lorsqu'ils utilisent leurs contenus. Cf. la directive du 17 avril 2019 sur le droit d'auteur et les droits voisins dans le marché unique numérique : https://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=CELEX:32019L0790&from=EN

* 443 Cf. Brandon LaLonde, 2023, « Explaining model disgorgement », IAPP : https://iapp.org/news/a/explaining-model-disgorgement et Joshua A. Goland, 2023, « Algorithmic Disgorgement : Destruction of Artificial Intelligence Models as the FTC's Newest Enforcement Tool for Bad Data », Richmond Journal of Law and Technologies, volume XXIX, n° 2 : https://ssrn.com/abstract=4382254

Les thèmes associés à ce dossier

Partager cette page