C. LES FORUMS FERMÉS DU G7, DU PARTENARIAT MONDIAL SUR L'INTELLIGENCE ARTIFICIELLE ET DU CONSEIL DU COMMERCE ET DES TECHNOLOGIES UE-ÉTATS-UNIS

1. Le G7 et son « processus d'Hiroshima »

Le G7 a lancé en mai 2023 un dispositif appelé « processus d'Hiroshima » qui vise à définir de grands principes pour régir l'utilisation de l'intelligence artificielle générative414(*). Il s'agit d'un cadre d'action non contraignant fondé sur les principes suivants : promouvoir une IA sûre et digne de confiance ; fournir des orientations aux organisations qui développent et utilisent les systèmes d'IA ; analyser les possibilités et les défis que représente l'IA ; et promouvoir la coopération pour le développement d'outils et de pratiques en matière d'IA.

Cinq mois plus tard, le 30 octobre 2023, éclairé par un rapport commandé à l'OCDE sur ce processus d'Hiroshima415(*), le G7 a publié « Les principes directeurs internationaux du processus d'Hiroshima pour les organisations développant des systèmes d'IA avancés » et « Le code de conduite international du processus d'Hiroshima pour les organisations développant des systèmes d'IA avancés » et annoncé des projets de recherche conjoints sur l'IA générative avec le Partenariat mondial sur l'intelligence artificielle et l'OCDE.

Les principes directeurs et le code de conduite forment - avec le rapport commandé à l'OCDE et ces projets de recherche conjoints sur l'IA générative - le cadre du processus d'Hiroshima416(*). Ils abordent la « conception, le développement, le déploiement et l'utilisation de systèmes d'IA avancés » et intègrent un large éventail de principes internationaux existants, offrant un ensemble de lignes directrices plus détaillées que les principes de l'OCDE auxquels ils se réfèrent explicitement.

L'approche est fondée sur les risques tout au long du cycle de vie de l'IA, en commençant par des évaluations des risques avant le déploiement et des stratégies d'atténuation. Les développeurs et les déployeurs de modèles et de systèmes d'IA sont ainsi tenus de mettre en oeuvre des procédures de gestion des risques, ainsi que des contrôles de sécurité robustes, y compris sous la forme d'exercices internes de red teaming. L'importance d'une surveillance, d'un signalement et d'une atténuation continus des abus et des incidents est soulignée. En outre, les principes et le code de conduite identifient les domaines prioritaires de la recherche et du développement de l'IA, tels que l'authentification du contenu, la protection des données personnelles et l'établissement de normes techniques.

Les deux documents se réfèrent aux mêmes principes mais ne sont pas destinés aux mêmes publics : les principes directeurs s'adressent à toutes les parties prenantes tandis que le code de conduite est d'abord destiné aux entreprises développant ou déployant des systèmes d'IA.

Le cadre du processus d'Hiroshima est non contraignant et repose sur la participation volontaire des États et des entreprises. De nombreuses entreprises ont manifesté leur intérêt mais pas encore les grandes sociétés américaines de type MAAAM, ou comme Nvidia et IBM. Parmi les entreprises développant des modèles de pointe, seul Anthropic s'est engagé à mettre en oeuvre le code de conduite du processus d'Hiroshima417(*).

Certains observateurs ont dénoncé un cadre trop long sur les bonnes intentions et insuffisamment détaillé, concret et opérationnel418(*). Le Président américain s'est pourtant en partie inspiré de ce cadre pour son Executive Order de 2023, rédigé avec l'appui du Nist. La présidente de la Commission européenne a, de son côté, estimé que le code de conduite était complémentaire à l'AI Act. En juin 2024, le G7 a décidé de préparer un outil de suivi de mise en oeuvre du code de conduite.

Compte tenu de l'importance du sujet, à l'occasion de la réunion des ministres de l'industrie, de la technologie et du numérique du G7 les 14 et 15 mars 2024 consacrée à la future réglementation mondiale de l'IA, il a été décidé d'ouvrir les débats à différentes organisations et plusieurs autres pays : l'OCDE, le Programme des Nations unies pour le développement (PNUD), l'Unesco, l'Union internationale des télécommunications (UIT) et l'Envoyé du Secrétaire général des Nations unies pour la technologie ainsi que le Brésil, la Corée du Sud, l'Ukraine et les Émirats arabes unis ont été invités à se joindre à la conférence. Les participants sont convenus de mettre à jour les Principes directeurs et le Code de conduite du processus d'Hiroshima en fonction des nouveaux développements de l'IA.

Le 2 mai 2024, un an après le lancement du processus d'IA d'Hiroshima, le Premier ministre japonais Kishida Fumio a annoncé la création du club des amis du processus de l'IA d'Hiroshima, un groupe de 49 pays qui soutiennent l'esprit du cadre et ses lignes directrices volontaires.

En conclusion, même si la mise en oeuvre de ce cadre reste incertaine, elle est néanmoins devenue un signe important de la mobilisation internationale en faveur de la gouvernance mondiale de l'IA.

2. L'expertise du Partenariat mondial sur l'intelligence artificielle (PMIA) ou Global partnership on artificial intelligence (GPAI)

Le Partenariat mondial sur l'intelligence artificielle (PMIA ou, en anglais, Global partnership on artificial intelligence ou GPAI) est une initiative internationale proposée en 2018 au sommet du G7 par la France et le Canada.

Ce partenariat, qui s'inspirait du Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC ou en anglais Intergovernmental Panel on Climate Change ou IPCC), est officiellement fondé en 2020 et compte aujourd'hui vingt-neuf membres.

Il vise à promouvoir une IA responsable respectueuse des droits de l'homme et de la démocratie. Le partenariat est organisé autour de quatre thèmes : IA responsable et gouvernance de la donnée, basés à Montréal ; innovation et commercialisation, et futur du travail à Paris.

Le secrétariat du PMIA est assuré par l'OCDE, dont le siège est à Paris. Ce partenariat donne lieu à des réunions annuelles et à la publication d'un rapport annuel sous l'égide de son groupe d'experts (le GIEC du PMIA ou GPAI IPCC a ainsi pris le nom de GPAI MEG pour Multi-stakeholders Experts Group).

En 2024, le PMIA a lancé un partenariat avec l'OCDE et son prochain sommet qui se tiendra à Belgrade en Serbie en décembre 2024 devrait réunir 44 pays et l'OCDE ainsi que des entreprises, des organisations internationales et des chercheurs.

3. Le Conseil du commerce et des technologies (CCT) UE-États-Unis

Le Conseil du commerce et des technologies (CCT) UE-États-Unis a été créé en 2021 pour encourager le commerce bilatéral et réduire l'écart entre la régulation américaine souvent non contraignante et la législation européenne, souvent ambitieuse, comme l'est celle de l'AI Act par exemple. L'UE est le premier marché d'exportation des États-Unis et les États-Unis sont le 2e plus grand importateur de produits européens. Cette économie transatlantique pèse plus de 1 100 milliards de dollars et justifie la recherche de principes et de normes harmonisés, autour de valeurs partagées (comme la protection des données personnelles ou les usages éthiques de l'IA). Depuis 2021, des réunions ont lieu régulièrement (sept à ce jour) conduisant l'UE et les États-Unis à mettre en place différentes initiatives.

Après une feuille de route conjointe sur les outils d'évaluation et de mesure pour une IA et une gestion des risques dignes de confiance adoptée en 2022, le CCT a mis en place trois groupes de travail pour avancer sur la voie de trois projets de collaboration en vue de faire converger les politiques en matière de risques et de créer des outils identiques et appropriés.

L'objectif est de créer une taxonomie et une liste de termes communs, de développer des outils techniques (dont des métriques et des méthodologies de mesure), des normes et des standards internationaux et de surveiller et mesurer les risques existants et les risques émergents liés à l'IA. En avril 2024, afin d'avancer plus vite sur la sécurité de l'IA, les normes et les usages éthiques, un nouveau dialogue collaboratif est créé par le CCT entre le EU AI Office et le US AI Safety Institute.

Trois autres initiatives peuvent être mentionnées : des recherches sur les technologies améliorant la protection de la vie privée (depuis 2022) ; un rapport sur l'impact de l'IA sur l'avenir des mains-d'oeuvre américaines et européennes (publié le 5 décembre 2022) suivi d'une Talent for Growth Tasfkforce chargée de l'amélioration de l'offre de formation permanente et de la diversification des pratiques de recrutement ; la préparation d'un code de conduite sur l'IA à destination des entreprises (mai 2023), abandonnée au motif que le processus d'Hiroshima du G7 poursuit le même objectif (ce travail du G7 a bien abouti le 30 octobre 2023).


* 414 Cf. le « G7 Leaders' Statement on the Hiroshima AI Process », 2023 : https://digital-strategy.ec.europa.eu/fr/library/g7-leaders-statement-hiroshima-ai-process

* 415 Rapport de l'OCDE du 7 septembre 2023, « G7 Hiroshima Process on Generative Artificial Intelligence : Towards a G7 Common Understanding on Generative A » : https://doi.org/10.1787/bf3c0c60-en

* 416 Cf. ce site qui présente le processus et tous les livrables du « Hiroshima AI Process Comprehensive Policy Framework » : https://www.soumu.go.jp/hiroshimaaiprocess/en/index.html

* 417 Cf. Anthropic, 30 novembre 2023, « Thoughts on the US Executive Order, G7 Code of Conduct, and Bletchley Park Summit » : https://www.anthropic.com/news/policyrecap-q4-2023

* 418 Cf. Enza Iannopollo, 2023, « The G7 AI Guidelines: Long On Good Intentions, Short On Detail And Substance », Forrester : https://www.forrester.com/blogs/the-g7-aiguidelines-long-on-good-intentions-short-on-detail-and-substance/

Les thèmes associés à ce dossier

Partager cette page