E. LES AUTRES PROJETS DE GOUVERNANCE MONDIALE : CONSEIL DE L'EUROPE, FORUM ÉCONOMIQUE MONDIAL, INITIATIVES ÉMANANT DU SECTEUR PRIVÉ...
1. La Convention-cadre sur l'IA du Conseil de l'Europe
Avec ses 48 États membres et riche de ses plus de 220 conventions internationales, le Conseil de l'Europe a préparé depuis la fin de l'année 2019 à travers sa commission spéciale sur l'IA une Convention-cadre sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit, qui a été adoptée le 17 mai 2024. Un rapport explicatif a été joint au texte423(*).
Il s'agit du premier traité international juridiquement contraignant visant à garantir une utilisation des systèmes d'intelligence artificielle pleinement conforme aux droits humains, à la démocratie et à l'État de droit. Il nécessitera cependant d'être régulièrement ratifié par chacun des États qui auront décidé de le signer.
Ce traité international qui vise à garantir une IA respectueuse des droits fondamentaux a été ouvert à la signature le 5 septembre 2024, lors d'une conférence des ministres de la justice des États membres du Conseil de l'Europe organisée à Vilnius. À ce stade, il a été signé par Andorre, la Géorgie, l'Islande, la Norvège, la République de Moldova, Saint-Marin, le Royaume-Uni ainsi qu'Israël, les États-Unis d'Amérique et l'Union européenne.
La Convention-cadre vise à garantir que les activités menées aux différentes étapes du cycle de vie des systèmes d'intelligence artificielle sont pleinement compatibles avec les droits humains, la démocratie et l'État de droit, tout en étant favorable au progrès et aux innovations technologiques. Elle apporte des compléments aux normes internationales existantes relatives aux droits humains, à la démocratie et à l'État de droit et a surtout pour but de pallier à tout vide juridique qui pourrait résulter d'avancées technologiques rapides. Afin de résister au temps, la Convention-cadre ne régule pas la technologie et est neutre sur le plan technologique. Une conférence des parties fera office de commission exécutive du traité et facilitera la coopération entre les signataires.
La Convention-cadre du Conseil de l'Europe est critiquée par l'Assemblée parlementaire du Conseil de l'Europe, le Contrôleur européen de la protection des données et plusieurs organisations de la société civile du fait que, sous la pression de certains États membres ou observateurs (notamment les États-Unis, le Royaume-Uni, le Canada et le Japon), les obligations pesant sur les entreprises privées sont en réalité facultatives.
Les parties au traité ont en effet le choix entre appliquer la Convention-cadre aux acteurs privés ou bien traiter des risques et des impacts découlant des activités menées par les acteurs privés d'une manière conforme à l'objet et au but de la convention, en prenant « d'autres mesures pour se conformer aux dispositions du traité tout en respectant pleinement leurs obligations internationales en matière de droits de l'homme, de démocratie et d'État de droit ».
2. L'Alliance pour la gouvernance de l'IA proposée par le Forum économique mondial
Le Forum économique mondial a lancé une Alliance pour la gouvernance de l'IA424(*). Déterminée à promouvoir une IA inclusive, éthique et durable, cette Alliance de 603 membres, dont 463 organisations, se concentre sur le développement des innovations, l'intégration des technologies d'IA dans les secteurs économiques et les impacts pratiques de l'adoption de l'IA.
Elle veille à la collaboration de plusieurs groupes de travail thématiques en vue d'accélérer les progrès technologiques et sociétaux avec des systèmes d'IA sûrs et avancés et de rationaliser la gouvernance de l'IA grâce à des cadres réglementaires solides et la promotion de normes techniques.
3. Des principes et bonnes pratiques proposés par les entreprises au Partnership on AI lancé en 2016 par sept géants de l'IA
Les entreprises, notamment les MAAAM, ont non seulement publié leurs propres principes et standards en matière d'IA (par exemple Google, Microsoft, Meta et Anthropic425(*)) qui prévoient des bonnes pratiques en amont du déploiement des systèmes d'IA (nettoyage des données, vigilance sur les sources et les données synthétiques ; recours à des évaluations et à des tests des modèles, y compris en red teaming ; lutte contre les biais ; alignement des modèles avec des principes éthiques) et en aval (politique de sécurité ; vigilance à la mise sur le marché et après ; transparence et accès aux sources par les RAG par exemple ; watermarking des contenus générés) mais elles ont aussi pris des initiatives en faveur de la gouvernance globale de l'IA.
Un Partnership on AI est créé en 2016. Fondée par Amazon, Facebook, Google, DeepMind, Microsoft et IBM, rejoints par Apple en 2017, cette association regroupe désormais plus d'une centaine de structures, non seulement des entreprises mais aussi des associations et des organismes du monde de la recherche, ainsi que des universitaires426(*). Selon sa propre définition, elle se présente comme un « centre de ressources pour les décideurs politiques, par exemple pour mener des recherches qui éclairent les meilleures pratiques en matière d'IA et pour explorer les conséquences sociétales de certains systèmes d'IA, ainsi que les politiques entourant le développement et l'utilisation de ces systèmes ». Il a publié de nombreux articles, rapports et recommandations depuis sa création, dont, en 2023, un rapport sur l'utilisation des données synthétiques et un guide pour le déploiement de modèles de fondation sûrs. Google, Meta, Microsoft, Apple, OpenAI, le Alan Turing Institute et le Ada Lovelace Institute, ont, avec de nombreuses autres entreprises et organisations, fait part de leur soutien à ces travaux relatifs à la sécurité des modèles d'IA.
Le Partnership on AI est membre du consortium américain de l'AI Safety Institute, a le statut de membre du conseil consultatif de la société civile au sein du réseau des experts de l'OCDE et a eu le statut d'observateur au sein du comité chargé de la rédaction du traité international sur l'IA du Conseil de l'Europe.
4. Le Forum sur les modèles de pointe ou Frontier Model Forum et les autres initiatives
Créé en 2023, le Forum sur les modèles de pointe, ou Frontier Model Forum, est un partenariat restreint entre les entreprises américaines développant les systèmes d'IA les plus avancés : Microsoft, OpenAI, Google et Anthropic, qui se proposent de définir les conditions du développement d'IA sûres et responsables427(*). Il s'agit en effet d'aider à :
- faire progresser la recherche sur la sécurité de l'IA afin de promouvoir le développement responsable des modèles de pointe et minimiser les risques potentiels ;
- identifier les meilleures pratiques de sécurité pour les modèles de pointe ;
- partager les connaissances avec les décideurs politiques, les universitaires, la société civile et d'autres pour faire progresser le développement responsable de l'IA ;
- soutenir les efforts visant à tirer parti de l'IA pour relever les plus grands défis sociétaux.
Le Forum vise aussi la divulgation responsable des vulnérabilités ou des capacités dangereuses au sein des modèles de pointe.
Le Forum a d'ores et déjà publié des notes. Les membres du Forum et leurs partenaires ont également créé un Fonds pour la sécurité de l'IA doté initialement de plus de 10 millions de dollars en vue de soutenir la recherche indépendante sur la sécurité de l'IA, comme de nouvelles évaluations des modèles et de nouvelles techniques de red teaming des modèles d'IA. Ce Fonds se veut un élément de l'accord sur les engagements volontaires en matière d'IA signé à la Maison-Blanche dans le cadre de l'Executive Order de 2023. Le 1er avril 2024, le Forum a annoncé qu'il avait accordé la première série de subventions au titre du Fonds.
De son côté, Meta a créé en décembre 2023 avec IBM et plus de 50 membres fondateurs une Alliance pour l'IA (AI Alliance). Ils ont été rejoints par 20 autres membres en avril 2024. Cette initiative se singularise par sa volonté de promouvoir la science ouverte et l'innovation ouverte en IA428(*). Elle a déjà mis en place des groupes de travail (l'un porte sur les outils de sécurité et de confiance, l'autre sur les politiques publiques).
Le consortium MLCommons lancé en 2020 est quant à lui composé de 125 membres et vise la coopération dans la communauté du Machine Learning. Il a produit un benchmarck apprécié des aspects software et hardware de l'apprentissage machine et offre des jeux de données et des outils utiles à tous les chercheurs. Il se propose également de définir les bonnes pratiques et les normes des systèmes d'IA relevant du Machine Learning. En 2023, ce consortium a lancé un groupe de travail sur la sécurité des systèmes d'IA, avec un intérêt pour l'évaluation des LLM selon le cadre proposé par le CRFM de Stanford. Anthropic, Coactive AI, Google, Inflection, Intel, Meta, Microsoft, Nvidia, OpenAI, Qualcomm Technologies sont, avec d'autres entreprises, au sein de ce groupe de travail qui a annoncé une première preuve de concept (Proof of Concept) en avril 2024.
Microsoft a initié en 2021 une association autour de l'origine des contenus, la Coalition for Content Provenance and Authenticity (C2PA), avec Adobe, Arm, BBC, Intel, and Truepic. Depuis, de nombreuses entreprises comme Google, OpenAI, xAI ou Sony, ont rejoint la C2PA.
Microsoft et OpenAI ont créé en 2024 un fonds pour la résilience sociétale, le Societal Resilience Fund, qui avec 2 millions de dollars vise à encourager l'éducation et la connaissance de l'IA auprès des électeurs et des communautés fragiles. Ce fonds sert par exemple à verser des subventions à des associations conduisant des projets éducatifs comme le Partnership on AI ou la C2PA.
Toujours en 2024 a été créée la Tech Coalition, autour d'Adobe, Amazon, Bumble, Google, Meta, Microsoft, OpenAI, Roblox, Snap Inc. et TikTok. Ce groupe finance des recherches sur la pédopornographie, l'exploitation d'enfants et les abus sexuels en ligne en lien avec l'IA générative.
Enfin, un Tech Accord to Combat Deceptive Use of AI in Elections, un accord pour lutter contre l'utilisation trompeuse de l'IA lors des élections, réunit, depuis février 2024, 20 signataires, dont Google, Meta, Microsoft, IBM, xAI, Anthropic, OpenAI et StabilityAI autour d'un ensemble de huit engagements pour lutter contre la désinformation politique par l'IA, notamment dans le cadre des élections qui doivent se tenir dans plus de 40 pays en 2024.
Au total, il faut retenir cette volonté des entreprises du secteur de l'IA de s'organiser en groupes sectoriels, soit pour servir de centre de ressources aux décideurs politiques comme le Partnership on AI, soit pour soutenir la recherche sur la sécurité de l'IA, identifier les bonnes pratiques pour les modèles de pointe et partager les connaissances avec les parties prenantes, comme le Frontier Model Forum. Certaines initiatives visent des aspects plus thématiques : éducation, science ouverte, authenticité des contenus, pédopornographie, désinformation à caractère politique, etc. Toutes ces démarches sont des exemples d'autorégulation comme l'a expliqué Florence G'sell mais l'on peut déplorer qu'elles ne conduisent pas, le plus souvent, à des normes précises et encore moins à des règles juridiquement contraignantes. Leur intérêt réside peut-être plutôt dans leur capacité volontaire ou non à fournir des informations précieuses aux législateurs et régulateurs qui envisagent des cadres juridiques contraignants pour les systèmes d'IA.
* 423 Le lien suivant contient les deux documents : https://www.coe.int/fr/web/artificial-intelligence/la-convention-cadre-sur-l-intelligence-artificielle
* 424 World Economic Forum, « AI Governance Alliance » : https://initiatives.weforum.org/ai-governance-alliance/home
* 425 Cf. ces quatre exemples de références en matière d'AI safety, Google, « Our Principles » : https://ai.google/responsibility/principles/ ; Microsoft, « Principles and Approach » : https://www.microsoft.com/en-us/ai/principles-and-approach ; Meta, « Responsible AI : Driven by Our Belief that AI Should Benefit Everyone » : https://ai.meta.com/responsible-ai/ ; et Anthropic, « Make Safe AI Systems, Deploy Them Reliably » : https://www.anthropic.com/research
* 426 Cf. son site actif depuis déjà huit ans : https://www.partnershiponai.org
* 427 Cf. l'annonce sur le blog de Microsoft le 26 juillet 2023, « Microsoft, Anthropic, Google, and OpenAI launch Frontier Model Forum » : https://blogs.microsoft.com/on-the-issues/2023/07/26/anthropic-google-microsoft-openai-launch-frontier-model-forum/ ainsi que le site d'OpenAI dédié au Frontier Model Forum : https://openai.com/index/frontier-model-forum
* 428 Cf. le site de l'AI Alliance, « Building the Open Future of AI » : https://thealliance.ai