F. LE CADRE EN CONSTRUCTION DES SOMMETS POUR LA SÉCURITÉ DE L'INTELLIGENCE ARTIFICIELLE ET DES INSTITUTS DE SÉCURITÉ DE L'IA

1. Un réseau international d'agences pour la sécurité de l'intelligence artificielle

Les sommets pour la sécurité de l'intelligence artificielle (en anglais, AI safety summits) sont des conférences internationales d'initiative britannique visant à anticiper et encadrer les risques potentiels liés à l'intelligence artificielle. Elles ont conduit plusieurs pays, après le Royaume-Uni et les États-Unis en novembre 2023, à mettre en place des AI Safety Institutes.

Le Canada, l'Australie, le Japon, la Corée du Sud, Singapour, le Kenya, la France et l'UE ont ainsi rejoint les États-Unis et le Royaume-Uni au sein d'une nouvelle coordination internationale, appelée « International Network of Cooperation of the National AI Safety Institutes » (AISI)429(*), dont la première réunion s'est tenue à San Francisco les 21 et 22 novembre 2024, réunissant les experts de neuf pays et de l'Union européenne.

La secrétaire américaine au commerce, Gina Raimondo avait annoncé la naissance de ce réseau lors du sommet pour la sécurité de l'intelligence artificielle organisé par la Corée du Sud à Séoul en mai 2024. La réunion de San Francisco a permis le lancement effectif et les modalités de cette coopération internationale des AISI en vue d'avancer concrètement en termes de sécurité de l'IA, de normes techniques, d'échanges de bonnes pratiques et de partage de connaissances.

2. Du sommet de Bletchley Park au rapport de Yoshua Bengio

Ces sommets sont relativement récents, la première édition ayant eu lieu en novembre 2023 à Bletchley Park, situé à mi-chemin d'Oxford et de Cambridge, lieu symbolique pour l'informatique et l'IA car associé à la mémoire d'Alan Turing. Ils réunissent à la fois des chefs d'États et de gouvernements, mais également des représentants d'organisations internationales comme Antonio Guterres, secrétaire général de l'ONU, et des représentants d'entreprises privées comme Elon Musk ainsi que du monde de la recherche comme Yoshua Bengio.

Les cinq objectifs du premier sommet étaient de parvenir à un consensus sur les risques associés à l'IA de pointe ; de faire progresser la coopération internationale par le biais de cadres de travail nationaux et internationaux ; de déterminer des mesures de sécurité adaptées aux entreprises du secteur privé ; d'identifier des domaines de recherche collaborative en matière de sécurité de l'IA ; et de mettre en lumière les aspects bénéfiques de l'IA.

Le premier sommet, dont une partie des discussions a été rendue publique430(*), a débouché sur la rédaction d'une déclaration commune de l'ensemble des participants appelée « la Déclaration de Bletchley ». Cette déclaration, plutôt pessimiste, a souligné le besoin urgent d'une collaboration internationale pour gérer les risques potentiels associés aux systèmes d'IA de pointe et a reconnu l'existence de risques existentiels pour l'humanité qui pourraient être induits par un développement rapide et non maîtrisé de l'intelligence artificielle. La déclaration appelle ainsi à se concentrer sur la notion de sécurité de l'intelligence artificielle tout au long de sa chaîne de valeur lors des prochains sommets, organisés de façon semestrielle.

Le sommet a également débouché sur une déclaration relative aux tests de sécurité, signée par l'Union européenne, dix pays (États-Unis, Royaume-Uni, France, Allemagne, Italie, Canada, Australie, Japon, Corée du Sud et Singapour) et des entreprises d'IA de premier plan, telles que OpenAI, Google, Anthropic, Amazon, Mistral, Microsoft et Meta, qui pourront s'engager à soumettre leurs modèles de pointe aux gouvernements pour qu'ils réalisent des tests de sécurité. Le document qui n'est pas juridiquement contraignant réitère qu'il incombe aux gouvernements de financer ces tests et d'évaluer les nouveaux modèles d'IA développés par les entreprises avant leur mise sur le marché. Il invite à se concentrer sur les évaluations des « risques liés à la sécurité nationale », plutôt que sur les dommages potentiels causés par les utilisations au quotidien.

Ces discussions ont également conduit à établir un groupe international de 75 experts de 30 pays chargé de rédiger un rapport annuel sur la politique et la régulation de l'IA, selon un format proche de celui utilisé par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Le Partenariat mondial sur l'intelligence artificielle (PMIA ou, en anglais, Global partnership on artificial intelligence ou GPAI) le propose aussi et en octobre 2023, Eric Schmidt, ancien PDG de Google, avec plusieurs autres dirigeants du secteur, avait également proposé un tel groupe d'experts.

Le sommet de Bletchley Park a, enfin, demandé plus spécifiquement la préparation par ce groupe, en vue du prochain sommet, d'un rapport précis sur l'état de la science concernant l'IA de pointe (« State of the Science Report on Frontier AI »).

Le sommet suivant s'est déroulé six mois plus tard, en mai 2024, en visioconférence et en présentiel à Séoul et a donné lieu à la publication d'un rapport scientifique international sur la sécurité de l'IA dirigé par Yoshua Bengio, que ce dernier a pu présenter à vos rapporteurs lors de son audition.

Il a affirmé que la préparation de ce rapport a permis de réunir une sorte d'équivalent du GIEC mais pour l'IA et a fourni une évaluation actualisée et scientifiquement fondée de la sécurité des systèmes d'IA de pointe. Ce document est destiné aux décideurs publics et vulgarise les connaissances scientifiques dans le domaine431(*).

Le rapport met en évidence plusieurs points clés concernant les modèles d'IA avancés. Il met l'accent sur la double nature de l'IA, son potentiel pour améliorer le bien-être, l'économie et la science mais aussi ses dangers : l'utilisation malveillante de l'IA peut entraîner de la désinformation à grande échelle, des opérations d'influence, des fraudes et des escroqueries, tandis que des systèmes d'IA défectueux pourraient produire des décisions biaisées affectant des groupes ou des personnes à raison de leur race, sexe, culture, âge ou handicap. Si les capacités de l'IA progressent rapidement, des défis fondamentaux demeurent pour les chercheurs comme la compréhension du fonctionnement interne des IA ou ses modes de raisonnement, son rapport à la causalité par exemple.

Le rapport souligne l'incertitude qui entoure l'avenir de l'IA, avec de nombreux scénarios possibles : une évolution lente ou des progrès extrêmement rapides entraînant des risques systémiques (perturbations du marché du travail et inégalités économiques), voire des risques existentiels (perte de contrôle de l'IA et conséquences catastrophiques sur l'humanité). Si des méthodes techniques, telles que des tests, le red teaming et l'audit des données d'entraînement, peuvent atténuer certains risques, elles ont des limites et ne permettent pas de traiter l'ensemble des risques.

Le sommet de Séoul a également été l'occasion pour 16 entreprises d'IA de s'engager à se doter d'un référentiel en matière de sécurité et de structures de contrôle et de gouvernance432(*).

En clôture de la réunion, le Royaume-Uni et la Corée du Sud, hôtes du sommet, ont obtenu des participants l'engagement de poursuivre et d'approfondir la recherche sur la sécurité de l'IA et les seuils de risque pour les modèles de pointe433(*).

Des pays, comme l'Italie ou l'Allemagne, signataires de la déclaration finale du sommet de Séoul en faveur de la coopération internationale en matière de sécurité d'IA, ont, en outre, fait part de leur volonté de rejoindre le réseau des AISI (International Network of Cooperation of the National AI Safety Institutes). Cependant, une annonce de septembre 2024 du secrétaire d'État américain Antony Blinken expliquait que le Kenya serait le seul nouveau membre du réseau à ce stade.

3. Un sommet en France les 10 et 11 février 2025

La France est chargée de l'organisation du prochain sommet qui se tiendra les 10 et 11 février 2025, et à ce titre, le Président de la République a nommé Anne Bouverot, coprésidente de la Commission de l'intelligence artificielle en 2024, comme son « envoyée spéciale » chargée de l'organisation du sommet. Vos rapporteurs peuvent d'ores et déjà affirmer que le sommet sera organisé par « verticales » thématiques et n'aura donc pas comme sujet exclusif la sécurité en matière d'intelligence artificielle.

Vos rapporteurs considèrent qu'il s'agit d'une bonne nouvelle dans la mesure où, même si elle pose des questions certaines, la question de la sécurité n'est pas le seul sujet digne d'intérêt en matière d'intelligence artificielle. Les pouvoirs publics à travers le monde doivent se saisir du sujet de l'IA de la façon la plus complète possible, et ce sommet international peut être une occasion d'y parvenir.

C'est pourquoi, en plus des recommandations générales concernant les nouveaux développements de l'intelligence artificielle, vos rapporteurs ont également des recommandations plus spécifiquement destinées au Président de la République et aux organisateurs du futur sommet des 10 et 11 février 2025 de l'intelligence artificielle. Ces recommandations visent à s'assurer qu'une vision française éclairée de l'intelligence artificielle pourra s'exprimer à travers ce sommet.


* 429 Un think tank américain, le Center for Strategic and International Studies (CSIS), vient de publier le 30 octobre 2024 un rapport sur les enjeux de ce réseau, cf. Gregory C. Allen and Georgia Adamson, 2024, « The AI Safety Institute International Network : Next Steps and Recommendations » : https://www.csis.org/analysis/ai-safety-institute-international-network-next-steps-and-recommendations

* 430 Florence G'sell a utilisé les résumés des tables rondes pour en faire une courte synthèse. La première table ronde s'est intéressée aux menaces à la sécurité mondiale, telles que la biosécurité et la cybersécurité, et a appelé à une collaboration intersectorielle urgente. La deuxième table ronde a discuté de l'imprévisibilité de l'évolution des capacités de l'IA, en soulignant les avantages pour les soins de santé, mais aussi les risques substantiels et en insistant sur la nécessité d'une surveillance et de tests de sécurité rigoureux. La troisième table ronde a exploré les risques existentiels potentiels liés à la perte de contrôle de l'IA avancée, en préconisant des tests de sécurité complets et des recherches plus poussées. La quatrième table ronde a abordé les risques sociétaux, notamment les menaces pour la démocratie et les droits de l'homme. Elle a recommandé d'impliquer le public dans les efforts de recherche. La cinquième table ronde a souligné la nécessité d'un développement rapide de politiques de sécurité de l'IA et l'importance de la réglementation gouvernementale, en notant que les politiques des entreprises à elles seules sont insuffisantes. D'autres tables rondes ont discuté des rôles et des actions nécessaires de la part des différentes parties prenantes pour faire face aux risques et aux opportunités de l'IA. La table ronde 6 a souligné la nécessité pour les décideurs politiques nationaux d'équilibrer les risques et les opportunités grâce à une gouvernance rapide, agile et innovante, tout en favorisant la collaboration internationale malgré des contextes nationaux différents. La table ronde 7 s'est concentrée sur les priorités de la communauté internationale, notamment le développement d'une compréhension commune des capacités et des risques de l'IA, la coordination de la recherche sur la sécurité et la garantie des avantages généralisés de l'IA. La table ronde 8 a souligné l'importance pour la communauté scientifique de comprendre les risques existants, de collaborer avec les gouvernements et le public et d'éviter la concentration du pouvoir. La table ronde 9 a souligné la nécessité de développer les compétences publiques et d'améliorer les capacités techniques gouvernementales pour optimiser les avantages potentiels de l'IA. Enfin, les tables rondes 10 et 11 ont porté sur la collaboration internationale dans la lutte contre la désinformation et les deepfakes et sur la garantie que toutes les régions du monde bénéficient du potentiel de l'IA.

* 431 Yoshua Bengio et al., 2024, « International Scientific Report on the Safety of Advanced AI » : https://assets.publishing.service.gov.uk/media/6655982fdc15efdddf1a842f/international_scientific_report_on_the_safety_of_advanced_ai_interim_report.pdf

* 432 Communiqué du 21 mai 2024 « Historic first as companies spanning North America, Asia, Europe and Middle East agree safety commitments on development of AI » : https://www.gov.uk/government/news/historic-first-as-companies-spanning-north-america-asia-europe-and-middle-east-agree-safetycommitments-on-development-of-ai

* 433 Communiqué du 22 mai 2024 « New commitment to deepen work on severe AI risks concludes AI Seoul Summit » : https://www.gov.uk/government/news/new-commitmentto-deepen-work-on-severe-ai-risks-concludes-ai-seoul-summit

Les thèmes associés à ce dossier

Partager cette page