D. PANORAMA D'AUTRES RÉGULATIONS NATIONALES DANS LE RESTE DU MONDE

1. Aux États-Unis, une régulation inachevée
a) Au niveau fédéral : de la stratégie de 2016 à l'Executive Order présidentiel d'octobre 2023

Depuis la stratégie fédérale américaine pour l'IA et sa vingtaine de recommandations dévoilée en octobre 2016 par le Président Barack Obama363(*), aucune loi encadrant l'IA n'a été votée aux États-Unis. Il est vrai qu'en octobre 2016, le Président américain n'était pas favorable à l'adoption d'un cadre législatif contraignant : « si vous parlez à Larry Page, le cofondateur de Google ou aux autres, leur réaction en général, et on peut les comprendre, c'est “la dernière chose que nous voulons c'est que des bureaucrates viennent nous ralentir pendant que nous chassons la licorne ».

En dépit de ce discours, plusieurs projets de « bills » ont été déposés au cours de ces dernières années, comme l'ont expliqué les sénateurs et les représentants américains rencontrés par vos rapporteurs au Congrès à Washington : la sénatrice Marsha Blackburn du Tennessee, le sénateur Mike Rounds du Dakota du Sud, co-président du groupe sénatorial sur l'IA, le sénateur Todd Young de l'Indiana et la représentante Anna Eshoo de Californie.

Tous ne sont pas convaincus de l'intérêt de légiférer au niveau fédéral. Seule Anna Eshoo se prononce pour une législation bipartisane fédérale complète en matière d'IA. Marsha Blackburn, bien qu'opposée à une régulation verticale de l'IA et aux dispositions de l'AI Act de l'UE, souhaite des législations fédérales sectorielles, notamment un cadre américain en faveur de la protection des données personnelles. Elle a par exemple déposé un projet de texte bipartisan avec Chris Coons, Amy Klobuchar et Thom Tillis en faveur d'un No Fake Act, protégeant notamment les artistes. De même Mike Rounds souhaite que le Congrès identifie une solution législative fédérale pour protéger et rémunérer les titulaires de droits de propriété intellectuelle, comme les détenteurs de droits d'auteur (copyrights) et de brevets.

De manière plus large, Todd Young travaille conjointement avec les sénateurs Schumer, Heinrich et Rounds à une feuille de route pour orienter, dans une logique bipartisane, les travaux du Sénat américain en matière d'IA. En 2023, Todd Young a introduit une proposition de loi pour l'Algorithmic Accountability afin d'encadrer l'utilisation de prises de décision automatisées dans des situations à incidence forte pour les secteurs du logement, des finances, de l'emploi et de l'éducation. Ce texte prévoit aussi la création d'un bureau de la technologie au sein de la Federal Trade Commission qui serait chargé de veiller à l'application et à la mise en oeuvre de la loi.

Il n'existe donc pas encore de lois encadrant l'IA aux États-Unis mais le 30 octobre 2023, le Président des États-Unis a cependant signé un Executive order, décret présidentiel à portée générale, dénommé « Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence364(*) ». Le texte vise le développement et l'utilisation de systèmes d'intelligence artificielle sûrs et fiables. Il s'agit d'un document assez long (le plus long de tous les décrets présidentiels jamais publiés) qui a principalement pour objet d'encadrer les modèles de fondation présentant des risques pour la sécurité, l'économie ou la santé. Il est surtout contraignant pour les administrations et agences fédérales.

Il demande aux entreprises développant ces modèles de les notifier au gouvernement fédéral et de partager les résultats de leurs tests. Ce premier axe conforte la dynamique d'engagements volontaires en faveur d'une IA « sûre, sécurisée et digne de confiance » obtenus en amont de l'adoption du décret par l'exécutif américain de la part de 15 entreprises (sept entreprises en juillet 2023, soit Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI rejointes par huit autres en septembre 2023, soit Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI et Stability).

Le texte prévoit aussi des obligations de déclaration pour les modèles dont les entraînements sont jugés à risque « systémique », en retenant un seuil plus élevé que l'AI Act européen (et donc plus souple en termes de contraintes pour les entreprises que le règlement européen) puisque le seuil de puissance de calcul est fixé à 1026 flop/s au lieu de 1025 flop/s pour le seuil européen.

Le décret confie, par ailleurs, au ministère du commerce la responsabilité de préparer des lignes directrices sur l'authentification des contenus et les filigranes ou watermarking afin de reconnaître les contenus générés par une IA.

Ce ministère abrite désormais, au sein de son National Institute of Standards and Technology (NIST), l'Institut américain pour la sécurité de l'IA (US AI Safety Institute ou AISI), dont les responsables ont été entendus, chargé d'« élaborer des lignes directrices, évaluer les modèles et poursuivre des recherches fondamentales (...) pour faire face aux risques et saisir les opportunités de l'IA ».

L'AISI a été fondé en novembre 2023, dès le lendemain de la signature du décret présidentiel sur le développement et l'utilisation d'une intelligence artificielle sûre et fiable. En février 2024, la conseillère à la politique économique de Joe Biden, Elizabeth Kelly, a été nommée à la tête de l'Institut.

En février 2024, le gouvernement américain a aussi créé de façon complémentaire le US AI Safety Institute Consortium (AISIC), regroupant plus de 200 organisations telles que les géants du secteur, Google, Anthropic ou Microsoft. En mars 2024, un budget de 10 millions de dollars lui a été alloué. Les observateurs ont noté la faiblesse de ce financement, surtout si l'on considère la puissance des grandes sociétés de la Tech et de l'IA aux États-Unis. Le NIST lui-même, qui accueille l'AISI, est également connu pour son manque chronique de financement.

D'autres aspects de l'Executive order peuvent être mentionnés. Il appelle à une plus grande protection des données personnelles et des droits des consommateurs et exige de toute l'administration fédérale et des agences gouvernementales d'être exemplaires dans leur utilisation de l'IA.

La dernière partie du décret appelle à « des actions supplémentaires » et affirme la volonté de l'exécutif de travailler avec le Congrès « en vue d'une législation bipartisane ».

Le NIST, dans le cadre duquel travaille l'AISI, largement à l'origine du texte de l'Executive order, avait déjà publié en 2023, avant le décret, un ensemble de lignes directrices non contraignantes intitulé US AI Risk Management Framework, afin de gérer les risques liés à l'IA et à accroître la confiance dans les systèmes d'IA en formalisant une série de bonnes pratiques au stade de leur conception, de leur développement, de leur entraînement et de leur utilisation. Il peut également être relevé qu'en octobre 2022, l'Office of Science and Technology Policy de la Maison-Blanche a publié un « Blueprint for an AI bill of rights » qui fait figure de projet de déclaration des droits pour la protection des citoyens américains vis-à-vis de l'IA365(*). Il contient ainsi cinq principes : « des systèmes sûrs et efficaces », « une protection contre la discrimination algorithmique », « la confidentialité des données », « la notification et l'explication des décisions », « les alternatives humaines, la considération et le retour en arrière ».

Pour conclure, en dehors de ces dispositifs réglementaires et de ces lignes directrices, les États-Unis n'ont pas encore de législation fédérale sur l'IA, en dépit de plusieurs propositions en ce sens. Pour autant, différents États cherchent, à une échelle plus locale, à aller plus vite et plus loin que les initiatives fédérales, notamment pour lutter contre les deepfakes pendant les élections.

b) Au niveau des États : plusieurs projets à commencer par celui de la Californie

Le Colorado, l'Utah, l'Illinois, le Massachusetts, l'Ohio et la Californie ont élaboré des textes pour réglementer le développement et l'utilisation de l'IA, notamment l'IA générative et les systèmes à risque élevé.

Le projet le plus intéressant est celui de la Californie sur la régulation des modèles d'IA générative, connu sous le nom de California AI Bill adopté par le Sénat et l'Assemblée de l'État, mais auquel le gouverneur Gavin Newsom a opposé son véto le 29 septembre 2024. Le texte, qui s'appliquait à tous les développeurs de systèmes d'IA offrant des services en Californie, indépendamment du lieu de leur siège social, n'a donc pas pu être promulgué.

Contrairement à l'AI Act de l'UE et aux lois chinoises, canadiennes et brésiliennes, ses dispositions visaient uniquement les modèles d'IA à risque systémique, définis selon un coût d'entraînement ou un seuil de puissance de calcul et non par les risques dans l'utilisation des systèmes. Le champ concernait ainsi les modèles d'IA ayant nécessité un coût de plus de 100 millions de dollars d'entraînement de leur seul modèle de fondation ou de plus de 10 millions de dollars de réglage fin (fine-tuning) ou encore une puissance de calcul supérieure à 1026 FLOPS.

Les développeurs de tels modèles auraient alors eu à respecter de nombreuses exigences en termes de transparence et de tests de sécurité. En cas de non-conformité, ils se seraient exposés à des sanctions financières élevées, pouvant aller jusqu'à 10 % du coût de la puissance de calcul utilisée pour entraîner le modèle. Un modèle ayant nécessité un milliard de dollars aurait par exemple pu exposer son développeur à une amende de 100 millions de dollars. Le projet prévoyait aussi un dispositif de Kill Switch pour désactiver une IA en cas de problèmes.

Le véto du gouverneur le 29 septembre 2024 fait suite à une lettre des grands groupes de l'IA, à commencer par Microsoft, Google ou Meta, qui dénonçaient des exigences de sécurité trop vagues quant aux tests obligatoires à réaliser pour les développeurs de modèles. Les risques financiers encourus par ces entreprises en raison de l'engagement de leur responsabilité en cas de dommages causés par leurs systèmes d'IA faisaient aussi partie des motifs de leurs réserves.

Malgré ce véto qui marque la fin de l'année 2024, l'État de Californie a d'ores et déjà adopté pas moins de 17 autres nouvelles lois spécifiques ou sectorielles dans la période récente, encadrant divers aspects des technologies d'IA, comme la désinformation, la lutte contre les deepfakes, la protection des données personnelles, la protection des consommateurs, la protection des enfants ou la lutte contre la pédophilie.

2. En Chine, un développement rapide et centralisé de l'IA et de sa régulation
a) La politique chinoise en faveur d'une IA maîtrisée depuis 2017

La Chine a identifié l'intelligence artificielle comme un domaine stratégique dès 2015, avec des plans tels que « Internet+ » et « Made in China 2025 ». Après le plan d'action pour l'Internet Plus dans lequel l'IA occupe une place (2016-2018), un plan ambitieux de développement pour l'IA de nouvelle génération est adopté en juillet 2017 visant à faire de la Chine le leader mondial de l'IA d'ici 2030. Les investissements publics sont fixés entre 10 et 15 milliards de dollars par an, et un cadre juridique se construit peu à peu. En 2019, une Commission nationale pour la gouvernance de l'intelligence artificielle est mise en place et a proposé huit principes de gouvernance en faveur du développement d'une IA responsable, concernant tant la protection de la vie privée ou la sécurité que le contrôle et la transparence des algorithmes366(*). La même année, le Consensus de Pékin a établi des principes éthiques pour l'IA, visant surtout l'éducation.

En 2021, la Commission nationale pour la gouvernance de l'intelligence artificielle a publié des normes éthiques pour l'intelligence artificielle de nouvelle génération367(*). Ces principes ont été suivis d'un cadre établi en 2021 par la Cyberspace Administration of China (CAC)368(*) ainsi que d'une liste de normes définies par le National Information Security Standardization Technical Committee (dite « TC260 »)369(*).

Un décret interministériel sur les algorithmes et leurs recommandations a été publié en décembre 2021, dans la continuité des travaux du CAC, avec une entrée en vigueur le 1er mars 2022370(*). Outre l'enregistrement des systèmes, la fourniture d'informations et l'évaluation de ceux-ci, le décret prévoit l'interdiction de certains usages371(*) et, plus largement, un cadre de classification des algorithmes basé sur des facteurs tels que l'influence sur l'opinion publique et les mobilisations sociales ou leur impact sur les comportements des utilisateurs. Une loi sur la protection des informations personnelles a parallèlement été promulguée le 20 août 2021372(*).

Parmi les plans d'orientation existants, il faut aussi mentionner le cadre global du plan quinquennal 2021-2025. Ce dernier reconnaît l'IA comme essentielle pour la sécurité nationale et le développement du pays, avec des applications dans la cybersécurité, la défense, et des secteurs civils comme les villes intelligentes et l'agriculture intelligente. Les subventions du ministère de la science et des technologies (MOST) et de la Commission nationale du développement et de la réforme (NDRC) soutiennent notamment ces initiatives.

En 2023 et 2024, la jurisprudence chinoise a prévu que les contenus originaux générés par l'IA pouvaient conduire à reconnaître l'existence de droits d'auteur et à protéger, par exemple, les images créées (les prompts sont retenus comme créateurs d'une oeuvre originale)373(*), en revanche les oeuvres élaborées avec l'assistance d'IA générative qui ressemblent trop à des oeuvres existantes ou, pire, qui les copient purement et simplement font l'objet d'une répression, les fournisseurs des services d'IA pouvant même voir leur responsabilité engagée374(*).

b) Un encadrement strict et assez exhaustif des IA génératives

En novembre 2022, un décret interministériel sur l'encadrement des technologies de synthèse profondes, également pris dans la continuité des travaux du CAC375(*), vise les contenus engendrés par l'IA générative même si son champ d'application est plus large. Il s'agit notamment de lutter contre les fausses informations et les deepfakes en prévoyant un régime de sanctions. Le décret prévoit notamment l'obligation d'ajouter des filigranes ou watermarking pour les contenus générés par l'IA. Il peut être noté que ce décret a été publié cinq jours avant le lancement de ChatGPT.

En juillet 2023, la Cyberspace administration of China (CAC) a publié en coopération avec plusieurs ministères et administrations des mesures administratives provisoires pour la gestion des services d'IA générative376(*), prévoyant, au terme de vastes consultations, des réglementations spécifiques sur les algorithmes, les deepfakes et la standardisation des bases de données. Les dispositions de ce cadre récent - et postérieur à la diffusion des IA génératives auprès du grand public - sont dans la continuité des textes précédents tout en étant plus détaillées.

Les entreprises proposant des services d'intelligence artificielle sont ainsi soumises à des obligations strictes en termes de transparence, de précision, d'efficacité et de respect de normes éthiques de leurs modèles, ces entreprises pouvant même faire l'objet de contrôles et d'inspections périodiques les conduisant à expliquer le détail des sources, des mécanismes de fonctionnement et des modalités d'entraînement de leurs modèles. Sont également énumérées les attentes lors de la phase d'entraînement des algorithmes, en termes de gestion des données et d'annotation des données d'entraînement.

La lutte contre les activités illégales est renforcée, notamment l'interdiction de la création de contenus illégaux ou immoraux ou encore portant atteinte aux droits de la propriété intellectuelle, et, au-delà, les services d'IA générative doivent enfin respecter les valeurs socialistes. Les utilisateurs et leurs données sont davantage protégés.

Il est réaffirmé que les contenus générés par l'IA doivent clairement indiquer via des filigranes ou watermarking qu'ils ont été générés par ce biais. Le National Information Security Standardization Technical Committee (dite « TC260 ») a été mandaté pour préciser les modalités de déploiement de ces techniques de marquage. Les normes proposées en août 2023 distinguent désormais deux types de techniques de filigrane, l'une explicite, l'autre implicite, c'est-à-dire imperceptible à l'oeil humain mais pouvant être extraite comme une métadonnée à travers des méthodes techniques377(*). Il est prévu que ce marquage implicite inclut au moins le nom du système ayant offert le service et peut contenir des détails additionnels tels qu'un identifiant unique. En cas de téléchargement du contenu sous la forme d'un fichier, les métadonnées doivent obligatoirement prévoir des informations complémentaires, telles que des détails sur le système ayant offert le service, l'heure et la date de production, ou encore un identifiant unique.

En septembre 2023, le ministère chinois de la science et de la technologie a adopté avec le concours de neuf agences gouvernementales des « Mesures pour la revue éthique des activités scientifiques et technologiques »378(*), qui mentionnent notamment les évaluations éthiques rigoureuses des activités recourant à l'IA, à travers par exemple la mise en place de comités d'éthique.

Plus récemment, le TC260 a rendu public le 29 février 2024 des « Exigences fondamentales de sécurité pour les services d'IA générative »379(*). Dans ce document, 31 risques sont identifiés à travers cinq catégories : les contenus violant les valeurs socialistes, les contenus discriminatoires, les contenus portant atteinte au droit commercial, les contenus portant atteinte aux droits individuels et les contenus ne respectant pas les obligations réglementaires en termes de sécurité. Ce texte oblige les fournisseurs de services d'IA à prendre plusieurs mesures en ce sens et à mettre en oeuvre différents mécanismes d'évaluation.

En complément des règles nationales, les provinces et municipalités chinoises édictent également des règles locales. Ainsi, Shenzhen, Shanghai, Guangdong, Jiangsu et Zhejiang ont adopté des mesures pour encadrer l'IA380(*).

c) Un rival sérieux des États-Unis intéressé par l'AI Act

La Chine est leader dans des domaines clés d'application de l'IA tels que la santé, les voitures autonomes, l'automatisation industrielle, les villes intelligentes ou surtout les technologies de reconnaissance faciale. La Chine fait la course en tête avec les États-Unis en apprentissage automatique et les devance même en nombre de publications, en analyse de données avancée et en algorithmes et logiciels d'accélération. Les États-Unis sont toujours en avance dans la conception des circuits intégrés et dans le traitement du langage naturel. La Chine vise donc à développer des modèles de LLM rivalisant avec ChatGPT, comme WuDao 2.0 et ErnieBot.

Elle cherche aussi à s'affranchir de sa dépendance aux GPU américaines, surtout que les États-Unis interdisent depuis trois ans l'exportation vers la Chine des puces les plus avancées381(*) et même des outils de gravure. La Chine recommande donc depuis 2024, à travers des instructions de son ministère de l'industrie et des technologies de l'information, de privilégier ses alternatives nationales, comme les puces conçues par Huawei382(*).

Les géants de l'IA chinois, les BATXH - pour Baidu, Alibaba, Tencent, Xiaomi, et Huawei - dominent la chaîne de valeur de l'IA dans le pays et possèdent leurs propres centres de recherche. Huawei, par exemple, développe des puces pour pallier les restrictions à l'exportation de technologies de lithographie avancée, bien que l'accès à des fonderies avancées reste un défi.

La production scientifique en IA en Chine est en croissance, avec des recherches axées sur les algorithmes, la vision par ordinateur, les systèmes de recommandation, et les robots. Les chercheurs chinois publient plus que les chercheurs américains en apprentissage automatique. La France y est reconnue pour son haut niveau académique en IA, avec des accords de formation entre les deux pays et un intérêt des entreprises pour nos chercheurs.

Il faut, enfin, relever que la Chine a mis en place une stratégie à long terme pour non seulement attirer et retenir ses talents mais même favoriser leurs retours. Il s'agit essentiellement, d'une part, du plan « Made in China 2025 » dont le but est de faire de la Chine le leader mondial des technologies de pointe, créant ainsi de nombreuses opportunités pour les ingénieurs et les chercheurs et, d'autre part, du concept de « rêve chinois », un concept nationaliste visant à renforcer le sentiment d'appartenance et à encourager les Chinois de la diaspora à revenir contribuer au développement de leur pays.

Le gouvernement chinois a, de plus, mis en place des programmes pour « les Chinois de retour » en vue de faciliter le retour de chercheurs et d'entrepreneurs chinois. En outre, tout comme en Inde, les zones économiques spéciales (ZES) chinoises jouent un rôle crucial dans l'attraction des investissements étrangers et la création d'emplois qualifiés.

L'IA est, en conclusion, perçue en Chine comme un moteur de croissance et un outil stratégique. La rivalité avec les États-Unis est souvent mise en avant par les médias, tandis que la protection des données et de la vie privée n'est pas une préoccupation majeure pour le public. Les régulations européennes, comme le RGPD et l'AI Act, intéressent les régulateurs chinois pour leurs approches ambitieuses. Ils suivront donc avec intérêt la mise en oeuvre du règlement.

3. Quelques autres initiatives intéressantes

Comme l'indique Florence G'Sell, auditionnée par vos rapporteurs à l'Université de Stanford, les initiatives prises en matière de régulation de l'IA permettent de distinguer trois groupes de pays :

- ceux qui font le choix d'adopter un cadre strict de régulation de l'IA, comme l'UE, la Chine, le Canada ou le Brésil ;

- ceux qui font le choix d'avancer progressivement dans la voie de la régulation, comme les États-Unis, le Japon, la Corée du Sud et l'Inde ;

- et ceux qui, pour le moment, excluent la perspective de régulations contraignantes, comme le Royaume-Uni, Israël, l'Arabie Saoudite et les Émirats arabes unis.

Ces trois cas de figure seront présentés successivement (sans l'UE, les États-Unis et la Chine vus précédemment), en mobilisant notamment les réponses aux questionnaires de vos rapporteurs et leurs déplacements ainsi que les travaux de Florence G'Sell déjà mentionnés, à travers la présentation du Canada et du Brésil, puis du Japon, de la Corée du Sud et de l'Inde et, enfin, du Royaume-Uni, d'Israël, de l'Arabie Saoudite et des Émirats arabes unis.

a) Le Canada

Le Canada, pays doté d'une recherche fondamentale en IA d'excellent niveau, est toujours en train de mettre au point sa première législation complète en matière d'IA. Le vote du projet de loi sur l'intelligence artificielle et les données (Artificial Intelligence and Data Act - AIDA) a pris du retard puisque, déposé en 2022, il a seulement passé le stade de la deuxième lecture fin 2023. Il s'agit d'assurer le développement et l'utilisation de systèmes d'IA responsables au Canada.

Ce projet de loi devrait se traduire in fine par un cadre assez proche du règlement de l'Union européenne du 13 juin 2024 établissant des règles harmonisées concernant l'intelligence artificielle. Les systèmes d'IA y seront distingués des modèles de Machine Learning. Et un encadrement spécifique sera élaboré pour les systèmes d'IA à usage général (modèles d'IA à usage général dans l'Union européenne). On y retrouvera aussi une approche basée sur les niveaux de risque. Un système d'IA pourra être à usage général ou pas et à haut niveau de risque ou pas. Les systèmes conjuguant usage général et haut niveau de risque seront particulièrement encadrés.

Le projet de loi prévoit également la création d'un commissaire à l'intelligence artificielle et aux données, qui aura pour mission d'aider le ministre de l'innovation, des sciences et de l'industrie et sa tutelle le ministère de l'innovation, des sciences et du développement économique, à mettre en oeuvre les dispositions du texte. Ce commissaire pourra prononcer des injonctions et même infliger des amendes.

Avant l'adoption définitive du projet de loi sur l'intelligence artificielle et les données, présenté il y a déjà deux ans, le Canada a adopté pour l'heure, en septembre 2023, un code de conduite pour le développement et la gestion responsables des systèmes d'IA générative avancés.

Ce code, qui repose sur la participation volontaire des entreprises, sert depuis un an de dispositif provisoire en attendant que le Canada finalise son cadre législatif. Il est d'une nature similaire à l'AI Pact de l'Union européenne.

Le Québec, de son côté, a avancé plus vite que le gouvernement fédéral avec une réforme des lois sur la protection des renseignements personnels, obligeant à informer les utilisateurs de l'utilisation de processus de prise de décision automatisés ou qui recueillent de l'information à l'aide d'outils technologiques permettant de les identifier, de les localiser ou d'effectuer leur profilage. De plus, en janvier 2024, le Conseil de l'innovation du Québec a remis au ministère de l'économie un rapport pour un encadrement réglementaire de l'IA.

b) Le Brésil

L'action du gouvernement fédéral brésilien débute en 2019 avec le lancement de la stratégie brésilienne d'intelligence artificielle (dite « EBIA »). Cette stratégie consiste notamment en un travail de préparation de lois fédérales brésiliennes pour promouvoir une utilisation responsable et éthique de l'IA au Brésil. Dès 2020, le Congrès national brésilien a commencé à examiner un projet de loi visant à établir le « cadre juridique de l'intelligence artificielle ». Ce projet de loi a été le premier d'une série de quatre projets proposés au Congrès. Des exceptions à cet encadrement sont prévues pour le data mining.

Le choix du Brésil d'établir un véritable cadre juridique pour l'intelligence artificielle a été directement influencé par la réflexion conduite au sein de l'Union européenne depuis 2018 puis par le contenu du projet de règlement sur l'intelligence artificielle de la Commission européenne d'avril 2021, devenu le règlement de l'Union européenne du 13 juin 2024.

En avril 2024, le Sénat brésilien a annoncé que sa commission temporaire interne sur l'intelligence artificielle avait publié un nouveau rapport préliminaire avec une proposition mise à jour pour l'un des quatre projets de loi. Une innovation clé de cette version alternative du projet de loi était la proposition d'un système de surveillance, autour d'un système national de régulation et de gouvernance de l'IA (SIA), coordonné par une autorité compétente nommée par le pouvoir exécutif.

Le 8 mai 2024, l'autorité brésilienne de protection des données (Autoridade Nacional de Proteção de Dados, ANPD) a publié une proposition d'amendement au projet de loi prévoyant la notion de « système d'IA à usage général », proche de la notion de modèle d'IA à usage général retenue par l'AI Act. Elle a en effet défini ces systèmes comme un « système d'IA basé sur un modèle formé avec des bases de données à grande échelle, capable d'effectuer une grande variété de tâches différentes et de servir à différentes fins, y compris celles pour lesquelles il n'a pas été spécifiquement conçu ou formé, et qui peut être utilisé dans différents systèmes ou applications ».

Le cadre juridique choisi par le Brésil pour réguler l'intelligence artificielle reprend aussi l'approche selon les niveaux de risque, dans le même esprit que les dispositions contenues dans le règlement de l'Union européenne du 13 juin 2024.

c) Le Japon

Le Japon ne dispose pas actuellement d'une loi globale réglementant le développement ou l'utilisation des systèmes d'IA. Toutefois, le gouvernement japonais a établi plusieurs séries de lignes directrices non contraignantes qui sont généralement applicables à des activités précises et a encouragé les efforts volontaires des parties prenantes de l'IA.

Il aborde au fond les risques associés à l'IA de deux manières : par les lignes directrices non contraignantes précitées et par l'application des lois sectorielles existantes. Le Japon a par exemple élaboré des lignes directrices sur la protection des données et des lois sur le droit d'auteur afin de faciliter la conformité au droit des parties prenantes de l'IA. La loi japonaise sur le droit d'auteur autorise en principe l'utilisation d'oeuvres protégées par le droit d'auteur pour la formation de modèles d'IA sans l'autorisation du titulaire du droit d'auteur.

En juillet 2021, le ministère de l'économie, du commerce et de l'industrie (METI) a publié un rapport indiquant que « du point de vue de l'équilibre entre le respect des principes de l'IA et la promotion de l'innovation, et du moins à l'heure actuelle, à l'exception de certains domaines spécifiques, la gouvernance de l'IA devrait être conçue principalement avec de la soft law, favorable aux entreprises qui respectent les principes de l'IA ». Le document précise que « les exigences horizontales juridiquement contraignantes pour les systèmes d'IA sont jugées inutiles pour le moment ».

Cette approche, reposant sur des lignes directrices non contraignantes, découle de la conviction que les lois contraignantes ne peuvent pas suivre le rythme rapide et la complexité du développement de l'IA et pourraient même étouffer l'innovation en matière d'IA.

En février 2024, les autorités japonaises ont toutefois lancé des discussions sur l'élaboration d'une législation contraignante, un cadre qui imposerait différentes obligations aux développeurs de modèles fondamentaux à grande échelle.

d) La Corée du Sud

La Corée du Sud a annoncé des objectifs ambitieux pour devenir un leader mondial de la technologie de l'IA. Elle ne dispose actuellement d'aucune loi ou politique spécifique pour encadrer l'intelligence artificielle. Pour parvenir à être un leader mondial, son approche de la régulation de l'IA est en effet animée par un principe qui peut être résumé par la formule « Autoriser d'abord, réglementer ensuite ».

Une législation pourrait néanmoins se dessiner puisque son Assemblée nationale se prépare à discuter d'un projet de loi nationale sur l'IA. En attendant, la Corée du Sud veille à la mise en oeuvre de ses normes éthiques en matière d'IA et prend des mesures pour mettre en oeuvre sa stratégie pour une IA digne de confiance. Les agences coréennes ont pris des mesures proactives pour établir des lignes directrices sur l'IA et appliquer des mesures de protection des données personnelles aux principaux acteurs de l'IA.

e) L'Inde

L'Inde est l'un des pays asiatiques où l'économie numérique est la plus développée. Ce secteur a connu une croissance rapide au cours des dernières années, notamment à travers une forte augmentation des services numériques. L'Inde a également fait du développement et de l'adoption de l'intelligence artificielle une priorité dans ses initiatives politiques pour l'avenir.

En mars 2024, le gouvernement indien a annoncé une dotation budgétaire de plus de 1,25 milliard de dollars pour la « India AI Mission », qui recouvrira divers aspects de l'IA, notamment les capacités du pays en termes d'infrastructures informatiques, la formation, l'innovation, les jeux de données et le développement d'une IA sûre et fiable.

Les organismes gouvernementaux indiens ont entrepris diverses actions, telles que la publication de rapports ou la promotion d'initiatives visant à favoriser des pratiques et principes responsables en matière d'IA. Ces initiatives peuvent relever de soutiens au niveau fédéral comme au niveau des États et d'autres organismes de réglementation.

L'Inde a accueilli le Sommet du Partenariat mondial sur l'IA, Global Partnership on AI ou GPAI, à New Delhi en décembre 2023 et préside le Sommet en 2024. L'un des résultats du Sommet de 2023 a été la « Déclaration 2023 des ministres », dans laquelle les membres se sont engagés à continuer à oeuvrer à la promotion d'une IA sûre, sécurisée et digne de confiance dans leurs pays.

Le gouvernement indien est également conscient des éventuels risques liés à ces technologies. Après plusieurs années de délibération, il a récemment promulgué une loi nationale sur la protection des données. Des cadres réglementaires pour répondre aux risques de l'IA devraient être prochainement élaborés. Des avis ont d'ores et déjà été émis en 2023 par le ministère indien de l'électronique et des technologies de l'information (MEITY) concernant l'IA générative et les deepfakes. Bien qu'il existe une incertitude quant à la nature juridiquement contraignante ou pas de ces avis, ils donnent une idée du sérieux avec lequel le gouvernement indien se préoccupe de l'IA générative et de la manière dont ces préoccupations pourraient être traitées dans les futures législations et réglementations.

Ces avis, réitérant les obligations déjà existantes en vertu de la loi indienne concernant les mesures que les plateformes doivent prendre pour identifier et prévenir la désinformation, exigent ainsi des plateformes en ligne qu'elles prennent des mesures pour lutter contre les deepfakes et autres contenus de désinformation. Outre l'identification des contenus de désinformation, la loi interdit de mettre en ligne tout contenu de désinformation et oblige les plateformes à agir sur ces contenus dans les 36 heures. Il s'agit donc en réalité essentiellement d'étendre les obligations existantes aux deepfakes. Le MEITY a publié un message sur Twitter (rebaptisé X en juillet 2023) indiquant que ses avis de décembre 2023 ont été publiés après la tenue de deux consultations avec les parties prenantes concernées, connues sous le nom de « Dialogues numériques sur l'Inde», portant notamment sur la question de la lutte contre les deepfakes. Un des avis du MEITY conseille par ailleurs aux plateformes de se conformer à diverses exigences de modération du contenu en ligne afin de continuer à bénéficier d'une immunité de responsabilité (protection de la sphère de sécurité) en vertu de la loi indienne.

Enfin, un avis a été émis par le MEITY le 1er mars 2024, exigeant que « tout modèle d'intelligence artificielle/LLM/IA générative, logiciel ou algorithme non fiable » demande préalablement à son déploiement en Inde « l'autorisation explicite » du gouvernement indien. Les entreprises ont également été invitées à soumettre des rapports sur l'état de conformité de leurs systèmes avant le 15 mars 2024.

Cet avis a fait l'objet de nombreuses critiques. Outre une mise en question de sa base juridique et de sa portée précise, diverses parties prenantes ont fait valoir que ses exigences étaient anti-innovation et avaient un impact négatif sur la croissance de l'écosystème indien de l'IA. Cela a incité le ministre indien des technologies de l'information à publier à nouveau un message sur X/Twitter, pour clarifier la portée de l'avis du MEITY puis à publier le 15 mars 2024 un nouvel avis de deux pages, remplaçant le précédent. Le nouvel avis a supprimé l'obligation de demander l'approbation du gouvernement pour les modèles d'IA générative mais impose aux entreprises de soumettre un rapport sur l'état de conformité des systèmes. Le caractère juridiquement contraignant du nouvel avis reste toujours aussi incertain. Il s'agirait en fait pour les plateformes de plus de 500 000 utilisateurs enregistrés de :

- ne pas afficher ou permettre aux utilisateurs de partager des contenus illégaux ;

- ne pas autoriser de parti pris ou de discrimination ;

- ne pas menacer l'intégrité du processus électoral ;

- d'étiqueter les contenus générés par l'IA qui peuvent inclure de la désinformation ou des deepfakes ;

- d'utiliser des métadonnées pour identifier tout utilisateur qui modifie les informations.

L'Inde cherche, par ailleurs, à faire revenir les talents sur son sol383(*). Longtemps confrontée à un exode de ses meilleurs cerveaux, elle a entrepris des actions significatives pour inverser cette tendance :

- le programme gouvernemental « Start up India, Stand up India » qui vise à promouvoir l'esprit d'entreprise et à créer un écosystème favorable aux start-up. L'objectif est de fournir un environnement propice à l'innovation et de retenir les talents sur le territoire indien ;

- le programme « Diaspora connect » qui cherche à renforcer les liens entre la diaspora indienne et son pays d'origine, en encourageant le retour des talents et les investissements ;

- l'initiative « Make in India » qui encourage les entreprises manufacturières à investir en Inde, créant ainsi de nouveaux emplois qualifiés et des opportunités pour les ingénieurs et les chercheurs indiens ;

- les zones économiques spéciales (ZES), qui bénéficient d'avantages fiscaux et réglementaires pour attirer les investissements étrangers et créer des pôles d'excellence.

f) Le Royaume-Uni

L'écosystème du Royaume-Uni en matière d'IA est le troisième au monde derrière ceux des États-Unis et de la Chine. Depuis 2022, le secteur technologique britannique est le troisième à atteindre une valorisation de plus de 1 000 milliards de dollars, après les États-Unis et la Chine. Une fiscalité avantageuse encourage ce dynamisme (EIS, SEIS, Business Asset, Disposal Relief...) tout comme la présence de plus de 400 incubateurs. Le secteur de l'IA compte 3 170 entreprises (60 % spécialisées dans l'IA et 40 % diversifiées) dont environ 50 start-up dans la seule IA générative. Il générerait 3,7 milliards de livres de valeur ajoutée pour l'économie britannique dont 71 % de revenus réalisés par les très grandes entreprises (Microsoft, Google, DeepMind, IBM, etc.). Le Royaume-Uni cherche à garder ses talents et à attirer les talents étrangers.

Le monde de la recherche y est performant et reconnu, bien intégré au secteur privé, notamment autour d'un arc de pointe Londres-Oxford-Cambridge. Certains secteurs à fort potentiel pour l'IA comme les services financiers et les services professionnels sont puissants à Londres. 55 % des entreprises de l'IA se situent donc à Londres même. Un quart environ se trouve en périphérie de Londres.

L'approche du Royaume-Uni en matière de régulation de l'IA est plutôt pro-innovation que pro-réglementation. Les autorités ne souhaitent pas perturber leur riche écosystème. Le Royaume-Uni a annoncé en 2021 un plan sur dix ans pour devenir une superpuissance mondiale de l'IA. Ce plan met l'accent sur un investissement solide dans la recherche et le développement ainsi que sur un cadre de gouvernance qui donnera la priorité à l'innovation et à la gestion des risques.

La stratégie du gouvernement britannique se concentre principalement sur la promotion de l'innovation. Au lieu de mettre en oeuvre une réglementation générale, le gouvernement britannique privilégie une approche souple, contextuelle et intersectorielle fondée sur des principes. Le Royaume-Uni a ainsi pris des mesures spécifiques pour soutenir la sécurité des produits, la cybersécurité et d'autres domaines et a demandé aux agences publiques de soumettre des orientations conformes à l'approche pro-innovation de la réglementation pour traiter les risques liés à l'IA. Le gouvernement britannique reconnaît que des exigences contraignantes pourraient éventuellement être nécessaires pour atténuer les dommages potentiels liés à l'IA, mais il a également déclaré qu'il n'introduira une législation que lorsqu'une telle mesure lui semblera pleinement justifiée.

L'ancien Premier ministre Rishi Sunak, dans son discours d'octobre 2023 devant la Royal Society, a résumé l'approche du Royaume-Uni par une question : « Comment pouvons-nous rédiger des lois qui aient du sens pour quelque chose que nous ne comprenons pas encore pleinement ? » Il a fait valoir qu'il ne se précipiterait pas pour réglementer l'IA à ce stade.

Le Royaume-Uni continue de publier des conseils et des précautions en termes de sécurité pour les développeurs de l'IA, inspirés par les principes de l'OCDE. Des rapports parus en avril 2024 pourraient inciter le gouvernement britannique à prendre des mesures minimales pour adopter sa propre législation ou réglementation sur l'IA, malgré les propos antérieurs du Premier ministre.

Les étapes de construction de la politique du Royaume-Uni en matière d'IA peuvent être rappelées brièvement. Dès 2015, le pays se dote d'un institut national pour la science des données et l'IA, le Alan Turing Institute, une entité de droit privé indépendante mais financée par le gouvernement384(*). En 2017, l'IA est identifiée comme l'un des secteurs prioritaires de la stratégie industrielle nationale (UK Industrial Strategy). En 2016, est mis en place l'Institut pour une IA responsable (Responsible AI Institute ou RAI Institute) avec un partenariat public-privé efficace385(*), qui s'est depuis déployé dans un grand réseau conduisant plusieurs initiatives dédiées à la promotion de l'IA, dans une approche multidisciplinaire et multisectorielle. En 2018, un Bureau national de l'IA est créé au sein du ministère de la science, de l'innovation et de la technologie (UK Office for AI).

Avec le AI Sector Deal de 2019, un paquet d'investissements de 1,3 milliard de livres est prévu. La même année, le gouvernement se dote d'un Conseil de l'IA (UK AI Council).

En 2020 est créé le Digital Regulation Cooperation Forum, un forum de coopération volontaire entre les régulateurs du secteur numérique. Son rôle est de coordonner sans fournir de directives à ses membres. Dans un rapport, le Communications and Digital Committee de la House of Lords estime que la création du forum va dans le bon sens mais qu'il ne dispose pas des pouvoirs et moyens suffisants pour répondre aux défis de la régulation de l'IA et du numérique.

En 2021 est adoptée une stratégie nationale pour l'IA, un plan sur dix ans pour faire du Royaume-Uni une « superpuissance de l'IA ». Les soutiens à cet objectif s'accélèrent depuis lors. L'IA est ainsi identifiée en 2023 comme priorité pour la stratégie de croissance du pays. Elle est, de plus, l'une des cinq technologies prioritaires du Science and Technology Framework.

En 2022 est lancée une initiative, appelée AI Standards Hub, dirigée par le Alan Turing Institute et soutenue par la British Standards Institution et le National Physical Laboratory. Elle vise à orienter les débats sur la normalisation et à développer des standards nationaux mais aussi internationaux en rassemblant les différents acteurs de la normalisation (gouvernement, régulateurs, industrie, consommateurs, société civile, etc.).

Elle repose sur quatre piliers : un observatoire qui se dote d'une base de données compilant les normes existantes ou en cours d'élaboration partout dans le monde ; une plateforme communautaire pour faciliter les connexions, la coordination, l'échange d'idées et la résolution collaborative de problèmes entre les parties prenantes ; la constitution d'un matériel d'apprentissage en ligne ainsi que des formations en présentiel afin de familiariser les acteurs avec les normes ; la construction d'une base de recherches et d'études sur les grands enjeux liés au développement de normes dans l'IA.

Le UK AI White Paper sur l'encadrement de l'IA

Les principes clés du AI White Paper pour encadrer de manière souple et pro-innovation les usages de l'IA sont les suivants :

- l'encadrement ne doit pas porter sur les technologies elles-mêmes ou les modèles mais sur les usages de ces modèles et des systèmes d'IA ;

- la régulation de ces usages est confiée à des régulateurs sectoriels et pas à un régulateur unique ;

- cinq principes horizontaux centralisés et non contraignants doivent guider l'action des régulateurs, à savoir 1. la sûreté, la sécurité et la robustesse ; 2. la transparence et l'explicabilité du processus décisionnel ; 3. la compatibilité des systèmes d'IA avec les lois britanniques existantes ; 4. l'existence d'une chaîne de responsabilités clairement établie et d'une gouvernance permettant le contrôle des systèmes d'IA ; 5. la contestabilité et l'existence de voies claires de recours.

En juin 2023, dans un rapport intitulé « Generative AI Framework for HMG », le Central Digital and Data Office du Royaume-Uni a publié des directives spécifiques sur l'IA générative pour la fonction publique britannique. Le rapport énumère 10 principes pour guider l'utilisation responsable de l'IA générative au sein du gouvernement. Ces principes vont de recommandations éthiques (utiliser l'IA générative de manière légale, éthique et responsable) à des recommandations plus pratiques (comprendre comment gérer l'intégralité du cycle de vie de l'IA générative ou avoir les compétences et l'expertise nécessaires pour créer et utiliser l'IA générative).

Le 26 octobre 2023, le roi a donné son assentiment à la promulgation de la loi sur la sécurité en ligne, qui vise surtout la modération de contenu. La loi impose une obligation légale de diligence à deux catégories de services en ligne pour limiter les contenus préjudiciables : les services qui partagent du contenu généré par l'utilisateur (Facebook par exemple) et les services de recherche (comme Google).

En mars 2023, un AI White Paper réitère et précise l'option d'une régulation souple et pro-innovation de l'IA.

À la fin de l'année 2023, dans le cadre du nouveau programme britannique pour une IA responsable (Responsible AI Programme appelé RAI UK) a été lancé un appel à projets pour financer des projets de recherche autour de l'IA responsable386(*). RAI UK cherche aussi à diffuser à l'échelle mondiale les bonnes pratiques applicables aux systèmes d'IA.

En novembre 2023, lors du sommet de Bletchley Park, a été lancé le UK AI Safety Institute, dont des responsables ont été rencontrés par vos rapporteurs. Ian Hogarth en est le directeur général et une centaine de chercheurs y sont rémunérés pour effectuer des tests sur les modèles des principales entreprises d'IA, sur la base de leur participation volontaire.

Le UK AI Safety Institute poursuit trois objectifs :

- mener des recherches sur la sécurité des systèmes d'IA ;

- effectuer des tests de sécurité sur les modèles d'IA, avant et après leur mise sur le marché ;

- promouvoir le développement d'un écosystème d'entreprises tournées vers des IA responsables et sécurisées.

Sur la base du volontariat, les entreprises participent à ces tests. Un bac à sable réglementaire a également été mis en place.

Plus récemment, en février 2024, 80 millions de livres ont été alloués au lancement de neuf centres de recherche sur l'IA à travers le pays (recherche mathématique et informatique et IA appliquée à la science, à l'ingénierie et aux données), 9 millions de livres pour un partenariat avec les États-Unis sur la recherche en IA responsable et 2 millions de livres pour le Arts and Humanities Research Council (AHRC) afin de financer la recherche en sciences sociales sur l'IA.

Par ailleurs, avec les AI Safety Summits, dont la première édition s'est tenue à Bletchley Park en novembre 2023, le Royaume-Uni cherche à se placer au centre de la régulation internationale. Rishi Sunak a ainsi déclaré vouloir faire de son pays « le foyer de la réglementation mondiale en matière de sécurité de l'IA ». Ses objectifs étaient à la fois d'installer les institutions britanniques au coeur des dispositifs de régulation internationale de l'IA ; d'attirer les regards de l'ensemble des investisseurs internationaux vers l'écosystème britannique de l'IA ; et de consacrer pour la première fois un sommet international à la question des risques extrêmes posés par les systèmes d'IA de pointe, qu'il s'agisse de mauvais usages de la technologie par des acteurs malveillants (attaques et biosécurité notamment), de futures avancées technologiques vers l'IA générale ou de perte de contrôle humain sur les machines.

Plusieurs institutions internationales ainsi que 30 pays, dont les États-Unis et la Chine, y étaient représentés. Les participants au sommet avaient pour principales préoccupations : la nécessité d'agir en vue d'une compréhension commune de l'IA de pointe (la rareté des travaux scientifiques évaluant les risques existentiels est soulignée), le fait de traiter des risques actuels et des risques extrêmes futurs, de progresser vers la normalisation et l'interopérabilité en IA, d'associer les entreprises à la mise en place de tests de sécurité.

Ce premier sommet a débouché sur une déclaration commune, la Bletchley Declaration, qui assure la description des risques potentiels de l'IA et propose de développer un réseau de chercheurs à ce sujet. Il a aussi conduit à un rapport commun sur l'état de la recherche sur les risques extrêmes posés par les modèles de fondation, dit State of Science Report et a appelé à la création de AI Safety Institutes, qui auront pour mission de renforcer la capacité du secteur public à mener des recherches sur la sécurité de l'IA et à effectuer des tests de sécurité avant et après la mise sur le marché des modèles.

La pérennisation de cette première initiative a également été actée, ce qui s'est traduit par l'organisation en 2024 d'un sommet sur la sécurité de l'IA en Corée du Sud en 2024 et la préparation d'un autre sommet en France au début de l'année 2025, sur lequel nous reviendrons.

Le soft power britannique passe par le fait de diffuser son modèle de régulation de l'IA à l'international, pour peser dans les instances multilatérales et sur l'édiction de standards internationaux.

En conclusion, l'approche britannique souple et pro-innovation doit contribuer à faire du Royaume-Uni « la place la plus attractive pour l'IA dans le monde ». Le gouvernement souhaite tirer profit du Brexit et de sa liberté réglementaire pour proposer un cadre plus souple que l'AI Act européen et attirer des capitaux étrangers.

Cette approche a des avantages (un parti pris pro-innovation, une souplesse et une adaptabilité aux évolutions des technologies, une connaissance fine de leurs secteurs par les régulateurs, etc.) mais aussi des limites (difficulté pour les régulateurs à exercer la charge qui leur sera confiée tant matériellement que techniquement, absence de cadre harmonisé entre les régulateurs et potentiels conflits d'interprétation, ce qui pourrait conduire à une sécurité et une prévisibilité moindre pour les entreprises).

De plus, pour rester une superpuissance de l'IA, le Royaume-Uni a encore des défis à relever, comme :

une offre souveraine de GPU, avec l'annonce d'un investissement d'un milliard de livres dans le secteur des semi-conducteurs ;

l'accès à la puissance de calcul, en 2022, le Royaume-Uni représentait 1,3 % des parts mondiales de capacités de calculs contre 2,46 % pour la France ;

l'accès aux données, bien que les organismes publics, y compris le NHS, possèdent des données précieuses, celles-ci sont souvent mal organisées et difficiles d'accès ;

un niveau d'investissement dans l'IA à accroître, étant actuellement largement inférieur à ceux des États-Unis et de la Chine.

Comme dans d'autres contextes nationaux, la législation britannique sur la propriété intellectuelle applicable à l'IA générative nécessitera des éclaircissements, qu'il s'agisse du régime des données utilisées pour entraîner les modèles, des droits de propriété du contenu produit à l'aide de l'IA générative ou, encore, des risques de violation d'un droit d'auteur.

g) Israël

L'industrie israélienne de l'IA générative progresse rapidement (un rapport place même l'écosystème de capital-risque de l'IA générative du pays au troisième rang mondial) en accord avec une stratégie nationale pour l'IA ambitieuse et un volet stratégique au sein de la politique de défense.

La volonté de protéger son secteur technologique (20 % du PIB israélien environ) a conduit Israël à refuser un encadrement strict de l'IA. Israël a donc choisi d'adopter une approche de régulation douce et de gouvernance de l'IA, basée sur les risques et spécifique à chaque secteur.

Il n'existe donc pas de lois ou de réglementations spécifiques qui régissent directement l'IA dans ce pays. Israël ne dispose pas non plus d'autorité de régulation de l'IA. Le ministère israélien de l'innovation, de la science et de la technologie (MIST) sert d'agence exécutive de la stratégie nationale d'IA et collabore étroitement avec le ministère israélien de la justice (MOJ). En 2022, le MIST et le MOJ ont publié un projet de document d'orientation sur l'IA. Après avoir mené des consultations publiques, les deux ministères ont publié un document d'orientation en décembre 2023 intitulé « Innovation responsable : la politique d'Israël en matière de réglementation et d'éthique de l'intelligence artificielle ». Ce document décrit l'approche du pays en matière de gouvernance et de politique de l'IA. L'innovation responsable est un terme qui reflète la volonté du pays de protéger et de favoriser son industrie technologique en pleine croissance tout en restant attaché à des principes non contraignants.

Le document d'orientation recommande aux régulateurs de formuler leurs politiques sur la base des principes de l'OCDE pour garantir la fiabilité de la technologie de l'IA. Israël a en effet officiellement approuvé les principes de l'OCDE en matière d'IA, et a fait de ces lignes directrices internationales une base pour les acteurs israéliens de l'IA. Cette approche vise à renforcer la croissance, le développement durable, l'innovation, le bien-être social et la responsabilité.

En outre, elle souligne l'importance du respect des droits fondamentaux et des intérêts publics, de la garantie de l'égalité, de la prévention des préjugés et du maintien de la transparence, de la clarté, de la fiabilité, de la résilience, de la sécurité et de la sûreté. En particulier, le document d'orientation préconise l'adoption d'une approche fondée sur les risques au moyen d'évaluations des risques menées par les régulateurs sectoriels concernés, conformément aux principes de l'OCDE.

Le document recommande également qu'Israël établisse des directives nationales pour atténuer les abus potentiels du secteur privé, tels que la discrimination, le manque de surveillance humaine, l'explicabilité insuffisante, la divulgation inadéquate, les problèmes de sécurité, les lacunes en matière de responsabilité et les violations de la vie privée.

Pour répondre à ces préoccupations, le document préconise d'éviter une législation horizontale de grande envergure et d'opérer plutôt dans le cadre de réglementations sectorielles spécifiques. Il appelle aussi à la création d'un centre de coordination des politiques d'IA sous l'égide du ministère de la justice, qui fonctionnerait comme un organe interministériel pour faciliter la coordination entre les différents départements et les agences concernées. Ce centre serait également chargé de conseiller les régulateurs, de faciliter le dialogue et le partage des connaissances avec le monde universitaire et l'industrie, et d'aider les régulateurs à identifier les applications et les défis de l'IA au sein des secteurs réglementés.

En conclusion, bien qu'aucune obligation spécifique ne soit actuellement imposée en Israël aux développeurs, aux déployeurs ou aux utilisateurs de systèmes d'IA, ces acteurs doivent se préparer à la mise en oeuvre d'éventuelles normes qui seraient en harmonie avec les principes de l'OCDE.

h) L'Arabie Saoudite

Le Royaume d'Arabie saoudite n'a pas encore adopté de cadre juridique pour la gouvernance de l'IA, préférant se concentrer sur la croissance et l'investissement. Il a cependant mis à jour ses lois sur le droit d'auteur et les données personnelles pour relever les défis posés par l'IA.

Le pays a établi une autorité spécialisée et a adopté des principes éthiques pour guider le développement de l'IA.

L'Autorité saoudienne de l'intelligence artificielle (SDAIA) est ainsi chargée de superviser les ambitions du pays en matière d'IA et de préparer de nouveaux cadres législatifs et réglementaires pour l'IA.

Les Principes d'éthique de l'IA de l'Arabie saoudite tentent de régir son secteur croissant de l'IA. Cependant, la portée juridique de ces lignes directrices n'est pas claire.

i) Les Émirats arabes unis (EAU)

Parmi tous les pays arabes, les Émirats arabes unis (EAU) jouent un rôle de premier plan dans le développement des technologies d'intelligence artificielle. Dès octobre 2017, le pays a clairement exprimé son ambition de construire son écosystème d'IA dans le cadre de sa stratégie nationale pour l'intelligence artificielle. L'objectif de cette stratégie est de mettre l'accent sur les moyens d'améliorer la compétitivité des EAU en matière d'IA dans la région et dans le monde. Une priorité de second rang consiste à garantir une gouvernance et une réglementation efficaces. Un Conseil de l'intelligence artificielle et de la blockchain a notamment été mis en place.

Avec un financement du conseil de recherche sur les technologies avancées du gouvernement d'Abou Dhabi, le pays a produit le LLM en open source Falcon 180B, du nom de l'oiseau national des Émirats. Lors du lancement de Falcon par l'Institut d'innovation technologique des EAU en septembre 2023, Hugging Face a salué son arrivée comme « le plus grand LLM disponible en libre accès, avec 180 milliards de paramètres ». La création de Falcon a marqué une étape importante dans la stratégie nationale des Émirats pour intégrer le club des leaders mondiaux de l'IA.

Privilégiant l'innovation et la compétitivité, les Émirats n'ont adopté ni loi ni réglementation spécifique de l'IA. Ils privilégient des « bacs à sable réglementaires » plutôt qu'un cadre juridique contraignant : cette stratégie favorise le développement technologique avec des tests en direct des technologies dans un environnement contrôlé sous la supervision directe d'un régulateur. Il n'est pas surprenant que cette approche favorable aux développeurs reçoive le soutien marqué d'entreprises d'IA comme OpenAI.


* 363 Cf. le rapport de la Maison-Blanche, Executive Office of the President, National Science and Technology Council (NSTC) & Committee on Technology, octobre 2016, « Preparing for the Future of Artificial Intelligence » :

https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf ; le plan stratégique national pour l'IA rendu par le NSTC joint au premier rapport :

https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/national_ai_rd_strategic_plan.pdf et l'édition de novembre 2016 de Wired, magazine dont le Président américain a été exceptionnellement le rédacteur en chef tout au long du mois d'octobre 2016 et qui comprend une longue interview exclusive par le directeur du Media Lab du MIT qui restera dans l'histoire, avec ce titre si évocateur, « Barack Obama, les réseaux de neurones, les voitures autonomes et l'avenir du monde » (titre original : « Barack Obama, Neural Nets, Self-Driving Cars, and the Future of the World ») : https://www.wired.com/2016/10/president-obama-mit-joi-ito-interview/

* 364 Cf. « Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence » : https://www.whitehouse.gov/briefing-room/presidential-actions/2023/10/30/executive-order-on-the-safe-secure-and-trustworthy-development-and-use-of-artificial-intelligence/

* 365 White House Office of Science and Technology Policy (OSTP), octobre 2022, « Blueprint for an AI bill of rights » : https://www.whitehouse.gov/ostp/ai-bill-of-rights/

* 366 Cf. https://digichina.stanford.edu/work/translation-chineseexpert-group-offers-governance-principles-for-responsible-ai/

* 367 The « Ethical Norms for New Generation Artificial Intelligence » promulgated by the National Professional Committee for the Governance of the New Generation of Artificial Intelligence, Sept. 25, 2021, https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html en anglais, https://cset.georgetown.edu/publication/ethical-norms-for-new-generation-artificial-intelligence-released/

* 368 « Guiding Opinions on Strengthening the Comprehensive Governance of Algorithms in Internet Information Service », Cyberspace Administration of China, September 2021, http://www.cac.gov.cn/2021-09/29/c_1634507915623047.htm et cf. aussi en anglais https://digichina.stanford.edu/work/translation-guiding-opinions-on-strengthening-overall-governance-of-internet-information-service-algorithms/

* 369 « Basic Safety Requirements for Generative Artificial Intelligence Services promulgated by the National Technical Committee 260 on Cybersecurity of Standardization Administration », février 2024, https://www.tc260.org.cn/upload/2024-03-01/1709282398070082466.pdf et cf. aussi en anglais https://cset.georgetown.edu/publication/china-safetyrequirements-for-generative-ai-final/

* 370 Décret « Administrative Provisions on Algorithm Recommendation for Internet Information Services » appelé aussi « Algorithm Recommendation Provisions » : https://digichina.stanford.edu/work/translation-guiding-opinions-on-strengthening-overall-governance-of-internet-information-service-algorithms/

* 371 Il s'agit, par exemple, des modèles qui induisent des comportements immoraux ou illégaux, de ceux qui diffusent des fausses informations ou qui manipulent l'opinion ou, encore, de ceux qui peuvent affecter la santé physique ou mentale des mineurs.

* 372 Cf https://digichina.stanford.edu/work/translation-personal-information-protection-law-of-the-peoples-republic-of-china-effective-nov-1-2021/

* 373 Cf https://copyrightblog.kluweriplaw.com/2024/02/02/beijing-internet-court-grants-copyright-to-ai-generated-image-for-the-first-time/ et https://www.natlawreview.com/article/computer-love-beijing-court- finds-ai-generated-image-copyrightable-split-united/

* 374 Cf  https://www.twobirds.com/en/insights/2024/china/liability-of-ai-service-providers-for-copyright-infringement/

* 375 « The Internet Information Service Deep Synthesis Management Provisions » or « Deep Synthesis Regulation » promulgated by the Cyberspace Administration of China, the Ministry of Industry and Information Technology, and the Ministry Public Security, https://www.gov.cn/zhengce/zhengceku/2022-12/12/content_5731431.htm et en anglais https://www.chinalawtranslate.com/en/deep-synthesis/

* 376 « Interim Administrative Measures for Generative AI Services », 2023 : https://www.cac.gov.cn/2023-07/13/c_1690898327029107.htm et en anglais : https://www.chinalawtranslate.com/en/generative-ai-interim/ ainsi que les articles « China's New AI Regulations » : https://www.lw.com/admin/upload/SiteAttachments/Chinas-New-AI-Regulations.pdf et « How will China's Generative AI Regulations Shape the Future? » : https://digichina.stanford.edu/work/how-will-chinas-generative-ai-regulations-shape-the-future-a-digichina-forum/

* 377 « Practical Guidelines for Cybersecurity Standards - Method for Tagging Content in Generative Artificial Intelligence Services » promulgated by China's National Information Security Standardization Technical Committee (« TC260 »), 2023, https://www.tc260.org.cn/upload/2023-08-08/1691454801460099635.pdf

* 378 « Notice of Issuing the Trial Measures for Scientific and Technological Ethics Review, 2023, https://www.gov.cn/zhengce/zhengceku/202310/content_6908045.htm et en anglais https://lawinfochina.com/display.aspx?id=42015&lib=law&SearchKeyword=&SearchCKeyword=

* 379 « Basic Safety Requirements for Generative Artificial Intelligence Services », 2024, https://www.tc260.org.cn/upload/2024-03-01/1709282398070082466.pdf et en anglais, https://cset.georgetown.edu/publication/china-safety-requirements-for-generative-ai-final/

* 380 Cf. par exemple les règles éthiques assez complètes adoptées par le Conseil de Shenzhen, « Regulations for the Promotion of the Artificial Intelligence Industry in Shenzhen Special Economic Zone », https://cset.georgetown.edu/publication/regulations-for-the-promotion-of-the-artificial-intelligence-industry-in-shenzhen-special-economic-zone/

* 381 Ces restrictions d'exportation portent par exemple sur les GPU H100 et A100 de Nvidia, sur la puce Gaudi 2 d'Intel ou les nouveaux GPU d'AMD, cf. https://www.usine-digitale.fr/article/nvidia-ne-pourra-plus-exporter-ses-gpu-optimises-pour-l-ia-vers-la-chine.N2183758

* 382 L'information vient de la presse chinoise elle-même, cf. cet article en anglais du South China Morning Post du 7 octobre 2024 : https://www.scmp.com/tech/article/3281254/tech-war-china-advocates-use-local-ai-chips-over-those-us-powerhouse-nvidia

* 383 Cf. les liens suivants : https://www.globalbusinessculture.com/fr/india/the-great-indian-brain-drain et https://les-yeux-du-monde.fr/actualites-analysees/34055-back-to-bangalore-brain-gain-inde

* 384 Le site du Alan Turing Institute : https://www.turing.ac.uk/

* 385 Le site du RAI Institute : https://www.responsible.ai/

* 386 Le site de RAI UK : https://rai.ac.uk/ et la page dédiée à ses programmes de recherche : https://rai.ac.uk/research/

Les thèmes associés à ce dossier

Partager cette page