Comment faire de l'IA un atout
pour l'égalité femmes-hommes ?

TABLE RONDE ANIMÉE PAR CHRISTINE LAVARDE
SÉNATEUR DES HAUTS-DE-SEINE
PRÉSIDENTE DE LA DÉLÉGATION SÉNATORIALE À LA PROSPECTIVE

Mesdames, Messieurs, chers collègues, la Délégation à la prospective du Sénat a été créée en 2009. Cette structure n'existe pas à l'Assemblée nationale, c'est une spécificité de la Chambre haute. Elle a pour vocation de réfléchir aux grandes transformations de notre société, à ces changements qui opèrent à la fois en profondeur et sur le temps long - ces changements auxquels nous, parlementaires, consacrons paradoxalement si peu de notre propre temps, parce qu'il y a toujours plus urgent à faire, un texte à examiner, une vie politique qui ne s'arrête jamais. Cette Délégation nous offre une respiration dans nos travaux. Ce matin, nous avons pris le temps de réfléchir à des sujets qui ne sont pas au cours de nos réflexions habituelles au sein de la Délégation à la prospective, à savoir l'égalité hommes femmes.

Je m'associe au président Gérard Larcher, à Dominique Vérien, présidente de la Délégation aux droits des femmes, et aux animateurs des précédentes tables rondes - la sénatrice Laure Darcos et le président de l'Opecst Stéphane Piednoir - pour remercier chaleureusement l'ensemble des intervenants de ce matin.

Je parlais à l'instant de changements profonds et de long terme : c'est bien de cela dont il est question ce matin, que l'on parle de l'évolution de la place des femmes dans la société ou de la révolution de l'intelligence artificielle - laquelle pourrait bien, si l'on en croit l'avis général, bouleverser notre façon de vivre et de travailler.

Pour notre part, à la Délégation à la prospective, nous nous intéressons à l'impact potentiel de l'IA dans le service public, avec une série de rapports thématiques : IA et finances publiques, IA et santé, IA et éducation, IA et environnement, IA et territoires, etc. Nous avons décidé de travailler en produisant des notes assez brèves. Ce matin, c'est une autre petite brique que nous pourrons ajouter au travail de synthèse.

Cela fait partie du sujet de notre dernière table ronde, qui porte sur l'impact que pourrait avoir l'IA générative sur l'égalité femmes hommes en général. Cette troisième table ronde est en quelque sorte le miroir de la première : après s'être demandé ce que les femmes pourraient apporter à l'IA, il s'agit de savoir ce que l'IA pourrait apporter aux femmes.

De toute évidence, l'IA générative pourra très concrètement bénéficier aux femmes dans de multiples domaines - partout, en fait, où ces nouveaux outils viendront réduire les inégalités, qu'il s'agisse d'accès à l'emploi, à l'éducation, à la santé, au droit, etc. Aujourd'hui, la RATP équipe ses agents de manutention d'exosquelettes. Demain, des métiers interdits, ou du moins fortement dé-recommandés aux femmes, pourraient s'y ouvrir grâce à ces développements.

Il y a, j'en suis convaincue, toutes les raisons d'être optimiste quant à la contribution de l'IA à l'égalité femmes hommes. Mais l'optimisme n'interdit ni la prudence, ni la nuance.

Tout d'abord, force est de constater que ce qui manque, pour l'instant, ce ne sont pas les idées, mais plutôt les chiffres : on ne dispose pas encore de suffisamment de recul pour savoir, par exemple, si l'IA aura un impact différent sur les métiers selon qu'ils sont majoritairement occupés par des femmes ou par des hommes, ni lesquels seront plutôt « augmentés » ou plutôt « remplacés ».

Ensuite, à côté de ses bénéfices, l'IA apportera inévitablement son lot de nouveaux problèmes, de nouveaux risques, dont certains concernent tout particulièrement les femmes.

Nous parlions tout à l'heure du renforcement des stéréotypes de genre, lié à la manière dont sont « entraînées » les IA. Je pense aussi à la protection de la vie privée et au problème des deepfakes, ces fausses vidéos pornographiques générées par des IA - car oui, l'écrasante majorité (96 %) de ces vidéos ne sont pas des faux discours de Joe Biden ou de Vladimir Poutine, ce sont des images pornographiques fictives de jeunes femmes qui sont en revanche bien réelles, qu'il s'agisse de Taylor Swift - 100 millions de « vues » en une semaine - ou d'une anonyme dont la photo aura été utilisée à son insu.

Vous le voyez, il y a beaucoup à dire, sur beaucoup de sujets, et je suis sûre que nos deux intervenantes auront elles aussi un discours nuancé, mais une vision résolument optimiste.

Je vous propose de donner dans un premier temps la parole à Sasha Rubel, qui pourra prouver qu'en fréquentant la même école, on peut se trouver des deux côtés de cette table, qui n'est pas ronde. Elle est responsable des affaires publiques sur les sujets IA chez AWS (Amazon Web Services), et membre du réseau d'experts de l'OCDE sur le sujet.

Laure Lucchesi, qui était jusqu'en 2023 directrice d'Etalab, le pôle « données publiques » de la direction interministérielle du numérique (Dinum), nous donnera ensuite sa vision des choses - sans doute marquée, je suppose, par une sensibilité « service public » qui fera écho aux travaux de la Délégation à la prospective.

Vous avez toutes les deux vécu une expérience assez longue dans des pays en transition. Je suis persuadée que vivre dans un monde meilleur participe aussi à l'égalité entre les femmes et les hommes.

Je vous laisse sans plus tarder la parole, dans l'ordre de votre choix.

INTERVENTION DE LAURE LUCCHESI
SPÉCIALISTE DES POLITIQUES PUBLIQUES DU NUMÉRIQUE
EX-DIRECTRICE D'ETALAB
(CHIEF DATA & IA OFFICER AUPRÈS DU PREMIER MINISTRE)

Bonjour à toutes et à tous. Merci de me donner la parole. Je remercie également tous les participants pour leurs travaux sur ce sujet extrêmement important. Il n'est pas facile de passer après ces deux tables rondes au cours desquelles beaucoup de choses ont déjà été dites.

Aujourd'hui, j'ai choisi d'être optimiste et de donner des exemples d'utilisation de l'intelligence artificielle en faveur de l'égalité entre les femmes et les hommes. Mon intervention fera écho à vos travaux, à travers le prisme de l'action et de la décision publique. Pendant plusieurs années, j'ai dirigé Etalab, un service interministériel qui a commencé par travailler sur la politique de la donnée, mais qui, assez vite, en est venu à se pencher sur l'intelligence artificielle. Nous n'avons pas attendu l'IA générative pour travailler sur cette question dans le service public.

Je rappelle que l'usage des sciences, des données, des algorithmes et de l'intelligence artificielle est de plus en plus fréquent dans la sphère publique, avec quelques particularités qu'il est important de souligner.

D'abord, cet usage répond aux grandes lois du service public, de continuité, d'adaptabilité, et d'égalité. Par ailleurs, les algorithmes qui y sont utilisés ont des spécificités par rapport à ceux qui peuvent être utilisés dans le secteur privé. Ils sont censés opérer au service de l'intérêt général. Ils servent très souvent à exécuter le droit. Ils doivent donc respecter la loi et rien que la loi, même si certaines interprétations peuvent occasionner des questions. Ils sont souvent incontournables - je pense à ParcourSup notamment.

Selon l'article 15 de la Déclaration des droits de l'homme et du citoyen, « la société est en droit de demander compte à tout agent public de son administration ». Les algorithmes publics sont aussi obligés de respecter cet article à travers un certain nombre de règles de transparence, de redevabilité et d'explicabilité, en particulier lorsqu'ils aboutissent à des décisions individuelles. L'acteur public ne peut donc pas utiliser des algorithmes complètement opaques. Un certain nombre d'obligations s'imposent.

Dès 2014, Etalab a commencé à travailler sur les premiers projets qu'on qualifiait à l'époque de data science et de machine learning. Il était compliqué d'expliquer et de faire comprendre ce qu'étaient ces techniques. J'ai constaté un certain saut en 2018, lorsque Cédric Villani a remis son rapport sur l'intelligence artificielle. L'emploi de ce terme, « intelligence artificielle », pouvait faire un peu peur, mais il a permis de mieux se projeter dans ce que pourraient être les usages de cette technologie. Il m'a semblé que c'était déjà une première étape vers l'accessibilité de ces outils.

Le Lab IA de l'État a été créé à la suite de ce rapport. Il était composé d'une petite équipe interministérielle. Il avait vocation à identifier les opportunités d'amélioration du service rendu aux usagers et de la façon dont ce service public était produit, en utilisant les sciences des données et l'intelligence artificielle. Une de ses premières missions - et encore une fois, le parallèle peut être fait avec d'autres organisations - visait à sensibiliser aux questions éthiques, aux questions des biais, de transparence et de redevabilité algorithmique.

Nous avons mis en place, avec un certain nombre d'acteurs de la recherche, des actions pour sensibiliser les agents publics aux règles auxquelles étaient soumis les algorithmes publics, mais aussi aux questions de biais - notamment de genre - qui pouvaient en découler. Nous avons abordé cet aspect assez tôt.

Nous avons ensuite mis en place le programme « entrepreneurs d'intérêt général », qui recrutait une soixantaine de profils chaque année, issus de l'extérieur : développeurs, designers, experts de la donnée... Nous avons mis un point d'honneur à respecter la parité et la mixité dans l'équipe, tant au sein des chargés de politiques publiques que parmi les compétences techniques. Il s'agissait de petits programmes - nous connaissons les problématiques de recrutement dans le service public -, mais leur visibilité nous permettait de sensibiliser à ces questions. Nous avons également accompagné des administrations dans la mise en place de projets de science des données et d'intelligence artificielle.

Permettez-moi de présenter quelques cas d'usage dans lesquels l'intelligence artificielle, en particulier dans la sphère publique, peut agir en faveur de l'égalité entre les femmes et les hommes. C'est d'abord le cas dans le domaine du travail et de l'emploi. L'utilisation de l'intelligence artificielle générative permet d'automatiser un certain nombre de tâches, notamment administratives. Pour rappel, la fonction publique est particulièrement féminisée : elle compte 63 % de femmes au total, 61 % dans la fonction publique territoriale et 57 % dans l'administration d'État. Elles seront particulièrement impactées par ces usages qui seront amenés à supprimer un certain nombre de tâches rébarbatives, à limiter la pénibilité et la surcharge de travail. Ces outils permettront, par exemple, de gagner en productivité dans la rédaction de comptes rendus, de notes, de synthèses.

Vous savez peut-être que la Direction générale des finances publiques a mis en place un système de gestion des amendements, testé sur le dernier projet de loi de finances. Il a permis de traiter 10 000 amendements de façon extrêmement efficace : ils ont été attribués au bon service, regroupés par catégorie, et synthétisés.

Il est vrai que nous manquons de chiffres sur l'impact de l'intelligence artificielle sur le travail. Toutefois, dans un rapport d'août 2023, l'Organisation mondiale du travail corrobore notre analyse. Les femmes qui occupent plutôt des emplois de bureau dans les pays plus développés seront particulièrement exposées. Dans le même temps, des opportunités de progression sont attendues sur ces métiers. Du moins, l'outil viendra les compléter, occasionnant une réduction de charge qui libérera du temps pour ceux qui occupent ces postes.

On peut aussi assez facilement imaginer des usages de l'intelligence artificielle visant à dégenrer ou apporter une écriture égalitaire à un certain nombre de documents et de textes. Le service public en produit beaucoup. Hier soir, je consultais Choisir l'emploi public, la plateforme des offres d'emploi du service public. Les intitulés des postes respectent bien la réglementation en précisant « hommes/femmes », mais dès qu'on rentre dans la fiche de poste, ce n'est plus le cas : on parle « du secrétaire général », « du directeur », on dit qu'« il sera chargé de ». Il est aujourd'hui possible de modifier ces usages. J'ai demandé à ChatGPT de rédiger une fiche de poste en langage égalitaire et inclusif. Il le fait très facilement.

Ensuite, un certain nombre de robots conversationnels ont déjà été testés par l'Urssaf depuis plusieurs années. De nouvelles expérimentations sont menées en la matière, notamment dans l'appui aux agents dans les maisons France services pour répondre aux questions des usagers. De nombreux gains sont attendus. L'outil prépare les réponses à adresser lors d'une prise de rendez-vous, en sourçant toutes les informations et en respectant des exigences de traçabilité.

Le Speech-To-Text et la possibilité de convertir du langage oral en texte écrit faciliteront aussi l'interaction, en particulier pour les personnes éloignées du numérique. Aujourd'hui, treize millions de personnes en sont encore éloignées. Elles souffrent d'une vulnérabilité numérique, qui s'accompagne de questions d'équipements, d'accès et de connexion, mais aussi de maîtrise de l'écrit ou d'aisance avec le langage administratif. Cette nouvelle source d'opportunités touchera aussi les personnes les plus vulnérables, en particulier les femmes.

Enfin, les outils s'améliorent de jour en jour. Ils permettent de mesurer très finement le temps de parole entre les hommes et les femmes dans les médias. InaSpeechSegmenter découpe très finement, à l'oral, les voix afin d'identifier le genre des locuteurs. Il est utilisé par exemple par l'Arcom dans son rapport annuel.

Il est même possible de réaliser des analyses beaucoup plus fines. Une étude a été menée sur les documentaires en première diffusion à la télévision en janvier 2024. Elle révèle que seulement 25 % des femmes voient leur documentaire diffusé en première diffusion, contre 75 % des hommes. 3 500 heures de documentaires en prime-time ont été mesurées sur les cinq dernières années. Il s'avère que le temps de parole des hommes y est deux fois et demi supérieur à celui des femmes.

Ainsi, nous disposons aujourd'hui d'opportunités de mesurer beaucoup plus finement et de réagir sur un certain nombre d'éléments. L'intelligence artificielle nous offre la possibilité de regarder, de mesurer, d'analyser les bases de données, les données d'entraînement, les modèles en eux-mêmes et leurs résultats, et un certain nombre de valeurs. L'Europe s'est d'ailleurs dotée d'une réglementation et d'outils pour agir sur ces questions.

Ensuite, Etalab a travaillé assez tôt sur un outil, que nous avions nommé DataJust, qui fut très décrié. Il visait, à l'initiative du ministère de la justice, à établir un barème d'indemnisation des préjudices corporels. Il existe aujourd'hui des barèmes officieux. Nous avions donc souhaité analyser les données de jurisprudence pour en établir un plus officiel, qui servirait à la fois à diffuser de l'information sur l'indemnisation des préjudices, mais aussi à appuyer la décision des magistrats dans leur jugement. Ce travail visait également à désengorger les tribunaux en essayant de résoudre les situations à l'amiable.

Un traitement a été créé pour traiter des données très sensibles, mais anonymes, et aboutir à ce barème. Nous avons très vite réalisé que les biais pourraient nous poser des problèmes. Comment indemniser un homme et une femme victimes d'un accident et ayant subi un préjudice à la poitrine ? De plus, l'indemnisation se fait en anticipation des revenus futurs. Or, nous constatons une très forte inégalité entre le salaire des hommes et celui des femmes pour un métier similaire. Dans ce cas, devons-nous y apporter une correction ?

Finalement, pour diverses raisons de complexité, de gestion, d'organisation et de coût, le projet a été abandonné. Ce travail a tout de même généré des questions légitimes, à savoir, devons-nous effacer tous les biais pour correspondre à un idéal ? Si oui, lequel ? Qui en décide ? Comment ? Nous avons besoin d'affecter les moyens adéquats pour traiter convenablement la façon dont le service public intégrera ces outils, y compris sur les questions éthiques. S'y ajouteront des préoccupations techniques. Ce ne sera pas simple. Pour autant, l'intelligence artificielle générative a rendu ces questions visibles, beaucoup plus accessibles et compréhensibles. Si vous m'aviez invitée il y a deux ans, beaucoup moins de personnes se seraient intéressées au sujet.

Ensuite, Hugging Face a mis en place un explorateur de biais, qui permet de comparer des modèles et donc des représentations imagées d'un certain nombre de métiers. Récemment, Google a montré la difficulté de traiter ces questions sur Gemini, qualifié d'IA woke. Dans le cadre de cette intelligence artificielle, c'est aussi la culture interne de Google en faveur de la diversité, de l'équité et de l'inclusion qui a pu être soulignée. Elle a pu aussi faire dévier les outils qui étaient mis en place. Ainsi, ces systèmes reflètent également la culture et l'organisation interne. Je crois que cette question est éminemment politique, démocratique, et de gouvernance.

Pour terminer, des conventions citoyennes se sont mises en place. Elles ont rendu des avis et se sont intéressées à ces questions, y compris celle des iniquités de genre, à Rennes ou à Montpellier. J'y vois le signe qu'un débat s'ouvre. Plus les parties prenantes que sont les entreprises, les associations, la recherche ou le monde politique s'y intéresseront, et plus nous pourrons discuter du projet de société que nous désirons atteindre.

INTERVENTION DE SASHA RUBEL
RESPONSABLE DES POLITIQUES PUBLIQUES EN IA
EUROPE - AFRIQUE - MOYEN-ORIENT CHEZ AMAZON WEB SERVICES
MEMBRE DU RÉSEAU D'EXPERTS DE L'OCDE SUR L'IA

Je suis ravie de prendre la suite de Laure Lucchesi sur tous ces exemples passionnants. Je m'excuse d'avance pour mes fautes de français, je genre tous les mots au féminin, comme une sorte d'engagement...

Si vous demandez à un service d'IA générative qui est Sasha Rubel, il vous répondra que je suis une espionne russe, que je suis un formateur de joueurs d'échecs, et que je suis un homme. Je vous assure que ce n'est pas le cas. J'ai passé treize ans à l'ONU à travailler sur la façon de mettre la femme au centre de la transformation numérique. Je travaille désormais chez Amazon Web Services (AWS).

J'aimerais commencer mon propos par une anecdote reflétant l'intervention de M. Jouini. Lorsque je vivais à Dakar, je dirigeais le premier camp de formation de codage destiné aux jeunes femmes. Un jour, une adolescente de 16 ans qui travaillait dans la mode s'est présentée à la porte en indiquant qu'elle ne savait pas si ce chemin était fait pour elle, qu'elle aimait beaucoup travailler dans tout ce qui était créatif. À la fin de la journée de formation, elle m'a dit qu'elle ne s'était pas rendu compte à quel point la technologie pouvait être un chemin vers la créativité. Ainsi, je pense qu'un recadrage est nécessaire s'agissant de la signification du travail dans la technologie.

Personnellement, je ne suis pas bonne en maths. Je suis anthropologue de formation. Mon doctorat était consacré aux enjeux des aspects sociétaux et éthiques de l'intelligence artificielle. L'un des plus grands obstacles à l'adoption de l'IA, en France et au-delà, réside dans le fait que nous manquons de personnes qui se réunissent pour réfléchir à ces enjeux de responsabilité. Le manque de confiance dans ces technologies constitue le principal élément bloquant.

Pour s'assurer de l'adoption de cette technologie de manière responsable, il ne faut pas simplement plus de diversité dans le travail sur la technologie, mais aussi plus de diversité dans les perspectives. La femme se place au centre de ces enjeux.

Aujourd'hui, on a entendu que l'IA était un miroir des biais de notre société. Je dirais plutôt qu'elle agit comme une loupe. J'y vois une opportunité extraordinaire, parce que nous sommes désormais placés face à une réalité que nous ne pouvons plus nier. Cette réalité existe dans nos algorithmes, mais aussi dans nos sociétés. Madame Lavarde, je suis comme vous, très optimiste quant à cette technologie qui peut nous permettre d'affronter les défis qui se dressent devant nous.

Plusieurs intervenants ont déjà partagé des statistiques concernant la présence des femmes dans ce milieu. J'aimerais revenir sur quelques enjeux économiques en la matière. Aujourd'hui, les femmes ont treize fois moins de chances que les hommes de déposer un brevet technologique. Selon l'OCDE, elles ne déposent que 7 % des brevets dans le domaine des nouvelles technologies dans les pays du G20, et seulement 10 % des start-up ont été fondées par des femmes. C'est grave.

Pour que l'IA soit un atout pour l'égalité de genre, nous n'avons pas simplement besoin de plus de femmes dans ce secteur, mais aussi d'équipes diversifiées qui stimulent l'innovation. Ce n'est pas simplement une question éthique, c'est bon pour le monde. Nous nous accordons tous, ici, sur le caractère essentiel de cette diversité. Celle-ci est aussi opportune en termes économiques pour les entreprises françaises. Cultiver la diversité répond à un impératif éthique, mais aussi économique. Les entreprises diversifiées ont 25 % de chances supplémentaires de surpasser leurs concurrentes.

Le Boston Consulting Group (BCG) a constaté que les entreprises affichant une diversité supérieure à la moyenne génèrent, grâce à l'innovation, 45 % de revenus en plus que celles qui affichent une diversité inférieure à la moyenne. En parallèle, l'Institut de recherche du Crédit Suisse a constaté que les sociétés comptant une ou plusieurs femmes au conseil d'administration avaient un rendement moyen des investissements plus élevé et une meilleure croissance moyenne que les entreprises dont le conseil d'administration n'est composé que d'hommes. De plus, les équipes mixtes prennent de meilleures décisions commerciales 73 % du temps.

Ainsi, pour créer des solutions d'IA qui sont bonnes pour la société et pour l'entreprise, la diversité est essentielle.

Ce matin, plusieurs d'entre vous ont souligné l'importance du mentorat. Il ne doit pas se limiter aux femmes. Nous avons aussi besoin d'hommes champions qui championnent des femmes. Un programme au sein d'AWS est consacré à cette question de mentorat. Il encourage les échanges entre les femmes, mais également des « HeForShe champions ». Nous avons besoin de cet aspect de championnat pour les hommes et pour les femmes.

Monsieur Jouini, vous avez évoqué une question de paradoxe du genre, en indiquant que les pays affichant la plus grande égalité de genre comptaient moins de femmes poursuivant des carrières scientifiques. Je pense que nous avons besoin que les équipes qui construisent les systèmes d'IA soient aussi diversifiées que les communautés qui les utiliseront.

Nous pouvons, à mon sens, aborder le défi auquel nous sommes confrontés par le biais des compétences. Dans ce cadre, je salue le travail de la Fondation Abeona. Nous venons de publier un rapport qui étudie le marché français et les obstacles à l'adoption de l'intelligence artificielle. La question des compétences est l'un des principaux éléments bloquants, pour les femmes, mais aussi pour les hommes. 61 % des entreprises ont déclaré une incapacité à trouver du personnel doté des bonnes compétences numériques, ce qui freine leur performance et leur investissement dans l'IA. Du côté des salariés français, la formation est clairement insuffisante. Seuls 13 % des citoyens français suivent des formations pour développer de nouvelles compétences numériques. C'est notamment le coût de ces modules qui les bloque.

Pour cette raison, nous avons investi dans un engagement, AI Ready, qui met à disposition plus de quatre-vingts cours gratuits en ligne. Ils ne forment pas simplement aux enjeux techniques de l'IA, mais aussi aux questions de biais, d'explicabilité, d'équité, de précision. Le sujet n'est pas uniquement technique mais aussi sociologique. Nous devons comprendre que ce n'est pas parce qu'un outil est techniquement faisable que nous devons nécessairement le créer. C'est là que les enjeux de formation deviennent essentiels.

Avant d'en venir aux exemples français, j'aimerais insister sur un certain manque d'investissement en faveur des femmes fondatrices, et un manque d'éducation sur les moyens de transformer des idées géniales en actions en disposant d'une connaissance suffisante de l'entreprise. AWS travaille sur cette dimension avec de multiples partenaires privés et publics pour accompagner des entrepreneures afin qu'elles transforment leurs idées pour les lancer sur le marché. Cet aspect de formation technique, éthique et commerciale est essentiel. Nous n'accompagnons pas que des actifs. Nous avons constaté que les connaissances en IA pouvaient contribuer à une augmentation de salaire pouvant atteindre 47 %. L'indépendance financière de la femme dépend de sa capacité à se mettre au centre de cette révolution technologique qui touchera tous les aspects de notre vie.

Ensuite, comment voyons-nous les risques associés aux données traitées par l'intelligence artificielle ? Il serait naïf de ne pas reconnaître les défis existant dans le déploiement de l'IA, à commencer par le risque lié aux données de recrutement d'industries à prédominance masculine. Si l'on crée des bases de données à partir de ces informations, le résultat sera biaisé. En anglais, on parle de « garbage in, garbage out ». L'IA n'est pas magique. Ainsi, s'il est nécessaire de s'assurer de la diversité des équipes, il faut aussi garantir la diversité des bases de données sur lesquelles les solutions de l'IA sont entraînées. C'est une opportunité extraordinaire pour montrer à quoi notre société pourrait ressembler en gommant les biais.

Ensuite, les enjeux de la reconnaissance faciale utilisant l'IA et des données déséquilibrées en la matière ont fait la une des journaux partout dans le monde. Les risques ne concernent pas que les femmes, mais aussi les autres groupes marginalisés, si la majorité des bases de données ressemblent à la majorité des codeurs qui créent ces systèmes et qui ne sont souvent pas représentatifs de notre société.

Permettez-moi de partager avec vous quelques exemples de ce que nous faisons avec nos clients pour que l'IA devienne un atout pour l'égalité de genre, et ce que nous créons à l'intérieur de notre entreprise pour nous assurer que nos propres bases de données sont limitées en termes de biais.

J'étais ravie que Laure Lucchesi évoque Hugging Face, un grand partenaire d'AWS en France. Avec cet acteur, nous cherchons à mettre à disposition librement des ressources qui aident les développeurs et les entrepreneurs à évaluer les biais dans leur système. Vous avez déjà parlé des pratiques d'embauche et de la possibilité que l'IA soit un risque, mais aussi une opportunité pour assurer un filtrage équitable et accroître le taux d'embauche des femmes. L'un de nos clients a utilisé ce système. Son taux d'embauche de femmes a augmenté de 14 %.

Il est également possible de détecter et signaler les termes biaisés dans les offres d'emploi. En 2018, il s'est avéré que l'outil de recrutement créé par Amazon était biaisé. En réalité, il n'a jamais été lancé à l'externe. Il n'a été testé qu'en version bêta au sein même de l'entreprise. Nous l'avons supprimé quand nous nous sommes aperçus qu'il ne fonctionnait pas. Il n'a donc jamais été utilisé de façon publique.

Cette expérience nous a encouragés à faire mieux, à utiliser les outils de l'intelligence artificielle pour aborder et résoudre les problèmes. Elle nous a menés à créer la solution SageMaker Clarify, qui détecte automatiquement des biais et les supprime des bases de données.

Il est important d'apprendre de ses erreurs, en réalisant ce type d'expérience de manière très contrôlée pour améliorer ses services.

Vous avez évoqué plus tôt les textes juridiques. Cet exemple me semble essentiel, parce qu'il y réside de nombreux biais. C'est également le cas des chatbots. Je n'y reviendrai pas.

J'ai été élevée en Afrique de l'Ouest. J'ai aussi vécu en Éthiopie. À cette époque, je voyais, quand je sortais de mon bureau, que de nombreux élèves, surtout des femmes, étaient adossés à l'immeuble de l'Union africaine. J'ai demandé au chauffeur de taxi pourquoi ces centaines de femmes se trouvaient là à 17 heures, en semaine. Il m'a expliqué qu'elles avaient besoin de WiFi pour étudier. Elles avaient récupéré le code WiFi de l'Union africaine pour télécharger les informations nécessaires et accéder à leurs cours. Elles ne pouvaient pas rentrer chez elles, car elles auraient eu, à leur domicile, d'autres responsabilités. Elles voulaient étudier.

Je fus autodidacte jusqu'au lycée. À l'époque, DHL m'envoyait des cours à distance. L'intelligence artificielle et l'IA générative offrent une opportunité extraordinaire pour combler la faille qui existe en matière d'accès à l'éducation dans les pays en voie de développement, surtout pour des femmes. Chez AWS, nous cherchons également, avec l'aide de partenaires privés et publics, à rendre les contenus d'éducation accessibles au plus grand monde, pour que les femmes ne soient pas laissées à l'écart.

Enfin, Madame Lavarde, vous avez évoqué un sujet essentiel : que représentent ces outils dans le cadre de harcèlement et de sexualisation des femmes en ligne ? Je m'appuierai sur deux cas d'études qui m'ont conduite à intégrer AWS.

En Afrique de l'Ouest, les jeunes femmes n'ont pas accès à un compte en banque, parce qu'elles n'ont pas de carte d'identité nationale. Nous travaillons beaucoup dans les zones rurales pour permettre aux femmes qui n'ont aucune autre manière d'avoir accès à un compte en banque d'y accéder, grâce à l'intelligence artificielle et à travers la reconnaissance faciale, et de jouir ainsi d'une indépendance financière.

Par ailleurs, nous travaillons beaucoup avec l'organisation Thorn, dédiée à l'arrêt de la propagation de contenus d'abus sexuels pour les mineurs, surtout les femmes, et à lutter contre des trafiquants d'enfants, souvent des filles. Avec les services d'intelligence artificielle d'AWS, les outils de Thorn ont permis d'identifier 5 894 victimes de la traite des enfants à des fins sexuelles, et de secourir 103 enfants dont les abus sexuels ont été enregistrés et diffusés. Le délai d'enquête avec l'IA s'est réduit de 65 % grâce à cette technologie.

Plusieurs services d'IA générative, comme Code Whisperer ou SageMaker Clarify enlèvent automatiquement des contenus biaisés en ligne de façon à réduire certains risques.

Comment pouvons-nous rendre opérationnels ces systèmes, en France, mais aussi au-delà ? D'abord, nous devons tester. On parle beaucoup de red teaming dans le cadre du G7. Il ne faut pas lancer sur le marché un outil qui n'est pas testé pour les aspects de l'IA responsable, de biais et de précision.

Ensuite, nous avons besoin de modèles de transparence. Chez AWS, nous créons des service cards qui mettent à disposition du public la donnée entraînée pour créer ce modèle, pour qu'il en comprenne l'origine, les risques, et les façons de l'utiliser ou de ne pas l'utiliser.

Nous devons également adopter une approche interopérable du watermarking, permettant d'identifier un contenu en ligne créé par une intelligence artificielle générative, surtout lorsqu'il s'agit d'un support audiovisuel. Ceux-ci présentent des enjeux particuliers en termes d'égalité femmes-hommes.

Enfin, nous sommes convaincus que la responsabilité amène la confiance, que la confiance encourage l'adoption de l'intelligence artificielle, et que l'adoption de l'IA amène à l'innovation, opportune pour la France et pour le monde. Pour ce faire, nous avons besoin de coopération. Personne ne dispose de réponses à toutes les questions. Pour les obtenir, il est essentiel d'organiser des colloques avec le secteur privé, le secteur public, les chercheurs, la société civile. Ces acteurs peuvent se réunir pour construire l'avenir de cette technologie, en plaçant l'égalité au centre du projet.

Merci beaucoup pour cette initiative.

Christine Lavarde, présidente de la Délégation sénatoriale à la prospective. - Nous pourrions presque conclure après vos interventions, très complètes. Ces exemples ont-ils suscité des interrogations ?

Les thèmes associés à ce dossier

Partager cette page