B. UNE MULTITUDE DE RISQUES À MAÎTRISER
Si l'utilisation de l'IA dans les territoires, notamment par les collectivités territoriales, peut être bénéfique, elle ne le sera qu'à la condition que les risques inhérents à cette nouvelle technologie soient maîtrisés.
1. Le risque de dérive des coûts
Si l'objectif premier des projets d'IA n'est pas forcément de faire des économies, le contexte budgétaire difficile des collectivités et services publics locaux impose de trouver des financements soutenables. Certains projets peuvent s'autofinancer, les économies de fonctionnement amortissant largement et rapidement les coûts d'investissement initial.
Mais les projets d'IA sont fortement évolutifs. S'ils sont mal définis dès leur lancement, des ajustements coûteux en cours de route peuvent être nécessaires. Le temps ou les ressources pour l'accompagnement des projets peut aussi venir à manquer.
Une enquête du Gartner Research publiée mi-2024 estime ainsi que près d'un projet d'IA générative sur trois pourrait être abandonné d'ici 202515(*). Outre les questions éthiques, plusieurs villes américaines ont renoncé à des programmes de reconnaissance faciale automatisée après des dépassements budgétaires importants en phase de test. Il est finalement assez difficile d'estimer précisément la balance budgétaire réelle des projets d'IA dans les territoires.
Limiter les risques de dérives des coûts passe donc par un cadrage précis des projets, l'optimisation des modèles, la mutualisation des solutions entre collectivités, mais aussi la capacité à suivre les projets grâce à des experts ne dépendant pas totalement des fournisseurs de solutions (éditeurs de logiciels).
2. Le risque environnemental
Les solutions d'IA se caractérisent par la nécessité de mobiliser d'importantes masses de données et puissances de calcul. Nécessairement, cela se répercute sur les consommations de matériaux (lithium, cobalt) pour fabriquer les équipements informatiques (centres de données, serveurs, calculateurs) mais aussi les consommations électriques pour les faire fonctionner.
Ces consommations énergétiques interviennent à deux moments critiques : celui de l'entraînement du modèle d'IA, puis celui de l'exploitation de ce modèle (requêtes des utilisateurs)16(*). Certes, selon les dernières données citées par le rapport du Conseil économique social et environnemental de septembre 2024 consacré aux impacts de l'IA sur l'environnement17(*), l'IA ne consommerait que 4,5 gigawattheures (GWh) par an sur les 170 000 terawattheures (TWh) de consommation énergétique mondiale annuelle, mais ce chiffre est en forte progression et une requête Chat-GPT est déjà dix fois plus énergivore qu'une requête classique sur Google.
Pour autant, le risque environnemental lié à l'IA peut être contenu grâce à la mise en oeuvre de technologies d'IA frugale.
L'IA frugale est une approche visant à minimiser la consommation de ressources et l'impact environnemental tout en maintenant des performances élevées. Elle repose sur plusieurs techniques : la réduction de la taille des modèles (en utilisant des modèles plus petits ou simplifiés pour accomplir des tâches spécifiques sans perte significative de précision), l'optimisation des algorithmes (par exemple par la technique du pruning qui consiste à supprimer des paramètres ou des couches inutiles d'un réseau neuronal), l'utilisation d'énergies propres pour réduire l'empreinte carbone, la réutilisation de modèles pré-entraînés ou encore le développement d'infrastructures locales pour limiter les transferts de données et besoins en calcul.
Chargé de piloter la feuille de route pour l'IA et la transition écologique du ministère de la transition écologique (MTE), l'Ecolab, placé auprès du Commissariat général au développement durable (CGDD) a publié mi-2024 un référentiel général pour l'IA frugale destiné à l'ensemble des acteurs de l'IA, publics comme privés. L'Ecolab a également sélectionné 12 projets territoriaux dans le cadre de l'appel à projets « démonstrateurs d'IA frugale au service de la transition écologique » (DIAT) doté de 20 millions d'euros de subventions. Parmi ceux-ci, le projet « IA ECO PILOT » porté par la Métropole du Grand Paris (MGP) et le consortium ADVIZEO a pour but d'automatiser le suivi et le pilotage des bâtiments à distance dans le but de réduire substantiellement leur consommation énergétique, en s'appuyant sur 5 000 sites des collectivités membres de la MGP qui remontent leurs données sur une plateforme de suivi énergétique. L'idée est de développer des projets qui pourront ensuite faire école et se diffuser dans plusieurs territoires.
La montée des préoccupations concernant l'empreinte environnementale de l'IA conduit à réviser le concept de smart city, axé sur la collecte massive de données et la construction d'infrastructures technologiques énergivores et nécessitant l'extraction de matériaux rares et coûteux. Cette prise de conscience conduit à privilégier une nouvelle approche centrée sur la « green city », capable de davantage répondre au défi climatique. La green city propose de viser non plus l'optimisation du fonctionnement de la ville mais sa transformation dans un sens plus favorable à la protection de la nature.
3. Le risque de déshumanisation
Les performances de l'IA incitent à faire faire par des machines un nombre croissant de tâches au contact avec le public, et plus seulement des tâches spécialisées de soutien ou d'appui, en tout cas « d'arrière-guichet ».
En remplaçant les échanges des usagers des administrations avec des personnes physiques par des échanges avec des robots conversationnels, on peut étendre les plages horaires d'ouverture des services, assurer un accueil en masse sans délais d'attente, et parfois même apporter des réponses plus documentées et plus pertinentes que ne pourrait le faire une personne physique. Mais dans le même temps, on automatise la relation et on capte moins bien les informations fines qui se déduisent du comportement, de l'intonation ou d'autres aspects mis en évidence dans un échange entre êtres humains.
Les « chatbots » ou robots conversationnels sont au centre de cette réflexion sur le risque de déshumanisation induit par le développement de l'IA dans les services publics. Par ailleurs, l'IA peut méconnaître les spécificités territoriales, peut passer à côté de paramètres non automatisables, et perdre en performance par rapport à ce que saurait faire un opérateur humain. Elle peut notamment être incapable de répondre à un problème rare ou imprévu.
Enfin, si elle est performante, l'IA peut faire basculer d'une aide à la décision à une fonction décisionnelle automatisée. De nombreuses études montrent que nous hésitons à remettre en cause les préconisations d'une machine lorsque celle-ci a montré dans le passé qu'elle avait raison. Nous devenons de simples exécutants des décisions prises par l'IA.
Il s'agit là d'une dérive problématique, avec son corollaire : la déresponsabilisation. C'est pourquoi il convient de cantonner l'IA à une fonction d'aide et d'assistance mais à toujours préserver la capacité humaine finale de décision, en n'automatisant pas totalement les processus de décision.
Le double visage des « chatbots »
Les robots conversationnels ou « chatbots » sont une technologie connue depuis longtemps mais dont les performances ont longtemps été décevantes. Grâce aux grands modèles de langage, ils ont pu fortement se développer depuis le début des années 2020, et sont désormais en mesure d'apporter des réponses rapides et pertinentes aux demandes de renseignements dans un grand nombre de domaines.
Ayant réponse à tout ou presque de manière quasi instantanée, capables même d'apporter des réponses individualisées, disponibles 24 heures sur 24, leur déploiement peut améliorer le service public en le rendant plus accessible et plus rapide.
L'utilisation des chatbots s'étend rapidement dans la sphère publique. Cette solution est d'autant plus pertinente que beaucoup des questions posées à l'administration par les usagers (de 40 à 60 %) sont des questions simples (horaires d'ouverture de la déchetterie ou de la piscine, précision sur le formulaire à remplir, etc.) qu'un robot conversationnel même assez basique peut traiter facilement.
Les grandes administrations (services des impôts, caisses d'allocations familiales, France Travail...) les ont mis en place pour renseigner leur public. Les collectivités territoriales se sont également lancées dans cette direction (par exemple, le conseil départemental de la Drôme avec l'outil Wikit)18(*). Les chatbots peuvent aussi être utilisés par les collectivités dans le domaine de la gestion des ressources humaines (par exemple, le centre de gestion du Finistère répond de manière automatisée, grâce à l'outil Botig, aux questions de premier niveau posées par les agents territoriaux qui lui sont rattachés).
Mais le revers de la médaille réside dans la déshumanisation de la relation de l'usager avec l'administration, lorsqu'on remplace des agents d'accueil qui assuraient auparavant le premier contact avec le public.
Les chatbots se révèlent certes de plus en plus performants, mais peuvent aussi avoir tendance à apporter des réponses préformatées, ne prenant pas en compte les spécificités individuelles. Ils peuvent avoir du mal à appréhender le contexte de la question, en allant au-delà d'un échange de type textuel. Cette standardisation peut engendrer des malentendus ou des frustrations chez les usagers qui se sentiraient incompris. Ils peuvent aussi faire des erreurs grossières (hallucinations) qu'une personne humaine aurait rapidement détectées comme telles.
Par ailleurs, en s'adressant lors d'un premier contact à un robot conversationnel, les citoyens peuvent ressentir une distance accrue avec les administrations, surtout lorsque leurs demandes nécessitent une compréhension fine ou une empathie que des machines ne peuvent fournir. Cela peut être particulièrement préjudiciable pour les populations vulnérables (personnes âgées, non digitales, en difficulté sociale).
Pour certains usagers, le manque d'interlocuteurs humains peut accroître le sentiment de solitude ou d'aliénation, notamment dans des situations de stress ou de besoin urgent d'assistance.
La réponse au risque de déshumanisation de la relation entre usagers et services publics passe par la limitation des chatbots à un contact de premier niveau, en ménageant toujours la possibilité de basculer rapidement vers une personne physique si nécessaire : chaque service automatisé devrait proposer une alternative humaine facilement accessible, en particulier pour les cas complexes ou sensibles.
4. Le risque de dépendance technologique et stratégique
La numérisation de l'ensemble de nos activités nous rend dépendants des outils numériques. Il pourrait en aller de même demain avec l'IA. Les solutions technologiques mises à notre disposition deviendront indispensables. Les organisations publiques comme privées sont donc exposées à des risques de dépendance stratégique vis-à-vis d'infrastructures critiques, de fournisseurs de solutions informatiques, voire de puissances étrangères.
Ainsi, les collectivités territoriales qui utilisent des plateformes d'IA peu ouvertes risquent de se retrouver en situation de captivité technologique avec très peu de capacité à remettre périodiquement en concurrence leurs fournisseurs.
Il y a aussi un risque de perte d'expertise et de maîtrise de son outil informatique, celle-ci étant totalement transférée au prestataire informatique.
La réponse à ces risques consiste à privilégier des standards ouverts, imposer une interopérabilité des systèmes, et pouvoir s'appuyer sur une expertise indépendante, interne ou externe, pour accompagner les projets d'IA.
Il s'agit aussi d'éviter une excessive concentration des acteurs de l'IA afin de pouvoir mettre en concurrence les solutions proposées, ce qui va à l'encontre des stratégies des grandes firmes du numérique qui visent la domination de leur marché par la supériorité technologique et ont la capacité financière à racheter régulièrement des petites start-up qui offrent des alternatives.
Au-delà de l'enjeu de la dépendance technologique, se pose la question de la souveraineté numérique et des risques de dépendance vis-à-vis de pays étrangers. Cette question concerne tant les données que les algorithmes.
La collecte et l'hébergement de données sur des serveurs situés hors d'Europe ont plusieurs conséquences. Elles conduisent en premier lieu à un transfert de valeur du patrimoine des données de leurs propriétaires initiaux sur les territoires vers les fournisseurs de solution d'IA, qui peuvent en faire une utilisation commerciale.
En second lieu, elles exposent les acteurs du territoire à l'application extraterritoriale de lois et règlements pouvant les pénaliser, et fait peser sur eux des risques géopolitiques, avec même des possibilités de rupture de service en cas de conflit.
Pour les collectivités territoriales et l'ensemble des acteurs locaux, il convient donc de privilégier autant que possible des solutions numériques ouvertes, et de préférence souveraines, pour limiter au maximum les risques de dépendance stratégique.
La cybersécurité, un enjeu pour l'IA dans les territoires
La cybersécurité est un enjeu qui préexistait à l'IA. Les applications informatiques très décentralisées peuvent être la cible de cyberattaques et sont parfois mal défendues. Dans un rapport conjoint réalisé en 2021, la délégation aux collectivités territoriales et la délégation aux entreprises du Sénat s'étaient penchées sur le défi de la cybersécurité dans les collectivités19(*). Il recommandait de sensibiliser les élus à la cybersécurité, de renforcer la fonction de responsable de la sécurité des systèmes d'information (RSSI) dans les grandes collectivités, de mettre en place des plans ou des procédures de continuité et de reprise d'activité en cas de survenance d'une crise d'origine numérique et d'appliquer le principe de subsidiarité en matière de sécurité numérique.
Le baromètre de la maturité cyber des collectivités de 2024 établi par cybermalveillance.gouv.fr, confirmait qu'elles étaient une cible privilégiée des attaques informatiques. 1 collectivité sur 10 en est victime chaque année. Les plus petites d'entre elles ne sont pas toujours conscientes de la menace et ne se protègent pas assez. L'écart se creuse entre les grandes et les petites collectivités.
Or, l'IA est aussi utilisée par les cybercriminels pour sophistiquer leurs attaques (virus, hameçonnage, attaques en déni de service). Heureusement, l'IA peut aussi être utilisée en défense, pour la détection avancée des menaces ou encore pour la réponse automatisée aux incidents.
En outre, les modèles d'IA peuvent eux aussi être vulnérables à des attaques particulièrement sournoises, par exemple celles consistant à injecter des fausses données pour les rendre inefficaces voire inopérants (data poisonning), ce qui nécessite de les protéger.
Pour faire confiance aux IA mises en place localement, il sera donc nécessaire de répondre à des exigences plus élevées de cybersécurité et relever le niveau de protection des collectivités, en particulier les plus petites, qui sont aujourd'hui particulièrement exposées sans le savoir.
5. Le risque pour les libertés publiques
Certaines applications de l'IA sur le territoire peuvent être très sensibles du point de vue des libertés publiques. Il en va ainsi des systèmes de vidéosurveillance de la voie publique ou interne aux bâtiments publics dits « augmentés » car des traitements algorithmiques permettent l'analyse automatisée des images. Ces systèmes peuvent être très utiles (par exemple pour repérer un bagage abandonné dans une gare, ou pour surveiller les infractions routières), mais, par nature, ils portent atteinte à la vie privée.
Lorsque la captation d'images est couplée à de la reconnaissance faciale par IA, on bascule dans des systèmes de vidéosurveillance biométrique des personnes. Le règlement général sur la protection des données (RGPD) pose le principe de leur interdiction, avec des exceptions limitées. Ces dispositifs ont pu être expérimentés dans le cadre des jeux Olympiques et Paralympiques de Paris 2024 (JOP) assortis d'un cadre juridique exigeant. Assurer sur le territoire une surveillance efficace sans tomber dans la société de surveillance est un équilibre difficile à trouver, comme l'avait souligné un rapport d'information du Sénat de 202220(*). Le règlement européen sur l'IA (AI Act) du 21 mai 2024 a confirmé l'interdiction de la vidéosurveillance biométrique, sauf exceptions explicitement prévues (recherche de personnes enlevées ou disparues, prévention d'une menace imminente, recherche d'une personne pour infraction pénale grave). Il n'en reste pas moins que des technologies efficaces sont aujourd'hui disponibles et que la tentation est grande de les mettre en oeuvre.
Par ailleurs, les collectivités disposent de nombreuses données personnelles qui constituent des mines d'information. Là aussi, leur utilisation doit être encadrée afin de ne pas porter atteinte à la vie privée des individus et leur exploitation dans des systèmes d'IA doit apporter toutes les garanties d'anonymisation.
Enfin, les collectivités gèrent de très nombreux services à la population. Si elles se font aider par des algorithmes dans l'exécution de ces missions, il convient de s'assurer que ces algorithmes ne perpétuent pas ou n'amplifient pas des biais préexistants dans les données utilisées pour les entraîner, pouvant déboucher sur des discriminations et une rupture du principe d'égalité entre les citoyens.
6. Le risque d'inégalités territoriales
L'aggravation des inégalités territoriales ne résultera pas mécaniquement du déploiement de l'IA. Néanmoins, il peut exister un risque de déploiement inégal, avec comme résultat un accroissement des disparités et des services moins bien rendus dans certains espaces.
Les difficultés peuvent provenir d'un accès plus limité de territoires, notamment les moins denses, aux infrastructures nécessaires pour déployer des solutions basées sur l'IA, comme une connectivité Internet haut débit, ou encore l'accès à des centres de données ou à des talents spécialisés.
Par ailleurs, les investissements en IA par les start-up comme par les grands groupes du numérique peuvent avoir tendance à se concentrer dans des pôles économiques majeurs ou dans des métropoles, laissant les territoires périphériques en marge. Certains services sont au demeurant moins faciles à déployer dans les territoires peu denses : il en va ainsi des solutions de mobilité qui ont besoin de masses de données.
À l'inverse, certaines activités pourraient profiter de l'IA pour être déployées dans des espaces peu denses et contribuer à la réduction des inégalités territoriales : il en va ainsi de la santé. Le rapport IA et Santé évoquait en effet la possibilité d'automatisation de certains actes médicaux ou paramédicaux, de certaines analyses, constituant ainsi une réponse possible aux déserts médicaux.
Intelligence artificielle : une chance pour la ruralité ?
La campagne est souvent vue comme un espace marqué par l'absence de technologies et la prédominance de la nature et des traditions. Or, la ruralité ne vit pas hors du monde et hors des technologies.
Plusieurs activités majeures en milieu rural se modernisent grâce à l'IA : ainsi, l'agriculture ou la forêt peuvent en bénéficier.
L'IA améliore en effet la surveillance des cultures et des élevages, en traitant des données satellitaires en temps réel. Ces analyses permettent de détecter les problèmes comme l'apparition d'un ravageur des cultures, avant qu'ils ne prennent trop d'ampleur. Dans le domaine de l'élevage, la vidéosurveillance des prés ou des stabulations peut également être utile.
Au-delà de la surveillance, l'IA en agriculture peut optimiser la production, par exemple en prédisant les rendements avant même les semis, ou en matière d'irrigation, grâce à des capteurs dans le sol, combinés aux informations météorologiques, qui conduisent à ne déclencher des apports d'eau qu'aux moments où ceux-ci sont indispensables.
Enfin, l'IA en agriculture permet d'automatiser et de robotiser des tâches auparavant manuelles : automatisation de la cueillette par des robots, désherbage automatisé, déclenchement automatique de la traite des vaches laitières.
L'IA peut aussi aider à améliorer la gestion forestière. Ainsi, l'analyse des images aériennes des parcelles forestières peut être automatisée afin de repérer les arbres malades, pour optimiser les coupes, mais aussi les choix de replantation, notamment pour optimiser la captation de carbone par les arbres.
L'espace rural ne se réduit pas aux activités agricoles et forestières, même si elles y jouent un rôle important. En réalité, ce sont l'ensemble des domaines de la vie en milieu rural qui peuvent être concernés par l'IA. Par exemple, les progrès du véhicule autonome, qui se déplace grâce à l'IA, pourraient grandement faciliter les mobilités dans les espaces ruraux où il est plus difficile de mettre en place des dispositifs de transports collectifs.
Il existe toutefois un préalable au déploiement de systèmes d'IA dans nos campagnes : la réduction de la fracture numérique en termes de réseaux et d'équipements de communications à haut débit.
Enfin, des implantations physiques des services publics doivent être préservées dans les territoires ruraux. Avec les espaces France Services (2 700 aujourd'hui, 3 000 espérés en 2026) qui regroupent en un même lieu les différents services publics, dont une grande partie en milieu rural, le maillage de l'accès aux démarches administratives est renforcé. Les outils d'IA mis à disposition des personnels devraient permettre d'améliorer les performances dans la réponse aux questions des administrés. Développé par la direction interministérielle du numérique (Dinum), l'outil d'IA générative dénommé Albert est testé dans les Espaces France Services pour proposer aux agents des réponses à présenter aux administrés.
On peut aussi constater une évolution de certains milieux ruraux davantage prisés de populations diplômées souhaitant ne pas vivre dans les grandes villes et profitant du télétravail pour s'en éloigner. Adoptant les dernières technologies disponibles, ils peuvent aussi être un vecteur de diffusion de l'IA en milieu rural.
* 15 https://www.lemondeinformatique.fr/actualites/lire-pres-d-un-projet-de-genai-sur-trois-sera-abandonne-d-ici-2025-94475.html
* 16 Pour une évaluation de l'empreinte environnementale de l'IA, voir l'encadré figurant dans le rapport de la délégation à la prospective consacré à l'IA et l'environnement.
* 17 https://www.lecese.fr/actualites/quels-impacts-de-lintelligence-artificielle-sur-lenvironnement-seance-pleniere-en-direct
*
18 Voir aussi les retours d'expérience
relatées par les collectivités :
https://www.lagazettedescommunes.com/926078/intelligence-artificielle-les-attentes-des-usagers-centrees-sur-lhumain/?abo=1
* 19 https://www.senat.fr/notice-rapport/2021/r21-283-notice.html
* 20 La reconnaissance biométrique dans l'espace public : 30 propositions pour écarter le risque d'une société de surveillance, rapport d'information n° 627 (2021-2022), de MM. Marc-Philippe Daubresse, Arnaud de Belenet et Jérôme Durain, déposé le 10 mai 2022 : https://www.senat.fr/notice-rapport/2021/r21-627-notice.html