RECOMMANDATIONS
I. DES PRINCIPES DIRECTEURS À SUIVRE
Pour que l'IA puisse être un atout pour les territoires et renforcer les services publics de proximité, il conviendra d'agir à deux niveaux :
- maximiser l'impact positif de l'IA pour mieux connaître et donc mieux gérer le territoire, être plus efficaces dans le fonctionnement des services locaux en fiabilisant et en accélérant la prise de décision, rapprocher le citoyen de l'administration ;
- minimiser les risques liés à l'IA, les textes européens récemment adoptés constituant un cadre de précaution pour un bon usage de l'IA qui permettra d'éviter les dérives.
Au-delà de ces considérations générales, on peut identifier trois principes à respecter pour un déploiement réussi de l'IA dans les territoires.
· Premier principe : même si des mutualisations seront nécessaires, il convient que les acteurs locaux aient une certaine autonomie dans la définition de leur stratégie d'IA et dans la mise en place opérationnelle. Toute démarche excessivement centralisée risque, sinon d'être vouée à l'échec, au moins à jouer un rôle de frein, nuisant aux initiatives locales.
· Deuxième principe : même si chacun a conscience que l'IA va intégrer de plus en plus les outils que nous utilisons au quotidien, même si l'automatisation intelligente des processus qu'elle permet va immanquablement progresser, il existe encore une méfiance vis-à-vis des effets possibles de dépossession et de déshumanisation. Des craintes existent aussi en matière de manipulations de données, de fuites d'informations et d'atteintes à la vie privée. La mise en oeuvre de solutions d'IA devra donc faire l'objet d'efforts de pédagogie, d'explication et même de négociations. L'IA ne pourra pas être imposée, ni par la force ni en secret. Son implantation dans les territoires devra être expliquée et débattue en impliquant les élus et les citoyens ainsi que les agents territoriaux dans les collectivités. Seule une IA comprise sera acceptée.
· Troisième principe : l'IA ne doit constituer qu'un outillage supplémentaire, une aide à la décision et éventuellement à l'action mais en aucun cas fonctionner de manière totalement automatique et autonome. Ce principe rejoint les 2e et 5e principes pour une IA de confiance établis par l'OCDE en 2019 et mis à jour en 2024. Les systèmes d'IA ne doivent pas prendre des décisions seuls lorsque celles-ci ont des conséquences sur les droits des personnes. La responsabilité de la prise de décision doit toujours être rattachée à une personne physique et ne pas être noyée dans la boîte noire d'un traitement algorithmique.
Bien sûr, des processus techniques peuvent être automatisés pour gagner en temps ou en fiabilité. Mais la responsabilité de la prise de décision ne peut pas être intégralement transférée à la machine. Et les usagers des services publics doivent toujours avoir la possibilité non seulement d'être informés du fait qu'ils interagissent avec des machines, de connaître leurs principes de fonctionnement, mais aussi d'avoir accès à des interlocuteurs humains pour échanger avec eux, s'ils le souhaitent, aux phases les plus critiques des processus assistés par IA.
Les cinq principes de l'IA selon l'OCDE (2019, actualisation 2024)
Croissance inclusive, développement durable et bien-être : l'IA doit contribuer à la croissance et la prospérité à différents niveaux (individuel, sociétal, planétaire) et faire progresser les objectifs de développement mondiaux.
Valeurs centrées sur l'humain et équité : les systèmes d'IA doivent être conçus de façon à respecter l'État de droit, les droits de l'Homme, les valeurs démocratiques et la diversité, tout en prévoyant les garde-fous nécessaires à assurer le caractère juste et équitable de la société.
Transparence et explicabilité : les systèmes d'IA doivent garantir que les utilisateurs soient en mesure de comprendre et de mettre en question les résultats qu'ils produisent.
Robustesse, sûreté et sécurité : les systèmes d'IA doivent fonctionner de façon robuste, sûre et sécurisée tout au long de leur cycle de vie, et les risques potentiels devraient être continuellement évalués et gérés.
Responsabilité : les organismes et individus amenés à développer, déployer et utiliser les systèmes d'IA devraient être tenus responsables de leur bon fonctionnement.