III. RÉPONDRE AUX ENJEUX, RÉUSSIR LE SCAF
Du fait du grand nombre de domaines qu'il englobe, des sauts technologiques à accomplir, de la durée nécessaire à son développement et de sa nature de projet mené en coopération internationale, le programme SCAF constitue un défi à la fois pour les autorités publiques et pour les industriels chargés de le mener à bien.
A. NE PAS SE TROMPER DE PROJET
Tous les acteurs du projet l'affirment avec force : le SCAF n'est pas un projet d'avion de combat mais un projet de « système de systèmes », dont l'avion n'est qu'un des éléments . Élément certes central, mais non le plus novateur, puisque la nouveauté réside davantage dans ce qui relie et ce qui anime les plateformes en vue du combat collaboratif (le cloud de combat, l'intelligence artificielle, mais aussi les capteurs, etc) que dans les plateformes elles-mêmes. D'ailleurs, alors que beaucoup d'autres pays ont des programmes d'avions de combat, très peu ont de tels programmes de « système de systèmes » de combat aérien.
Il importe en tout état de cause de bien garder à l'esprit, à chaque étape du projet, sa nature de « système de système », dont la valeur ajoutée sera liée principalement à sa capacité à incarner la notion de combat collaboratif dans une série de plateformes et de technologies innovantes. En outre, il est nécessaire de se projeter bien après 2040 , jusqu'en 2080 : il ne faudrait pas que le SCAF soit obsolète dès sa mise en service.
1. Mettre l'intelligence artificielle et les capacités d'autonomie au coeur du développement du SCAF
Le HLCORD, document unique d'expression du besoin pour le SCAF, prévoit que le NGF (next generation fighter) pourra avoir un pilote à bord ou bien sera « optionnellement » piloté.
Pour le moment, comme déjà évoqué, le rôle des drones et des remote carriers, quel qu'important qu'il soit, est conçu comme subordonné par rapport au NGF qui sera, en principe, habité . Pour les plus évolués de ces drones, le modèle est celui du « Loyal Wingman », c'est-à-dire un drone qui accompagne ou précède des appareils de combat pilotés pour remplir une diversité de tâches : frappe, surveillance, attaque électronique, leurrage ou encore l'évaluation des dégâts au combat (« battle damage assessment »).
La Russie (Sukhoi S-70 Okhotnik-B) et les États-Unis (Kratos XQ-58A Valkyrie dans le cadre d'un programme lancé en juillet 2016, le « Low-Cost Attritable Strike Unmanned Aerial System Demonstration » ; « Loyal Wingman » de Boeing développé en partenariat avec la force aérienne australienne), le Royaume-Uni (« Lightweight Affordable Novel Combat Aircraft » avec, dans un premier temps, l'attribution de trois contrats de conception initiale à Blue Bear Systems Research, Boeing Defence UK et Callen-Lenz) développent de tels programmes de « loyal wingman ».
Considéré comme un effecteur ou un capteur déporté, le « loyal wingman » doit ainsi rester contrôlé par les appareils pilotés.
En effet, la possibilité de faire voler seul un drone, sans accompagnement par un appareil piloté, se heurte, dans le cas des espaces contestés 19 ( * ) , à la fragilité de la liaison de données par satellite, qui peut être piratée ou brouillée . Le drone deviendrait alors incontrôlable. En restant intégré dans la formation dirigée par l'avion pilotée, le drone peut bénéficier d'un réseau local, certes susceptible d'être brouillé lui aussi mais tout de même plus résilient.
Toutefois, même dans cette situation, l'intelligence artificielle est pleinement requise, afin de décharger les pilotes des tâches les plus simples, d'aider à la prise de décision, ou encore de ne pas perdre les drones en cas de coupure de liaisons de données.
Les États-Unis développent de manière accélérée cet usage de l'intelligence artificielle comme soutien de l'avion de combat piloté. L'IA est alors implantée dans un loyal wingman, dans un chasseur transformé en drone ou directement dans le cockpit de l'avion piloté. Ainsi, le programme Skyborg étudie la possibilité d'avoir un chasseur piloté in board (qui pourrait être en l'espèce un F35 ou le nouveau F15EX modernisé) + un « wingman », drone doté d'intelligence artificielle, qui pourrait être un XQ-58 Valkyrie.
Par ailleurs, une manière de contourner la difficulté de la liaison de données à grande distance est d'envisager un drone totalement autonome , donc non dépendant de cette liaison de données. Toutefois, deux questions se posent dans ce cas de figure :
-une question éthico/juridique (cf. encadré ci-dessous).
Les problèmes posés par les systèmes d'armes létaux autonomes (SALA) S'agissant des drones armés actuels, le choix de la cible et du tir sont toujours effectués par un ou plusieurs opérateurs humains. C'est cette notion de « l'homme dans la boucle » qui justifie que le drone se voie finalement appliquer le même cadre juridique que les autres systèmes d'armes. Au contraire, les « systèmes d'arme létaux autonomes » (SALA), qui n'existent pas encore mais font l'objet de recherches scientifiques et militaires, posent des problèmes juridiques et éthiques d'une toute autre ampleur. Ainsi, certains craignent que le risque de conflits armés et l'usage de la violence militaire soient accrus par le déploiement de systèmes véritablement autonomes : les SALA permettraient en effet d'éliminer les barrières psychologiques à l'utilisation de la force létale, ce qui n'est pas le cas pour les drones qui restent pilotés par un être humain (d'où le syndrome post-traumatique parfois observé chez des pilotes de drones). Les doutes portent également sur la capacité des SALA à respecter les principes du droit international humanitaire (ou droit des conflits). En raison de ces inquiétudes, une résolution du Parlement européen préconise l'interdiction du développement des SALA. En effet, l'article 36 du premier protocole à la Convention de Genève prévoit que l'étude, le développement, l'acquisition ou l'adoption d'une nouvelle arme ne peut se faire qu'après avoir déterminé si elle pourrait être contraire au protocole ou à une autre règle de droit international. Plus précisément, le respect des grands principes du droit international humanitaire (DIH) (distinction entre combattants et civils, proportionnalité et minimisation des dommages collatéraux, précaution) exige la mise en oeuvre de capacités de jugement qui sont pour le moment l'apanage des êtres humains. Ainsi, dans certains environnements, il est très difficile de faire la distinction entre civils et militaires. Il peut en effet être nécessaire d'analyser le comportement d'une personne et décider si ce comportement est en quelque sorte « bon » ou « mauvais ». Or, il semble peu probable que des algorithmes parviennent à effectuer un tel jugement. Inversement, certains juristes soulignent le risque que les soldats humains violent les principes du DIH sous le coup de la peur et du stress, émotions dont les SALA seront a priori indemnes. Toutefois, estimer que les règles actuellement existantes suffisent parce que les robots seront capables de mieux les respecter que les humains revient à postuler que le fait qu'un homme tue ou qu'un robot tue est éthiquement équivalent. Or, on peut au contraire considérer que le développement de systèmes autonomes est un changement de paradigme qui impose de nouvelles règles, le DIH ayant été inventé pour être appliqué par des êtres humains. En outre, puisqu'on ne craindra pas (ou moins) pour la vie des robots, on pourrait imaginer qu'ils soient finalement soumis à des règles de mise en oeuvre de la force beaucoup plus strictes que les humains : par exemple, qu'il soit nécessaire qu'une personne exhibe une arme ou soit agressive de manière non équivoque pour qu'elle soit considérée comme un combattant et puisse devenir une cible, ou encore que le robot ait le pouvoir d'incapaciter sa cible humaine, mais non de la tuer. En 2014 s'est tenue la première réunion informelle d'experts sur les SALA dans le cadre de la convention sur certaines armes classiques (CCAC) de l'ONU à Genève, à l'initiative et sous la présidence de la France. La troisième édition a eu lieu en avril 2016 en présence de 95 États, du CICR, de nombreux ONG et experts. A l'occasion de ces réunion, la représentation française s'est engagée à ne développer ou n'employer des SALA « que si ces systèmes démontraient leur parfaire conformité au droit international ». Toutefois, elle a également considéré que toute interdiction préventive du développement des SALA serait prématurée. Le débat se focalisant sur le « contrôle humain significatif » auquel des SALA devraient être soumis, l'expression d' « implication humaine appropriée », un peu vague mais acceptable par tous les participants, a été adoptée à l'initiative de la délégation allemande. Enfin, certains se sont interrogés sur le caractère cohérent du concept même de SALA : pour les forces armées, l'autonomie totale et l'absence de liaison avec un opérateur humain ne vont-ils pas à l'encontre du besoin primordial de contrôle opérationnel par le commandement militaire ? En tout état de cause, ces discussions dans un cadre multilatéral ont permis d'aboutir à la création d'un groupe gouvernemental d'experts. Le travail de ce groupe d'experts pourrait aboutir à l'élaboration d'un code de bonne conduite et de bonnes pratiques concernant les SALA. Selon certains experts, un tel code pourrait éventuellement comprendre : - la limitation de l'usage des SALA aux objectifs militaires par nature (et non par emplacement, destination ou utilisation) et à certains contextes (milieux non urbains et peu habités), et dans les seuls cas où l'humain ne peut pas prendre lui-même la décision (subsidiarité) ; - une réversibilité du mode autonome ; - la programmation du « bénéfice du doute » au sein du SALA ; - l'enregistrement des actions des SALA ; - la formation des opérateurs des SALA au DIH. |
Le 5 avril 2019 à l'institut DATA IA à Saclay, la ministre des Armées Florence Parly a présenté la nouvelle stratégie sur l'intelligence artificielle et la défense . Lors de cette présentation, elle a évoqué la dimension éthico-juridique en déclarant que « La France refuse de confier la décision de vie ou de mort à une machine qu i agirait de façon pleinement autonome et échapperait à tout contrôle humain. De tels systèmes sont fondamentalement contraires à tous nos principes. Ils n'ont aucun intérêt opérationnel pour un État dont les armées respectent le droit international, et nous n'en déploierons pas ? 20 ( * ) » La ministre ajoute : « Nous développerons l'intelligence artificielle de défense selon trois grands principes : le respect du droit international, le maintien d'un contrôle humain suffisant, et la permanence de la responsabilité du commandement . 21 ( * ) »
À noter toutefois qu'un des arguments de la ministre est que l'intelligence artificielle pourrait justement contribuer à une meilleure application du droit international humanitaire : « je citerai par exemple la proportionnalité de la réponse, la discrimination entre combattant et non-combattants, la minimisation des dommages collatéraux. L'intelligence artificielle ne fera bouger aucune de ces lignes. Au contraire, l'intelligence artificielle nous permettra de continuer à les respecter dans les conflits de demain ».
Par ailleurs, le ministère des armées a mis en place un Comité d'éthique de la défense , qui a été chargé par la ministre de réfléchir pour l'été 2020 à des premières orientations en matière d'application de l'intelligence artificielle à des systèmes d'armes.
La question éthico-juridique continue enfin à faire l'objet de discussions internationales, qui toutefois ne semblent pas donner de grands résultats pour le moment.
-la question de l'efficacité tactique . Certains pensent que l'IA serait incapable d'être plus efficace que l'homme dans un environnement très contesté par des systèmes de déni d'accès sophistiqués, ou plus généralement en situation de « fluidité tactique » où les choix et les décisions à prendre sont très nombreux.
Dans son discours, la ministre des armées met ainsi en garde contre une potentielle fragilité de l'IA : « La manipulation des données d'apprentissage, les biais cognitifs transmis par l'homme aux algorithmes, les systèmes désorientés et mis en défaut par un simple bout de scotch, les systèmes hackables à distance : les facteurs de risques que nous devons évaluer et maîtriser dès la conception sont extrêmement nombreux . »
Toutefois, ces difficultés, réelles, pourraient être largement surmontées en 2040 . Rappelons que, en 2016, l'instructeur chevronné de l'Airforce Gene Lee n'avait pas pu remporter une seule victoire en simulation de combat aérien contre l'intelligence artificielle « Alpha », implantée dans un ordinateur peu onéreux à la puissance modeste. Dans le même ordre d'idées, un projet du Air Force Research Laboratory (AFRL) vise à faire combattre d'ici juillet 2021 un drone doté d'IA (qui sera peut-être un F16 dans un premier temps) contre un chasseur avec pilote. Ce projet fait écho à une déclaration d'Elon Musk, le PDG de Tesla, sur le fait qu'un chasseur doté d'une IA battrait un chasseur piloté sans difficulté 22 ( * ) .
Les acteurs du projet SCAF sont bien conscients que l'un des défis qu'ils doivent relever est l'intégration entre eux de systèmes 1) pilotés par des humains à bord des aéronefs, 2) pilotés à distance, et 3) autonomes. Il s'agit d'une des principales problématiques du SCAF et l'un des principaux sujets de recherche pour les partenaires du projet, et il devra être possible de faire varier dans une certaine mesure la proportion de ces trois éléments dans le « produit fini » en fonction des besoins qui se manifesteront à partir de 2040 et dans les décennies qui suivront .
En effet, le choix de l'IA n'est pas entre présence ou absence de celle-ci : c'est une question de degré . Lorsqu'un missile arrive à mach 4 sur l'avion, le pilote n'a pas le temps de prendre une décision. La réaction est nécessairement automatisée, un peu comme lorsque l'ABS prend le contrôle des freins de la voiture lorsque le conducteur freine fortement avant l'obstacle. Dans ce cas, il est inutile que l'homme soit « dans la boucle ». La position défendue par le ministère des armées et partagée par la mission est ainsi que l'homme est dans la boucle globale : une machine peut être autonome mais elle ne peut s'inventer une mission ou modifier celle-ci sans demander l'autorisation à un être humain . L'homme doit ainsi conserver la responsabilité du commandement et être en mesure de respecter le droit international humanitaire . De nombreuses taches d'autoprotection, de désignation automatique de cible ou de calcul de trajectoire globale peuvent être automatisées sans enfreindre ces trois principes, qui ordinairement n'apparaissent donc pas, selon le ministère des armées, comme des auto-limitations.
En tout état de cause, L'IA aura au minimum, au sein du SCAF, un rôle éminent pour seconder les pilotes au sein du système formé par le NGWS. Il apparaît donc nécessaire de continuer à investir massivement dans l'intelligence artificielle car le SCAF en fera nécessairement un usage étendu quoique non exactement prévisible aujourd'hui. Il faut donc se féliciter, outre l'élaboration de la stratégie du ministère des Armées sur l'intelligence artificielle déjà évoquée 23 ( * ) , que la ministre des armées ait déclaré dans son discours déjà cité que : « Les Armées françaises investissent et investiront dans l'intelligence artificielle, c'est une évidence . » et ait annoncé un investissement de 100 millions d'euros par an de 2019 à 2025 pour l'IA. La ministre mentionne ainsi six domaines d'investissement prioritaires en la matière, parmi lesquels le combat collaboratif.
Compte-tenu du développement accéléré de cette technologie par nos adversaires, il faut se tenir prêt à riposter dans l'avenir à des pays qui ne respectent pas toujours les normes éthiques et juridiques que la France et ses alliés respectent et souhaitent continuer à respecter. Faute d'une telle préparation, l'armée française pourrait en effet se retrouver face à ces adversaires dans la situation de Gene Lee, ou dans celle du meilleur joueur d'échec du monde, qui, de l'avis général, ne pourrait plus remporter aujourd'hui une seule manche face à une intelligence artificielle. Parallèlement, il faut poursuivre les discussions internationales pour faire émerger sur ces questions un cadre juridique clair et conforme à notre éthique et aux principes du droit international humanitaire.
Proposition : Considérer l'intelligence artificielle comme un « pilier transversal » du SCAF qu'il est nécessaire de développer en prévoyant le champ d'application le plus large possible. Relancer les discussions internationales sur les systèmes d'armes létales autonomes (SALA) pour aboutir à un cadre juridique clair, conforme à l'éthique et aux principes du droit international humanitaire. |
2. L'importance cruciale des liaisons de données et des piliers cloud de combat et capteurs
Les liaisons de données, qu'elles soient liaisons intra-patrouille haut débit, liaisons satellite haut débit, ou encore liaisons optiques, ainsi que leur sécurité et leur résilience face aux cyberattaques et au brouillage, seront essentielles. La supériorité informationnelle permis par le cloud permettra ainsi la supériorité décisionnelle .
En outre, il est impératif que le périmètre du Cloud soit le plus large possible, et englobe donc les forces terrestres et navales. Un appui aérien rapproché, par exemple, devra être connecté avec l'artillerie terrestre et navale. Ceci implique notamment de traiter l'intégration du cloud tactique du SCAF et du nouveau système d'information du commandement SCORPION (SICS), système d'information et de commandement de l'engin de combat jusqu'au régiment, qui permet l'échange automatique de données et d'alertes jusqu'au niveau du chef de groupe débarqué et optimise les demandes d'appuis feux.
Au total, la « valeur ajoutée » du SCAF réside probablement autant sinon davantage dans le cloud de combat, la connectivité, l'architecture d'interopérabilité, que dans l'avion de combat et son moteur . Il n'est pas interdit ici de faire une analogie, toutes proportions gardées, avec l'évolution parallèle que connaîtra l'automobile si la voiture autonome continue à se développer : la partie software, les liaisons et le cloud comporteront probablement davantage de valeur ajoutée que la voiture elle-même. C'est pourquoi le pilier « Cloud de combat », ainsi que le futur pilier « capteurs », dirigés respectivement par Airbus et Indra, doivent être suivis avec la plus grande attention. En particulier, le pilier « Cloud de combat » doit permettre à Thales et à tous ses sous-traitants de l'électronique de défense de contribuer de manière centrale et essentielle au SCAF .
Proposition : considérer le pilier « cloud de combat » comme une priorité de même niveau que l'avion et le moteur. Préparer dès à présent l'intégration du cloud de combat du SCAF avec le système d'information et de commandement (SIC) Scorpion |
3. Quel moteur pour le démonstrateur ?
Le démonstrateur du nouveau moteur ne sera pas disponible avant 2027, or le démonstrateur de l'avion devra voler en 2025 ou 2026. Il est donc prévu que le démonstrateur soit équipé d'une version améliorée du M88, en attendant de pouvoir le remplacer par une version de démonstration du nouveau moteur.
Toutefois, même cette version améliorée sera peut-être insuffisante pour animer un démonstrateur à l'échelle 1. Un démonstrateur à l'échelle 0,8 par exemple pourrait pallier ce problème. Si cette dernière option n'est pas retenue, le démonstrateur pourrait utiliser un moteur déjà sur le marché. Cette dernière solution représenterait toutefois un risque pour la participation de Safran à la suite du programme. Le J200 de l'Eurofighter, qui pourrait alors être choisi, est fabriqué par un consortium comprenant Rolls-Royce (concurrent potentiel avec le Tempest), Avio, ITP et MTU Aero Engines. Interrogé sur ce sujet, Eric Trappier, PDG de Dassault aviation, a indiqué qu'une version améliorée du M88 restait la principale option envisagée. Cette solution, conforme à l'accord industriel initial, a aussi la préférence de la mission.
Proposition : Doter le démonstrateur prévu pour 2026 du moteur M88 (moteur du Rafale) ou d'une évolution de celui-ci, réaliser les investissements nécessaires à cette fin. |
4. La dimension environnementale
La protection de l'environnement n'est pas nécessairement ce qui vient d'abord à l'esprit lorsque l'on réfléchit à l'aviation de combat, domaine des très hautes performances, allant souvent de pair avec une consommation énergétique maximale. Le premier objectif du SCAF est bien de surclasser les adversaires potentiels par des performances supérieures. En outre, les dimensions et le poids du NGF seront très probablement supérieurs à ceux du Rafale, ce qui laisse envisager une consommation en carburant plus importante. La comparaison n'est cependant pas tout-à-fait valable puisqu'il faudrait plutôt comparer la consommation d'une formation actuelle de Rafales avec la consommation d'une formation du NGWS, qui comportera autant ou plus de plateformes (en tenant compte des « remote carriers ») mais sans doute moins d'avions de combat.
Pourtant, se projeter résolument après 2040 et jusqu'en 2080 oblige à envisager, par exemple, une possible moindre abondance énergétique, la nécessité d'améliorer l'indépendance énergétique, ou encore une extension de certaines normes, qui auront été développées pour l'aviation civile, à l'aviation militaire.
Cette préoccupation est déjà prise en compte par le ministère des armées. Emmanuel Chiva, directeur de Agence innovation défense, a ainsi indiqué 24 ( * ) que « les sujets de l'énergie et de l'environnement sont des sujets de recherche en tant que tels. Des travaux de recherche spécifiques sur l'hydrogène sont en cours, avec notamment un projet de station hydrogène pour drone (...) L'AID ne méconnaît pas les enjeux climatiques et est impliqué au même titre que l'ensemble du ministère ».
Par ailleurs, la ministre des armées a présente le 3 juillet 2020 la stratégie énergétique du ministère , qui prévoit des efforts d'économie d'énergie dans tous les domaines, afin de diminuer la facture énergétique des armées, avec également l'objectif de réduire leur dépendance aux approvisionnements de pétrole, qui reposent parfois sur des routes maritimes incertaines.
Enfin, dans le domaine aéronautique, des études sont déjà en cours sur l'utilisation de biocarburants. Les groupes Airbus, Air France, Safran, Total et Suez Environnement ont signé en décembre 2017 avec l'Etat l'engagement pour la croissance verte (ECV) sur les biocarburants aéronautiques. L'objectif est d'introduire une dose de biocarburants avec le kérosène. Ces biocarburants seront capables de respecter les exigences posées par l'aviation militaire 25 ( * ) . Par ailleurs, des travaux sont menés pour économiser la puissance électrique nécessaire au sein des avions.
Comme pour les autres programmes de défense, il apparaît ainsi nécessaire de prendre en compte cet aspect dès le début de la mise en oeuvre du projet SCAF.
Proposition : Tout en visant la plus haute performance possible, intégrer les préoccupations environnementales dès le début du programme SCAF. |
* 19 à l'inverse des espaces peu contestés comme la bande sahélo-saharienne où les drones MALE peuvent survoler le théâtre d'opérations sans être réellement menacés.
* 20 Ministère des armées, «?Discours de Florence Parly, ministre des Armées : Intelligence artificielle et Défense?», avril 2019
https://www.defense.gouv.fr/salle-de-presse/discours/discours-de-florence-parly/discours-de-florence-parly-ministre-des-armees_intelligence-artificielle-et-defense
* 21 A noter que fin 2019, Airbus et l'Institut Fraunhofer pour la communication, le traitement de l'information et l'ergonomie (FKIE, Bonn, Allemagne) ont créé un groupe d'experts indépendants ayant pour mission de définir » « l'utilisation responsable des nouvelles technologies et proposer des "garde-fous juridiques éthiques et internationaux » dans le cadre du SCAF.
* 22 Le président russe Vladimir Poutine avait également déclaré en 2017 à propos de l'IA que « Celui qui deviendra leader en ce domaine sera le maître du monde », tandis que l'entreprise Kalashnikov annonçait avoir développé plusieurs armes autonomes (SALA). Des projets similaires existent en Chine.
* 23 L'intelligence artificielle au service de la défense, Rapport de la Task Force IA, Septembre 2019.
* 24 Propos recueillis par Michel Cabirol, La Tribune, 11/09/2019.
* 25 En revanche, il semble qu'il faille écarter la piste des avions électriques, qu'ils soient civils et militaires. La puissance à fournir nécessiterait en effet des batteries dont le poids serait du même ordre de grandeur que celui de l'avion lui-même.