VII. CINQUIÈME TABLE RONDE, PRÉSIDÉE PAR MME DOMNIQUE GILLOT, RAPPORTEURE : DÉFIS JURIDIQUES INHÉRENTS AUX USAGES DE L'INTELLIGENCE ARTIFICIELLE
Mme Dominique Gillot, rapporteure. - Cette dernière table ronde va évoquer les défis juridiques posés par l'intelligence artificielle. Mady Delvaux a été retenue à Strasbourg et nous a adressé son intervention, que je vais vous lire.
1. Intervention de Mady Delvaux, députée européenne (Luxembourg - groupe S&D), rapporteure du groupe de travail sur la robotique et l'intelligence artificielle
Je tiens tout d'abord à vous présenter mes excuses pour mon absence, malheureusement je ne puis me défaire de mes engagements à Strasbourg.
Je vous remercie pour votre invitation à cette audition publique sur l'intelligence artificielle. Je travaille depuis deux ans au niveau européen sur le sujet de la robotique, thème qui me tient à coeur. Je suis donc ravie qu'un organe national tel que l'Office Parlementaire d'Évaluation des Choix Scientifiques et Technologiques se saisisse de la question
J'espère que mon rapport, voté le 12 janvier dernier au sein de la commission des Affaires juridiques du Parlement européen, suscitera l'intérêt et des débats dans les différents pays de l'Union européenne.
Mon rapport est le résultat de travaux d'un groupe de travail composé de députés de divers horizons politiques et d'experts. C'est une initiative législative, ce qui signifie que le Parlement européen fait des recommandations à la Commission européenne. La Commission pourra décider de donner suite ou non mais devra justifier sa décision. Pour ma part, j'ai bon espoir que notre appel à un cadre juridique en matière de robotique soit entendu : en effet, des drones aux robots industriels, la robotique et l'intelligence artificielle font de plus en plus partie de notre quotidien. La question principale est de savoir comment répondre aux nouveaux défis juridiques et éthiques liés à ces technologies.
Qu'est-ce qu'un robot ?
La première difficulté du rapport est de définir ce qu'est un robot. Le texte concerne les véhicules autonomes, les drones, les robots industriels, les robots de soins ou encore les robots de divertissement. Il ne se penche pas sur les robots pouvant être utilisés comme des armes. On entend par robot une machine physique équipée de capteurs et interconnectée à son environnement dans le but d'échanger et d'analyser des données. Il faut s'attendre à ce que la prochaine génération de robots soit de plus en plus autonome en matière d'apprentissage.
Quid de l'engouement médiatique pour la création de la personnalité juridique ou d'un statut légal pour les robots ?
L'émergence de robots de plus en plus autonomes nécessite une réflexion autour de nouvelles solutions. Dans ce rapport, nous demandons à la Commission européenne de se pencher sur certaines pistes.
L'une d'entre elles serait de conférer aux robots une « personnalité électronique » limitée, au moins pour les cas où une compensation est nécessaire. L'idée serait d'assurer que, dans le cas où un robot prendrait une décision autonome dont résulterait un dommage pour une victime, le robot puisse être considéré comme responsable du dommage. Cette notion permettrait de garantir l'indemnisation des victimes sans entraver la volonté d'innovation. Il s'agirait en quelque sorte du même principe que celui dont nous disposons actuellement pour les entreprises. Cette proposition n'est néanmoins envisageable que sur le long terme et, encore une fois, n'est qu'une des possibilités en matière de responsabilité.
Quelles sont les propositions en matière de responsabilité civile en cas de dommage ? Sur qui doit reposer celle-ci ? Le fabricant, le propriétaire ou l'utilisateur ?
Nous sommes devant deux possibilités. Le principe de la responsabilité stricte propose que le fabricant soit responsable car il est le mieux placé pour limiter de potentiels dommages. Si nécessaire, il peut se tourner vers ses fournisseurs.
La seconde option serait de mettre en place une évaluation des risques avec des tests au préalable et une forme de compensation à laquelle toutes les parties pourraient contribuer.
Nous proposons également la création d'un régime d'assurance obligatoire, au moins pour les « gros » robots.
Concernant l'aspect social de la robotique, notamment sur la question de l'attachement émotionnel aux robots de soins, il faut rappeler aux gens que le robot n'est pas un être humain et qu'il n'en sera jamais un. S'il peut montrer de l'empathie, il n'en ressent pas. Nous ne voulons pas de robots qui ressembleraient de plus en plus aux humains, comme c'est le cas au Japon par exemple.
Nous avons donc proposé la création d'une charte visant à empêcher les personnes de devenir émotionnellement dépendantes de leurs robots.
À quel point est-il urgent de légiférer en matière de robotique ?
Pour une fois, nous pourrions établir des principes à l'échelle européenne et un cadre légal commun avant que chaque État membre ne mette en oeuvre sa propre législation. Une standardisation en la matière pourrait également profiter à l'industrie : pour rester à la pointe en matière de robotique, l'Europe doit disposer de normes communes.
Sur la question de la responsabilité, les clients doivent être certains de disposer d'une forme d'assurance en cas de dommage. L'enjeu clé est celui de la sécurité, mais aussi de la protection des données : les robots ne fonctionnent pas sans échange de données, ce qui pose la question de l'utilisation de toutes ces informations.
Les robots pourraient créer des emplois dans certains domaines et en détruire dans d'autres, en remplaçant par exemple des personnes peu qualifiées. Comment résoudre ce problème ?
Je pense qu'il s'agit là du plus grand défi pour notre société et nos systèmes éducatifs. Nous ne savons pas à l'heure actuelle comment la situation va évoluer. Je suppose qu'il existera toujours des emplois peu qualifiés. Les robots ne vont pas remplacer les hommes : ils travailleront en coopération avec eux, en les aidant par exemple à transporter des marchandises lourdes.
Nous demandons à la Commission européenne de suivre cette évolution et d'analyser dans quels secteurs l'utilisation des robots détruit des emplois, pour que nous soyons préparés à tous les types de scénarios.
Notre rapport contient également un point controversé qui concerne l'éventuelle instauration d'un revenu universel et une réforme des systèmes de sécurité sociale. Si de nombreuses personnes perdent leur emploi à cause des robots, il faudra leur assurer une vie décente. De la même manière, si nous ne pouvons plus fonder notre système social sur l'emploi, comment le financer ? Nous proposons de le faire via la source de ce changement : en taxant le travail des robots.
Il faut que les citoyens soient les grands gagnants de cette nouvelle ère. Sans assurer que nos propositions soient la panacée, nous voulons étudier toutes les possibilités et ouvrir le débat. C'est pourquoi nous invitons les États membres à réfléchir et je vous remercie de répondre à cette invitation.
Mme Dominique Gillot, rapporteure. - J'en termine donc ici avec la lecture de l'intervention de Maddy Delvaux. Je donne la parole à Mme Falque-Pierrotin, présidente de la CNIL, qui en plus de son rôle de régulateur en matière de protection des données, s'est vu confier un rôle de réflexion et d'animation sur les règles éthiques applicables au numérique. La CNIL sera également associée étroitement à la stratégie nationale pour l'intelligence artificielle qui sera lancée demain par le Gouvernement.
2. Mme Isabelle Falque-Pierrotin, présidente de la CNIL
Bonjour à tous, et merci de votre invitation. Le sujet de la protection des données personnelles dans le contexte de l'émergence de nouvelles technologies d'intelligence artificielle et de robotique a clairement été identifié par la communauté des autorités de protection des données à l'occasion de leur conférence mondiale de Marrakech en octobre 2016. Lors de cette conférence, nous avons assisté à la présentation d'Helen, robot japonais au travers duquel émergeaient déjà pour nous un certain nombre de questions complexes en matière de protection des données.
De prime abord, la protection des données personnelles ne semble pas aller de soi avec l'intelligence artificielle car les principes attachés à la protection des données semblent aller à l'encontre du fonctionnement de l'intelligence artificielle.
En premier lieu, plus l'intelligence artificielle collecte un nombre très important de données, plus elle est efficace. Or, aujourd'hui, la collecte des données personnelles doit répondre au principe de minimisation des données collectées.
De plus, le principe de la limitation de la durée de conservation des données personnelles se heurte au besoin de mémoire des technologies d'intelligence artificielle qui s'enrichissent au fur et à mesure.
En troisième lieu, la sécurité des données est relativement délicate et souvent imperceptible pour l'individu dans cet univers de l'intelligence artificielle qui fonctionne de manière invisible pour lui, sans couture, à partir de capteurs qui opèrent des arbitrages.
La quatrième question qui me semble enfin devoir être relevée, a trait aux droits des personnes. L'individu doit être à même de comprendre un traitement et d'exercer par rapport à lui des demandes délibérées. Or, en matière d'intelligence artificielle, il est très difficile d'exercer des droits car il est souvent difficile de savoir auprès de qui les exercer.
Il résulte de tout cela, qu'en première analyse nous sommes en présence d'un objet, qui relève pour partie de la science-fiction, mais qui remet tout de même en cause la conception humaniste européenne plaçant l'individu au centre de la politique de protection des données personnelles.
Devant l'intelligence artificielle en perpétuelle évolution, nous sentons que la protection de la personne ne va pas de soi. Il ne faut pas pour autant renoncer à l'intelligence artificielle. Par conséquent, il convient de changer de registre de réponse et de décaler celle-ci.
La question principale sous-jacente est celle de l'autonomie de la personne. Pour progresser, il convient cette fois de cerner les questions éthiques relatives à celle-ci. À cet égard, la CNIL est à la manoeuvre dès lors que la loi pour une République numérique de 2016 lui a confié la mission de conduire une réflexion sur les enjeux éthiques et les questions de société soulevés par l'évolution des technologies numériques. C'est donc un domaine nouveau pour la CNIL dont l'objectif n'est pas d'émettre elle-même un avis éthique mais de susciter un processus de discussion collectif que feront vivre tous ceux qui souhaitent y prendre part. Nous avons choisi le thème des algorithmes et de l'intelligence artificielle comme premier thème de réflexion.
Il importe en effet que les organismes concernés soit les initiateurs d'un débat destiné à fixer les contours des questions éthiques. À l'automne, nous restituerons les éléments les plus saillants de ce débat éthique pour, le cas échéant, faire des recommandations de politiques publiques. La réponse que nous entendons ainsi préparer à l'intelligence artificielle, pourrait provenir de l'article 1 er de la CNIL - souvent oublié - qui dispose : « L'informatique est au service des individus. » Ce principe fondamental et très général a ensuite été décliné en dispositions plus processuelles et de méthode.
Comment pouvons-nous construire une coexistence entre des humains, des robots et des algorithmes ? Comment faire de l'« humanity by design » sur le modèle de la privacy by design ? Nous possédons des éléments permettant de bâtir un socle. À Davos, IBM a récemment proposé une première charte de bonne conduite concernant les robots. Les initiatives allant dans le même sens pourront être consolidées.
Mme Dominique Gillot, rapporteure. - Je passe la parole à Rand Hindi, membre du Conseil national du numérique et pilote du groupe de travail sur l'intelligence artificielle. Votre structure sera elle aussi étroitement associée à la stratégie nationale pour l'intelligence artificielle qui commencera demain. Je vous remercie par avance de votre intervention, que je vous demande assez courte.
3. M. Rand Hindi, membre du Conseil national du numérique, pilote du groupe de travail sur l'intelligence artificielle, président de SNIPS
Je suis également à la tête d'une start-up en intelligence artificielle depuis quatorze ans. En tant que chercheur et entrepreneur, j'ai donc assisté à l'évolution de ce secteur.
Nous avons beaucoup évoqué la régulation de l'intelligence artificielle, mais je pense qu'il est beaucoup plus intéressant de réfléchir à la régulation de l'accès à la donnée nécessaire à la conception et à l'apprentissage des algorithmes. Dans le domaine du nucléaire, nous avons régulé à la fois les usages et l'exploitation des matières premières radioactives. Nous pourrions imaginer procéder de façon similaire pour l'intelligence artificielle en empêchant à la source de collecter un certain type de données potentiellement négatives.
Une autre question clé dans ce domaine, concerne la privacy . En la matière, nous entendons qu'il faut faire un choix entre vie privée et intelligence artificielle. Je pense que c'est un faux dilemme car des technologies de chiffrement nouvelles permettraient aujourd'hui d'effectuer des calculs directement sur la donnée chiffrée. Ces aspects sont étudiés notamment dans le cadre des données de santé, beaucoup trop sensibles pour être exploitées par tout le monde. Je pense que dans les cinq prochaines années le travail sur les données de santé chiffrées sera démocratisé.
Par ailleurs, les intelligences artificielles ne font pas le même type d'erreurs que celles des humains. À titre d'exemple, la voiture Tesla a percuté un camion bien visible, alors qu'un humain ne serait jamais entré en collision avec lui. Même si cette erreur de la machine apparaît très grossière, en réalité elle se produit beaucoup moins souvent qu'une erreur humaine. De même dans la finance algorithmique, les erreurs commises sont très peu fréquentes mais ont des conséquences potentiellement beaucoup plus graves que les erreurs humaines.
En définitive, le taux d'erreur des intelligences artificielles est très faible et imprévisible mais les erreurs sont d'une importance bien plus grande que celles d'un humain. Finalement, nous avons vu récemment émerger de nombreuses recherches destinées à modifier le comportement des intelligences artificielles. Par exemple en altérant quelques pixels d'une image, l'intelligence artificielle ne la reconnaîtra plus alors qu'un humain ne verrait aucune différence. Potentiellement, le hacking d'intelligence artificielle peut avoir des conséquences très négatives. Une personne mal intentionnée pourrait par exemple introduire des biais pour modifier très légèrement des données-sources et en obtenir ainsi des bénéfices.
Tels sont, je pense, les risques plus subtils de l'intelligence artificielle, mais très difficiles à détecter aujourd'hui.
Mme Dominique Gillot, rapporteure. - Olivier Guilhem, vous avez développé au cours de votre expérience professionnelle une expertise précieuse sur les défis juridiques de l'intelligence artificielle et de la robotique. Merci de nous en faire part.
4. M. Olivier Guilhem, directeur juridique chez SoftBank Robotics (ex Aldebaran)
Je vous remercie de me donner la parole. Plusieurs fois, nous avons évoqué les risques et les craintes liées à l'intelligence artificielle. En ce qui me concerne, je me suis interrogé sur le régime de responsabilité applicable qui pourrait en découler. Il me semble que le régime le plus probable est celui de la responsabilité du fait des produits défectueux.
La doctrine n'est pas unanime en la matière mais une loi de 1998 transpose en droit français une directive européenne de 1985. À cette époque, l'intelligence artificielle n'avait pas la même importance qu'aujourd'hui. Dans une réponse ministérielle de 1998, il est clairement précisé que l'ensemble de la catégorie des biens meubles étaient concernés par cette responsabilité, ce qui inclut les logiciels et donc, l'intelligence artificielle. En d'autres termes, le producteur est responsable du produit qu'il met sur le marché et doit indemniser la victime. Il existe cependant des cas d'exonération lorsque la victime a elle-même concouru au dommage.
Si l'on s'appesantit sur les spécificités de l'intelligence artificielle, on s'aperçoit qu'il s'agit d'un système apprenant qui puise, pour apporter une solution avec une certaine autonomie, dans une base de connaissances. Cette base, tout comme l'apprentissage de l'intelligence artificielle, sont potentiellement le fruit des interactions avec l'utilisateur et donc, avec la victime. Cette situation pourrait donc aboutir à une exonération totale ou partielle du producteur de l'intelligence artificielle.
Lorsqu'un produit mécatronique (drone, tablette...) est fabriqué, le fabricant qui y intègre l'intelligence artificielle en supportera juridiquement la responsabilité. Ceci explique qu' in fine , le producteur de l'intelligence artificielle soit aujourd'hui très peu inquiété. Ceci pourrait nécessiter un rééquilibrage.
L'autonomie n'est en réalité que la retranscription des valeurs morales du développeur, tout comme le droit est la retranscription des valeurs d'une société à un instant donné. À ce titre, cette autonomie doit être encadrée.
Si l'on considère l'intelligence artificielle comme un bien, un produit au sens juridique du terme, il s'agit d'un produit actif. Comme tout produit actif, il nécessite de prendre des précautions, en travaillant notamment sur les notions de transparence, de neutralité, de droit de modification et de séparation des IA.
Enfin, les risques systémiques liés à l'intelligence artificielle ne sont pas négligeables et doivent être évoqués. Ces risques renvoient à des problématiques d'indépendance nationale et à des problématiques assurantielles. Si une société gérant de l'intelligence artificielle venait à disparaître, des pans entiers de l'économie disparaîtraient consécutivement. C'est pourquoi un système de continuité de service a minima pourrait être mis en place pour prévenir certains risques systémiques uniquement, et ce de manière à ne pas exonérer totalement la responsabilité du développeur de l'intelligence artificielle.
Mme Dominique Gillot, rapporteure. - Maître Bensoussan, vous êtes connu pour vos positions en faveur de la reconnaissance d'une personnalité juridique des robots. Nous avons voulu vous attendre sur ces propositions, même si elles ne sont pas consensuelles.
5. Me Alain Bensoussan, avocat, président de l'Association du droit des robots
Je vous propose de rêver et de réfléchir aux « droits de l'homme de l'intelligence artificielle » qui marqueraient l'avènement d'une métamorphose. La France a exporté ses droits fondamentaux, puis ses droits numériques avec la loi informatique et libertés, elle peut aujourd'hui créer des droits de l'intelligence artificielle qui auraient vocation à se diffuser dans le monde. Les droits de la personne-robot ont de l'importance car les robots vivent avec les hommes.
Je vois quatre défis juridiques essentiels à relever.
Tout d'abord, les algorithmes sont partout et les robots le seront de plus en plus, de sorte qu'il faut nécessairement pouvoir identifier les robots logiciels ou les robots physiques.
Il faut ensuite également repenser la responsabilité en biface. Le robot est toujours responsable vis-à-vis de la victime. Pour le reste, il existe une présomption de responsabilité à la condition d'une certification préalable et sous réserve de fraude.
Bien évidemment, un régime d'assurance devra être prévu lorsque les robots seront parmi nous. En effet, ils entreront bientôt de plus en plus dans les écoles et les entreprises.
Enfin la personne-robot possédant une responsabilité et un régime d'assurance propres, elle doit de ce fait recevoir une personnalité juridique singulière, dans laquelle il faudra par conséquent intégrer le principe de dignité des robots.
Bienvenue à la personne-robot reconnue en tant que telle, et qui devra vivre avec les humains. Dans ce cadre, quatre lignes directrices doivent être conduites pour une cohabitation conforme à nos valeurs humaines entre les hommes et les robots.
La première d'entre elles réside dans la nécessité de permettre d'établir un contrat. Il existe aujourd'hui des contrats entre robots mais également des contrats entre robots et humains. Il me semble temps de penser à un contrat normé où la conception, la conformité, la certification, la garantie et la propriété seraient singulières car les droits actuels sont inapplicables à l'intelligence artificielle telle qu'elle a été décrite.
Le deuxième élément de la mixité est celui de la traçabilité des robots. En traçant les robots, on trace aussi les hommes qui sont à l'origine de leur conception. Il faut donc trouver un point d'équilibre.
Le troisième élément est celui du « principe du bon samaritain », que l'on retrouve dans le droit américain et qui consisterait à revisiter en droit civil quelques règles issues des lois d'Asimov.
Enfin le dernier élément de la mixité entre l'homme et le robot réside dans la possibilité de donner la décision ultime à l'être humain. Ce serait donc un bouton rouge.
6. Débat
M. Sébastien Candel, président de l'Académie des Sciences. - J'ai été très intéressé par le débat de ce jour. J'ai beaucoup apprécié l'intervention de Gilles Dowek, mais il ne faut pas oublier que nous n'avons pas résolu tous les problèmes liés à l'énergie. Les aspects relatifs à la production d'électricité, notamment, sont encore d'une actualité brûlante. La deuxième révolution industrielle continuera d'être un problème pour l'humanité à l'avenir et ne sera pas réglée par des solutions purement informatiques. De plus, nous ne sommes pas parvenus à l'ère de la fin du travail, qui ne disparaîtra pas par le biais de la troisième révolution industrielle.
M. Gilles Dowek. - Je plaide non coupable. Sur les questions de production d'électricité, j'irai dans votre sens. La production d'électricité à partir d'énergies nouvelles sera également cruciale. Je n'ai jamais prétendu que tous les problèmes étaient résolus.
M. Alexei Grinbaum, CEA-Saclay, LARSIM. - Un aspect n'a pas été assez développé, me semble-t-il. L'homme qui interagit avec une intelligence artificielle, change lui aussi. L'homme des années 1900 et celui des années 2000 est bien différent. De plus quand nous évoquons les normes, les valeurs et les droits, le sens des grands concepts qui désignent les droits de l'homme change également. La dignité en 2050 n'aura peut-être pas le même sens qu'aujourd'hui. Nous devons tenir compte de cet aspect important.
Mme Dominique Gillot, rapporteure. - Nous sommes en effet dans un mouvement perpétuel.
Mme Gaëlle Marraud des Grottes, journaliste Revue Lamy de droit civil . - Nous avons évoqué très rapidement le concept de transhumanisme et la logique assurantielle.
M. Olivier Guilhem, directeur juridique chez SoftBank Robotics (ex Aldebaran). - Effectivement, nous ne parlons pas autant de transhumanisme en France qu'aux États-Unis. Il convient d'être prudent sur ce mouvement de pensée. Le transhumanisme est un outil marketing. Un outil marketing très puissant car il cherche à donner du sens et une vision.
Mme Laurence Devillers, professeur à l'Université Paris-Sorbonne/LMSI-CNRS. - La façon dont vous en parlez apporte déjà beaucoup de crédit à ce mouvement philosophique non reconnu qu'est le transhumanisme.
M. Olivier Guilhem, directeur juridique chez SoftBank Robotics (ex Aldebaran). - Je suis entièrement d'accord.
Mme Dominique Gillot, rapporteure. - C'est pourquoi nous n'avons pas inscrit le transhumanisme pour le moment à nos travaux. Nous serons peut-être contraints d'y réfléchir par la suite.
M. Olivier Guilhem, directeur juridique chez SoftBank Robotics (ex Aldebaran). - Nous devons en discuter cependant afin de pouvoir le contester.
Mme Dominique Gillot, rapporteure. - Nous avons délibérément choisi de ne pas l'évoquer pour nous concentrer davantage sur la compréhension de l'intelligence artificielle.
M. Gérard Sabah, directeur de recherche honoraire au CNRS. - Nous devons faire attention à ne pas trop promettre. Nous sommes à l'aube d'une évolution encore embryonnaire, sur laquelle nous devons être prudents pour ne pas susciter de déception. Il faut faire attention à ce que les promesses actuelles n'aboutissent pas à des phénomènes de rejet comme pour la reconnaissance vocale. Nous devons aujourd'hui apaiser le buzz pour revenir à un débat beaucoup plus serein.
Mme Dominique Gillot, rapporteure. - Merci pour ces recommandations qui vont dans le sens de notre travail, essentiellement à des fins pédagogiques autour de l'intelligence artificielle.