DEUXIÈME TABLE RONDE :
AVEC QUELS OUTILS ?

M. Jean-Sébastien Vialatte. Nous allons entamer cette deuxième table ronde. La première, comme nous l'avons vu, a soulevé un certain nombre d'interrogations sur la formation médicale et sur la formation des métiers accompagnant les médecins, notamment les bio-informaticiens. Ont également été posées la question de la protection des données et de leur stockage dans le cadre du décryptage total du génome, et la question de l'égal accès à ces techniques pour tous nos concitoyens.

Il existe une autre problématique à examiner, celle des outils dont nous avons besoin pour mettre en oeuvre cette médecine personnalisée. C'est l'objet de cette table ronde. Je vous donne la parole, professeur Patrick Boisseau.

Pr. Patrick Boisseau, responsable du programme nanomédecine au CEA-Leti, président de l'European Technology Platform on Nanomedicine . Je tiens tout d'abord à me présenter. Je travaille au CEA-Leti à Grenoble Nous faisons de la recherche technologique et transférons ensuite nos technologies vers l'industrie. Je représente également la plateforme technologique européenne Nanomédecine, une structure européenne qui rassemble depuis 2005 les cliniciens, industriels, chercheurs académiques et agences concernés par le développement de la nanomédecine.

Ma présentation portera sur une boîte à outils, actuellement en pleine évolution, que l'on appelle « les nanotechnologies appliquées à la médecine » ou « nanomédecine ». Les nanotechnologies, c'est tellement petit que l'on a du mal à imaginer ce que c'est ! Pour éviter que mon exposé ne soit trop obscur pour certains d'entre vous, je vais donc essayer d'illustrer mon propos avec le plus grand nombre d'exemples possible.

Nos collègues américains de l' Alliance for Nanotechnology in Cancer ( NCI) ont présenté un schéma extrêmement intéressant qui résume les différentes étapes qui ont d'ailleurs été évoquées ce matin au travers des exposés de mes confrères cliniciens. C'est comme si, en France, l'Institut national du cancer (INCa) engageait une action spécifique pour identifier toutes les situations dans lesquelles les nanotechnologies peuvent permettre d'appréhender le cancer, et ce dans les phases de diagnostic, de traitement et de suivi thérapeutique. On s'aperçoit que la nano-médecine peut apporter - elle n'est bien sûr pas la seule à le faire - des solutions, ou des réponses, en tout cas des outils à chacune de ces étapes.

Le terme de nano-médecine désigne le recours aux nanotechnologies en médecine. Que sont les nanotechnologies ? C'est le fait d'utiliser des nanomatériaux qui ont, à l'échelle nanométrique, des propriétés physiques, chimiques et biologiques particulières. Il faut tout de même souligner que le préfixe « nano » représente 10 -9 unités de base, ici des mètres. Cela ne vous dit rien du tout. Prenez un cheveu, coupez son diamètre en 100 000 et cela vous donnera un ordre de grandeur de ce qu'est un nanomètre. C'est vraiment très petit. C'est 1 000 fois plus petit qu'une cellule.

Quand on fait des nano dispositifs, des nano assemblages moléculaires, on travaille à peu près, dans la même échelle de taille que les biomolécules, c'est-à-dire toutes les molécules intervenant dans des processus pathologiques. Par conséquent, dès lors que l'on réussit à fabriquer des entités d'une taille à peu près équivalente à celle de la molécule que l'on veut capter, suivre, détruire ou neutraliser, dès lors que l'on se situe dans le même rapport de taille, on parvient à le faire. Il y a des exemples de la reconnaissance entre un nano assemblage et une cible thérapeutique, par exemple un antigène ou des récepteurs surexprimés sur la surface d'une cellule. En étant 1 000 fois plus petit qu'une cellule, on se situe dans un rapport de taille correct pour pénétrer dans une cellule et effectuer un traitement ou de l'imagerie à l'intérieur de celle-ci.

S'agissant notamment de la détection de ce qui a déjà été mentionné en matière de prédispositions génétiques, de fond génétique, et plus largement de l'analyse des « omics », on a utilisé les puces à ADN, que j'appelle les « dinosaures de la nano-médecine », et on dispose désormais de dispositifs un peu plus sophistiqués, comme les nano-pores, permettant de faire du séquençage à haut débit. En matière de détection et donc de diagnostic, interviennent les capteurs, voire les biocapteurs. Ce diagnostic pouvant être fait in vitro ou in vivo , on trouve là aussi tout le domaine de l'imagerie moléculaire, dans lequel les nanotechnologies apportent de nouvelles fonctionnalités.

Puis, dans la phase de thérapie, citons les thérapies ciblées, notamment grâce aux nano vecteurs que j'évoquerai ultérieurement. C'est un domaine important et sur le plan industriel, aujourd'hui, le plus large domaine d'application des nanotechnologies. Enfin, au niveau du suivi thérapeutique, on retrouve la grande diversité des capteurs : capteurs portés sur la personne, capteurs implantés ou capteurs d'ambiance.

Il y a trois grands domaines dans lesquels les nanotechnologies apportent de l'innovation. Le premier d'entre eux est le diagnostic personnalisé. C'est le diagnostic in vitro qui se fait grâce à des microsystèmes pouvant être multi-paramétrés, plus rapides, capables de traiter un plus grand nombre d'échantillons ou permettant de travailler sur des échantillons de bien plus petite taille. C'est accessible soit dans les laboratoires centraux, soit, comme cela a déjà été souligné, à travers le point-of-care : au lit du patient, au cabinet du médecin traitant ou dans d'autres configurations.

Mais il y a aussi tout le domaine de l'imagerie moléculaire. On peut amener à peu près n'importe quel dispositif d'imagerie -IRM, imagerie nucléaire, imagerie de fluorescence, opto acoustique, photo acoustique- au plus près de la cible thérapeutique, pourvu que l'on possède sur cette cible, une modification de surface suffisamment spécifique pour qu'on puisse la reconnaître dans le grand brouhaha du reste de l'organisme. Par exemple, la société française Fluoptics propose un dispositif d'imagerie moléculaire permettant de guider le geste chirurgical dans l'exérèse des tumeurs abdominales. On rend les tumeurs et, surtout leurs marges, fluorescentes, afin de permettre au chirurgien d'enlever, avec d'autant plus d'efficacité, toutes les cellules tumorales et ainsi éviter qu'il puisse y avoir une reprise du cancer quelques mois plus tard.

Le deuxième grand domaine concerne les thérapies ciblées. On a coutume de considérer que la nano-médecine, même si elle intervient à l'échelle nanométrique, l'échelle moléculaire, ne recouvre pas toutes les molécules thérapeutiques. La molécule « simple », ou éventuellement couplée à un anticorps pour cibler son adressage, relève de la chimie ou de la biochimie. Dans le cas des thérapies ciblées, le grand domaine d'application des nanotechnologies, c'est bien sûr l'utilisation des nano-vecteurs, que vous avez peut-être connus sous des noms tels que liposomes, micelles, particules polymériques de l'épidote. De la même manière que l'on transporte des agents d'imagerie, ces particules servent de transporteurs à de petites molécules médicamenteuses. Après une administration veineuse, nasale ou orale - là encore, toutes les formulations sont possibles - , elles amènent le traitement thérapeutique au bon endroit dans l'individu.

Quelqu'un évoquait ce matin la réduction des effets secondaires adverses : si elle n'est pas la seule solution possible, l'encapsulation dans ces nanoparticules peut permettre de transporter des drogues extrêmement toxiques jusqu'au point souhaité, et pas à côté. On évoque en règle générale de « nanotherapeutics », car on peut transporter des drogues, mais aussi encapsuler des cellules - dès lors, on ne se situe plus à l'échelle nanométrique -, comme c'est le cas dans certaines transplantations.

Le troisième domaine est celui du suivi thérapeutique, où les technologies font oeuvre d'une grande créativité pour développer des capteurs. Les capteurs peuvent être portés sur la personne, implantés dans la personne, sachant qu'à l'échelle nanométrique ou micrométrique et nanométrique, on arrive à réduire d'une manière assez extrême les capteurs comme l'indiquait le Pr André Syrota. À partir du moment où le capteur est très petit, on peut alors l'implanter assez intimement dans l'individu pour mesurer des biomarqueurs ou la variation de paramètres physiques ou physico-chimiques.

Les nano assemblages ont la même taille que les particules biologiques. L'intérêt de détecter des phénomènes à l'échelle moléculaire, est de pouvoir le faire à un stade plus précoce que celui du symptôme global, au niveau d'un tissu. Par ailleurs, si le capteur que l'on va placer sur une personne n'est pas nanométrique, il y a ce qu'on appelle du « nano inside », c'est-à-dire qu'une partie du capteur est de taille nanométrique.

La médecine dite « asymptomatique » ou « préventive » peut être envisagée avec l'utilisation des nanotechnologies. En détectant d'une manière précoce, et en effectuant un diagnostic précoce, on peut prendre en charge un patient avant qu'il ne développe des symptômes cliniques. C'est une évolution dans la manière d'appréhender cette prise en charge, sachant qu'il s'agit là d'un concept vers lequel nous tendons, mais qui n'est pas encore mis en oeuvre à l'hôpital. On ne trouve pas les nanotechnologies seulement dans les laboratoires de recherche.

Il existe un ensemble d'applications médicales qui concerne des pathologies très variées et différentes phases : diagnostic ou thérapie. Aujourd'hui, 44 produits utilisent des nano-vecteurs, dont 18 produits nano-pharmaceutiques qui sont déjà mis sur le marché. Il existe 15 agents d'imagerie utilisés en nanotechnologie et actuellement 70 essais cliniques à travers le monde utilisent des nanotechnologies. Je voudrais citer un exemple, le plus proche géographiquement. Il s'agit de l'essai clinique de phase 1 qui est mené actuellement, à l'Institut Gustave Roussy, par la société Nanobiotix : des nanoparticules métalliques sont implantées en intra-tumoral, en l'occurrence dans des sarcomes, et permettent de magnifier l'effet de la radiothérapie. À terme, un tel procédé pourrait permettre de diminuer les doses de radiothérapie.

Aujourd'hui, non seulement les produits sont disponibles sur le marché mais, selon les dernières études, celui-ci représenterait un peu moins de 100 milliards de dollars au niveau mondial, avec des perspectives de croissance assez importantes. Ces perspectives sont corroborées par tous les essais cliniques en cours : ce sont des produits qui arriveront demain sur le marché.

Pour montrer que la nano-médecine est une réalité y compris chez nous, je voudrais conclure en présentant quelques exemples de sociétés françaises positionnées sur le secteur. Ces entités représentent la partie visible de l'iceberg, celui-ci étant constitué de toute une activité académique, qui est d'ailleurs de très bonne qualité en France, comparée à celle de nos confrères européens, voire d'Amérique du Nord.

Les entreprises sont souvent le fruit de développements issus de la recherche académique, plus en amont. À partir du moment où des technologies ont été développées, elles sont transférées parce qu'un nano-médicament est un médicament avant tout, un nano-dispositif est un dispositif médical et, en ce sens, tous deux suivent les mêmes voies réglementaires que les autres médicaments ou dispositifs, avec notamment ce temps d'accès au marché qui est un peu long. Cela nécessite que ces entreprises gèrent des essais cliniques pendant un certain temps.

En parvenant à contrôler la construction de nano-assemblages à l'échelle nanométrique, on parvient à développer de nouveaux outils pour le diagnostic et la thérapie. Ces outils peuvent être appliqués dans le cadre de la médecine personnalisée. Ils permettent même de mettre en place une stratégie de médecine personnalisée parce que l'on va cibler un tissu spécifique, particulier à l'individu. Ce n'est pas que du rêve : aujourd'hui, des produits sont sur le marché. Je ne sais pas s'il faut employer le terme « tsunami », mais on voit déferler actuellement, dans les laboratoires et au niveau des essais cliniques, une grosse vague de produits très innovants. Ces évolutions se feront au bénéfice du patient en Europe, mais aussi de notre industrie et de notre économie.

M. Jean-François Deleuze, directeur du Centre national de génotypage au CEA . Comme je viens du Centre national de génotypage, je vais donc essentiellement présenter les technologies et d'ADN. J'ai un profil un peu atypique dans le monde académique car, pendant quinze ans, j'ai été responsable de la recherche en génétique chez Sanofi, société que j'ai décidée de quitter voilà quelques mois. J'ai pu apprécier combien il est difficile de faire entrer ces concepts dans le monde industriel de façon assez pratique. Peut-être pourrons-nous en débattre plus tard...

Ma présentation concernera donc l'ADN, la génomique, et même plus, la génétique. Je n'ai pas volontairement choisi de la focaliser sur cet axe : nous pourrions aborder bien plus de sujets, mais cela prendrait beaucoup plus de temps et concernerait des aspects un peu plus techniques. Mon propos sera également très redondant puisque des généticiens, bien plus éminents que moi, se sont déjà exprimés et m'ont « enlevé » tous mes scoops.

Pourquoi personnaliser ? Je pense que la réponse à cette question est claire : parce que nous sommes tous différents ! Nous le sommes déjà en apparence. Il suffit de regarder autour de la table : nous ne sommes pas deux à être pareils ! Ces différences, qu'elles soient déterministes ou pas, sont tout de même pour beaucoup d'entre elles, inscrites dans notre séquence d'ADN. Nous sommes différents en apparence, évidemment en sexe, mais aussi face à la maladie ou en termes de réponse aux médicaments.

Le Pr Axel Kahn a évoqué le problème de la réponse aux traitements. Certaines personnes n'ont pas de traitement du tout. On doit donc personnaliser car au sein d'un groupe, on trouve ceux qui répondent au traitement, ceux qui ne répondent pas, mais aussi des populations qui sont dans des impasses médicales totales et pour lesquelles les traitements n'existent pas. On a signalé que, dans le cas des maladies rares, les populations sont trop petites pour que l'incitation au développement de thérapies soit suffisamment forte. Cependant bien d'autres raisons entrent en jeu et, effectivement la question de la personnalisation peut revêtir de nombreux aspects.

Par ailleurs, comme cela a aussi été mentionné, ces pratiques ne sont pas très nouvelles. Aujourd'hui on a tendance, peut-être trop rapidement, à associer personnalisation à génomique. À cet égard, j'ai beaucoup apprécié l'intervention de du Pr Patrick Boisseau : la personnalisation passera aussi par des dispositifs , comme les pompes à insuline qui, implantées demain dans le bras d'un patient, pourront permettre de réguler la façon dont celui-ci doit prendre l'insuline. Ce genre d'avancées constituera déjà un effort majeur, sans qu'il soit nécessaire d'aller tripoter le génome.

On observera donc différentes époques dans la médecine personnalisée, qui ne se réduira pas à une médecine génétique. Ce sera aussi une médecine de dispositifs, une médecine de phénotypage, une médecine de caractérisation. Ainsi une prise de sang est une personnalisation puisque l'on ne vous transfusera pas un sang ne correspondant pas à votre groupe sanguin. Elle est peut-être partielle, mais c'est bien une personnalisation. Avec l'examen cytobactériologique des urines, (ECBU), on cherche en général à donner l'antibiothérapie correspondant à la bactérie qui peut infecter le patient.

En avançant dans des domaines plus moléculaires, on trouve la greffe avec le système HLA et les questions de compatibilité. Dans le cas d'une greffe allogénique, le patient reçoit l'organe d'un tiers, et on ne le lui transplantera pas si cet organe n'est pas a minima compatible avec le système immunitaire de ce receveur. Cette personnalisation est certes partielle, mais je pense que personne ne reviendrait aujourd'hui sur le bénéfice à la fois thérapeutique et économique de ces tests. Où a-t-on progressé ? On utilise de plus en plus du phénotypique et du moléculaire et, effectivement ce qui nous pousse à vouloir personnaliser, peut-être plus que nous ne le devrions, est l'accès au génome humain ce qui constitue une révolution.

Faisons un bref rappel sur le génome humain, il représente 3 milliards de paires de bases et il ne se passe pas une semaine sans qu'on en apprenne des sur le sujet. Comme nous sommes à l'Assemblée nationale, je n'ai pas résisté à cette petite phrase tirée de la Déclaration des droits de l'homme et du citoyen : « nous naissons et demeurons libres et égaux en droits »... mais nos génomes sont différents ! Malheureusement, nous ne sommes pas égaux devant la maladie et devant la réponse aux médicaments. J'ignore comment cela doit être pris en compte au niveau sociétal, mais c'est une réalité.

Le séquençage d'ADN humain représente 3 milliards d'éléments groupés en 46 chromosomes, et sur ces 3 milliards d'éléments, on comptabilisera 3 millions de différences entre les génomes de deux individus. Ces différences sont à l'origine de notre apparence - notre phénotype extérieur, mais aussi nos maladies -, de notre réponse aux médicaments et de nombreux autres phénomènes.

Effectivement, comme le rappelait précédemment une intervenante, l'environnement se surimpose à cela. Or l'environnement sans le patrimoine génétique et ce que celui-ci exprime n'aurait pas non plus d'influence. Il s'agit en fait d'un mariage entre les deux. Pour compliquer un peu la situation, 200 types cellulaires existent. Il faut en effet sortir d'un certain dogme qui consiste à croire
- c'est un peu moins vrai aujourd'hui qu'il y a quelques années - que l'ADN est exactement le même dans toutes les cellules. Quand on évoque l'ADN, il s'agit le plus souvent de l'ADN issu du sang, car le sang est le plus accessible de façon la moins invasive. Notre ADN, qui est différent selon les 200 types cellulaires, subit aussi des modifications chimiques : on appelle cela l'épigénome, qui peut également être un révélateur de maladies, d'influences à l'environnement, etc . La question est donc bien plus complexe que le simple fait de regarder l'ADN dans le sang.

Les différences sont de multiples types. Dans le cas des mutations ponctuelles, une lettre est changée par une autre. Un « A » devient un « C » par exemple. Cela peut être absolument neutre ou totalement délétère. Il y a également des délétions - des morceaux entiers sont enlevés -, des inversions - l'ordre dans lequel sont placées les bases est modifié - ou des amplifications.

Voici deux exemples d'implications fonctionnelles d'une mutation par rapport à un phénotype. La mucoviscidose, tout d'abord, est une des maladies monogéniques les plus fréquentes. Si, dans la séquence normale 3 bases « CTT » sautent - 3 bases sur 3 milliards ! -, on passe à la forme suivante. Si malheureusement, on a deux copies de cette forme obtenue par cette fameuse mutation, extrêmement commune, qui s'appelle ÄF508 - delta pour « délétion » -, on est atteint de mucoviscidose. Au regard de la réflexion précédente sur la question du déterminisme, je me permets d'insister : malheureusement, avec deux copies de ÄF508, on est atteint de mucoviscidose dans 99 % des cas, même si les formes peuvent varier. C'est extrêmement déterministe. Une variation génétique peut donc conduire à l'introduction d'une maladie.

Le deuxième exemple aborde la réponse au médicament. Le Pr Axel Kahn et le Pr André Syrota ont traité ce matin des effets toxiques. Le cas qui nous intéresse concerne un cytochrome, le cytochrome 2D6, qui est un enzyme hépatique prenant en charge de nombreux médicaments pour les détoxifier. Ce cytochrome est malheureusement très polymorphe et prend des formes très variables selon les individus. Certaines personnes n'en ont aucune copie et accumulent les drogues sans les métaboliser. D'autres en ont de nombreuses copies et vont donc métaboliser très rapidement. On comprend immédiatement que la posologie d'une drogue devrait être adaptée à notre contribution génétique par rapport à ce polymorphisme. Et sur ce point, c'est assez déterministe. C'est vrai pour une grande partie des enzymes du métabolisme des médicaments.

Un article assez ancien de Nature sur le sujet, dans lequel il est question d'adaptation s'y réfère, et j'estime que c'est acceptable en termes de stratification. On n'en est pas à dire qu'il faut tel ou tel médicament. Mais, de façon intermédiaire, on pourrait imaginer adapter la posologie au profil génétique du patient. La question du business model sera évoquée ultérieurement. De nouveau, nous discuterons des dispositifs certainement acceptables.

Quels sont les outils ? Comme cela a été expliqué, et pour brosser la situation de manière un peu simpliste, il existe deux outils majeurs pour observer l'ADN : le génotypage et le séquençage. Le génotypage consiste à observer des endroits précis : plutôt que d'examiner tout le génome, ce qui coûte cher, je regarde des zones décidées à l'avance, des marqueurs. Le séquençage, de façon manichéenne, consiste à tout regarder.

Un point probablement important pour vos débats futurs, Messieurs les députés, réside dans la question de l'utilisation de ces technologies pour la découverte ou pour le diagnostic, car ces finalités ne recouvrent pas du tout le même monde réglementaire. Les thèmes discutés ce matin au sujet des hôpitaux concernaient, pour beaucoup, le domaine de la recherche clinique, et pas franchement celui du diagnostic, avec une réglementation posée derrière. La façon dont on réglementera le séquençage total, l'utilisation du génome humain, est déjà en soi un débat majeur. On dispose de deux grandes techniques, et de robots nombreux et variés pour effectuer ensuite l'analyse génétique.

Un exemple concerne le laboratoire Bayer qui a développé une statine ayant entraîné un certain nombre de cas, assez rares, de rhabdomyolyses. Cette situation est bien sûr très préjudiciable au patient, mais elle a également causé beaucoup de tort à l'industrie pharmaceutique, qui a failli ne pas s'en relever. Ceci est un exemple d'analyse génétique par génotypage qui a donc été faite, en partie en France, en collaboration avec Merck, pour tenter de répondre à la question suivante : est-ce que ces personnes ont des rhabdomyolyses parce qu'ils ont une susceptibilité génétique ?

Il n'y avait pas tant de cas que cela moins de 90, me semble-t-il, sur 3 000 contrôles effectués dans cette étude, et, pour ces 90 personnes ayant fait une rhabdomyolyse sous statines, on a interrogé environ 300 000 positions du génome humain pour savoir si l'une d'entre elles était liée à l'apparition de la rhabdomyolyse. Il s'est avéré qu'un seul signal fonctionne : c'est un gène candidat. Sur les 387 000 marqueurs, il y en a un qui, de façon statistique, répond à la question : oui, ce marqueur est associé à l'apparition de la rhabdomyolyse en cas de prise de statines. Qu'en est-il de ce marqueur ? Il s'agit d'un variant du transporteur hépatique des statines. C'est donc logique. Malheureusement, quand on a le mauvais variant, la mauvaise forme du transporteur hépatique des statines, et qu'on prend cette statine-là, on a une plus grande chance de développer une rhabdomyolyse.

Cette étude a donc un impact immédiat : éviter de donner éventuellement des statines aux personnes ayant le mauvais génotype CC. Mais elle ouvre aussi une autre voie pour l'industrie, qui consiste à trouver une statine qui n'est pas sensible à ce phénotype. On parle de personnalisation, mais le modèle peut être aussi d'éviter de trouver des cibles thérapeutiques qui sont polymorphes dans la population, en évitant justement d'être dans des systèmes trop polymorphes. C'est une autre stratégie possible !

L'exemple suivant, cité par le Pr Pierre Laurent-Puig, concerne le cancer. À ce propos, on a oublié de rappeler qu'il y a des tumeurs que l'on peut réséquer, prendre et étudier. Quand on veut étudier le pancréas d'un patient, on ne le lui enlève pas ; on n'enlève pas le coeur d'un individu. On peut donc extraire une tumeur en morceaux et l'étudier de façon moléculaire. Or les altérations individuelles moléculaires du cancer sont très fortes. C'est une maladie très fréquente, mais aussi une maladie sur laquelle il était envisageable de progresser.

Un certain nombre de thérapies ciblées représentent des succès de médecine stratifiée. Il y a tout d'abord eu, pour le cancer du sein métastasé, l'Herceptin - Christophe Le Tourneau a évoqué la question du récepteur HER-2 - qui a apporté un réel bénéfice thérapeutique. Et les solutions ne cessent d'augmenter, avec de nombreux anticorps.

Je crois que l'on dispose d'environ 17 ou 20 couples d'altérations génétiques pour lesquelles, aujourd'hui, on peut attribuer une thérapeutique dite « cliniquement actionnable ». Quand on peut associer à une altération une intervention thérapeutique, on aboutit à des procédés puissants.

Le Centre national de génotypage (CNG) que je pilote depuis le mois de septembre dispose, en capacité machines de 11 séquenceurs, ce qui en fait probablement le deuxième centre européen de séquençage. Il faut néanmoins y mettre un bémol : en tant que séquenceurs, nous intervenons dans le domaine de la recherche et n'avons pas, à l'heure actuelle, de capacité en termes de diagnostic. Nous sommes capables de séquencer quasiment trois génomes humains par jour. Ce résultat peut être mis en parallèle avec les efforts qu'il a fallu déployer, voilà dix ans, pour séquencer un génome : cela a pris plusieurs années et coûté des centaines de milliers de dollars. Si l'on raisonne en consommable, le prix d'un génome avoisine désormais 3 000 euros et ce coût continuera de baisser. Il existe donc une force de frappe en France, elle sert beaucoup la communauté scientifique nationale essentiellement sur des activités de recherche et c'est d'ailleurs sa mission. Par ailleurs, nous sommes certainement le leader européen en matière de génotypage, c'est-à-dire pour l'examen d'altérations spécifiques.

Qu'en est-il de l'évolution ? Nous avons grosso modo trois solutions. Selon l'argent dont nous disposons et l'évolution des coûts, nous pouvons regarder la séquence totale. Comme je l'ai indiqué, le prix est de 3 000 euros environ et, si nous ne disposons pas actuellement des outils d'analyse, une évolution se profile dans les mois et années à venir. Nous sommes déjà capables d'analyser de façon localisée des marqueurs, ce qui revient beaucoup moins cher. Enfin, nous pouvons examiner des gènes ou l'ensemble des gènes, et ce que l'on considère être aujourd'hui l'endroit comprenant le plus d'information du génome.

Tous ces concepts sont en train d'évoluer et, aujourd'hui, en 2013, les coûts ne sont plus les mêmes que par le passé. Nous ne séquençons pas tout le monde massivement, mais il est évident que le prix du whole genome sequencing sera, dans les deux ans qui viennent, équivalent au prix de l'exome ou du génotypage que l'on faisait avant. Se posera alors la question de savoir comment on réagit. Il me semble que personne ne pourra contrecarrer ces évolutions, et que tout le monde est d'accord sur ce point.

J'en viens aux défis. Premier défi, il manque une filière en France en bio-informatique et bio-statistique. Nous générons beaucoup plus d'informations que nous sommes capables d'en traiter. Il faudra donc des bio-informaticiens, des bio-analystes, des biostatisticiens en nombre beaucoup plus important que les effectifs actuels. Le fait d'être capable de générer des giga-bases de données ou des centaines de giga-bases de données chaque jour sans être en mesure d'analyser un tel volume de données est un vrai défi, aussi bien en termes d'outils d'analyse qu'en termes de filière et de personnel.

Deuxième défi, il y a un problème au niveau de l'informatique, ce point, me semble-t-il, a été soulevé par le Pr Axel Kahn ou le Pr André Syrota - dans la mesure où le stockage des données coûtera pratiquement plus cher dans le futur que leur génération. Des efforts majeurs doivent donc être fournis dans le domaine informatique, en matière de stockage et de capacité de calcul.

Troisième défi, la génomique fonctionnelle. C'est aussi une science qu'il ne faut pas oublier. Nous sommes capables de décrire beaucoup de marqueurs, mais nous ne comprenons pas vraiment comment ils fonctionnent. Si nous voulons être capables de personnaliser, pour reprendre les exemples donnés par Axel Kahn, au niveau des cibles thérapeutiques, nous devons être capables de comprendre l'intérêt de nos cibles.

Quatrième défi, l'accès aux échantillons biologiques. Il faut arrêter de penser que le sang est le seul tissu pertinent pour l'analyse. Dans le cas de nombreuses pathologies, il faudra aller chercher les échantillons dans les tissus car il faudra regarder l'épigénome. Des technologies sont à développer pour permettre cet accès. Si, par exemple, on pense « épigénome » et « cerveau », on perçoit immédiatement la complexité de travailler, en situation « non post mortem », sur le cerveau d'un individu. Ce n'est pas possible et soulève effectivement beaucoup de problèmes.

Dr Catherine Bourgain, chargée de recherche en génétique humaine et statistiques à l'INSERM . Je poursuivrais la réflexion sur la génétique, puisque je suis généticienne moi aussi. J'ai choisi de me concentrer sur un point qui a été évoqué ce matin et qui constitue un des enjeux de la médecine personnalisée, à savoir la problématique de la prédiction. En quelques minutes, j'essayerais de faire le tour de ce que l'on peut, ou ce que l'on pourra prédire, à partir de l'analyse de l'ADN.

Le premier domaine dont il a été question est celui des maladies monogéniques. Actuellement, les progrès réalisés portent sur les nouvelles méthodes d'analyse par génotypage ou par séquençage, lesquelles permettent, dans une même analyse, de rechercher de façon simultanée un très grand nombre de mutations impliquées dans de nombreuses maladies génétiques pédiatriques différentes.

Dans un article sorti en 2011, qui a eu un grand retentissement, il était question d'effectuer des recherches systématiques de mutations concernant près de 500 maladies pédiatriques différentes. En faisant ces recherches sur des personnes non malades, on arrivait à la conclusion qu'en moyenne, chacun des individus analysés était porteur de 3 mutations pour une de ces maladies, ce nombre de mutations variant entre 0 et 7 à peu près. Ces nouvelles technologies permettant de faire des analyses concomitantes d'un grand nombre de mutations peuvent être couplées avec d'autres progrès, en particulier ceux qui sont liés à la capacité d'analyser le génome des foetus quand ceux-ci se trouvent encore dans le ventre de leur mère.

On a récemment parlé de la mise au point de la technologie permettant le dépistage de la trisomie 21 dès la dixième semaine de grossesse à partir d'une simple prise de sang chez la mère. Depuis, cela a progressé, l'année dernière, un article a été publié, montrant qu'il avait été possible de procéder à un séquençage intégral d'un génome de foetus à 19 semaines de grossesse, à partir d'une simple prise de sang chez la mère. Cela illustre bien comment différentes technologies peuvent se combiner pour engendrer de nouvelles capacités.

Ces évolutions ont des conséquences en termes de diagnostic prénatal, de diagnostic préimplantatoire, mais également sur le développement de ce que l'on appelle les tests génétiques préconceptionnels. Il s'agit de proposer aux membres d'un couple, avant la procréation, de se soumettre à ce type d'analyses pour voir si, par hasard, ils seraient tous les deux porteurs d'une mutation impliquée dans une même maladie. Le cas échéant, des analyses de diagnostic prénatal, voire préimplantatoire, pourraient leur être proposées. Du fait du développement des tests préconceptionnels, le nombre de personnes potentiellement concernées par ces tests peut être considérablement élargi, puisque le public auquel on s'adresserait serait, non plus uniquement des enfants malades ou des couples ayant déjà eu un enfant atteint, mais potentiellement tous les couples désireux de procréer.

Je perçois au moins deux enjeux autour de ce type d'analyses. Le premier enjeu porte sur la précision technologique. Dans quelle mesure les outils disponibles permettent-ils de détecter avec une bonne fiabilité la présence de mutations ? Dans le cadre du fort développement actuel des technologies, des interrogations se posent véritablement. Est-on sûr de ce que l'on détecte ?
N'y a-t-il pas des erreurs de technique ? On sait effectivement que celles-ci sont assez nombreuses.

Le deuxième enjeu est de savoir si les valeurs de pénétrance que l'on a employées jusqu'ici, c'est-à-dire la probabilité de tomber malade pour les personnes porteuses de ces mutations, sont si bonnes que cela. En effet, en analysant un nombre croissant de personnes qui ne sont pas malades, on se rend compte que, dans certains cas, des individus porteurs de mutations, parfois en double dose, auraient dû être considérés comme malades alors qu'ils n'ont pas développé la maladie. L'essor de ces technologies interroge aussi notre capacité à bien mesurer les risques, même dans le cas de maladies censées avoir un très fort déterminisme du point de vue génétique.

Venons-en à la deuxième catégorie de maladies. Ce sont toutes les « maladies multifactorielles », parce qu'elles résultent d'une combinaison de facteurs génétiques et de facteurs d'environnement, au sens le plus large de ce terme, c'est-à-dire à la fois la vie foetale et tous les facteurs non génétiques. Des mesures de composante génétique sont souvent mises en avant dans les débats pour justifier les mesures de risque basées sur la seule génétique. C'est la mesure d'héritabilité. On estime que, pour telle maladie, cela vaut la peine de rechercher des facteurs de risque génétique, car l'héritabilité de cette maladie atteint 30 % ou 40 %.

Or cette notion d'héritabilité est extrêmement discutée dans la communauté scientifique, parce qu'elle présuppose l'absence d'interaction entre les effets génétiques et les effets d'environnement. On sait pertinemment que c'est faux. Un même génome d'un individu, selon l'environnement dans lequel celui-ci sera plongé tout au long de sa vie, aura un risque très différent d'induire telle ou telle pathologie.

Les mesures censées décrire la part de la génétique dans les maladies complexes sont donc à prendre avec beaucoup de précautions. Pour autant, depuis trente ans, de nombreux travaux ont été menés pour essayer d'identifier les facteurs de risque génétiques de ces maladies multifactorielles et certains l'ont été, comme ceux dont il a été question dans la présentation précédente. Ces risques qui sont associés à tel ou tel facteur génétique sont des valeurs moyennes sur l'ensemble des individus porteurs du variant génétique identifié. Il s'agit bien d'une valeur en population. Or si l'on veut faire de la prédiction, il faut se mettre au niveau de l'individu, et à ce niveau, les risques calculés uniquement sur l'ADN sont en définitive de très mauvais déterminants, et ce pour au moins deux raisons.

Premièrement, les risques mesurés sont toujours des risques qui ne sont absolument pas déterministes. Dans le cas de la maladie d'Alzheimer, par exemple, pour laquelle une personne aura un risque moyen, si l'on ne fait pas d'analyse génétique, de 10 % environ, son risque variera de 8 % ou de 51 % selon son génotype pour le gène ApoE. Cela signifie qu'en prenant en compte l'information génétique, on fait varier la mesure du risque, mais en restant dans des échelles de risque qui ne sont pas du tout celles des maladies monogéniques. Ce n'est absolument pas du déterminisme, comme cela a été évoqué précédemment.

Deuxièmement, pour toutes ces mesures, il y a en pratique très peu de recommandations efficaces, voire aucune, qui soient applicables à ces individus plutôt qu'à d'autres. La plupart du temps, ce qui va être suggéré est de faire attention à son alimentation, à sa pratique sportive, etc. , autant de recommandations applicables à pratiquement toute la population, puisque nous sommes tous à risque.

La faiblesse de cette information génétique pour prédire l'apparition de maladies multifactorielles a été illustrée par un exemple. En 2007, aux États-Unis de nombreuses de compagnies se sont développées pour vendre des mesures de risques individualisés pour les maladies multifactorielles, directement au consommateur, sur Internet. Deux des plus emblématiques entreprises ont fermé en 2012 et ont été rachetées par d'autres sociétés. Les services de mise en ligne de mesures de risque ont quant à eux été fermés, l'objectif des industries ayant racheté ces compagnies étant de mettre la main sur les bases de données qui avaient été constituées. Ces mesures de risque individuel n'ont effectivement pas d'utilité. En revanche, le fait de disposer d'importantes bases de données peut être utile pour le développement ultérieur de traitements plus ciblés.

Je voudrais évoquer rapidement un troisième point. D'aucuns pensent qu'il faut aujourd'hui intégrer les données génétiques avec les données environnementales pour peut-être obtenir des améliorations notables dans la précision des prédictions. Il a été question, dans les interventions précédentes, d'un nombre considérable de données additionnelles que l'on peut envisager d'intégrer aux données génétiques. Les biocapteurs ont été évoqués, ainsi que la possibilité d'effectuer des mesures régulières au cours d'une journée, au cours de la vie, et le fait qu'il y a plusieurs génomes et plusieurs épigénomes. Cela forme un ensemble d'informations pouvant se cumuler, ce qui aboutit à des modèles de plus en plus complexes.

Il me semble que la question de savoir s'il suffira d'avoir le bon nombre de bio-informaticiens et la bonne puissance de calcul pour intégrer réellement toutes ces données est ouverte. En effet, il existe aussi des difficultés conceptuelles à modéliser des systèmes aussi complexes, dans lesquels les paramètres ne cessent d'être toujours plus nombreux et qui, en plus, sont en interaction les uns avec les autres, avec des effets « système », si je puis dire, créant des interactions supplémentaires.

En définitive, on ne peut absolument pas savoir si, demain, même avec toutes ces données, on sera en mesure de faire des prédictions ayant une valeur certaine, parce que l'on sait qu'au-delà d'un certain niveau de complexité, on a souvent des difficultés à trouver des concepts permettant de traiter toutes ces informations. J'ajoute qu'il s'agit souvent de données issues de multiples sources et dont le traitement et l'analyse, de façon concomitante, posent des problèmes.

Sur ces enjeux de prédiction à partir de l'ADN, beaucoup de promesses importantes ont été faites, de nombreux discours surfent sur le sensationnel, mais je crois qu'il est extrêmement important d'aller dans le détail pour savoir comment, déjà à l'heure actuelle, nous utilisons ces informations, et cerner ce que nous sommes vraiment capables de réaliser aujourd'hui et ce que nous pensons avoir de bonnes chances de réaliser demain. Quand on interroge les scientifiques, on est souvent capable de faire la différence entre ce qui a de bonnes chances d'advenir et ce qui est de l'ordre de la promesse totalement ouverte. S'agissant de la constitution de toutes ces grandes bases de données, de nombreuses questions demeurent.

Le problème du bénéfice-risque doit donc être abordé avec une mesure la plus fine possible des bénéfices, tels qu'ils sont aujourd'hui, et la problématique de la prédiction, en tout cas pour les maladies multifactorielles, reste tout de même très ouverte.

Dr. Anne Cambon-Thomsen, directrice de recherche au CNRS UMR U 1027 « Épidémiologie et analyses en santé publique » de l'INSERM, et de l'Université de Toulouse 3 Paul Sabatier, responsable de l'équipe « Génomique, biothérapies et santé publique ». Je souscris à bien des points évoqués par le Dr Catherine Bourgain. Mon propos sera orienté sur les biomarqueurs. Pour commencer, je vais citer une phrase tirée d'une assemblée australienne similaire à celle que nous tenons aujourd'hui, préalablement à l'examen d'une législation concernant la génétique dans ce pays : « La rapidité des changements a produit deux réactions sociales puissantes, mais opposées. On constate d'un côté, une très forte attente du public pour des avancées prometteuses en termes de diagnostic et de traitement, et de l'autre, des craintes concernant la perte grandissante de la sphère privée, le risque de discrimination génétique, et la possibilité de réguler la science génétique pour l'intérêt public. » C'est sur ce dernier point que je vais insister. Je crois en effet que la dernière partie de cette phrase se trouve au coeur de ce dont nous discutons aujourd'hui.

Nous avons déjà parlé des définitions que l'on peut donner de la « médecine personnalisée » et de l'importance de ces termes. Je veux souligner que l'expression peut devenir un slogan. Je ne peux plus entendre des phrases telles que « Le bon traitement, au bon moment, pour le bon patient ». Cela a été totalement galvaudé. Cela donne une fausse idée de ce qu'est la réalité. Ce qui est vrai dans certains cas, ne l'est pas pour d'autres. En d'autres termes, il faut susciter l'espoir, mais sans fausses promesses. Or de fausses promesses sont faites tout le temps ! L'espoir et des réalisations existent aussi. Il faut donc faire la part des choses et c'est là toute la difficulté de l'exercice.

S'agissant des biomarqueurs, nous nous sommes déjà arrêtés sur les caractéristiques des sauts technologiques et sur la plus grande lenteur de leur application dans la médecine. Cela est évidemment dû au fait qu'on ne prend pas en compte les seules capacités techniques lorsque l'on met en application un certain nombre d'avancées dans un système de santé. La problématique du niveau de preuves à établir peut donc se résumer ainsi : on se trouve face à des biomarqueurs extrêmement variés, apportant des messages plus ou moins validés et des degrés d'information différents, et cet ensemble est très difficile à appréhender.

Ces enjeux sont aussi liés à la définition du niveau de preuve avant la mise en oeuvre. Il n'existe pas forcément d'éléments précis pour tous les types de marqueurs que l'on peut générer. Ils sont bien sûr liés aux conséquences au niveau individuel et collectif. Il y a des conclusions au niveau individuel dans certains cas et des enjeux à l'échelle de populations dans d'autres cas, la frontière n'étant pas toujours tranchée entre les deux. Enfin, les enjeux sont liés aux relations entre médecins et patients, au rôle joué par les patients et leurs associations, et aux stratégies industrielles.

On se retrouve avec un paysage complexe, dans lequel les biomarqueurs sont des éléments centraux. On en dénombre plusieurs catégories : ceux que j'appellerai « constitutionnels », comme les marqueurs génétiques ; ceux qui ont un rapport avec l'évolution de la maladie ou le développement de la maladie elle-même, comme les marqueurs de tumeur ; ceux qui sont liés aux capacités de réponse à des molécules, donc au traitement et à l'évolution de ce dernier. Outre l'environnement, cet ensemble, composé d'éléments assez variés, forme l'ensemble des paramètres à prendre en compte dans la médecine personnalisée.

Comme cela a été souligné dans les propos introductifs, il existe une sorte de paradoxe, car on parle de personnalisation pour des démarches consistant à définir plus finement des groupes. On se trouve tout de même dans la stratification et la constitution de groupes. Or le fait d'employer le terme « personnalisée » génère une autre attente. C'est pourquoi, je préfère utiliser les notions de « médecine de précision », ou de « stratification », parce que cela correspond davantage à la réalité.

Par ailleurs, la personnalisation vue à travers la caractérisation biologique, fine, peut aussi être perçue comme réductrice, d'où l'importance du dialogue. Le dialogue avec les professionnels de santé reste donc au coeur de la médecine. Ces professionnels, certes aidés par des outils informatiques, doivent en outre intégrer une quantité importante d'informations de différents types, et il n'est pas toujours facile d'apporter une information claire. De ce fait, la question de l'éducation est extrêmement importante, on l'a mentionnée pour les étudiants en médecine, mais c'est également vrai pour les professionnels de santé, au fil de l'apparition des nouveaux outils, dans le cadre de la formation continue.

J'en viens au sujet de la prédictivité, déjà abordé. S'agissant de génétique, on se situe dans cette idée de prédictivité, derrière laquelle se profile la question de l'interprétation. Face à un génome entier en séquence, ou bien un exome, on dispose de capacités très variées d'interprétation des différents points de ce génome ou exome. Ce constat n'est pas toujours mis en avant. On sait générer toute une série d'informations sans savoir les interpréter.

À propos de cette prédictivité, je citerai une phrase du Pr Didier Sicard, ancien président du Comité consultatif national d'éthique ( CCNE) : « La médecine s'engouffre dans cette prédiction en pensant que plus on prédira un risque, moins il aura de chances de survenir. Il existe une confusion permanente entre l'usage que l'on fera de cette prédiction et la prédiction elle-même ». Ce point, me semble-t-il, a été rappelé dans les propos du Dr Catherine Bourgain.

J'en viens à cette question : peut-on considérer, réguler, expliquer tout type de test génétique, de biomarqueur, de la même façon? La réponse est négative. Mais quand on en vient à la régulation et à l'organisation au niveau d'un système de santé, on se trouve en face de certaines réalités et, dans ce cadre, il est commode d'avoir des éléments clairs et des catégories. Or l'information génétique peut être classée dans une catégorie un jour donné et, parce qu'on aura un peu plus d'informations sur l'environnement, sur les interactions, parce qu'on aura progressé dans la capacité à interpréter certains domaines du génome, elle se retrouvera le lendemain dans une autre catégorie, au niveau des capacités productives. Comment gérerons-nous cela ? L'information génétique est évidemment à considérer parmi d'autres biomarqueurs. La dimension familiale de cette information, ainsi que la dimension de catégorie ou de groupe, doivent être prises en compte dans ce cadre. Je reviendrai sur les associations en terminant mon propos.

Par ailleurs, la masse d'informations générées par les tests et examens variés, d'informations génétiques notamment, est bien supérieure à l'information utile dont on se servira au temps T. Dès lors, que faire des informations qui deviennent disponibles, mais sont a priori non recherchées ? Jusqu'où faut-il fouiller la masse d'informations générées quand on a tout un génome ? Que faut-il systématiquement analyser ? Autour de ces enjeux, d'importants débats sont engagés au sein du collège des généticiens aux États-Unis, et une réflexion est entamée sur le sujet à la Société européenne de génétique humaine. Il s'agit bien de déterminer ce qu'il faut faire des découvertes incidentes et s'il doit exister une obligation à regarder systématiquement certains aspects du génome. Évidemment, derrière ces problématiques, se profile tout un pan de l'éducation professionnelle et de l'accompagnement.

Nous avons évoqué le sujet économique. En définitive, au-delà de la question du coût, se pose aussi celle de l'accès équitable. Par ailleurs, les patients sont de plus en plus « catégorisés », peut-être jusqu'à l'individu, c'est le cas dans les thérapies cellulaires, mais, pour le reste, on travaille par groupe, et ce n'est pas toujours à leur avantage. Il est sans doute nécessaire d'envisager des formations particulières pour faciliter la gestion et le partage de certaines informations, par exemple lorsque l'on doit expliquer à un patient qu'il n'est pas dans le groupe que l'on sait traiter, mais que l'on espère que cette situation évoluera. La multiplication des outils et des informations rend ces cas plus fréquents que par le passé. Auparavant, au moins, on gardait espoir même s'il fallait parfois gérer, par la suite, effets secondaires et problèmes thérapeutiques. Il est important de ne pas tuer l'espoir par l'information et la qualité du dialogue est un élément majeur qui ne se résout pas par la bio-informatique.

Je considère en outre, qu'en santé publique il y a une grande nécessité à mener des études d'impact. Nous avons entendu un certain nombre de propos, notamment en matière d'économie de la santé, mais il me semble que des points sont à développer, plus largement, dans le domaine de la santé publique, autour de la question de l'impact de ce qu'on appelle la « médecine personnalisée ». À cet égard, l'Institut thématique multi-organismes (ITMO) de santé publique organise un colloque annuel à l'automne, le 5 décembre 2013. Cette année, le thème en sera la médecine personnalisée. Il serait très intéressant que certaines des personnes ici présentes participent aussi à cet événement et puissent confronter ce qui se dit dans ces auditions publiques et ce qui se dira dans ce colloque scientifique.

Les enjeux sont variés. Ils sont tout d'abord liés au concept, la question étant la suivante : la personnalisation d'une médecine est-elle plus grande parce qu'elle est « biologiquement fondée » ? Le fait de détenir plus de précisions biologiques conduit-il automatiquement à plus personnalisation, au sens de la considération centrale de la personne et non de « ses données biologiques »? Cette interrogation a été soulevée précédemment et je crois qu'elle est essentielle.

Je conclurai en indiquant que nous avons à différencier plusieurs éléments. Tout d'abord, il y a l'application d'un degré de précision nouveau à l'exercice médical, enjeu assez classique et standard. Des exemples ont été donnés sur ce point. Puis vient l'aspect lié à la médecine de prévision ou médecine prédictive, qui constitue une partie de la personnalisation ou de la stratification. On a ensuite ce que l'on appelle « la médecine basée sur les données ». Ces informations sont générées à grande échelle, parce que cela coûte (ou coûtera bientôt) moins cher que leur acquisition en plusieurs étapes successives, parce que la technologie nous pousse à le faire, parce que, finalement, il est logique d'aller dans ce sens, et ce, avec des niveaux d'utilité variés. C'est un sujet que l'on ne sait pas véritablement gérer et il n'y a pas encore de recommandations consensuelles dans ce domaine qui change la logique intrinsèque de l'exercice médical.

Enfin, il faut considérer l'individualisation de l'accès aux données biologiques, notamment les aspects abordés par le Dr Catherine Bourgain sur la mise à disposition publique d'informations. On ne se trouve pas tout à fait dans une situation où c'est systématiquement le médecin qui ordonnera la génération d'informations. Dans certains cas, les patients pourront, et ils le font déjà, se présenter avec des informations sur lesquelles ils n'auront pas toujours obtenu une explication précise, exacte, prenant en compte les hypothèses qui sous-tendent les modèles donnant naissance aux calculs de risques tels qu'on les connaît aujourd'hui.

Dr. Laurent Alexandre, président de DNAVision, membre de l'Académie des technologies . Je voudrais apporter un témoignage personnel de ce que l'on observe au travers de la médecine personnalisée. En effet, j'ai effectué le séquençage de la totalité de mon propre génome à deux reprises, à très haut coverage , je le précise à l'attention des techniciens, donc sans faux-positifs. Entendons-nous bien, mais c'est là un débat de spécialistes, je veux dire qu'à un coverage de 200 ou 300, au lieu d'avoir quelques centaines de milliers de faux-positifs sur les 3 milliards de paires de bases, on n'en aura que quelques-uns. Il y en a tout de même peu !

Cette expérience m'a interpelé par rapport aux discours théoriques, aux discours d'industriels que je tenais sur le sujet, mais également par rapport à l'approche que j'ai développée, voilà quinze ans, en tant que fondateur du site Doctissimo. Cette approche pouvait se résumer ainsi : il faut tout dire au patient en direct ; le patient peut tout entendre, même sans l'intermédiaire du médecin.

Même si l'univers dans lequel nous nous trouvons n'est pas toujours déterministe, la masse d'informations auxquelles j'ai eu accès en me séquençant m'a interpelé, et je suis personnellement opposé à ce que les individus accèdent à leur séquençage sans un intermédiaire médical. On ne peut pas apprendre que l'on a des variants graves sans un intermédiaire médical. Les résultats sont très difficiles à interpréter, y compris pour un spécialiste de la génomique, pour un médecin comme je le suis. On imagine donc les difficultés que rencontreraient des personnes n'ayant pas de culture génomique pour comprendre ce qu'est un variant sur une maladie récessive ou pour interpréter des variants évalués sur des « SNP flags » (Single Nucleotide Polymorphisms ) qui ne sont pas fonctionnels. C'est très difficile.

Bien évidemment, on rencontre dans ce domaine un phénomène de « surpromesses ». Des compagnies comme 23andMe, avec des technologies de génotypage et de microarray relativement rudimentaires, ont proposé des offres grand public. Il faut réfléchir à cette question, car elle soulève de vrais problèmes, que l'on perçoit encore mieux après s'être soi-même séquencé et avoir découvert que l'on était porteur de variants, dont certains sont de mauvais variants. À ce titre, il est important de noter que plus on vieillit et moins le séquençage est informatif. À 90 ans, on peut être certain de ne pas avoir eu de maladie de Huntington, de ne pas être porteur d'une mutation du gène LRRK2, qui donne une forte probabilité de développer la maladie de Parkinson, de ne pas avoir de myopathie.

C'est donc sur le foetus que le séquençage est, par définition, le plus informatif, puisque l'on connaît alors peu de choses. A contrario , plus on vieillit, moins ce caractère informatif est important. Savoir que j'ai les deux principaux variants de protection contre la calvitie ne m'apporte pas grand-chose : je me suis bien rendu compte que je n'étais pas chauve ! Si j'avais été séquencé à cinq ans, cela aurait été plus informatif.

Par ailleurs, il est très difficile de prévoir ce que l'on fera avec ces technologies. Il faut rappeler, à l'attention de ceux qui n'ont pas l'historique du séquençage en tête, que l'on assiste tout de même à un véritable tsunami technologique. Cela ne veut pas dire que l'on va découvrir un univers génomique déterministe, cela signifie simplement que personne n'avait prévu ce qui nous arrive. En 1990, on avait un consensus mondial dans la communauté des généticiens sur le fait qu'on ne saurait jamais séquencer intégralement les 3 milliards de paires de bases. À l'époque, deux ou trois iconoclastes avaient déclaré qu'on y arriverait. D'après eux, il fallait trois à cinq siècles. Or nous y sommes arrivés !

La première fois, cela a coûté 3 milliards de dollars, mobilisé 20 000 personnes et duré treize ans. La deuxième fois, il a fallu six mois et 1,5 milliard de dollars. Aujourd'hui, un séquençage vaut entre 1 000 et 2 000 dollars, et tombera à 100 dollars. Le coût baisse de 50 % tous les cinq mois. Personne n'avait imaginé cette évolution. Nous avons donc beaucoup de mal à déduire les conséquences médicales, industrielles, technologiques et éthiques de cette évolution du séquençage, parce que personne ne l'avait prévue.

Au-delà de l'effondrement des coûts du séquençage, nous avons aussi découvert que ce que nous avons longtemps appelé le junk DNA ou « ADN poubelle » - pardon pour les spécialistes - n'existe pas. Depuis 1971, on était persuadé que 98,5 % de l'ADN ne servait à rien. On avait appelé cette zone ADN poubelle, le « junk DNA » . Or on se rend compte que ces 98,5 % de l'ADN contiennent en réalité de nombreuses zones régulatrices très importantes, des long ncRNAs , des enhancers , des régulateurs à distance, etc . Les 3 milliards de paires de bases servent à quelque chose, et une bonne partie de cette zone sombre influence notamment le câblage neuronal, la neuro-embryogénèse et l'immunité. Ainsi nous découvrons que nous devons analyser les 3 milliards de paires de bases, alors que nous pensions ne séquencer que quelques petits morceaux de nos gènes, et il nous faut un peu de temps pour en comprendre toutes les implications.

Enfin, nous avons longtemps pensé « monovariants », c'est-à-dire que nous recherchions le gène du diabète, le gène de la schizophrénie,... Or, non seulement nous découvrons que les zones régulatrices, en dehors des gènes, jouent un grand rôle, mais nous comprenons aussi, que, hormis les maladies monogéniques comme la mucoviscidose, la plupart des pathologies sont un mélange complexe de facteurs environnementaux et de multiples variants génomiques. Il n'y a pas un variant, mais il y en existe plein, et ils sont différents d'un individu à l'autre.

En matière de médecine personnalisée, on commence à voir deux grands sujets. Le premier, c'est la personnalisation des traitements cancérologiques, c'est-à-dire le souci de donner le bon traitement, au bon malade, au bon moment. Contrairement à ce que l'on a pu espérer après l'expérience très favorable du Glivec, il n'y a pas, dans la plupart des cancers, un biomarqueur qui permet de savoir quelle chimiothérapie donner. En réalité, de nombreux marqueurs doivent être examinés et il faudrait faire des cocktails de drogues. C'est très compliqué. La stratégie utilisée jusqu'à présent, qui consiste à aller chercher un test compagnon, un biomarqueur unique, avec une chimiothérapie, a échoué. Cela ne donne que quelques mois de survie supplémentaire, à l'exception heureuse du Glivec sur lequel la rémission est de plusieurs années, mais c'est un cas très particulier du point de vue génomique.

En France, on a généralisé les analyses mono-marqueurs en cancérologie. C'est comme si l'on avait donné le minitel pour tous, et c'est une très bonne chose. Mais dans les grands centres aux États-Unis, c'est Internet que l'on commence à proposer, à savoir l'analyse complète du génome tumoral. Nous allons donc vers une vraie problématique éthique et médico-économique. Faut-il continuer avec le minitel pour tous ? Peut-on donner l'Internet, soit une analyse globale de l'ADN tumoral, à tous ?

Autre sujet brûlant, déjà évoqué, on parvient désormais à faire ce qui était inimaginable voilà seulement cinq ans : séquencer le génome du foetus sans amniocentèse autour de 18 à 20 semaines. Et il est probable qu'avec l'amélioration des techniques d'amplification, on puisse le faire à partir de 11 à 12 semaines ; ce qui signifie que l'on pourra séquencer le génome des foetus alors même que l'avortement pour convenance personnelle est libre dans notre pays. Dès lors, on risque d'avoir un peu de mal à empêcher certaines personnes d'opter pour un foetus à la carte et de choisir d'avorter. À moins d'interdire l'avortement, cette question se posera rapidement. C'est donc un sujet très important, auquel on n'a pas beaucoup réfléchi.

Quand le premier séquençage intégral du génome d'un foetus a été annoncé dans un article publié dans la revue Science , voilà environ deux ans, cela semblait impensable. D'ailleurs au début, on n'y a pas cru. Il a fallu attendre un deuxième article pour que l'on croie que cela fonctionnait. Et effectivement, cela fonctionne ! Le problème est important. Quelqu'un mentionnait tout à l'heure la possibilité de séquencer le conjoint d'une personne chez qui l'on a découvert un mauvais variant. C'est un vrai sujet. Moi, j'ai par exemple trois mauvais variants sur des pathologies graves, mais je n'ai qu'une fois l'allèle. Étant hétérozygote, je ne suis bien sûr pas touché. J'ai eu mes enfants avant d'être séquencé. Si je devais les avoir aujourd'hui, je pense que je ferai séquencer ma femme. Au vu de la gravité des variants concernés, elle accepterait sans aucun doute. Voilà pourquoi il y a là un vrai sujet et des possibilités de développement de ce domaine. Quand on connaît ses variants graves hétérozygotes, on se demande s'il est raisonnable de prendre le risque que le conjoint ait le même variant et que l'on ait un enfant très gravement malade.

S'agissant des maladies multigéniques, multifactorielles, multivariants, telles que le diabète, les maladies cardiovasculaires, la maladie d'Alzheimer, etc ., on se trouve en présence d'un mélange entre environnement, épigénome
- épigénome étant presque synonyme d'environnement - et de multiples variants génomiques. C'est tellement compliqué que nous n'allons pas avancer très vite sur ces pathologies. Par exemple sur la génomique du diabète, pour que l'on soit capable de connaître le degré de déterminisme et d'analyser l'épigénome, on parle de 2020, plutôt que 2014 ou 2015. On est donc face à plusieurs problématiques : le diagnostic prénatal et le diagnostic préimplantatoire, le traitement du cancer, et puis bien sûr la question des maladies monogéniques traditionnelles. Ces technologies ne sont pas encore complètement banalisées, mais elles le seront bientôt, et le coût du séquençage baissera beaucoup.

Je suis en désaccord sur un point de stratégie avec l'évolution actuelle : il concerne la bio-informatique. Celle-ci est évidemment nécessaire, mais nous devons faire attention car, à l'heure actuelle, on est en train de réinventer le fil à couper le beurre dans chaque centre de séquençage. Chaque centre refait son aligneur, son logiciel d'analyse de variants, etc . C'est un peu comme si en 1985, dans chaque PME française, on avait cherché à réinventer Word et Excel. Il est clair que ce n'est pas tenable. Je pense donc que nous avons besoin de moins de bio-informaticiens qu'il n'y en a. En revanche, nous avons besoin de plus de concepteurs de logiciels bio-informatiques.

Le principal problème auquel nous allons nous heurter est de prévoir une stratégie politique et médicale sur ces sujets-là, car nous avons une assez mauvaise connaissance des évolutions qui vont survenir d'un point de vue technologique et nous ne savons pas très bien comment nous allons nous servir des nouvelles technologies.

Enfin, en tant que médecin, permettez-moi de vous dire que le corps médical est, globalement, complètement dépassé. La connaissance génomique des médecins est nulle. La moyenne d'âge du corps médical en France est très élevée puisqu'après les années 1969 à 1973 pendant lesquelles les portes des facultés de médecine ont été laissées ouvertes, un numerus clausus a été mis en place. Pour une grande partie, les médecins sont donc de cette génération 1969-1973. Leur moyenne d'âge est l'une des plus élevées au monde. Or, apprendre la génomique à 55 ans, n'est pas facile. Apprendre un gène, c'est faisable, mais apprendre à gérer 3 milliards de paires de bases, c'est un peu compliqué. Cette question constituera également un vrai sujet dans le cadre du déploiement de la médecine personnalisée.

Je terminerai par une remarque d'éthique. Certains d'entre vous ont probablement noté que les Chinois qui possèdent le plus grand centre de séquençage au monde - il est un peu plus grand que le Centre national de génotypage puisqu'il compte 200 séquenceurs - viennent de lancer un programme très controversé. Ce programme vise à séquencer le génome de 2 000 surdoués ayant un quotient intellectuel supérieur à 160, surdoués que les Chinois sont allés chercher dans le monde entier, y compris chez Google, à la recherche de variants expliquant le surdoué. On ne sait pas s'ils vont trouver des variants, mais le sujet est très délicat. Chez nous, cela semble tabou et impensable. Selon le Wall Street Journal , le gamin qui gère le programme et qui est lui-même un surdoué - le chef de projet a 21 ans - a dit : « c'est un problème pour vous en occident, mais pour nous, le fait de rechercher les gènes permettant d'être surdoué n'est pas du tout un problème ». On comprend ainsi que nos principes éthiques, humanistes, ne seront pas forcément partagés. La science génomique étant mondiale, il n'est pas certain que les conséquences éthiques et médicales du séquençage complet du génome aillent dans le sens que nous souhaitons.

J'ajoute que nous ne maîtrisons pas les technologies sous-jacentes. Que ce soit au niveau du Centre national de génotypage ou au niveau de mon propre centre de séquençage, qui est plus petit, nous utilisons des machines qui viennent d'ailleurs. Ce n'est donc pas nous qui déterminons la technologie, et compte tenu de notre retard technologique, il n'est pas certain que nous soyons capables de déterminer les bornes éthiques - les lignes Maginot éthiques - correspondant aux valeurs que nous partageons.

M. Alain Claeys, rapporteur. Je remercie tous les participants à cette table ronde et j'ouvre le débat.

Débat

M. Hervé Chneiweiss, directeur de recherche groupe « Plasticité gliale et tumeurs cérébrales » à l'université Paris-Descartes, membre du conseil scientifique de l'OPECST. J'ai entendu des propos extrêmement intéressants, auxquels je peux adhérer, et je poserai aussi quelques questions. Prenons justement le risque d'idéologie de la promesse. Quand on sait qu'on évalue aujourd'hui à environ 15 millions les types de variations existant entre le jeu de gènes que l'on reçoit de son père et celui que l'on reçoit de sa mère, c'est-à-dire simplement des variants - soit dans les changements de l'être, soit dans des répétitions de certains duplex, soit dans des trous que l'on a au milieu du
génome - , la prise en considération de la combinatoire et de l'interaction de cette combinatoire avec l'environnement amène tout de même à garder un certain degré de modestie par rapport à l'ampleur de notre ignorance, y compris de notre ignorance sur le plan du génome lui-même.

J'analysais, il y a quinze jours, un certain nombre de programmes européens dans lesquels cet épigénome s'étend aujourd'hui sur des modifications des ARN. Comme la plupart des stratégies utilisent la copie inverse du transcriptome, si l'on a de nouvelles modifications, de type méthylation, sur différentes bases de ces ARN, alors un grand nombre des données du transcriptome telles que nous les avons actuellement sont fausses. C'est simplement lié au fait que nous sommes encore ignorants d'une grande partie des modes d'expression de nos gènes.

Je suis aussi médecin et je m'occupe aussi de tumeurs. J'adhère donc à certains éléments forts qui ont été évoqués. Je suis très heureux de pouvoir diagnostiquer, peut-être prédire et, désormais, éventuellement cibler un certain nombre de modifications dans des tumeurs. Mais je pense que l'étendue de notre ignorance, qui comprend aussi ce que nous ignorons ignorer, doit nous conduire à une certaine modestie.

Dr. Christelle Besnard-Charvet, gynécologue. Je suis gynécologue-obstétricienne et j'ai travaillé en centre anticancéreux. Je souhaiterais vous faire réfléchir quelques instants sur la question du dépistage des mutations des gènes BRCA1 et BRCA2 car je connais les femmes concernées par ce type de démarches au quotidien. On a essayé de mettre en place un procédé personnalisé. On a donc dépisté une mutation chez des femmes ne se plaignant absolument de rien, mais ayant des antécédents familiaux. On se sert d'une technique individualisée pour leur proposer, comme solution thérapeutique face à un risque de cancer, des ovariectomies et des mastectomies bilatérales. Or, il n'est pas du tout certain que le risque identifié se concrétise finalement.

D'une part, en tant que médecin, je ne suis pas persuadée de rendre service à ces femmes. D'autre part, on s'est aperçu que chez ces femmes qu'on surveillait par le biais de mammographies, celles-ci étaient dangereuses, comme on aurait pu le prévoir. En effet, ces personnes ont forcément des seins beaucoup plus sensibles aux rayons, puisqu'elles sont porteuses de la mutation. Non seulement nous n'avons pas rendu service à ces femmes mais en plus, notre action a été délétère pour elles, puisque nous avons probablement aggravé leur risque de cancer.

C'est une réflexion que je livre. J'ai beaucoup de mal à gérer ces femmes au quotidien, des femmes se retrouvant ménopausées pour un risque qui n'est pas connu. Je me demande donc ce qui se passerait si on commençait à tester les mutations BRCA1 et BRCA2 dans toute la population. Combien de femmes se retrouveraient avec une mastectomie bilatérale ?

Pr. Florent Soubrier. Je me permets d'intervenir en tant qu'onco-généticien. Nous avons monté à l'hôpital Tenon le premier centre de suivi des femmes à haut risque en France. Je ne peux pas ne pas m'émouvoir des propos qui viennent d'être tenus : cela signifierait qu'il ne faut pas dépister ces femmes porteuses de mutations BRCA1 et BRCA2, alors que différentes études ont prouvé que par le dépistage et en adaptant les mesures de surveillance à leur risque, on améliore leur survie. Vous faites allusion, madame, à un certain nombre de mesures drastiques telles que les mastectomies, les ovariectomies, les femmes mutilées, mais je pense qu'il faut raison garder. Ces mesures sont adaptées en fonction de l'âge de la femme, de sa vie génitale, des enfants qu'elle a eus ou qu'elle souhaite avoir dans l'avenir. Il faut donc vraiment décrire les choses telles qu'elles sont. Aujourd'hui, le risque lié aux mutations BRCA1 et BRCA2 a été largement dépisté en France, grâce au soutien de l'INCa, et ce faisant, il me semble que nous avons fait gagner de nombreuses années de vie à ces femmes en dépistant leur risque.

Je crois que vous allez très loin en émettant des doutes sur le fait que vous leur rendez service. Cela voudrait dire qu'il faudrait laisser ces femmes dans la nature, ne plus les dépister et que finalement, on surveillera de la même façon ces femmes présentent un risque de 50 % ou 60 % de développer un cancer du sein ou de 40 % de développer un cancer de l'ovaire, qu'une femme qui a moins de 20 % ou 10 % de développer ces pathologies. Il faut être très prudent avec ce type de discours.

Dr. Christelle Besnard-Charvet. C'est certainement mon ressenti, lié à des épisodes difficiles que j'ai vécus avec ces patientes. Mais je suis aussi très amie avec de nombreux onco-généticiens, qui m'ont donné les mêmes explications que celles qui viennent d'être avancées. Je les comprends parfaitement. Ce qui me gêne, c'est plus la « non-personnalisation » actuelle. Certes, les choses évoluent, mais il y a tout de même des protocoles que les centres anticancéreux appliquent, dans ma région en tout cas.

Évidemment, cela se fait toujours avec l'accord des patientes. Nous ne leur imposons jamais rien et les décisions sont systématiquement prises en discutant avec elles. J'ai eu, par exemple, deux cas de patientes qui ont fait la recherche et ne sont pas allées chercher leurs résultats. C'est ennuyeux, car on se retrouve avec des patientes qui, malgré les explications, n'ont peut-être pas compris jusqu'où la démarche les engageait.

À l'avenir, il serait peut-être souhaitable que nous ayons une réflexion éthique dans le cadre de la mise en place de programmes de dépistage de ce type et qu'une meilleure formation nous soit délivrée, à nous, praticiens de terrain, pour pouvoir suivre correctement ces femmes et leur donner des explications claires. S'agissant de la surveillance par radio, je voudrais justement avoir votre avis sur le sujet. On commence à entendre qu'il faudrait peut-être éviter de faire des mammographies à ces femmes à risque parce qu'elles ont des seins plus sensibles.

Pr. Florent Soubrier. C'est un débat très spécialisé. Des données montrent effectivement aujourd'hui que le fait de pratiquer des mammographies sur ces femmes, avant l'âge de 30 ans, peut augmenter le risque de cancer. Immédiatement, tous les centres qui suivent cette population ont réadapté leur mode de surveillance, en diminuant au maximum les mammographies, en recourant aux échographies, à l'IRM, aux mammographies sur une seule incidence en oblique tout au long de la vie, pour limiter les radiations. Tous les onco-généticiens et les cancérologues sont extrêmement sensibilisés à ce problème.

Au sujet de ces femmes qui ne viennent pas chercher leurs résultats, quand on fait ce type de diagnostic pré-symptomatique, il faut faire très attention à l'environnement psychologique. Un véritable centre de suivi qui fait ce type de diagnostic proposera l'intervention d'un ou d'une psychologue spécialisée et une vraie prise en charge, la préparation pouvant prendre plusieurs mois avant que le test ne soit réalisé et le résultat rendu.

Dr. Laurent Alexandre. On voit bien que notre discipline est encore récente. Les gènes BRCA1 et BRCA2 sont impliqués dans ce que l'on appelle la réparation, l'intégrité de l'ADN. Les personnes ayant une mutation de ces gènes ont une plus grande fragilité des systèmes de réparation de l'ADN et de maintien de son intégrité. Il était évident que les rayons ne seraient pas très bons pour les individus ayant une telle faiblesse. Pourtant, on n'y a pas pensé, et il est invraisemblable qu'il ait fallu attendre 2012 pour se poser cette question. Alors que c'était évident, sauf qu'on n'y avait pas pensé et qu'on n'avait pas fait les études épidémiologiques permettant de trouver une corrélation entre mammographie et augmentation de la mortalité chez ces personnes à risque. Nous sommes donc au début de la connaissance des mécanismes génomiques et des évidences nous échappent encore.

Sur BRCA1 et BRCA2, il y a tout de même un espoir que l'on puisse à l'avenir mieux cibler les femmes ayant réellement un risque important. On a découvert, voilà quelques mois que d'autres variants que BRCA1 et BRCA2 sont impliqués On a découvert une quinzaine de gènes et de variants, et on en découvrira encore, ce qui permettra d'améliorer la prédictibilité. Cela ne signifie pas qu'il faudra encore plus s'orienter vers la mammographie systématique dans le futur, mais on va pouvoir affiner la probabilité d'avoir un cancer.

Ce qui me choque personnellement, c'est que, sur le fondement d'un diagnostic prénatal, on a commencé à pratiquer des avortements pour des foetus atteints de mutations BRCA1 et BRCA2. Ces cas ne sont pas fréquents, mais ils existent, notamment dans les pays anglo-saxons. Je trouve choquant de pratiquer avortement sur un foetus en 2012 ou 2013 au motif qu'il est porteur de telles variations BRCA1 et BRCA2, alors même que le risque de développer un cancer ne surviendra que vers 2035, 2040 ou 2045. On peut espérer que, d'ici là, les méthodes de dépistage et de traitement se seront améliorées. Il me paraît peu raisonnable de pratiquer un avortement sur la base d'une pathologie qui va apparaître aussi loin de nous dans le futur.

M. Jean-François Deleuze. Je pense qu'il faut tout de même que nous dissocions, dans notre discussion, les aspects liés à la recherche des aspects liés au diagnostic. Je suis assez d'accord avec de nombreux points évoqués, même si, bien évidemment, je ne partage pas tout. Il y a aujourd'hui des études populationnelles en génomique qui sont absolument fondamentales pour permettre des avancées thérapeutiques. Par exemple, pour la maladie d'Alzheimer ou d'autres, on a découvert des dizaines de gènes, mais on est encore en retard dans ce domaine et, malgré les nombreuses découvertes, on ne change pas vraiment la prise en charge thérapeutique du patient. Il faut donc continuer ces analyses génomiques pour trouver de nouvelles cibles qui permettront d'ouvrir de nouveaux accès thérapeutiques.

Je partage les remarques concernant la faiblesse de la prédiction dans de nombreux cas de maladies multifactorielles, mais il est vraiment nécessaire de dissocier les deux discussions. Il ne faudrait pas que reconnaître ne pas savoir nombre de choses sur le génome humain et avoir une capacité de prédiction faible, nous empêche de développer les grandes analyses génomiques dont nous avons besoin pour comprendre les pathologies.

Il existe énormément de pathologies que nous ne comprenons tout simplement pas : la schizophrénie, la maladie bipolaire, etc... Nous avons pratiqué toutes les analyses phénotypiques, intelligentes, biologiques, et utilisé la génomique au sens large, l'épi-génomique apparaît aujourd'hui comme une voie possible que nous voulons creuser pour essayer de détecter ces réseaux. Cela se fera au travers d'études populationnelles, sur la base desquelles on espère, à un moment donné, revenir pour un bénéfice individuel. Quoi qu'il en soit, selon moi, il faut vraiment distinguer deux parties : une partie recherche et une partie diagnostic.

M. Alain Claeys, rapporteur. Je vous remercie et vous propose d'en rester là pour cette deuxième table ronde.

Page mise à jour le

Partager cette page