2. Encourager la participation des citoyens
Au-delà de l'information et de partenariats ou de liens avec les élus et les associations ou syndicats, il serait intéressant d'expérimenter une plus grande participation des citoyens.
RTE a déjà amorcé ce dialogue direct et participatif par le lancement d'un blog : http://www.audeladeslignes.com/ qui permet de donner de l'information et de la discuter.
Il est sans doute possible d'aller plus loin .
M. Yannick Barthe, sociologue au centre de sociologie de l'innovation à l'école des mines de Paris, a mis en évidence le fait qu'on ne pouvait seulement analyser les réactions du public à travers le filtre de la peur de la technologie.
a) La peur de la technologie, une explication insuffisante
Votre rapporteur s'appuiera sur l'ouvrage de M. Daniel Boy Pourquoi avons-nous peur de la technologie ? publié aux Presses de la FNSP en 2007.
Trois points peuvent être soulignés : la modification de la hiérarchie traditionnelle entre le savant et l'ignorant et l'histoire de la parabole de la peur du chemin de fer, la remise en cause de la rationalité de la perception du risque et, enfin, la contestation du paradigme de Paracelse.
Le traitement traditionnel de la question repose sur l'idée selon laquelle le public est ignorant , ce qui le conduirait à avoir des peurs irrationnelles de ce qu'il ne connaît pas. Il faudrait donc permettre aux « sachant et disant » d'exercer leur supériorité rationnelle pour prendre la décision de mettre en oeuvre un progrès technique, dont les bénéfices apparaîtront à tous comme évidents à plus long terme.
A l'appui de cette posture vient la parabole de la peur du chemin de fer et l'impact négatif que cette peur aurait eu sur le développement des villes d'Orléans (gare Les-Aubrais) et de Tours (Saint-Pierre-Des-Corps). Viennent aussi en appui à cette thèse certains débats parlementaires (13 juin 1836 et 28 avril 1838) où l'astronome et sénateur François Arago serait intervenu pour dénoncer les dangers des chemins de fer.
Ces références sont en fait des évocations anecdotiques au mieux simplifiées, voire falsifiées, d'autant plus que cette parabole est apparue comme un outil dans les années 1970 pour les défenseurs de certaines évolutions technologiques, notamment l'énergie nucléaire.
Plus généralement, cette supériorité classique se fonde sur le paradoxe de perception des risques , c'est-à-dire sur le fait selon lequel on est plus effrayé par un risque inconnu et faible que par un risque connu mais éventuellement plus élevé (conduire, fumer...).
Mais cette approche a été remise en cause par l'école américaine de l'analyse de la perception du risque fondée dans la lignée de Chauncey Starr et de son article « Social benefit versus technological risk : what is our society willing to pay for safety » ( Science , 1969). Il y posait notamment la question fondamentale « How safe is safe enough ? ».
Cette école, dont le principal représentant vivant est Paul Slovic ( The perception of risk , Londres, Earthscan, 2000), est issue des probabilités subjectives (années 1960), recherches qu'il mettra en application à propos des catastrophes naturelles, et, surtout, à partir des années 1970, à propos de la perception du risque industriel à la suite de la lecture de Chauncey Starr et des débats politiques relatifs aux pesticides, à l'énergie nucléaire et à la pollution industrielle. Ce sont d'ailleurs ces protestations qui conduiront le Congrès américain à financer d'importants programmes de recherche sur ce sujet.
Paul Slovic va ainsi définir un « paradigme psychométrique » composé de trois éléments :
- les équilibres perçus entre risques et bénéfices ;
- les facteurs psychologiques de perception du risque ;
- l'écart d'évaluation entre les profanes et les experts .
C'est ce dernier élément qui nous intéresse ici.
Pour l'essentiel, les études montrent que les profanes ont plutôt une bonne connaissance des risques objectifs et récurrents - risques réalisés - (la morbidité - x nombre de morts chaque année) et que les divergences avec les experts sont peu significatives.
En revanche, la différence est forte sur les risques ne provoquant quasiment aucun décès constaté mais susceptible, en cas de catastrophe, d'en causer un grand nombre - risques non réalisés - (accident nucléaire par exemple), alors que les experts jugent le risque faible . Mais pour les risques de ce type les plus récents il devient difficile de distinguer entre la rationalité des experts et celle des profanes .
Il y a donc un risque « réel » et un risque « perçu » qui sont tous les deux rationnels et qui ne départagent pas experts et profanes .
Le troisième aspect est la mise en cause du paradigme de Paracelse .
Ce paradigme, qui date du XVI e siècle, veut que ce soit « la dose qui fasse le poison », c'est-à-dire qu'il n'y ait aucune substance qui soit nocive par nature, mais que toutes le sont en fonction de la quantité ingérée.
Il s'agit d'un des fondements majeurs de la démarche scientifique et administrative de la gestion du risque.
Le zéro absolu en la matière n'existe pas, - il n'est d'ailleurs pas contrôlable - mais il faut définir une norme en dessous de laquelle il n'y a aucun danger, même à la suite de contacts répétés ou continus. Il y a donc une définition administrative à partir d'une base scientifique du zéro et de l'absence de poison.
Cependant, cette idée de dose limite est de plus en plus contestée par le public dont la « toxicologie intuitive » (Paul Slovic) est fondée sur le tout ou rien.
Les travaux du psychologue Paul Rozin (1998) ont montré que la perception du risque alimentaire était largement exprimée par les « lois de la contagion » : il y a transfert définitif de propriété et de souillure entre deux éléments, l'un sain, l'autre malsain et provoquant une contamination complète (exemple du cafard).
On assiste également à une contestation plus large autour du refus des taux limites et des normes d'exposition, des faibles doses et de la pollution diffuse.
Pour certains auteurs, tel Ulrich Beck dans La société du risque, sur la voie d'une autre modernité (Paris, Aubier, 2001), les taux limites légitiment en fait la pollution de l'environnement.
On retrouve ces débats notamment à propos du seuil d'étiquetage des produits susceptibles de contenir des OGM.
Scientifiquement parlant, on fait la distinction entre les effets « déterministes », par exemple ceux liés à des rayonnements ionisants au-delà d'une certaine dose, effets certains et mesurables, et les effets dits « stochastiques », en deçà de cette dose limite, qui sont indéterminés c'est-à-dire qui ne sont pas forcément inexistants mais qu'on est incapable de mesurer et même d'en prouver la réalité.
Au final, Daniel Boy montre que c'est cette rationalité différente qui peut s'imposer à la gestion des risques , qu'ils soient chimiques ou technologiques. Elle rend difficile, voire impossible, la compréhension d'une absence de risque zéro , alors que les risques scientifiquement appréciés sont modélisés sous forme de probabilité exprimés en 10 -x et sont évités par des systèmes de sécurité redondants (industrie nucléaire).