En 2008, j'ai écrit un livre sur la désinformation dans le domaine de l'accidentologie intitulé : "Insécurité routière - des mensonges qui tuent". Il a été publié dans la collection Sciences du risque et du danger - éditions Lavoisier. Il est important dans un domaine aussi banalisé que la sécurité routière de faire la différence entre :
- les écrits de personnes qui conduisent comme la majorité des citoyens, mais ne comprennent pas ou ne veulent pas comprendre que l'expérience de la conduite n'est pas la connaissance de l'accidentalité, ils sont simplement ignorants
- Les écrits de menteurs manipulateurs qui savent parfaitement que leurs propos ou leurs écrits sont inexacts et trompeurs. Ils détruisent la réalité des faits qui est le critère fondateur de la sincérité dans le domaine de la recherche. Leur objectif est d'occulter les connaissances acquises pour maintenir des comportements qui plaisent ou qui sont producteurs de bénéfices (ou les deux à la fois !). Nous avons connu cela avec les dommages produits par le tabac, l'alcool, l'amiante ...
- les chercheurs qui analysent des faits, produisent des expérimentations et présentent leurs résultats à dautres chercheurs qui reconnaissent et valident leurs résultats et leurs conclusions. Cette procédure de validation par les pairs assure la qualité de l'information. La collection dans laquelle le livre a été publié est dirigée par Franck Guarnieri, directeur du centre de recherche sur les risques et les crises.
Ce livre avait pour particularité de ne pas se contenter de décrire des incompréhensions ou des erreurs liées à des déficits de connaissance, mais de mettre en évidence une désinformation assumée dans des écrits qui ne relèvent pas du journalisme, mais de la volonté de recruter des lecteurs qui trouvent dans ces écrits une justification de leur délinquance routière.Il y a un aspect passionnel dans l'usage d'une voiture ou d'une moto. Il s'agit d'un produit de l'intelligence et du savoir faire humain qui est indiscutable. J'ai travaillé pendant la quasi-totalité de ma vie de chercheur avec les constructeurs automobiles, pour contribuer à la sécurité de leurs productions et je ne l'aurais pas fait si je ne m'intéressais pas à cet instrument de liberté et de mort.
Extrait de mon livre : pages 115 à 130
La spécialisation des rôles
Le Figaro est à
mes yeux le quotidien généraliste qui juxtapose les formes les plus
opposées d’articles sur le sujet. Les uns informés et objectifs sur
l’économie de l’industrie automobile, le marché du pétrole et
l’évolution du climat, les autres privilégiant les positions
défendues depuis longtemps par Jacques Chevalier qui ont une double
caractéristique. La première est de plaider directement pour
l’acceptation de vitesses élevées sur les routes. Elle est sincère et
peut être débattue si l’on reconnaît ses effets adverses. La seconde est
de le faire avec des arguments très divers qui relèvent de la
désinformation pure et simple. Quand il écrit en 1989 : « A quoi servent
les progrès de l'automobile ? A quoi servent des anti-blocages de freins
et les quatre roues motrices si c'est pour se traîner sur la route ? »
ou : « les quatre roues motrices et l'ABS, qui procurent sécurité et
tranquillité d'esprit en toutes circonstances... il utilise les
expressions des publicitaires qui finissent par convaincre que l’on peut
obtenir « la sécurité et la tranquillité d’esprit en toutes
circonstances » par des moyens techniques, ce qui est objectivement
faux.
Je vais utiliser une page du Figaro du 27 janvier 2003
pour analyser les procédés exploités pour affirmer les stéréotypes les
plus destructeurs. Le sujet traité est le risque d’accidents sur les
autoroutes. L’actualité qui le justifiait était la décision du
gouvernement italien de porter à 150 km/h la vitesse maximale autorisée
sur certains tronçons autoroutiers à trois voies. Il s’agissait d’une
décision du gouvernement Berlusconi qui se situait dans la ligne
libérale extrême, laissant l’individu plus libre de ses choix, quitte à
le sanctionner ensuite quand les fautes que l’on a favorisées tuent. Ce
choix est à l’opposé de celui des sociétés plus solidaires qui
tentent d’organiser la réduction des risques par des contraintes
collectives strictes quand le dommage peut atteindre non seulement celui
qui s’y expose, mais également les autres.
Cette page de
plaidoyer pour la vitesse avait pour titre « Sécurité routière ;
plusieurs Etats remettent en cause le rôle de la vitesse dans les
accidents » Elle comprenait deux articles décrivant et interprétant les
faits, signés de Gérard Nicaud, et un point de vue de Jacques Chevalier
au titre provocant : « Rouler à 130, un archaïsme meurtrier », dont le
premier paragraphe annonce clairement l’objectif : «C’est une antienne
qui a la vie dure, et à laquelle on n’a jamais tordu le cou « la vitesse
tue ». En renvoyant à l’incontournable « ½ mv2 » qui a causé
tant de cauchemars de lycéens, le rôle de la vitesse a définitivement
coulé ses fondations dans des esprits cartésiens, par nature réceptifs.
La vitesse, cause première des accidents, est ainsi devenue une
évidence, un dogme, une image d’Epinal, une vérité incontestable, un
intouchable tabou. Et une erreur majeure d’appréciation des problèmes de
sécurité routière depuis 1973, date des premières limitations ». Les
rôles sont partagés, Gérard Nicaud va faire l’inventaire du problème de
la vitesse sur les autoroutes et Jacques Chevalier va en tirer les
conséquences.
La première partie de l’analyse du risque sur les
autoroutes utilise des données statistiques souvent inexactes exprimées
dans un langage imprécis et inadapté. Elle indique que : « à populations
égales, il y a plus de morts sur les autoroutes américaines où sont
pratiquées des limitations de vitesse draconiennes que sur les
françaises. Celles-ci se révèlent à leur tour plus accidentogènes que
les allemandes où la vitesse est le plus souvent libre ». Le critère « à
populations égales » n’a aucune utilité pour comparer le risque auquel
on s’expose sur différents réseaux autoroutiers, la longueur et l’usage
de ce type de voie n’étant pas comparables dans les trois pays. Si le
réseau autoroutier est dense et très utilisé, le taux de mortalité sur
autoroute par millions d’habitants sera plus élevé. A la limite de
l’usage de ce critère, un pays du tiers monde avec cinq kilomètres
d’autoroute entre la capitale et son aéroport sera le meilleur au
monde ! L’indicateur n’est pas pertinent pour établir un classement de
la circulation autoroutière sur une échelle de risque. Le bon critère
est le nombre de tués par milliard de kilomètres parcourus.
En
outre le classement indiqué est faux, rapportée à la population,
c'est-à-dire par million d’habitants, la mortalité sur les autoroutes
allemandes en 2002 était plus élevée que sur les autoroutes françaises.
Il y a eu cette année là 521 tués en France sur les autoroutes soit 8,76
tués par million d’habitants et 857 sur les autoroutes allemandes, soit
10,42 tués par million d’habitants. Donner la dernière place aux USA sur
ce critère est également faux, ce sont les USA qui ont le taux le plus
faible. L’erreur habituelle des commentateurs qui ne sont pas
familiarisés avec l’accidentalité de ce pays est de prendre en
considération le nombre de tués sur l’ensemble des « highways » alors
que les véritables autoroutes à chaussées séparées sont les « interstate
highways », qualifiées parfois de « divided highways » pour indiquer la
séparation des chaussées. Une « federal highway » ou une « state
highway » correspondent habituellement à notre réseau de routes
nationales et de routes départementales à grande circulation qui ont une
mortalité trois fois supérieure à celle d’une autoroute à chaussées
séparées. Nous avons donc en cinq lignes à la fois des données fausses
et une interprétation dépourvue de signification fondée sur un mauvais
indicateur.
Le paragraphe suivant aggrave le désastre dans
l’usage des concepts les plus élémentaires de l’accidentalité : «
Et si l’on combine ces données avec la densité du réseau autoroutier,
les résultats sont encore plus parlants : il y a moins de deux voitures
de tourisme par kilomètre aux Etats-Unis, environ trois en France et
quatre en Allemagne ». La notion de « densité du réseau
autoroutier » désigne habituellement le nombre de kilomètres
d’autoroutes divisé par la superficie d’un pays (km/1000 km2), ou plus
rarement par la population (km/million d’habitants). Il semble s’agir
ici de la désignation en termes impropres de la densité moyenne de la
circulation, c'est-à-dire du nombre moyen de véhicules se trouvant
simultanément sur un kilomètre d’autoroute (taux d’occupation de la
chaussée). Cette variable dépend à la fois du débit de véhicules et de
leur vitesse moyenne. Les spécialistes de la gestion des flux de
circulation l’expriment sous la forme d’un pourcentage (proportion de la
période de mesure pendant laquelle un véhicule occupe le point de
mesure). Il peut y avoir 200 véhicules au pas dans un bouchon d’un
kilomètre sur une autoroute à trois voies à une heure de pointe et aucun
véhicule circulant au milieu de la nuit sur un kilomètre d’autoroute A16
entre Abbeville et Boulogne. La notion de « densité » est utile aux
chercheurs quand ils analysent les liens entre les débits, les vitesses
moyennes et les interdistances entre les véhicules. Les résultats
« encore plus parlants » de la phrase de Gérard Nicaud semblent vouloir
indiquer que la forte densité de circulation observée en Allemagne, et
la plus faible observée aux USA, la France étant dans une situation
intermédiaire, accroissent encore le mérite des autoroutes allemandes.
La réalité est inverse, les fortes densités de circulation ne permettent
pas une vitesse élevée. Les interactions entre les véhicules
abaissent les vitesses moyennes et finalement le risque d’accidents
graves. C’est le commandant de la CRS 2 qui m’a appris cela au début des
années soixante-dix. Il savait par expérience que la saturation de
l’autoroute de l’ouest aux heures de pointes ne provoquait pas
d’accidents graves, mais que lorsque la circulation redevenait fluide
vers 22 heures le dimanche soir, il fallait que ses équipes se tiennent
prêtes à intervenir.
Une des phrases suivantes poursuit le
mélange des infrastructures et exprime une confusion complète dans la
compréhension des facteurs de risque sur les routes : « Certes
l’Angleterre et le Japon ont de bien meilleurs résultats encore. Mais
cela est en partie dû au fait que les voitures ne peuvent pas rouler, à
cause des routes étroites et des bouchons qu’elles génèrent ». Le propos
est contradictoire, le risque routier s’exprimant en tués ou en blessés
par milliard de kilomètres parcourus, si les voitures ne pouvaient pas
rouler elles n’accumuleraient pas les kilomètres et l’on ne pourrait pas
calculer cet indicateur. D’autre part une route étroite ne génère pas de
bouchons si le débit est faible. C’est le nombre de voitures passant sur
une voie pendant un temps donné qui va faire passer de la circulation
fluide permettant d’atteindre des vitesses élevées, à une circulation
ralentie par la densité des véhicules, puis au « bouchon » avec des
alternances d’arrêt et de reprise de la circulation à vitesse réduite.
Les gestionnaires des réseaux autoroutiers ont analysé la relation entre
la vitesse des véhicules et le débit. Contrairement aux idées reçues et
entretenues avec constance par les manipulateurs du concept de vitesse,
la vitesse moyenne qui assure une circulation fluide, faisant passer le
plus grand nombre de véhicules par heure sur une voie autoroutière, est
relativement basse. Le périphérique parisien a été l’objet d’études
approfondies dans ce domaine (Revue Transports Sécurité n°51 page 4). Un
diagramme exprimant les débits en fonction de la vitesse montre que, sur
une section à trois voies, le maximum de 6000 véhicules/heure est
atteint à une vitesse se situant entre 50 et 60 km/h. Le diagramme
complémentaire exprime le débit en fonction du taux d’occupation de la
chaussée par les véhicules (densité). Le taux critique est très
légèrement supérieur à 20% pour ce débit maximal de 6000
véhicules/heure. L’incompréhension totale par Gérard Nicaud de la
signification des indicateurs qu’il utilise apparaît à nouveau en bas de
page dans les commentaires sur la situation en Allemagne expliquant
que : « ce pays n’a jamais limité sa vitesse sur autoroute pour ne pas
gêner son industrie automobile » et que : « cette politique a
parallèlement épargné des vies […], le nombre de morts par
milliard de véhicules/kilomètres (une statistique barbare qui tient
compte de la densité du trafic) est de 4,5 outre-Rhin, contre 5,5 en
France ». Il s’agit bien entendu de milliards de véhicules multiplié par
les kilomètres parcourus et non divisé ! Cette unité n’a pas de lien
direct avec la densité du trafic. Si cent mille véhicules parcourent dix
mille kilomètres au Pays-Bas ou dans le Wyoming, le milliard de
véhicules x km parcouru le sera avec des densités de circulation très
différentes. En outre affirmer le lien de causalité entre l’absence de
limitation de vitesse sur une partie des autoroutes allemandes et la
différence de mortalité sur autoroute entre les deux pays est une
démarche dépourvue de validité. Ce sont des détails de ce type qui
expriment à la fois l’incompétence de l’auteur qui manipule des concepts
qu’il ne maîtrise pas et sa volonté d’affirmer sans preuve.
L’article de référence décrivant l’évolution des risques sur les
autoroutes des pays industrialisés a été publié dans le numéro de
janvier 1995 de la revue « Strasse + Autobahn ». Les auteurs sont
Ekkehard Bruning, Susanne Berns et Andreas Schepers. Ils ont analysé
l’évolution de la mortalité sur les autoroutes de 8 pays européens (dont
l’Allemagne et la France) et des USA. Les paramètres pris en compte sont
notamment le taux de tués au milliard de kilomètres parcourus et les
trafics moyens journaliers (indicateur indirect de la densité de la
circulation). Les graphiques publiés mettent en évidence la décroissance
régulière de la mortalité d’année en année. Elle est attribuable :
-
à l’évolution de l’infrastructure (glissières de sécurité ou murets
réduisant les traversées de l’espace séparant les chaussées et prévenant
les sorties de voies ou l’impact sur des obstacles tels que les piles de
ponts),
- aux progrès de la sécurité primaire et surtout secondaire
des véhicules (ceintures de sécurité, sacs gonflables, habitacles moins
déformables),
- à l’accroissement de la densité de circulation.
Les commentaires les plus importants sont que :
- « les pays qui
présentent les taux de mortalité comparativement les plus faibles se
trouvent être parallèlement les pays qui connaissent les trafics moyens
journaliers les plus élevés sur leurs autoroutes ».
- «qu’il n’y a
pas seulement corrélation entre taux de mortalité et trafic moyen
journalier, mais qu’il y a aussi à opérer une distinction entre les
niveaux de sécurité dans les différents pays en cause. C’est ainsi par
exemple que les Etats-Unis et l’Allemagne de l’Ouest, dont les taux de
mortalité sont assez comparables, sont caractérisés par des points
épousant des courbes assez comparables ; étant à noter parallèlement que
les trafics moyens journaliers allemands se situent dans toute la
période de temps considérée, à des niveaux nettement supérieurs aux
valeurs correspondantes américaines. »
- « certains pays se situent
nettement en dessous des moyennes générales ; ce qui conduit à une
révision des idées en matière de sécurité – la Belgique et l’Allemagne
de l’Ouest se situant comparativement plutôt en dessous, et les
Pays-Bas, les Etats-Unis et la Suisse plutôt au dessus des moyennes
constatées ».
Autrement dit dès 1995, une étude allemande
documentait le premier facteur de sécurité sur les autoroutes qui est la
densité de circulation. Elle indiquait également que les pays se
différenciaient ensuite les uns des autres, avec de meilleurs résultats
aux USA qu’en Allemagne, sans aller plus avant dans la recherche des
facteurs qui provoquaient cette distinction.
A ce stade de la
lecture du dossier présenté par Gérard Nicaud, nous avons compris que
l’auteur de la description ne comprend pas la nature des indicateurs
qu’il utilise et que ses données sont fausses, mais le pire est à venir.
Nous atteignons l’argument qui « fonde » cette pleine page du Figaro
dénigrant les limitations de vitesse. Il s’agit des résultats de
l’insécurité routière sur les autoroutes du Montana : « Mais il y a plus
intéressant et surtout plus scientifique : les résultats d’une
expérience qui s’est déroulée il y a quelques années au Montana, un Etat
peu peuplé situé au nord-ouest des Etats-Unis. Pendant quatre ans, entre
1994 et 1998, les autorités locales ont levé toute restriction de
vitesse, du moins dans la journée. Résultat : une baisse significative
du nombre d’accidents. Coïncidence ? En juin 1999, il était mis fin à
cette expérience jugée politiquement incorrecte. Les statistiques sont
édifiantes : de janvier à mai 1999, la moyenne mensuelle des décès sur
autoroute dans cet Etat a été de 6,2 pour remonter à 10,1 sur le reste
de l’année et pratiquement à 12 en 2000. ». La suite du texte de Gérard
Nicaud indique que lorsque le gouvernement fédéral a abandonné en 1995
la limitation de la vitesse sur autoroute à 55 miles par heure (88,5
km/h) les limites ont été relevées à des niveaux se situant entre 65 mph
et 75 mph, or « depuis le nombre de tués à diminué de 11% en dépit de la
hausse du trafic ».
La situation américaine est particulièrement
favorable à l’analyse de la relation entre vitesse autorisée et
mortalité, du fait d’une succession de réglementations, les unes
fédérales créant l’uniformité au moment du premier choc pétrolier, les
autres recréant progressivement la diversité quand les craintes sur
l’approvisionnement en pétrole se sont éloignées. Le calendrier de ces
évolutions a été le suivant :
-
en 1974 le premier choc pétrolier a fait décider l’abaissement de la
vitesse maximale à 55 miles par heure (88,5 km/h) sur plusieurs types de
voies, provoquant une diminution du nombre des décès de 9100. La
correction par la diminution du trafic observée et la tendance à la
baisse de la mortalité due à d’autres causes faisait retenir un gain de
6550 vies. Les taux de réduction de la mortalité avaient été de 32% sur
les autoroutes (la réduction des vitesses observées avait été de 7,7
mph, soit 11,8 km/h), 18% sur les routes principales et 12% sur le
réseau secondaire,
-
en 1988 la vitesse a pu être portée à 65 mph (104,5 km/h).
Plusieurs études avaient prévu un accroissement de la mortalité entre 15
et 25% en année pleine suivant les méthodes retenues, dans les Etats qui
adopteraient la nouvelle limite. L’augmentation observée a été de 10% en
1987 (les décisions étant intervenues entre mai et juillet) et de 21% en
1988.
- enfin
depuis novembre 1995 le choix est totalement libre et certains Etats ont
porté leur vitesse maximale jusqu’à 75 mph. Une comparaison entre 24
d’entre eux qui avaient accru la vitesse autorisée et 7 qui ne l’avaient
pas modifiée a révélé un accroissement de 17% de la mortalité dans le
premier groupe.
Le débat des accidentologistes américains n’est
plus sur l’efficacité des limites de vitesse sur les autoroutes, il
s’est déplacé vers l’intérêt de fixer des limites différentes pour les
poids lourds et les véhicules légers. Certains Etats ont fait le choix
d’une vitesse identique pour limiter les dépassements, d’autres ont
conservé un différentiel qui va de 5 mph (Indiana) à 15 mph
(Michigan), les analyses présentées au congrès nord-américain sur la
vitesse qui s’est tenu à Québec en juin 2001 semblaient en faveur de
l’uniformité, mais avec une faible différence de mortalité.
Face aux résultats concordants obtenus par l’analyse de l’ensemble des
Etats, sélectionner « a posteriori » le seul Etat qui a des résultats
paradoxaux est un exemple typique de mauvaise pratique en contradiction
avec les bonnes pratiques épidémiologiques. Le Montana représente
0,3% de la population des USA et il aurait été plus sérieux de prendre
l’exemple de la Californie qui avait accru la vitesse autorisée à 70 mph
le 7 janvier 1996, et dont la population est 37 fois supérieure à celle
du Montana. Le nombre de décès sur les autoroutes californiennes est
passé de 548 en 1995 à 644 en 1996 soit un accroissement de 17,5%, en
accord avec la moyenne des Etats qui avaient fait ce choix raisonné
d’accepter un plus grand nombre de morts comme prix d’une vitesse plus
élevée. L’effet « paradoxal » observé dans le Montana a été analysé par
un chercheur de l’INRETS, Laurent Carnis (actes INRETS n°105 –décembre
2006, p.155-171).
Les deux graphiques suivants représentent
l’évolution de la mortalité dans l’Etat du Montana et l’évolution
globale de la mortalité routière aux USA. Les variations d’une
année sur l’autre sont importantes du fait du nombre relativement faible
en valeur absolue du nombre de tués dans cet état peu peuplé, ce qui
accroît les variations aléatoires. Les dérégulations des vitesses ont
été décidées en 1988 (possibilité de passage de 55 à 65 mph) et 1995
(chaque Etat fixe ses limites)
Evolution du nombre de
tués de l’Etat du Montana (1970-2003)
Laurent Carnis
interprète la situation du Montana comme un conflit de nature politique
entre le pouvoir fédéral et un Etat qui n’acceptait pas une ingérence
dans la régulation de la vitesse sur ses routes. La raison principale
est qu’il s’agit du 4ème Etat des USA par sa surface égale au 2/3 de la
France pour une population inférieure à 1 million d’habitants. La
limitation de vitesse fédérale apparaissait inadaptée à cette géographie
humaine et l’administration locale n’a jamais cherché à appliquer la
règle qui lui était imposée. Les textes locaux avaient créé une amende
pour excès de vitesse d’un montant de 5 dollars, tournant ainsi en
dérision les obligations fédérales. Aucune mesure des vitesses réelles
pratiquées avant et après cette mesure fictive de limitation n’a été
effectuée. La situation théorique a été la suivante dans cet Etat :
-
pas de limite avant 1974,
-
55 miles/h de 1974 à 1987,
-
65 miles de 1987 à 1995,
-
pas de limite de 1995 à 1999
-
75 miles/h depuis 1999.
Le bilan de l’évolution de la mortalité
au Montana est catastrophique, elle s’est accrue de 30% entre 1994 et
2006 alors que dans la même période de grands Etats comme le Minnesota
ou le Michigan l’ont réduite l’un et l’autre de 24%. Actuellement cet
Etat est celui qui a le plus augmenté sa mortalité par habitant de tous
les USA et il se situe sur cet indicateur au 46ème rang des Etats
américains. Ce taux et cette évolution calamiteuse étaient déjà connus
quand l’article du Figaro a été publié. Prendre le plus mauvais élève de
la classe comme modèle dépasse vraiment les limites de l’impudence et de
l’absence totale de respect du lecteur. Il était par ailleurs inexact de
dire que le Gouvernement américain a supprimé la limite des 55 mph en
1995, la première dérégulation est de 1987/1988, comme il était trompeur
de donner l’indication d’une réduction de la mortalité depuis la seconde
déréglementation de 1995. Cette dernière a provoqué une hausse de la
mortalité qui est sans équivalent dans les autres pays industrialisés.
Globalement, après un passage au dessous des 40 000 tués
par an, la mortalité accidentelle aux USA s’est accrue au cours des
quinze dernières années et cette évolution est produite par les Etats
qui ont augmenté leurs vitesses maximales. Ceux qui ont fait ce choix ne
tentent pas de dire que la vitesse n’est pas dangereuse, ils ont évalué
le risque et chaque Etat a accepté ou non de l’accroître pour réduire
les temps de transport, sans hypocrisie. Cette attitude américaine est
habituelle dans la gestion des risques. Il s’agit d’un pragmatisme
lucide qui accepte un certain nombre de morts en contrepartie d’un choix
comportant des avantages. Les Européens acceptent mal ce type de bilan
d’une situation associant des avantages et des inconvénients qui donne
une valeur monétaire à la vie humaine, alors que cette pratique est de
plus en plus utilisée dans le cadre de la santé publique. Refuser la
relation mathématique entre la vitesse moyenne de circulation sur un
réseau autoroutier et l’accidentalité fait partie des attitudes de déni
qui permettent peut-être de conserver une forme puérile d’estime de soi,
mais qui sont à la fois ridicules et manipulatoires.
Aller
chercher des arguments au Montana sans rappeler ce qui s’était passé en
France ou en Allemagne lors du premier choc pétrolier éveillait déjà la
méfiance. Ces promoteurs obsessionnels de la vitesse ne parlent jamais
des résultats européens observés quand les vitesses autorisées ont été
modifiées, parce qu’ils sont en totale contradiction avec ce qu’ils
souhaitent démontrer. Au moment du choc pétrolier l’Allemagne
avait fixé une vitesse maximale sur ses autoroutes à 100 km/h et la
mortalité avait été réduite de 37%, elle a augmenté en mars 1974 quand
cette limite a été supprimée. En France, la mortalité au kilomètre
parcouru a été divisée par deux et nous reviendrons sur cette évolution
dans le chapitre suivant.
Le second texte de cette page du
Figaro du 23 janvier 2003 est un exemple exceptionnel de la pratique du
déni. Ce « Point de vue » de Jacques Chevalier analyse « l’archaïsme
meurtrier » de la limitation de vitesse à 130 km/h. Il reprend tous les
arguments développés avec régularité par les adversaires des limitations
de vitesse. Affirmer que « la vitesse n’est en effet que rarement la
cause première des accidents » est à la base de ce credo. Elle serait
seulement un « facteur aggravant d’une collision ». En réalité, quand un
automobiliste aborde trop vite une intersection sans visibilité et qu’il
ne peut éviter l’accident, ce dernier n’aurait pas eu lieu si la vitesse
avait été plus basse, il s’agit donc d’un facteur causal. Le
raisonnement est identique en cas de perte de contrôle dans un virage
pris à une vitesse excessive. La vitesse inadaptée dans un contexte
routier donné est le déterminant principal de l’accident. L’observation
de la rupture brutale de la mortalité sur nos routes en juillet 1973 et
à partir de décembre 2002 illustre la nature causale de ce facteur. La
généralisation des limites de vitesse sur les routes en 1973 et le
retour à la crédibilité du dispositif de contrôle et de sanctions
provoqué par les mesures adoptées en 2002 ont provoqué une diminution de
la vitesse de circulation. Elle a pu être mesurée à environ 9 km/h pour
la période qui a suivi les décisions de 2002 et la mortalité s’est
abaissée de plus de 40% entre mai 2002 et mai 2006. L’observatoire de
sécurité routière et les assureurs ont pu constater que les accidents
étaient moins nombreux et leurs conséquences moins destructrices.
Rappelons que dans un système où plusieurs facteurs déterminent un
événement, il est absurde de placer un facteur de sécurité primaire
comme un facteur principalement « aggravant » en l’opposant à la notion
de facteur causal. C’est le domaine de la sécurité secondaire qui
permet d’utiliser ce terme dans un sens précis. Ne pas mettre la
ceinture de sécurité est un facteur pouvant aggraver les conséquences de
l’accident. Un des objectifs de l’épidémiologie est d’établir, pour
chaque facteur envisageable, les « fractions attribuables » ou les
« risques relatifs ». Nous dirons par exemple qu’une alcoolémie à 0,80
g/l multiplie par quatre le risque d’avoir un accident corporel. Le
risque est multiplié par un facteur proche de 100 quand l’alcoolémie
dépasse 2 g/l. La situation est identique pour la vitesse qui est
également une variable quantitative. Dans un environnement donné, il est
possible de quantifier le niveau de risque en fonction de la vitesse de
circulation. Les premières études qui ont documenté cette relation ont
un demi-siècle et les variations conjointes des vitesses de circulation
et du risque d’être tué sont confirmées chaque fois qu’une modification
de la réglementation intervient et qu’elle est appliquée. La variation
des conditions de circulation provoquées par les crises pétrolières a
favorisé l’analyse de ces faits en créant des conditions quasi
expérimentales d’observation.
L’influence d’une variation de la
vitesse de circulation sur l’accidentalité a été observée à nouveau sur
les autoroutes françaises au cours de la période 2002/2006. Le taux de
mortalité au milliard de kilomètres parcourus est passé au dessous du
taux observé en Allemagne. L’analyse effectuée par les sociétés
d’autoroutes met en évidence une division par deux de la proportion
d’usagers dépassant 130 km/h au cours des dernières années.
Parallèlement le taux de mortalité sur les autoroutes françaises
en 2006 s’est effondré à 2,37 tués par milliard de kilomètres parcouru,
alors que la valeur allemande stagne à 2,97. Rappelons que ce bon
résultat de la France a été obtenu alors que la densité de circulation
sur les autoroutes allemandes est plus élevée qu’en France, ce qui est
un facteur d’abaissement de la mortalité donnant un avantage à
l’Allemagne. Il faut également insister sur les manœuvres inacceptables
de camouflage de ses résultats par l’administration allemande qui a
cessé de mesurer et de publier des indicateurs de vitesse sur ses
autoroutes depuis 10 ans. Elle a également cessé de distinguer les
kilomètres parcourus sur les autoroutes limitées en vitesse (48% du
réseau) et sur celles qui ne le sont pas (52 %). Nous savons cependant
que les 645 tués sur les autoroutes allemandes de 2006 se répartissent
en 441 tués (67%) sur les autoroutes sans limitation de vitesse et
204 sur les autoroutes à vitesse limitée. Le débit horaire étant
beaucoup plus important sur ces dernières, nous pouvons imaginer un
risque au kilomètre parcouru multiplié par un facteur se situant entre
deux et quatre pour le réseau à vitesse libre par rapport au réseau
limité. Ne pas documenter ces faits est un témoignage supplémentaire de
la volonté de l’Allemagne de ne pas faire apparaître les résultats qui
contrarient ses constructeurs de voitures inutilement rapides et de ce
fait inutilement dangereuses. Cacher une réalité aussi importante pour
la sécurité sanitaire dans ce pays est une pratique indigne.
L’autre démarche classique d’inversion de la réalité des faits utilisée
par Jacques Chevalier concerne le risque d’accident par inattention
provoqué par le respect de la vitesse maximale : « Pourquoi les
automobilistes roulent-ils 20 ou 30 km/h au dessus de la limite ? Ce
serait parce que : « redescendre au dessous de 130 km/h c’est observer
son compteur pour rouler à une allure antinaturelle,
anesthésiante ». Cet argument a été également utilisé par le ministre
italien des transports Pietro Lunardi, pour justifier l’accroissement à
150 km/h de la vitesse sur certaines autoroutes à trois voies : « La
vitesse cause moins d’accidents dus à la distraction. Aller vite éveille
l’esprit. Cela empêche de s’endormir. J’aime moi-même aller à une
vitesse soutenue ». Avec 5,57 tués par milliard de kilomètres parcourus,
l’Italie a actuellement une mortalité sur ses autoroutes plus de deux
fois supérieure à celle de la France. L’analyse récente des sociétés
d’autoroutes de notre pays indique une évolution qui contredit
l’hypothèse de l’augmentation des accidents par trouble de la vigilance
lors d’une réduction des vitesses de circulation. Le nombre d’accidents
mortels provoqués par l’inattention a diminué entre 1997 et 2005 de
façon plus importante que l’ensemble des accidents, faisant passer la
proportion de 13% des cas à 8%. Pour les causes regroupant la fatigue,
l’hypovigilance et l’endormissement, le nombre total s’est également
réduit mais en proportion plus faible que l’ensemble des accidents, ce
qui a provoqué un accroissement en proportion de 28% à 37% pendant la
même période. L’hypothèse la plus vraisemblable est que ces causes
d’accidents sur lesquelles le système de contrôle et de sanction n’a
aucune prise ont été peu influencées par les réformes de 2002, mais que
le ralentissement des vitesses de circulation a rendu leurs conséquences
moins dangereuses, réduisant la mortalité que l’on peut leur attribuer.
L’affirmation qu’il faudrait faire rouler les gens à 30 km/h
pour atteindre la sécurité absolue quand on constate la « violence
inouïe » d’une collision à 56 km/h correspond à une démarche très
pratiquée par les destructeurs de vérité, faisant l’amalgame entre
une vérité et une erreur. Elle est destinée à faire croire qu’il
faudrait abaisser à moins de 60 km/h la vitesse de circulation sur les
autoroutes pour réduire la mortalité. Il est vrai qu’une collision à 56
km/h est d’une grande violence. Les équivalents de choc à 56 km/h contre
un mur existent sur les autoroutes comme ailleurs, mais ils sont
exceptionnels. Un usager qui perçoit le risque de collision freine et
réduit sa vitesse et, s’il ne peut éviter l’accident, la vitesse au
moment de la collision sera très inférieure à sa vitesse de circulation.
En outre, s’il a heurté un autre véhicule allant dans le même sens sur
une autoroute, une vitesse résiduelle persistera après la collision. Les
variations de vitesse dans la phase de déformations des véhicules et les
décélérations subies seront donc très inférieures à celles observées
dans un choc à 56 km/h contre un obstacle fixe rigide. Confondre la
vitesse de circulation et la variation de vitesse au moment de l’impact
n’est pas le fait d’une incompétence, il s’agit d’une manipulation
volontaire.
L’objectif des actions de sécurité routière n’est
pas d’obtenir une sécurité absolue, mais de réduire le nombre de tués en
diminuant la vitesse de circulation, ce qui produira dans un
environnement donné un nombre d’accidents plus faible et, en cas de
choc, des vitesses de collision plus basses. Jacques Chevalier se refuse
à admettre ces faits depuis des décennies, et il ne veut surtout pas
entendre les explications des accidentologistes qui détruisent ses
arguments. Imaginer un débat intellectuellement honnête avec des
passionnés de mauvaise foi est un espoir vain. Il est aussi illusoire de
vouloir convaincre un Raëlien de revenir sur terre qu’un passionné de
vitesse de ralentir, et l’attaque contre l’esprit cartésien va
bien dans ce sens. Surtout ne soyons pas cartésiens, soyons des
passionnés illuminés par la fée vitesse, chevauchons avec elle les
produits de la technologie, et répétons année après année notre credo
destructeur, la vitesse n’est pas dangereuse, nous arriverons bien à
convaincre les faibles d’esprit et nous aurons le soutien des décideurs
qui aiment aller vite ou qui sont pressés parce qu’ils gèrent mal leur
emploi du temps !
J’ai centré l’analyse sur les écrits d’un
journaliste pour détailler les arguments utilisés tout en évitant les
répétitions, mais il ne faut pas croire que les médias sont les seuls à
assurer la diffusion de telles contre-vérités. Lors de l’examen de la
loi Perben à l’Assemblée Nationale le 19 mars 2003, Christian Estrosi
tenait les propos suivants : « A l'inverse, sur quelques centaines de km
d'autoroutes larges et bien droites, pouvoir dépasser de 10 ou 15 km la
limitation à 130 pour doubler améliore plutôt la sécurité. Le cas de
l'Allemagne l'illustre bien, l'Italie passera à 150 km/h au premier juin
et, aux Etats-Unis l'expérience du Montana est positive. Donc, sans
toucher au texte du Gouvernement, ne nous interdisons pas d'ouvrir la
réflexion sur la révision de certaines normes ». L’Allemagne a une
mortalité plus élevée sur ses secteurs non limités. Augmenter la vitesse
maximale sur les autoroutes augmente le différentiel de vitesse entre
les usagers et accroit le nombre de dépassements qui est un facteur de
risque. Quand à l’expérience du Montana, nous avons vu que ses résultats
ne sont positifs que pour les entreprises de pompes funèbres de cet
Etat. Triste référence.
Les réactions aux propositions
du « Livre blanc » sur la sécurité routière de 1989.
Les journalistes des médias généralistes avaient très largement repris
et développé les arguments des industriels que nous avons déjà analysés.
La notion de sécurité liée aux possibilités d’accélération fait partie
des stéréotypes repris par les journalistes qui participent à cette
désinformation coordonnée. Là encore, Jacques Chevalier est une boussole
qui pointe toujours vers l’argument erroné.
Le Figaro
(4/5/89 Jacques Chevalier)
« La vitesse de pointe n’est plus
en effet aujourd’hui que la résultante d’autres qualités que l’on veut
privilégier : les accélérations et la puissance à tous les régimes. Y
toucher, c’est immanquablement altérer la vivacité d’un véhicule et sa
capacité à répondre instantanément aux injonctions du conducteur. Grâce
à elles les dépassements sur route ne sont plus la roulette russe à
laquelle on se livrait naguère au volant de voitures à l’inertie
paralysante. » Commentant des études de Matra sur un concept de véhicule
privilégiant l’accélération, le journalise ajoute : « il y a là
manifestement une idée à creuser pour une voiture mettant sa puissance
au service d’accélérations éclair, garantes d’une meilleure sécurité. »
Il y a une double confusion dans ces propos, la première est de lier la
proposition de la commission qui a rédigé le Livre blanc concernant la
limitation de vitesse à la construction et l’accélération. La seconde,
plus importante, consiste à affirmer que la capacité d’accélérer pour
dépasser est un facteur de sécurité sur les routes. Nous avons déjà
abordé ce problème en analysant la position des industriels sur les
limitations de vitesse et les arguments qu’ils ont utilisés, notamment
lors de la publication du livre blanc.
Un autre argument est souvent
mis en avant pour tenter de lutter contre les politiques de réduction
des risques par une réduction des vitesses de circulation sur les
différents réseaux. Il consiste à affirmer que les bonnes solutions sont
ailleurs.
Le Quotidien de Paris (Patrice Carmouze)
« Il est
sans doute excellent de rendre les sanctions plus dissuasives, de
limiter les vitesses (…) mais l’essentiel est ailleurs. C’est sur trois
facteurs objectivement créateurs d’accidents qu’il faut agir, l’état des
routes, celui des véhicules, la densité enfin de la circulation. Voilà
l’action en profondeur à mener ».
Patrice Carmouze ne savait
manifestement pas que la densité de circulation est un facteur de
protection et non un facteur de risque pour la sécurité routière,
puisqu’elle réduit les vitesses de circulation. A l’opposé une
circulation trop dense provoquant des bouchons induit un accroissement
du temps de déplacement et de la pollution. Il est donc important d’agir
pour avoir une circulation fluide, mais cela n’a rien à voir avec la
sécurité routière. La notion de point noir a été développée il y a
quarante ans pour identifier et traiter préférentiellement les zones où
l’on observait une accumulation d’accidents. Au moment où nous avions
produit le Livre blanc, les aménagements protecteurs étaient réalisés
dans les secteurs les plus dangereux et l’on voyait les zones
accidentogènes se situer tout au long des sections courantes supportant
des débits de circulation relativement élevés en l’absence de séparation
des chaussées. La nécessité d’agir sur les obstacles fixes verticaux,
notamment les arbres, était déjà évidente, mais ces actions posent des
problèmes d’acceptabilité sociale et de coût.
Quand à la
surveillance de l’état des véhicules, il venait d’être décidé au moment
où nous rédigions le livre blanc, mais malheureusement sans aucun
dispositif d’évaluation de son efficacité, alors que c’est à cette phase
qu’il était possible de le mettre en œuvre. J’avais proposé un tirage au
sort d’un chiffre et la réalisation progressive du contrôle technique
sur deux ans de tous les véhicules anciens en fonction de leur
immatriculation, les assurances auraient alors pu évaluer
comparativement si une réduction significative de l’accidentalité se
manifestait dans le groupe de véhicules contrôlés. L’administration ne
voulait pas de cette évaluation et elle n’a pas été retenue. La fraction
des accidents liés à une défaillance technique du véhicule est très
faible et les études sérieuses de l’efficacité du contrôle technique
(tirage au sort de deux séries, l’une avec contrôle et l’autre sans,
puis comparaison de l’accidentalité entre les deux séries) n’ont pas mis
en évidence d’effets bénéfiques. Le contrôle a un intérêt lors d’une
transaction commerciale et c’est le choix qui avait justifié les
premières obligations dans ce domaine. Il permet alors de dépister les
réparations approximatives et potentiellement dangereuses de véhicules
gravement accidentés.
Nous avons remarqué l’insistance des
constructeurs sur le risque commercial qui serait induit à leurs yeux
par une limitation de la vitesse à la construction. Les médias ont très
largement repris cet argument lors de la publication du Livre blanc. Il
n’était pas négligeable mais nous pouvions gagner 20 à 30 ans sur la
mise en œuvre de la mesure si la proposition avait été soutenue à cette
époque par la France au niveau européen.
L’Alsace (23/4/89 Jacques
Prost)
« On nage en plein délire. Semblable mesure appliquée en
France, que verrait-on ? D’abord beaucoup plus de voitures étrangères. A
quoi bon acheter au prix fort un véhicule émasculé ? Du coup et faute
d’une réglementation européenne invraisemblable nos voisins crieraient
au protectionnisme et fermeraient leurs frontières à nos produits, pas
seulement automobiles. »
Le Figaro (26/4/89 Jacques Chevalier)
« Puisque
la vitesse tue selon la commission, il suffit de limiter par
construction les automobiles européennes à 160 ou 170 km/h pour enrayer
l’hécatombe. Cette trouvaille est plus un vœu pieux qu’une réelle
mesure. En effet la commission, sur ce point clairvoyante, ne songe qu’à
une limitation européenne et les Allemands la refuseront. Limitée aux
seuls véhicules français, la mesure aurait des effets pervers sur le
commerce et l’homogénéité des déplacements sur autoroute avec les
véhicules étrangers plus rapides ».
Une nouvelle fois, Jacques
Chevalier se rendait ridicule par l’absence de pertinence de ses propos.
On voit mal comment la limitation à 160 km/h pouvait avoir des effets
pervers sur l’homogénéité des déplacements sur des autoroutes limitées à
130 km/h !
Quelle est l’évolution du déni médiatique ?
Il se réduit progressivement et apparaît actuellement comme un
débat d’arrière garde. Les très bons résultats provoqués par la
politique de respect des vitesses maximales instaurée à la fin de 2002
ont joué un rôle majeur dans cette évolution. Les principales mesures
ont été la réduction des tolérances sur les vitesses maximales, la
responsabilité du propriétaire d’un véhicule photographié en excès de
vitesse, la mise en œuvre des radars automatiques à la fin 2003 et la
réduction massive du trafic d’influence supprimant des contraventions
pour des infractions impliquant la conduite. Il est intéressant de
suivre cette évolution à travers les écrits du même journaliste. Il
était difficile de rebondir dans une telle situation d’échec et
relancer sa politique de soutien de la vitesse exigeait un travail
d’imagination sérieux. Il n’a pas déçu, la caractéristique du
manipulateur est d’avoir toujours une invention de rechange.
Le Figaro (15/3/2004 Jacques Chevalier.
« 2003
ayant été déclarée «année de la sécurité routière», il fallait que les
résultats tombent. Ils sont tombés et, avec plus de 1 500 vies
épargnées, l'Etat a pu se glorifier à bon droit de son action.
Pourtant, il n'a, pour l'essentiel, fait qu'appliquer sur le terrain ce
qui existait dans les textes depuis des années. Multiplication des
contrôles de vitesse et d'alcoolémie appuyée par une intense campagne
médiatique, la peur du gendarme a porté ses fruits, ce qui, tout de
même, autorise à se poser une question.
Pourquoi les pouvoirs publics
n'ont-ils pas mis en oeuvre plus tôt les contrôles de 2003 ? Les textes
du code n'ayant pas fondamentalement changé depuis deux décennies, on
imagine le nombre de vies qui auraient pu être sauvées ainsi. Certes,
les forces de l'ordre ont d'autres missions et elles devront tôt ou tard
y retourner, laissant aux radars automatiques le soin de réprimer.
L'usager pourra s'en réjouir car le comportement des forces de l'ordre à
l'égard de bons pères de famille tutoyant le 140 sur autoroute
s'apparente trop souvent à l'arrestation d'un bandit de grands chemins.
Cette confusion des genres a creusé un peu plus l'incompréhension entre
usagers et forces de répression. Le véhicule assimilé à une arme, le
dépassement de vitesse sur une autoroute déserte à un acte terroriste,
dissocient l'ampleur de la sanction de la réalité de la faute. On écrase
une mouche avec un marteau-pilon. Le résultat est garanti, les mouches
tremblent et le lobby antiautomobile en France se goberge sur les ondes
en stigmatisant un prétendu lobby automobile. »
Après avoir
reconnu l’efficacité de la politique gouvernementale, tout en refusant
d’accepter le contrôle et la sanction des faibles excès de vitesse,
Jacques Chevalier devait faire un détour dialectique pour rebondir sur
une autre piste permettant de rejoindre son discours familier. Il
développe alors l’hypothèse que le contrôle de la vitesse n’est qu’une
conséquence de la mauvaise formation des conducteurs. Ils ont une
mauvaise appréciation du risque car ils n’ont pas été correctement
formés pour maîtriser les conditions auxquelles ils seront
inévitablement confrontés un jour ou l’autre sur les routes. Finalement
le radar n’est efficace que pour maintenir dans une zone de non risque
des conducteurs incompétents, alors que les conducteurs expérimentés
seraient capables eux de rouler à des vitesses dépassant les limites
autorisées, bien entendu sans risque. L’habileté est à la hauteur des
décennies de pratique de la désinformation de l’auteur et il est
important d’analyser ce type d’explication qui a souvent été utilisé par
les journalistes appartenant à cette confrérie des amateurs de vitesse.
Le Figaro (suite du texte précédent du 15/3/2004 Jacques
Chevalier).
« Le lobby autophobe éructe que l'on ne peut transformer
un automobiliste en pilote, comme s'il s'agissait de cela. Il s'agit
seulement de rester maître de son véhicule et de ne pas céder à la
panique le moment venu parce que l'on n'aura pas assimilé, dans le cadre
rassurant d'une piste de conduite, les gestes qui sauveront un jour sur
la route. Tout candidat au permis de conduire devrait prouver qu'il est
apte à le faire avant la délivrance du carton rose. Ce qui semble
impossible sur la route sous de fallacieux prétextes d'égalité sociale
se pratique pourtant chaque hiver, dans les écoles de ski, où l'on
enseigne à tous le contrôle du dérapage et l'arrêt en toute sécurité. La
troisième étoile acquise, tout le monde sait se comporter ensuite sur
les pistes et réagir sans trembler face à une situation inattendue.»
Ce texte est important, car promouvoir la capacité d’acquérir et de
maintenir des aptitudes à la maîtrise des « gestes qui sauveront un jour
sur la route » fait partie des illusions dangereuses qui sont soutenues
par ceux qui refusent la réduction des vitesses. Il s’agit d’une double
utopie. Nous n’avons pas les moyens d’assurer cette formation à 700 000
apprentis conducteurs chaque année, les formateurs qualifiés n’existent
pas en nombre et son surcoût serait considérable. L’obstacle économique
à l’acquisition du permis est déjà un facteur de ségrégation sociale, il
ne faut pas l’accentuer. La seconde raison tient à l’impossibilité de
maintenir une aptitude de ce type, notamment la capacité de contrôler un
dérapage, il faut une pratique régulière de cette manœuvre pour
conserver les capacités acquises.
Comme l’apprentissage, la
conservation des savoirs doit être assurée par une pratique régulière
sur des pistes adaptées. La compréhension de ces difficultés s’est faite
au niveau des organismes qui ont développé des stages de formation
continue de conducteurs, notamment à la demande des entreprises
désireuses de réduire le risque d’accidents de leurs personnels. Les
stages ont été orientés vers la prise de conscience des risques pour
éviter d’être confrontés à des situations que l’on ne sait pas gérer.
L’usage de pistes arrosées avec un faible coefficient d’adhérence, ou la
création de segments de pistes animés d’un mouvement de rotation créant
une accélération transversale difficile à contrôler (stages Centaure)
sont adaptés à cette formation. L’objectif est de faire comprendre la
nature du risque et non d’apprendre à contrôler une sortie de voie.
L’apprentissage de la conduite doit inclure la compréhension de la
nature du risque et obtenir du conducteur qu’il ne s’expose pas à des
situations dangereuses. Ces problèmes d’apprentissage et de maintien des
compétences ne sont pas propres à la conduite automobile. Développer
l’idée d’une formation au permis de conduire permettant de gérer des
dérapages avec une épreuve pour son obtention dans laquelle le candidat
devrait prouver « son aptitude » est tout bonnement ridicule, elle ne
pourrait être menée à bien. Si un investissement considérable la rendait
possible lors de la formation initiale, il serait impensable de
maintenir ces acquis sur des voies ouvertes à la circulation, il
faudrait continuer à le faire sur des pistes pour 35 millions de
conducteurs.
Commentaires
Sans
prétendre que les chercheurs savent tout et ne commettent pas d’erreurs,
il faut cependant s’interroger sur le gouffre qui sépare l’état des
connaissances dans le champ de la sécurité routière et leur déformation
par des journalistes « engagés » dont le seul objectif semble être
de produire les phrases qu’une clientèle passionnée de voitures et de
vitesse attend d’eux. Nous avons vu que les stéréototypes reproduits
avec constance sont en nombre relativement limités, visant à minimiser
le rôle de la vitesse dans les accidents et à maximaliser l’intérêt
d’une réserve de puissance pour effectuer des dépassements « plus
sûrs ».
La méthode complémentaire de cette répétition constante
de deux affirmations erronées consiste à passer sous silence toutes les
études mettant en évidence la relation constatée entre la vitesse de
circulation et le risque d’accident. La première grande étude européenne
sur cette relation a été faite par Bohlin, un ingénieur de Volvo, en
1968. Elle portait sur 28 000 accidents. D’autres ont suivi. Les
journalistes assurant la propagande destinée à s’opposer aux réductions
progressives des limitations de vitesse n’en parlent jamais. L’omerta
est la méthode la plus sûre pour ne pas avoir à contester des faits
prouvés par l’observation de la réalité.