S'abonner à un flux RSS
 

Période de retour d’insuffisance (HU)

De Wikibardig

Traduction anglaise : Design return period

Cet article est très largement inspiré d'un texte préalablement écrit par Desbordes ().

Dernière mise à jour : 13/11/2022

Mot en chantier

Intervalle moyen de temps séparant deux occurrences d'un événement dépassant la capacité d’un ouvrage.

Sommaire

Concepts de base.

Soit $ X $ une variable aléatoire pouvant prendre, suivant un processus temporel (ou chronologique) d’apparition, une valeur $ x $ sur son domaine de variation {$ x_m ; x_M $}. Soit $ D_x $ la probabilité de dépassement d’une valeur $ x $ particulière, probabilité résultant, théoriquement, de la « fonction de distribution » des probabilités de $ X $. La période de retour $ T $ de la variable $ X $ répond à :


$ Prob [X ≥ x] = D_x \quad et \quad T = \frac{1}{D_x} \quad(1) $


$ T $ est la durée « moyenne » séparant deux réalisations successives de $ X ≥ x $ dans le processus aléatoire d’apparition dans le temps de la variable $ X $. Elle s’exprime, ainsi, en unités de temps correspondant à la distance temporelle moyenne entre deux apparitions de la variable $ X $ au cours du processus temporel.

Pour illustrer le propos, imaginons une durée d’observation de $ N $ années au cours desquelles on a observé $ n $ réalisations telles que $ X ≥ x $ ($ n $ pouvant être < $ N $ ou > $ N $) on obtiendrait $ T $, par exemple en années, unité usuelle de comptabilité du temps, en multipliant $ \displaystyle\frac{1}{D_x} $ par $ \displaystyle\frac{N}{n} $.

Périodes de retour théorique et empirique

Si le « jeu » de probabilité à l’origine de la variable $ X $ est connu (fonction densité de probabilité $ f(x) $ et processus d’apparition temporel) alors la période de retour peut se déduire théoriquement de l’équation 1 ci-dessus.

Pour les variables « naturelles » supposées aléatoires, comme de nombreuses variables hydrologiques (pluies, débits, neige, vent etc.), le jeu de probabilité supposé à l’origine de ces variables est quasiment inconnu. Le caractère aléatoire masque en fait notre incapacité plus ou moins totale à inscrire l’apparition de ces variables dans des processus déterministes (de causes à effet). Le traitement probabiliste de ces variables ne peut donc se faire que par l’évaluation de leurs probabilités d’occurrence, ou de leurs périodes de retour, et relève de l’estimation statistique qui doit satisfaire à la théorie de l’inférence statistique, c’est-à-dire à la théorie de l’échantillonnage. Cette théorie comporte un certain nombre de règles de base auxquelles doit satisfaire la prise d’échantillons, notamment, par exemple :

  • la stationnarité (invariance) du (ou des) processus de génération des variables (pas de « changement climatique » par exemple durant l’échantillonnage, pas de modifications de l’occupation des sols (urbanisation, déforestations, etc.) d’une unité hydrologique pendant l’échantillonnage, etc.).
  • la stationnarité du mode de prise d’échantillons et du mode de mesure des variables (pas de changement des sites et des dispositifs de mesure durant l’échantillonnage).
  • l’indépendance stochastique de deux valeurs successives de la série chronologique d’observation (ce qui n’est pas le cas par exemple des hauteurs de pluies successives sur une durée $ dt $ inférieure à 12 à 24 h (phénomène de « persistance »)).

L’approche empirique conduit alors à une estimation de la période de retour $ T $ soit :


$ T_{es} = T_v + ε(T)\quad (2) $


dans laquelle $ T_{es} $ est la valeur estimée à partir de l’échantillonnage, $ T_v $ la vraie valeur de $ T $ et $ ε(T) $ un résidu aléatoire dont la distribution est généralement inconnue dans la mesure où la distribution de la variable $ X $ est également inconnue.

L’estimation de l’équation (2) tend vers la vraie valeur $ T $ lorsque la taille de l’échantillon tend vers l’infini (loi des grands nombres)

La durée des séries d’observation des variables hydrologiques étant nécessairement limitée (rarement supérieure à la centaine d’années en général), l’estimation de la période de retour d’une valeur particulière de ces variables sera, en général, d’autant moins précise que cette valeur sera plus rarement atteinte ou dépassée dans la série des observations. Ceci est d’autant plus vrai qu’il n’est pas toujours facile de s’assurer de la stationnarité du mode d’échantillonnage sur des durées longues au cours desquelles les appareils, les modes opératoires, les sites de mesure, ont pu connaître diverses modifications (station de jaugeage d’un cours d’eau modifiée par des crues successives, environnement d’un pluviomètre modifié par des constructions ou la poussée de la végétation, modification des appareils de mesure ou des méthodes de jaugeage, etc.)

L’évaluation empirique de la période de retour d’une variable hydrologique supposée aléatoire repose sur le dénombrement à partir des séries chronologiques observées de cette variable : hauteur de pluie sur une durée donnée, intensité maximale moyenne sur une durée donnée, débit de pointe d’un hydrogramme de crue, volume de crue sur une durée donnée. Les exemples ci-dessous sont proposés pour rappeler un point important, source de confusion possible dans le traitement des données hydrologiques. On notera, en effet, que la notion de période de retour suppose une relation d’ordre (≥ à) (équation (1)) et donc une variable unique dûment identifiée. Elle ne peut s’appliquer simplement, par exemple, à un processus stochastique temporel comme celui rencontré dans l’analyse des hauteurs de pluie successives sur une durée $ dt $ donnée. « La pluie ou la crue de période de retour $ T $ » n’ont donc pas de sens entendu comme la réalisation d’un processus $ i(t) $ ou $ h(t) $ (intensité ou hauteur de pluie variant en fonction du temps au sein d’un « événement » ou « épisode » pluvieux ou débitmétrique). Elle n’a de sens, au regard de l’équation (1), qu’au travers d’une variable identifiée, indépendante du temps et correspondant par exemple à la hauteur maximale de pluie sur une durée $ ∆t $ au sein d’un événement, ou au débit maximal d’une crue, etc.

Supposons une variable hydrologique $ X $ observée $ n $ fois au cours de $ N $ années. Ce sera par exemple la hauteur de pluie d’un mois particulier auquel cas $ n $ sera égal à $ N $, ou encore la hauteur maximale de pluie en 1 heure observée au sein d’un « événement pluvieux ». Dans ce cas $ n $, nombre d’épisodes, pourra être très supérieur à $ N $.

Si la hauteur de pluie mensuelle ne pose pas de problème de définition, si ce n’est pour les pluies se produisant à cheval sur deux mois consécutifs, il n’en va pas de même pour la définition d’un « épisode pluvieux » (voir Evénement pluvieux (HU)) qui répond nécessairement à une certaine subjectivité (due en particulier au choix de la période sans pluie supposée séparer deux événements consécutifs).

La détermination de la période de retour d’une valeur particulière de la variable $ X $ découle du classement par ordre décroissant des valeurs observées. Soit $ j $ le rang de classement d’une valeur particulière, la fréquence empirique de dépassement pourrait répondre à :


$ D_j = \frac{j}{n}\quad (3) $


Au demeurant, la relation (3) implique que la plus petite valeur de rang $ n $ serait toujours dépassée ($ D_n = 1 $). De la même façon, si l’on réalise un classement par ordre croissant la fréquence empirique (de non dépassement cette fois) pour le rang $ j $ devient :


$ F_j = \frac{j}{n} = Prob [X ≤ x_j] = 1 – D_j \quad (4) $


et donc pour la valeur de rang $ n $, la plus grande, $ F_n = 1 $ et donc $ D_n = 0 $ qui signifie que cette valeur ne pourrait être dépassée. Pour contourner les difficultés résultant de l’emploi des équations (3) et (4), diverses formules de calcul des fréquences empiriques ont pu être proposées, comme, par exemple :


$ D_j = \frac{j}{(n +1)} \quad (5) $


De même, le recours à la théorie de l’échantillonnage, permet de déterminer l’estimation des fréquences empiriques d’échantillons tirés d’une population mère dont la fonction de distribution serait connue. Une formule générale peut être :


$ D_j = \frac{j – α}{n+β} \quad(6) $


dans laquelle $ α $ dépend de la nature de la fonction de distribution.

Par exemple, pour des fonctions de distribution à comportement exponentiel on utilise la formule de Hazen dans laquelle $ α = 0,5 $ et $ β = 0 $.

Les équations (3), (5) ou (6) conduisent à des valeurs de $ T $ qui peuvent être sensiblement différentes selon le rang $ j $ de la valeur classée et la taille de l’échantillon. Supposons 100 observations au cours d’une durée de 50 ans soit en moyenne 2 événements par an.

L’équation (3) donne pour $ j $ respectivement égal à 1, 2, 50 et 100 :

  • $ j $ = 1 → $ T_1 $(ans) = (100/1) . (50/100) = 50 ans
  • $ j $ = 2 → $ T_2 $ = (100/2) . (50/100) = 25 ans
  • $ j $ = 50 → $ T_{50} $ = (100/50) . (50/100) = 1 an
  • $ j $ = 100 → $ T_{100} $ = (100/100) . (50/100) = 0,5 an = 6 mois

De même l’équation (5) conduit à :

  • $ j $ = 1 → $ T_1 $(ans) = 50,5 ans ;
  • $ j $ = 2 → $ T_2 $ = 25,25 ;
  • $ j $ = 50 → $ T_{50} $ = 1,01 an ;
  • $ j $ = 100 → $ T_{100} $ = 0,505 ans = 6,06 mois

et l’équation (6) pour $ α $ = 0,5 et $ β $ = 0 :

  • $ j $ = 1 → $ T_1 $(ans) = 100 ans ;
  • $ j $ = 2 → $ T_2 $ = 33,3 ans ;
  • $ j $ = 50 → T50 = 1,11 an ;
  • $ j $ = 100 → $ T_{100} $ = 0,5025 = 6,03 mois.

La formule empirique retenue peut donc avoir une incidence non négligeable sur l’estimation de la période de retour empirique d’une variable hydrologique, en particulier pour les valeurs les plus élevées.

Incertitudes hydrologiques et fluctuations d’échantillonnage

Les données hydrologiques de base comme les précipitations ont longtemps été partielles, incomplètes et de durées d’observation réduites. Leurs traitements en vue de l’obtention de variables de projet de période de retour donnée sont donc incertains et liés à la « représentativité » ou « vraisemblance » des séries observées au regard de la population mère à laquelle ces données hydrologiques sont supposées appartenir.

Les jeux probabilistes à l’origine de ces données étant inconnus, les traitements statistiques reposent sur des hypothèses de leur appartenance à une population dont les caractéristiques statistiques seraient connues. Les traitements statistiques consistent alors à estimer, à partir des observations, les paramètres décrivant les populations mères auxquelles sont supposées appartenir ces observations. Ces estimations sont entachées d’incertitudes et conduisent à évaluer le degré de confiance que l’on peut leur accorder.

La mesure des précipitations aux petites échelles de temps, par exemple, n’a débuté qu’à la fin du 19ème siècle. C’est ainsi qu’un premier pluviographe fut installé à l’Observatoire de Paris Montsouris en 1873. Cependant, pour la réalisation de l’Instruction Générale 1333 de 1949 pour les systèmes d’assainissement des agglomérations, l’ingénieur Grisollet ne s’appuya que sur la série 1927-1946, car, en 1927, on avait changé l’appareil initial… La formule de calcul du débit de ruissellement pluvial décennal de la CG 1333 n’était donc valable que pour les pluies de Paris observées sur une période assez courte de 20 ans. Or, suivant l’irrégularité du climat, les fluctuations naturelles d’échantillonnage des variables hydrologiques peuvent entraîner des incertitudes très significatives sur les estimations des périodes de retour de valeurs particulières de ces variables. Ainsi, la série de référence Montpellier Bel Air 1920-1971 compte peu de précipitations intenses bien qu’elle couvre une période de 50 ans. Dans la décennie suivante 1972-1981 on a, au contraire, observé plusieurs pluies intenses (1979, 1980, 1981, …). Ainsi, pour des durées de 30 minutes à 2 heures intéressant l’hydrologie urbaine, une hauteur de pluie de période de retour 30 ans sur 1920-1971 n’a plus qu’une période de retour de 10 ans sur la période 1920-1981… Les estimations des périodes de retour ont donc varié dans un rapport de 1 à 3. Certes, les hauteurs de pluies de même période de retour dans les deux séries varient dans des proportions beaucoup moins importantes (20 à 30 %).

De même, la mesure des débits de crue des cours d’eau excède rarement la centaine d’années, voire moins pour des cours d’eau de petite taille. Ainsi pour le Lez, fleuve côtier méditerranéen traversant Montpellier, la première station de jaugeage a été installée en 1975. L’estimation de la crue centennale à Montpellier a, de ce fait, fortement fluctué depuis cette date. Les dernières estimations ont d’ailleurs donné lieu à une controverse, la crue centennale étant estimée, selon les experts, à 750 ou 900 m3/s. Si l’on fait l’hypothèse que la crue centennale est bien de 900 m3/s cela signifierait que l’estimation à 750 aurait une période de retour de 46 ans environ, en supposant que les débits varient comme le logarithme de leur période de retour. A l’inverse, si la crue centennale devait être à 750, cela signifierait que l’estimation à 900, finalement retenue par les autorités, aurait une période de retour de 250 ans. La période de retour apparaît donc comme une variable peu fiable, car très liée aux fluctuations d’échantillonnage. Dans ce cas, pour une fluctuation de débit de 20%, la période de retour varie dans un rapport de 1 à 5.

Plus encore, pour déterminer le débit d’une unité hydrologique donnée, il conviendrait de disposer non de la pluie observée en un point de cette surface mais de la hauteur moyenne de pluie (« lame ») sur cette dernière. Là encore les fluctuations spatiales des précipitations peuvent conduire à des incertitudes considérables quant à la période de retour du phénomène spatial le seul intéressant, finalement, l’aménagement des unités hydrologiques. Ainsi, à Nîmes, lors de l’événement du 3 octobre 1988 a-t-on constaté que les hauteurs de pluies sur des durées de 2h à 6h observées en 3 points du site hydrologique nîmois (4 500 hectares) avaient, par rapport à la station « de référence » de Nîmes Courbessac, des périodes de retour variant de 80 à plus de 5000 ans selon les méthodes d’ajustement des données aux distributions potentielles de probabilité.

La faible densité moyenne des réseaux de pluviomètres, au regard de la dimension moyenne des phénomènes convectifs à l’origine des précipitations intenses, conduit à la sous-estimation de la fréquence d’apparition spatiale de ces phénomènes. Pour le Languedoc-Roussillon, par exemple, on a pu montrer qu’un « objet » pluvieux de 30 km2 n’avait que 7% de chance d’être intercepté par le réseau existant (pluviomètres) sur la période 1870-1957 et 20% sur la période 1958-1997. Pour un objet de 80 km2, ces pourcentages sont respectivement de 20 et 50%. Les périodes de retour spatiales des pluies qualifiées d’intenses ou d’exceptionnelles sont donc beaucoup plus faibles que ne le laisserait supposer l’analyse statistique des données des réseaux d’observation. L’étude ci-dessus ne concernait, en outre, que des précipitations sur des durées de 24 h. Sur des durées plus courtes, intéressant l’hydrologie urbaine, les fluctuations d’échantillonnage spatial sont certainement encore plus importantes comme l’atteste l’exemple nîmois indiqué ci-dessus.

L’exploitation des images du réseau de radars météorologiques de Météo-France permet aujourd'hui une amélioration considérable de l’étude des distributions spatiotemporelles des pluies intenses.

Les études régionales sur les précipitations permettent d’évaluer les écarts entre les pluies observées en un point particulier et leurs homologues régionalisées. Ainsi, la pluie centennale journalière estimée à partir de la série Montpellier Bel Air 1920-1971 était de l’ordre de 260 mm. La pluie « régionale » évaluée en utilisant les mêmes données a été estimée(CEMAGREF d’Aix en Provence, LHM Université Montpellier 2) à une valeur de 310 mm (+ 19%). En supposant que les hauteurs de pluie varient comme le logarithme de leurs périodes de retour, cela signifierait que la pluie centennale de Montpellier Bel Air aurait une période de retour de 48 ans par rapport à la pluie centennale régionalisée et donc se produirait, en moyenne, 2 fois plus souvent. Ainsi, une incertitude de + ou - 20% sur une hauteur de pluie de période de retour supposée de 20, 50 et 100 ans correspondraient à des intervalles d’incertitudes de 11-36 ans, 23-110 ans et 40-250 ans respectivement pour leurs périodes de retour (soit -45 à + 150%).

Un autre problème relatif aux fluctuations d’échantillonnage concerne le rôle du changement climatique. Voir à ce propos Changement climatique - évolution des précipitations.

A l’heure actuelle, divers scénarios du GIEC proposent, pour diverses régions du globe, les effets supposés de ces changements sur les pluies journalières. Outre le fait que ces prévisions concernent des échelles d’espace très importantes, l’échelle de temps de 24h est peu favorable aux études des aménagements de petits bassins versants comme les bassins versants urbanisés. Certes, il est possible, par des techniques dites « de désagrégation » de relier les pluies de 24h à celles sur des durées plus courtes (travaux du CEMAGREF d’Aix en Provence, du LHM de l’Université Montpellier 2 ou du LTHE de l’Université Joseph Fourrier de Grenoble). Des changements d’échelle iso fréquence sont également obtenus à l’aide des classiques courbes « intensité-duré-fréquence » dont le modèle le plus répandu est certainement celui dit « de Montana » proposé en 1904 par le Professeur Talbot et qui s’écrit :


$ i_M(t, T) = a(T).t^{b(T)} \quad(7) $


dans laquelle $ a $ et $ b $ sont des paramètres numériques d’ajustement aux données observées et $ i_M(t, T) $ l’intensité moyenne maximale sur la durée $ t $. Il est généralement nécessaire, pour couvrir des durées $ t $ de quelques minutes à quelques jours d’avoir recours à 2 ou 3 couples (a, b). Supposons que l’on puisse décrire l’intervalle de 2h à 24 h par un seul couple $ (a, b) $ alors d’après l’équation (7), pour $ t $ ≥ 2h on pourrait écrire :


$ i_M (t,T) = i_M (24, T) . \left(\frac{t}{24}\right) ^{b(T)}\quad(8) $


Le facteur d’échelle $ b(T) $ présente une certaine constance à l’échelle de la planète, il est, par exemple de l’ordre de - 0,5 pour T = 10 ans. Au demeurant, s’il doit y avoir changement climatique cela signifie que l’échantillonnage est instationnaire ce qui pourrait avoir une incidence sur le facteur d’échelle. Cette incidence devrait être cependant modeste puisque $ b(T) $ semble présenter une certaine stabilité quelque soit le climat terrestre passé (depuis que l’on mesure les précipitations) et actuel. On devrait donc, théoriquement pouvoir juger des effets du changement climatique sur les pluies intéressant les aménagements urbains. Il conviendrait, dans un premier temps, d’analyser les incertitudes propres aux différents modèles climatiques (à égalité d’hypothèses de développement) et vérifier qu’elles ne sont pas supérieures à celles résultant des fluctuations actuelles « naturelles » d’échantillonnage conséquences des modes de mesure des précipitations. Rappelons qu’un pluviographe de bague réceptrice de 400 cm2 représente un échantillonnage de 10–8 à l’hectare et de 10–10 au km2 et qu’il faut une certaine dose d’optimisme pour penser qu’il est représentatif de l’homogénéité et de l’isotropie spatiotemporelle des champs précipitants ! Comme le faisait remarquer, Jean-Marie Masson, un hydrologue de l’Université Montpellier 2: « La seule chose dont on soit sûr, c’est qu’entre les gouttes, il ne pleut pas! ».

Période de retour : une variable probablement mal perçue sociologiquement

Dire qu’une variable hydrologique est, par exemple, décennale ou centennale, signifie qu’elle a respectivement 10 et 1% de risque de se produire chaque année ou qu’elle « revient » en moyenne une fois tous les 10 ou 100 ans. La perception sociologique de la durée moyenne séparant deux réalisations successives d’un phénomène rare, en référence à la durée moyenne de la vie humaine, masque l’importance des risques réels par rapports à d’autres risques usuels (santé, transports, constructions, etc.).

Considérons deux événements hydrologiques de période de retour 10 ans et 100 ans. Sur des durées de 20, 30 et 50 ans ils ont respectivement 87,8, 95,8 et 99,5% de se produire pour $ T $ = 10 ans et 18,2, 26 et 39,5% pour $ T $ =100 ans. Pour un phénomène centennal, pour lequel on peut penser qu’il entraînerait des dommages importants, les probabilités d’occurrence apparaissent donc élevées. Imaginons un jeu de hasard, type Loto, pour lequel on a 1 chance sur 13 millions de gagner en jouant une combinaison élémentaire. Supposons qu’un joueur joue une combinaison 2 fois par semaine durant 6 ans. La probabilité élémentaire $ p $ de gagner à chaque tirage est donc de 1/(13 millions), soit 7,69.10-8. La probabilité de ne pas gagner est donc $ q = (1 – p) $. En 6 ans le joueur aura joué 624 fois et la probabilité qu’il ne gagne pas est de q^{664} soit environ 0,999952. Il a donc une probabilité très faible de gagner : $ (1 – q) $ = 4,8 10-5. Durant cette période, il a en revanche 5,85% de risque de subir une crue centennale, s’il est exposé à ce risque. Il a donc 1219 fois plus de risques de subir une crue centennale durant 6 ans (durée d’un mandat municipal) que de gagner au Loto en jouant 2 fois par semaine durant cette durée ! Il aurait, de même, environ 1000 fois moins de chance de gagner en jouant durant 50 ans 2 fois par semaine que de subir une crue centennale au cours de cette durée. Sur une année, toujours en jouant 2 fois par semaine, la probabilité d’un gain est de l’ordre de 8.10-6. Cela signifie que la « période de retour » d’un gain annuel est de l’ordre de 125 000 ans ! Il est probable que peu de joueurs de Loto soient conscients de ces rapports de probabilité. Et cependant, chaque semaine (voir plus aujourd’hui) des centaines de milliers de personnes (et plus) jouent au Loto avec l’espoir de gagner, tout en pensant qu’ils ont peu de risque de subir un phénomène réputé centennal au cours de leur existence. Et il est vrai que l’un, ou quelques uns, d’entre eux gagnent. A contrario, ces joueurs ne joueront sans doute pas à la « roulette russe » alors qu’il ont 83,3% de chance sur un coup de ne pas subir de dommage et même 33,5% de chance d’échapper 6 fois de suite à ce dommage pour peu que chaque essai ait lieu dans les mêmes conditions. Cette dernière probabilité est sensiblement égale à celle d’observer une crue centennale sur une durée de 50 ans.

Les probabilités ci-dessus concernent l’occurrence d’un seul événement de période de retour $ T $ au cours d’une durée donnée de $ n $ années. On peut également calculer les probabilités d’observer $ k $ événements sur cette durée. Ces probabilités répondent à une loi binomiale dont l’expression est :


$ Prob(k) = C^k_n.p^k . (1 – p)^{n – k} \quad(9) $


Ainsi a-t-on respectivement 3,28 et 7,56% de risque d’observer 2 crues au moins centennales sur des durées de 30 et 50 ans. Ou encore 5,9 % de risque d’observer 3 crues au moins centennales au cours de 100 ans. Ces risques sont donc significatifs et très supérieurs à ceux acceptés dans d’autres domaines de la vie courante.

Choix du niveau de protection d’un aménagement.

En dehors de quelques grands aménagements hydrauliques (grands barrages par exemple) pour lesquels des normes internationales fixent les niveaux de protection qu’ils doivent assurer, et donc les périodes de retour des événements qu’ils sont supposés contrôler, les choix des niveaux de protection résultent de l’histoire des développements des techniques et des adaptations, conséquences des sinistres constatés. A propos de grands barrages, on notera que la règle a longtemps été de calculer leurs évacuateurs de sécurité pour un phénomène millennal. La règle est désormais de retenir une période de retour T de 10 000 ans. Ce changement ne provient certes pas d’une amélioration de nos connaissances en matière de phénomènes hydrologiques, d’un accroissement continu des durées d’observations ou d’une amélioration des traitements statistiques de ces dernières. D’ailleurs, à de telles échelles de temps, se pose la question de l’instationnarité climatique. L’élévation du niveau de protection est dictée par des considérations d’ordre psychosociologique au regard des risques résultant de la rupture d’un ouvrage et pouvant condamner cette technique dans une région donnée. L’augmentation continue du nombre d’ouvrages accroît en effet les risques de ruptures, dans une région donnée, à l’échelle d’une vie humaine. Ainsi, au cours d’une vingtaine d’années, entre 1959 et 1979, une dizaine de ruptures ont fait de l’ordre de 35 000 victimes. Ces sinistres n’ont certes pas milité en faveur du développement de ces ouvrages et conduit à réviser leurs normes de sécurité. La liste ci-dessous récapitule ces sinistres :

1959 : Espagne, Wega de Fera, 144 victimes ; 1959, France, Malpasset , 423 ; 1960, Brésil, L’Oros, 1000 ; 1961, Ukraine, Kiev, 145 ; 1962, Corée du Sud, Sunchon, 163 ; 1963, Italie, Longarone, 2118 ; 1967, Indonésie, Kebumen, 160 ; 1970, Argentine, Mendoza, 100 ; 1972, Colombie, Folédon, 60 ; 1972, USA, Logan, 450 ; 1976, USA, Teton, 140 ; 1979, Inde, Madu, 30000.

En assainissement pluvial urbain, par exemple, la protection décennale a été érigée en principe doctrinal national après la publication de la Circulaire générale 1333 de 1949. Lors de sa révision, à la faveur de l’Instruction Technique 77 284 de 1977, les rédacteurs du document reprirent cette doctrine tout en la modulant. Ainsi peut-on lire en page 22 (Chapitre II « Calcul des débits d’eau pluviale ») :

« Il est souvent admis a priori qu’il est de bonne gestion de se protéger du risque de fréquence décennale. Cependant, un degré moindre pourra être considéré comme acceptable par le Maître d’ouvrage dans les zones modérément urbanisées et dans les zones où la pente limiterait strictement la durée des submersions (...). En sens inverse, dans les quartiers fortement urbanisés et dépourvus de relief, le Maître d’ouvrage n’hésitera pas à calculer les collecteurs principaux en vue d’absorber les débits de période de retour de 20 ans, voire 50 ans de manière à éviter, même à de tels intervalles, des inondations étendues et prolongées compte tenu de la longévité des ouvrages et de l’accroissement continuel du coefficient de ruissellement ».

On notera que la modularité de la période de retour du risque était dictée par des considérations de dégâts résultant de la durée des submersions potentielles dans des secteurs à faible relief. Divers sinistres majeurs survenus, en France, à la fin des années 1980 et dans les années 1990 (Nîmes, 1988 ; Vaison la Romaine, 1992 ; Puisserguier (Hérault), 1996 ; Aude 1999) montrèrent que plus que la durée de submersion la vitesse des écoulements en surface était responsable des dommages les plus graves, et, notamment, des pertes en vies humaines.

La question des conséquences de phénomènes pluvieux de période de retour supérieure à celle utilisée pour le calcul des ouvrages avait été également abordée par l’IT 77 284 et l’on peut lire au Chapitre 1, paragraphe I.4.00, « La pluviométrie de la région » :

« Il est donc inévitable d’accepter des insuffisances occasionnelles pour les ouvrages et d’en mesurer les conséquences (…) en examinant les chemins de l’eau en cas d’insuffisance des réseaux ».

En réalité, l’absence, au début des années 1980, d’outils de simulation permettant de juger rapidement des conséquences d’un choix donné limita fortement la portée de ces recommandations, qu’il s’agisse de la modularité de la période de retour de protection et, a fortiori, des conséquences de pluies extrêmes, elles même assez mal connues à l’époque. Par suite, les Maîtres d’ouvrages choisirent des périodes de retour de protection au gré des habitudes locales ou de recommandations techniques proposées au fil des ans par des organismes comme le Service Technique de l’Urbanisme ou le CERTU. C’est ainsi qu'on été proposées les niveaux de protection de la norme NF EN 752-2 (aujourd'hui obsolète) qui peut se résumer dans la figure 1 :


Figure 1 : Extrait de la norme NF EN 752-2.

De même, pour les ouvrages de retenue des eaux pluviales, l’Encyclopédie de l’Hydrologie Urbaine (Chocat et al., 1997) indique : « Même si on choisit souvent des période de retour d’insuffisance du même ordre de grandeur que celles prises en compte pour les réseaux (10 à 20 ans), il ne faut pas hésiter à prendre parfois en compte des périodes de retour beaucoup plus longues (100, 200 voir 500 ans) lorsqu’un débordement d’un bassin fait courir des risques graves à la population » (voir les observations ci-dessus à propos des grands barrages).

S’agissant de précipitations sur des durées inférieures à 24 heures et donc observées à l’aide de pluviographes, estimer une hauteur de pluie de période de retour 200 ou 500 ans avec une cinquantaine d’années d’observation peut poser problème sur le plan statistique.

L’extrapolation des fonctions de distribution retenues pour caractériser l’occurrence d’un phénomène donné peut conduire à des approximations très grossières. Nous avons vu le cas de l’estimation de la période de retour des pluies sur Nîmes le 3 octobre 1988 suivant les durées retenues et les modèles statistiques utilisés. Certains avaient conclu, par référence à la station de Nîmes Courbessac, à un phénomène de période de retour 500 ans. En réalité, l’examen des archives de la ville depuis le 14ème siècle montre que le site a connu, depuis cette date, de nombreuses inondations qui auraient donné lieu à des dommages sérieux dans la ville d’aujourd’hui (« instationnarité » de l’occupation des sols faussant la statistique des « dommages »). Ainsi, l’examen de ces sinistres conduit à conclure que l’événement de 1988 était probablement à peine centennal et que le site nîmois présente désormais des risques de dommages significatifs pour des fréquences bien supérieures. De même a-t-on conclu peut être un peu vite au caractère millennal des crues de septembre 2002 dans le Gard, au cours desquelles les précipitations avaient atteint, localement 700 mm en 24 heures (« L’équivalent d’une année de précipitations » selon l’expression chère aux journalistes, appréciation n’ayant aucun sens statistique dans une région où même les pluies annuelles ne sont pas normalement distribuées…). En réalité, des recherches effectuées dans les gorges du Gardon ont montré qu’une grotte, dont le niveau d’ouverture se situait à 3 m au-dessus du niveau atteint en 2008, avait été envahie au moins trois fois par des crues depuis le 16ème siècle grâce à l’analyse, au carbone 14 des sédiments qui y avaient été retrouvés. Si donc on compte ces 3 crues, celles récentes de 1958 et de 2008 et la crue monstrueuse de 1404 qui engloutit totalement le village de Massillan, la période de retour des crues de 2008 serait donc à peine centennale sachant que d’autres crues auraient pu se produire avec des niveaux inférieurs à la cote des grottes. Face à ces incertitudes, la tendance actuelle est à l’augmentation des périodes de retour de protection des travaux neufs en matière d’assainissement urbain, ne serait-ce que pour compenser certaines erreurs du passé, l’instationnarité de la vulnérabilité des secteurs construits ou la constitution d’une marge d’adaptation pour de futurs développements.

Par ailleurs, plus que la valeur absolue de la période de retour de protection que devrait assurer un ouvrage donné, les Maîtres d’ouvrages devraient attacher plus d’importance au poids relatif de cette valeur sur les caractéristiques de l’ouvrage. A ce sujet, on peut simplifier l’analyse de ce poids par quelques calculs simples. D’après la formule rationnelle d’un usage courant pour évaluer les débits de ruissellement de bassins versants urbanisés, ces derniers sont proportionnels aux intensités moyennes des précipitations sur les temps de concentration des bassins. Ces débits sont donc entachés des mêmes incertitudes, toutes choses égales par ailleurs. Leurs conséquences sur les dimensions moyennes des ouvrages peuvent être appréciées par de simples considérations hydrauliques. Pour une évacuation à pleine section par un tuyau circulaire de diamètre $ D $, la formule de Strickler conduit à :


$ Q = (\frac{1}{4})^{8/3} .K . D^{8/3}. I^{1/2}\quad (10) $


Avec :

  • K : coefficient de Strickler ;
  • I : pente du collecteur.


L’équation(8) conduit à


$ \frac{∆Q}{Q} = \frac{8}{3}. \frac{∆D}{D} = \frac{∆i}{i} = \frac{∆T}{T} . \frac{1}{log(T)} \quad(11) $

$ i $ étant l’intensité moyenne sur la durée du temps de concentration. Ainsi, une incertitude de 20% sur la pluie de projet se traduirait-elle par une incertitude de 7,5% sur le diamètre du tuyau. Si le coût des collecteur devait représenter 50% du coût total du réseau, l’incertitude sur ce coût résultant de celle sur la pluie de projet ne serait donc que de l’ordre de 4%, c’est-à-dire bien inférieure à celle avec laquelle le coût du projet peut être estimé. Ainsi passer d’une protection décennale à une protection centennale, soit $ T $ multiplié par 10, conduirait à multiplier approximativement le débit de projet par 2, le diamètre moyen des collecteurs par 1,375 et le coût du réseau par 1,19. Il est donc possible d’assurer un surcroît de protection, au sens statistique du risque, sans pour autant entraîner des dépenses considérables.

Un problème demeure cependant, qui fut retenu lors des travaux de l’Instruction 77 284 : choisir une période de retour de protection très élevée peut entraîner de mauvais fonctionnements quasi permanents des ouvrages fondés sur des évacuations gravitaires des ruissellements, les vitesses d’écoulement ne permettant pas des conditions satisfaisantes d’auto curage et donc entraînant des surcoûts d’exploitation qui pourraient devenir une contrainte économique majeure au regard de la durée de vie des ouvrages. C’est dans ce cadre là que les systèmes de stockage peuvent présenter un grand intérêt dans la mesure où, suivant leur mode de régulation, ils peuvent assurer des niveaux de protection très élevés, tout en garantissant des fonctionnements hydrauliques acceptables à l’aval.

Conclusions.

Depuis le développement des réseaux de pluviographes, au milieu du 20ème siècle, on dispose aujourd’hui d’une information considérable autorisant la réalisation de multiples scénarios par le biais de progiciels de simulation du comportement des bassins versants et de leurs équipements d’assainissement. Ces progiciels ont connu des développements très importants à la fin des années 1980. On dispose donc, théoriquement, d’un arsenal d’outils qui devraient désormais autoriser une approche « intelligente » de l’aménagement hydrologique des sites urbanisés.

Si le niveau de protection que devrait assurer les ouvrages reste de la compétence des collectivités territoriales, la période de retour associée à ce niveau ne peut être qu’un paramètre indicatif dont la sensibilité à la nature des données hydrologiques manipulées limite la portée dans l’estimation fiable des risques encourus. Plus que la définition au coup par coup, opération après opération, de la période de retour que devrait assurer les ouvrages de chaque opération, l’aménagement urbain devrait relever désormais d’une approche intégrée des conséquences hydrologiques à l’échelle des bassins versants sur lesquels ces opérations sont réalisées. En effet, quand bien même chaque opération serait correctement conçue pour assurer un niveau de protection donné, la non linéarité des processus hydrologiques ne permet pas d’assurer que ce niveau serait globalement atteint pour l’ensemble des opérations d’une unité hydrologique particulière. C’est notamment le cas des aménagements comportant de nombreux bassins de retenue des eaux pluviales qui, par l’allongement artificiel des temps de concentration, peuvent conduire localement, à l’aval, à des débits plus importants que ceux qui auraient existé en l’absence de ces bassins de retenue. Par ailleurs, les résultats issus des bases de données des arrêtés de catastrophe naturelle « inondation » (arrêtés « catnat ») permettent de s’interroger sur les niveaux de protection moyens assurés par les systèmes existants. En 2003, le Directeur du Bureau des Risques Naturels indiquait qu’au cours de la période 1982-2003, 4199 communes avaient bénéficié de plus de 5 arrêtés. Pour ces communes, la fréquence empirique de désordre était donc inférieure à 4 ans. En supposant que ces communes étaient dotées d’équipements d’assainissement autorisant une maîtrise décennale classique des ruissellements, cela signifierait (d’après l’équation 9) que la probabilité d’une telle accumulation d’incidents au moins décennaux serait seulement de 4,4 % ce qui est bien sûr très faible…

La consultation de la base de données « Gaspar » du MEEDDM est ainsi très riche d’enseignement pour juger du niveau moyen de protection des équipements communaux face au risque d’inondation. Ainsi, à la suite du sinistre de Draguignan en juin 2010, le bilan « catnat » de la région PACA fait apparaître des résultats parfois surprenants. Sur la période 1982-2009, soit 28 ans, 281 communes sur 963 (29,2%) ont bénéficié de plus de 3 arrêtés, dont 114 de 6 à 10, dont 20 de plus de 10, le maximum étant de 21 pour une commune ! Avec la même hypothèse que ci-dessus, les communes à 6 arrêtés n’avaient que 3,7% de risque de connaître 6 événements au moins décennaux durant la période 1982-2009. Ce risque tombe à 0,02% pour 10 arrêtés et à 5,7 10- 14 % pour le record ! Il est par conséquent très probable que de nombreuses communes françaises soient dans des situations de grande vulnérabilité dont les origines peuvent être nombreuses et parmi lesquelles on peut rencontrer :

  • des données climatologiques inadaptées (séries pluviométriques courtes en climat irrégulier comme le climat méditerranéen) pour calculer des ouvrages conçus il y a quelques dizaines d’années.
  • une topographie favorable à la concentration des écoulements intra et extra-muros.
  • une sous estimation des débits potentiels de petits cours d’eau apparemment inoffensifs et de l’importance de leurs champs d’inondation.
  • la densification continue de l’urbanisation et l’accroissement de l’imperméabilisation par rapport aux hypothèses initiales.
  • des erreurs dans la conception des systèmes d’écoulement conduisant à de multiples incidents lors d’épisodes de pluie intense non nécessairement exceptionnels : fils d’eau de voirie mal conçus ; avaloirs mal implantés ou mal entretenus ; entonnement et grilles de protection mal placés et favorisant les obstructions par les flottants, etc.

Parfois, la non prise en compte des retours d’expérience dans une région donnée, la « perte de mémoire », peut entraîner des conséquences graves. Ainsi, après les événements catastrophiques de Nîmes en octobre 1988 qui avait mis en évidence le risque pluvial d’auto inondation des agglomérations, l’Ingénieur Général Ponton, en conclusion de son rapport d’expertise, avait signalé un certain nombre de villes plus particulièrement exposées à ce risque parmi lesquelles Vaison la Romaine, qui fut sinistrée en 1992, et … Draguignan ! Les responsables du développement de cette ville ont-ils tenu compte du rapport Ponton ?

Désormais, le développement de l’urbanisation dans une collectivité, et a fortiori un ensemble de collectivités installées sur le même système hydrologique, devrait être analysé au travers d’un Schéma Directeur d’Assainissement intercommunal en vue d’une gestion intégrée des écoulements dans ce système. Mais au-delà d’une analyse pour une maîtrise classique des écoulements, c’est-à-dire pour des risques « ordinaires » correspondant à des périodes de retour de 10 à 50 ans par exemple, les développements de l’urbanisation devraient faire l’objet d’études de vulnérabilité sous des phénomènes rares à exceptionnels qui pourraient remettre en question certaines options en raison des risques encourus. Ces études ont longtemps étaient difficiles à mettre en œuvre en raison de l’absence de progiciels de simulation de l’inondabilité d’un secteur donné. Ces outils se développent rapidement actuellement et devraient être disponibles très prochainement.


L’utilisation de ces outils devrait permettre de limiter la multiplication des erreurs d’aménagement ayant conduit, depuis 1982 à un accroissement continu des prélèvements au titre de la garantie « dommages » des contrats d’assurance. S’il est classique de dire que « le risque zéro n’existe pas », en matière d’inondation cette banalité, énoncée à chaque catastrophe par des « responsables », ne résiste pas à l’analyse. Pour le Département du Gard, par exemple, on estime que seulement 7% du territoire est exposé à un risque élevé d’inondation, il y a donc théoriquement beaucoup d’espace où l’on peut se considérer à l’abri de ce risque. Cela peut donc interroger sur le traitement mutualiste de ce risque par le biais d’un fond d’indemnisation alimenté par une majorité d’individus ne courant aucun risque pour leurs biens immobiliers. Cette observation doit cependant être tempérée au regard des pertes en vies humaines dont une proportion élevée résulte de conducteurs de véhicules pouvant se trouver loin de leur résidence non exposée. Ce risque est désormais une composante incontournable des inondations pluviales en milieu urbain ou par des crues éclair en climat méditerranéen. Ainsi, entre les inondations de 1958 et de 2002 dans le Gard, on a estimé que la population gardoise passe 13 fois plus de temps à bord d’un véhicule automobile (Michel Lescure, CG 30). Quoiqu’il en soit, on ne peut désormais se réfugier derrière le « cas de force majeure » dès qu’il commence à pleuvoir « un peu fort ». L’information hydrologique et les outils de simulation des comportements hydrologiques des bassins versants existent et doivent être utilisés de façon préventive pour limiter ces spectacles désolants dont rendent compte les journaux télévisés après chaque orage significatif se produisant du nord au sud du pays. « Responsable » sans risque pourrait bien être une espèce en voie de disparition dans des sociétés de plus en plus portées à l’action judiciaire.

Outils personnels