Températures extrêmes

 

L'étude de l'évolution de la fréquence des événements météorologiques ou climatiques extrêmes est limitée par une contrainte sévère: il faut des séries longues et homogènes. Plus le phénomène est rare, plus la série doit être longue. Pour estimer raisonnablement la fréquence d'un événement qui arrive en moyenne une fois tous les cinq ans, il faut cent ans de données. Or, au cours du siècle passé les observations n'ont pas été homogènes, et surtout on a de bonnes raisons de penser que le climat n'a pas été homogène (réchauffement de 0,5°C sur la France en moyenne en un siècle).

Une solution à ce problème vient des simulations numériques. On est sûr de l'homogénéité des séries produites, puisque on maîtrise leur production, et on n'est  limité pour la durée des séries que par la puissance de calcul disponible. De plus, on peut décider d'imposer au modèle des changements plus drastiques que ceux subis depuis un siècle (par exemple doubler la concentration de dioxyde de carbone) et ainsi augmenter le rapport signal sur bruit et donc la capacité à distinguer les impacts des fluctuations naturelles. Le revers de la médaille est que les séries produites par un modèle n'ont pas la même distribution statistique que les séries observées. Le modèle, bridé par ses conditions de stabilité numérique, ne peut pas produire de valeurs paroxystiques.

La version régionale du modèle ARPEGE-climat de Météo-France offre, tout en couvrant le globe, une résolution de 60 km sur la France qui permet de représenter sommairement les principaux massifs montagneux de notre pays. Ce modèle a fait l'objet de trois simulations couvrant les 40 dernières années du siècle. Il est donc possible de calculer la distribution des températures et précipitations avec une bonne précision statistique et d'évaluer les contrastes géographiques et saisonniers sur la France.

Quand on compare cette distribution à celle observée au cours des 50 dernières années dans les stations du réseau de Météo-France, on constate que le modèle est assez fidèle dans les plages moyennes. Il restitue assez bien les fréquences de hautes températures et, en hiver, de précipitations abondantes. Il pèche dans les vagues de froid et dans les précipitations abondantes d'été dont il sous-estime les amplitudes. Dans le domaine des faibles précipitations, le modèle exagère le nombre de jours avec des pluies faibles. Cependant, ces biais peuvent se corriger a posteriori en considérant qu’une valeur de température ou de précipitation fournie par le modèle n'a de valeur que par rapport à la série des valeurs produites par le modèle. Par exemple les températures minimales diurnes de -5°C au point du modèle le plus près de Paris sont rares dans la série climatique simulée et correspondent, en terme de fréquence, aux minimales de -10°C observées à Orly. Une fois les biais corrigés, on dispose de séries modélisées qui ont la même distribution statistique, par construction, que les séries observées à la station météorologique la plus proche.

Dans le cadre du projet européen PRUDENCE et du projet français IMFREX, le modèle a fait l'objet de trois simulations de 30 ans avec des conditions supposées pour les années 2070-2099 dans l'hypothèse du scénario baptisé A2 par le GIEC. Les séries quotidiennes ont subi le même traitement que celles du 20ème siècle. On fait l’hypothèse (raisonnable mais invérifiable) que les défauts du modèle ne dépendent pas crucialement de la perturbation climatique introduite via les concentrations des gaz à effet de serre. On peut donc calculer de nouvelles fréquences pour des phénomènes rares, mais assez nombreux pour constituer un échantillon. On peut remarquer que si on avait raisonné en terme de quantile (ex : le quantile de température à 95% augmente de X°C) au lieu de raisonner en terme de fréquence (ex : la fréquence des températures maximales supérieures à 30°C augmente de X%), il n'y aurait pas eu besoin de calibrer les séries du modèle par rapport à l'observation. Mais le public et les usagers ont besoin de se situer par rapport à des seuils, et l’approche par fréquence répond à leur besoin.

On présente ici, pour 8 villes et les 8 points de grille du modèle les plus proches, quelques fréquences de phénomènes rares (mais non paroxystiques) pour le climat présent et le climat projeté à la fin du 21ème siècle. Les résultats aux saisons intermédiaires (printemps et automne) ne présentent pas d'intérêt en terme de température. En terme de précipitations, il s'apparentent aux résultats d'hiver (augmentation des fréquences de pluies fortes). Ces résultats ont été obtenus avec des données observées non homogénéisées issues de Climathèque ; ils sont donc provisoires. Le modèle ayant environ 300 points de grille sur notre sol, on pourra raffiner les résultats géographiquement quand les données de la Direction de la climatologie préparées pour IMFREX seront disponibles.

Cette approche ne fait intervenir ni la structure spatiale ni la structure temporelle des données. Elle ne peut pas s'appliquer à des phénomènes comme les tempêtes, les sécheresses ou les crues résultant de pluies cumulées. Dans le cadre d'IMFREX, des méthodes plus élaborées seront mises en œuvre. Compte tenu du modèle utilisé, les phénomènes d'échelle sous-synoptique (tornades et inondations éclair) ne peuvent être abordés.

 

 

Lille

Rennes

Paris

Strasbourg

Lyon

Bordeaux

Toulouse

Marseille

actuel

1

1

1

1

2

2

2

1

futur

5

9

11

13

22

12

24

27

 

Probabilité (%) Tmax >35°C en été

 

 

 

Probabilité Tmax > 35°C en été : climat actuel

Probabilité Tmax > 35°C en été : climat futur

 

 

 

Lille

Rennes

Paris

Strasbourg

Lyon

Bordeaux

Toulouse

Marseille

actuel

10

5

7

17

10

5

5

3

futur

2

1

1

4

1

1

1

1

 

Probabilité (%)  Tmin <-5°C en hiver

 

 

 

 

Probabilité Tmin < -5°C en hiver : climat actuel

Probabilité Tmin < -5°C en hiver : climat futur