TEMPERATURE ET PRECIPITATIONS EXTREMES SUR LA FRANCE DANS UN SCENARIO DE CHANGEMENT CLIMATIQUE

 

Michel DEQUE

Météo-France, Centre National de Recherches Météorologiques

42 avenue Coriolis, 31057 Toulouse, France

deque@meteo.fr

 

Mots clés:modèle numérique, extrêmes, température, précipitations, scénario

 

Abstract: Impact of an anthropogenic climate change scenario on the frequency distribution of temperature and precipitation over France is studied with a numerical simulation calibrated with observed daily data from the synoptic network

 

Introduction

Les modèles numériques de simulation du climat ont pour but de synthétiser notre connaissance des lois physiques de l'atmosphère et de son interaction avec la surface. Ils offrent ainsi la possibilité d'obtenir un pronostic scientifiquement raisonnable de ce que pourrait être le climat de la fin du 21ème siècle si on suppose que, toutes choses égales par ailleurs, l'augmentation de la concentration en gaz à effet de serre, observée depuis le début de l'ère industrielle, se poursuit.

 

Le groupe d'experts international sur l'évolution du climat (GIEC) a proposé un certain nombre de scénario d'émissions annuelles de gaz à effet de serre et d'aérosols pour le 21ème siècle, en se fondant sur des hypothèses économiques, démographiques, et technologiques. Nous ne retiendrons ici que le scénario A2. Les modèles de chimie utilisant une version simplifiée des lois de l'atmosphère en ont déduit des hypothèses de concentration globale pour les gaz à effet de serre, et géographique pour les aérosols; ceux-ci, ayant une durée de vie plus courte et des sources localisées, ne se répartissent pas uniformément sur le globe. A partir des concentrations, les modèles dynamiques couplés océan-atmosphère ont calculé l'évolution des températures de surface de la mer et d'étendue de banquise. Nous nous limiterons ici à l'utilisation des données calculées par le Hadley Centre, car elles constituent une sorte de standard en Europe (projet européen PRUDENCE). Il faut cependant savoir que d'autres centres en Europe, dont le CNRM, disposent de leur propre simulation couplée.

 

Ces modèles globaux couplés sont très coûteux et les intégrations doivent être longues pour assurer l'équilibre de la composante océanique. C'est pourquoi on utilise une résolution horizontale de l'ordre de 300 km pour qu'une simulation d'un siècle ne dépasse pas quelques mois sur les calculateurs les plus puissants disponibles à l'heure actuelle. Une telle résolution est insuffisante à l'échelle de la France. En particulier les Alpes sont rejetées vers la Suisse, les Pyrénées au centre de l'Espagne, et le Massif Central n'est pas représenté. Ce n'est qu'à partir de 50 km que les caractéristiques  orographiques du modèle sur la France commencent à être en accord avec les manuels de géographie (même si les Alpes ne culminent pas à 4807 m !). C'est ici qu'intervient la modélisation régionale du climat. La plupart des centres de recherche utilisent un modèle d'aire limitée couvrant leur pays ou leur continent (compromis entre moyen de calcul et résolution horizontale) et contraint aux bords de son domaine par les variables météorologiques calculées toutes les 6 h par le modèle couplé à basse résolution. Nous utiliserons ici une autre approche qui utilise un modèle global à résolution variable.

 

Méthode

Le modèle ARPEGE-Climat utilisé à Météo-France est dérivé du modèle de prévision opérationnelle à courte échéance. Ces deux modèles utilisent une option originale qui consiste à faire varier la résolution horizontale entre une zone d'intérêt et ses antipodes (Déqué et Piedelievre, 1995). Dans la version climat, la résolution varie de 50 km au centre de la Méditerranée à 450 km dans le Pacifique Sud. Cela assure une résolution d'au moins 60 km sur la France. Une expérience de 40 ans utilisant les températures de surface de la mer observées de 1960 à 1999 permet de vérifier que le modèle reproduit le climat présent avec une précision suffisante (Gibelin et Déqué, 2003). Cette expérience est tripliquée en utilisant deux autres jeux de situations initiales. Pour la période 2070-2099, on procède de la même manière, sauf que les concentrations en gaz à effet de serre et aérosols proviennent des hypothèses A2 du GIEC et les températures de surface de la mer sont incrémentées par les anomalies (différences entre la simulation perturbée et la simulation de référence) calculées par le Hadley Centre. Cette deuxième période est également tripliquée. Nous disposons donc de 120 années virtuelles représentatives de la fin du 20ème siècle et de 90 années représentatives de la fin du 21ème siècle.

 

Si on veut étudier l'impact du changement climatique sur la fréquence des extrêmes de température et de précipitations, la relativement bonne adéquation du climat moyen simulé avec le climat observé n'est pas un gage suffisant. En effet, le modèle est une simplification humaine d'un système énormément plus complexe. Le nombre de degrés de liberté du modèle, de l'ordre de trois millions, est très inférieur au nombre de molécules en jeu dans le système atmosphérique de la planète. Aussi, on peut s'attendre à ce que la variabilité jour par jour des états simulés par le modèle soit différente de celle observée. En particulier on s'attend à ce que le modèle sous-estime les phénomènes extrêmes. On n'en demande pas tant au modèle. On souhaite simplement que le modèle varie dans le même sens et du même ordre de grandeur que la réalité quand on lui applique une perturbation systématique.

 

Dans l'exploitation classique des simulations climatiques, on travaille en mode anomalie. On fait l'hypothèse que si le modèle a un biais raisonnable (par exemple s'il est 1°C trop chaud), ce biais sera sensiblement le même dans le climat de la fin du 21ème siècle. Si cette hypothèse était fausse, il faudrait renoncer à toute étude numérique, car même la simulation à la perfection du climat présent ne nous garantirait pas contre des biais grossiers dans le climat simulé en réponse à une modification de l'effet de serre. Sous cette hypothèse, on exprime que si la différence entre une simulation pour le climat perturbé et une simulation de contrôle est de 2°C, on peut estimer que le réchauffement réel serait aussi de l'ordre de 2°C. En fait la simulation perturbée est plus chaude de 3°C par rapport au climat présent, mais on enlève 1°C dû au biais du modèle. Une telle méthode de correction ne rendra pas les fréquences des phénomènes extrêmes du modèle plus réalistes. Si la température la plus froide simulée par le modèle  est de -5°C, on obtiendra -6°C après correction, mais jamais les -20°C observés.

 

Il faut donc travailler sur la fonction de répartition et non sur la moyenne. Cela nécessite beaucoup plus de données, car un histogramme empirique de fréquence est bien plus sensible à l'échantillonnage. Nous avons utilisé 54 années de données quotidiennes pour 32 villes du réseau d'observation de Météo-France. Les quatre saisons ont été traitées indépendamment. Les 32 points de grille de modèle les plus proches de ces villes ont été extraits. Les paramètres étudiés sont les températures minimales et maximales diurnes et les précipitations quotidiennes. Les 99 centiles ainsi que les deux extrêmes absolus ont été évalués pour chaque ville, chaque saison et chaque paramètre. Dans le cas du modèle, les 3 simulations de 40 ans (ou de 30 ans) ont été traitées séparément et les centiles ont été moyennés pour assurer une meilleure stabilité statistique. Les extrêmes toutes villes confondues, ainsi que toutes villes et toutes saisons confondues (toutes simulations dans le cas du modèle) ont également été calculés pour pouvoir extrapoler les cas où une donnée du 21ème siècle est supérieure au maximum absolu des simulations du 20ème siècle. On dispose ainsi, pour chaque ville, paramètre et saison, d'une table de correction qui transforme une donnée modèle en donnée observée. Dans le cas où la même donnée modèle correspond à plusieurs données observées (cela peut arriver avec les précipitations nulles) un tirage au sort est effectué à chaque correction d'une donnée modèle: cela garantit que l'histogramme des fréquences du modèle pour le 20ème siècle est le même que l'histogramme observé.

 

Figure 1: fréquence observée (trait plein) simulée (tireté) et scénario (pointillé) à Paris pour, de gauche à droite : Tmin (°C), Tmax (°C) et précipitations (mm/jour) ; de haut en bas: hiver, été, hiver corrigé, été corrigé.

 

Résultats

La place allouée à ce texte ne permet pas d'exhiber les histogrammes pour les 32 villes. La figure 1 montre les valeurs obtenues pour Paris (en fait il s'agit d'Orly). Les résultats sont en général similaires pour les autres villes. En ce qui concerne la température minimale diurne (les données du modèle sont, comme pour la température maximale, ramenées à l'altitude de la station météorologique par un gradient de 6,5°/km), le modèle se comporte bien pour les températures élevées en hiver, est 1° à 2° trop chaud pour les valeurs médianes, et 5° trop chaud pour les valeurs froides. En été, le modèle colle à la réalité. Après correction (les deux rangées du bas) , la courbe tiretée se confond avec la courbe pleine, signe que la méthode de correction est efficace. La courbe pointillée (scénario), montre que le réchauffement hivernal est sensiblement le même à toutes les plages de fréquence, sauf pour les centiles les plus élevés (températures chaudes). Cependant, une lecture transversale du diagramme montre que la probabilité de descendre en dessous de 0°C passe de 30% à 10%, tandis que la probabilité de dépasser 10°C passe de 2% à 10%. En été, on constate que les centiles correspondant aux températures les plus chaudes sont plus affectés que les autres. Il en résulte que la valeur 20°C qui n'est observée que dans 2% des cas en minimale diurne, se retrouve dans le scénario avec une probabilité de 25%.

Dans le cas de la température maximale diurne hivernale, le modèle sous-estime les maxima et sur-estime les minima. En été la sous-estimation concerne tous les centiles. On notera cependant que l'impact du changement de climat est deux à trois fois plus important que le biais. Après correction, on trouve une augmentation de tous les centiles, plus importante en été qu'en hiver.

Le défaut majeur des précipitations est de sur-estimer la fréquence des faibles valeurs. La probabilité d'occurrence de pluie est environ deux fois plus forte dans le modèle. En outre, en été, le modèle sous-estime les fréquences des fortes précipitations. Après correction, le modèle augmente tous les centiles d'hiver et diminue les centiles d'été. La probabilité d'avoir plus de 10 mm/jour en hiver passe de 2,5% à 4% tandis qu'en été elle passe de 4% à 2,5%.

 

Conclusion

Nous avons présenté ici des résultats concernant les impacts sur les températures et précipitations sur Paris à titre d'illustration, mais la méthode a été appliquée sur toute la France et les détails géographiques sont disponibles. Dans l'ensemble, tous les centiles de température augmentent, et les fortes précipitations deviennent plus fréquentes en hiver et moins fréquentes en été. Lorsqu’on présente les résultats en terme de probabilité de dépassement de seuil, l’impact du changement climatique est plus impressionnant que lorsqu’on considère l’accroissement ou la diminution des centiles.

 

Bibliographie

DEQUE, M. et PIEDELIEVRE, J.P., 1995: High resolution climate simulation over Europe. Climate Dynamics, 11: 321-339.

GIBELIN, A.L. et DEQUE, M., 2003: Anthropogenic climate change over the Mediterranean region simulated by a global variable resolution model. Climate Dynamics, 20: 327-339.

 

Remerciements

Ce travail a été en partie soutenu par le programme Gestion des Impacts du Changement Climatique (projet IMFREX) du Ministère de l’Ecologie et du Développement Durable.