Les estimations du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) sont-elles alarmistes, comme le disent les climato-sceptiques? Ou alors sont-elles trop prudentes, car le fruit d’un trop large consensus? Les mesures sur le terrain renseignent sur l’acuité des projections des modèles avancées il y a quelques années
Les climatologues versent-ils exagérément dans l’alarmisme, comme les accusent les climato-sceptiques? A l’inverse, sont-ils trop prudents, un certain conservatisme dans les projections climatiques permettant d’y faire adhérer un plus grand nombre de voix? Alors que sera publié le 27 septembre le premier volet (bases scientifiques) du rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), la question se pose, tant ce document sert de base aux décideurs dans leurs actions pour contrer les effets du réchauffement. «Un modèle reste un modèle», rétorquent les experts. Mais que révèle la comparaison de ces projections et des mesures de ces dernières années? Tour d’horizon non exhaustif.
Banquise
Dans son rapport en 2007, le GIEC ne s’attendait pas à voir la glace de mer complètement disparaître, en été, avant la fin du siècle. Les données collectées par le National Snow and Ice Data Center (NSIDC), à Boulder (Etats-Unis), indiquent que la fonte de la banquise est plus rapide que prévu par les modèles – sa surface a perdu environ 4% par décennie entre 1979 et 2011. En 2012, en Arctique, elle a atteint un minimum de 3,4 millions de km2. Cet été, pourtant, la superficie restante était encore de 5,1 millions de km2 … Les glaciologues expliquent cette discrépance par une période estivale inhabituelle dans l’Arctique, avec une forte présence de nuages à effet refroidissant (LT du 10.09.2013). Mais ils soulignent que la tendance à long terme est à la baisse – la glace de mer pourrait avoir disparu, en été, d’ici à 30 ans –, et cela toujours plus vite que les modèles. «Ceux-ci ne tiennent pas compte de tous les mécanismes de fonte possibles, dont certains seraient en train de changer», justifie Mark Serreze, directeur du NSIDC.
Niveau des océans
La hausse du niveau des océans, due à une expansion thermique volumique de l’eau ainsi qu’à l’eau de fonte, a aussi été plus rapide que prévu. En 2001 déjà, le GIEC tablait sur une augmentation de 2 mm par an. Or, depuis 1990, ce sont 3,3 mm annuels additionnels qui ont été mesurés. A l’époque, il est vrai que le GIEC n’avait pas inclus dans ses modèles la fonte encore mal connue des calottes polaires, ce qui devrait être le cas dans le prochain rapport. La fourchette d’augmentation possible d’ici à 2100, en fonction des divers scénarios climatiques, ne serait donc plus de 18 à 59 cm, mais de 28 à 97 cm, selon les brouillons du rapport qui ont filtré dans la presse.
Taux de CO2 dans l’air
Concernant les concentrations de CO2 dans l’atmosphère, dans l’ensemble, les mesures effectuées lors des dernières décennies concordent avec les modèles, même si les émissions de la Chine et de l’Inde en particulier avaient été sous-estimées.
Température en surface
En 2007, selon le pire scénario, le GIEC prévoyait une augmentation du mercure de 2,4 à 6,4°C d’ici à 2100. Selon une étude du MIT de Boston, on devrait désormais plutôt tabler sur une fourchette de 3,5 à 7,4°C! Or les mesures des dernières décennies présentent un tableau moins noir: l’augmentation de la température par décennie n’a été que de 0,12°C, alors que le GIEC, en 2007, l’estimait à 0,2°C par décennie, toujours après avoir calculé une moyenne projetée sur 20 ans. Depuis 15 ans, les climatologues s’accordent à dire que la courbe des températures atteint un «plateau», s’éloignant de plus en plus des évolutions projetées, cela alors que les quantités émises de gaz à effet de serre ne cessent d’augmenter… Ils s’interrogent sur les raisons pour lesquelles le réchauffement ralentirait (LT du 23.04.2013).
Reto Knutti, climatologue à l’EPF de Zurich, relativise: «En choisissant bien ses points références, on peut montrer que l’évolution des températures durant tout le XXe siècle n’est qu’une suite de plateaux. Pourtant, on sait la variation totale à la hausse.» Selon lui, il faut donc replacer le fléchissement actuel sur une échelle plus large. Cela dit, il existerait trois explications possibles.
La première implique une modification du «forçage radiatif» de la Terre, ce bilan des énergies reçue et émise par le système climatique de notre planète. «La source d’énergie qu’est le Soleil fut notamment, durant la décennie écoulée, plus calme qu’estimé. Personne n’avait prévu ce phénomène», qui semble cependant ne contribuer que faiblement à la stagnation du réchauffement.
Le deuxième motif possible met en cause la «sensibilité climatique à l’équilibre» de la Terre: cette notion renseigne sur l’augmentation probable de la température pour un doublement de la concentration en CO2. Jusque-là, cette valeur se trouvait entre 2 et 4,5°C. Un débat est né dans la communauté des scientifiques, dont certains estiment que ces chiffres ont été surestimés. Autrement dit que la Terre supporterait mieux que prévu une forte augmentation des gaz à effet de serre. A tel point que, selon les ébauches du futur rapport du GIEC, la limite inférieure de la fourchette pourrait être ramenée à 1,5°C. Reto Knutti ne nie pas la dispute, mais précise: «La sensibilité climatique doit se comprendre comme une réponse à des forces agissant à long terme», l’augmentation des températures n’étant en effet pas immédiatement consécutive à celle du taux de CO2. «Elle ne peut expliquer une variation uniquement sur dix ans de mesures.» Et d’ajouter: «Cette sensibilité a peut-être été surestimée de 10 ou 20%, mais pas énormément plus au point de remettre totalement ce concept en question», comme n’hésitent pas à le faire des climato-sceptiques.
Enfin, dernière explication possible: la variabilité naturelle, liée à des phénomènes impliquant des courants océaniques (El Niño ou La Niña), ou au fait qu’actuellement les océans «engloutiraient» dans leurs couches profondes de la chaleur prélevée dans l’atmosphère. «Nos mesures le confirment», dit Kevin Trenberth, analyste du climat au National Center for Atmospheric Research (NCAR) de Boulder, qui publiera ses résultats sous peu.
«Il est difficile de quantifier la part de ces trois facteurs», dit Reto Knutti. Qui penche tout de même pour le dernier: une étude publiée dans Nature le 28 août montre qu’en incluant dans les modèles l’«oscillation décennale du Pacifique», une variation de la température superficielle de la mer qui déplace les systèmes météorologiques de manière cyclique sur plusieurs décennies, les courbes simulées reproduisent mieux le «plateau de températures» observé, considéré alors comme temporaire. «Le fait que ce simple changement permette d’arriver à une cohérence entre projections et modèles représente, pour moi, une forte indication que la cause principale est la variabilité naturelle.»
Les experts du climat auraient ainsi plutôt sous-estimé leurs projections. D’aucuns estiment même que ceux-ci préfèrent systématiquement les estimations prudentes afin d’éviter un alarmisme exagéré et préjudiciable, ou plus simplement pour arriver à un accord satisfaisant tous les partis. «Concernant les niveaux des mers, nous avons été très critiqués pour avoir été trop conservateurs», a dit jeudi dans Nature Jerry Meehl, chercheur au NCAR. «Oui, les rapports du GIEC sont très conservateurs, le prochain le sera aussi, clame son collègue Kevin Trenberth, l’un de ses auteurs. Cela est dû à l’approche choisie du consensus, parfois lourde.» Aussi coauteur, Reto Knutti se veut ferme: «Je réfute les soupçons que les projections des précédents rapports ont été adoptées selon un agenda, politique ou autre. Dans l’ensemble, les modèles ne sont de loin pas si mauvais. Et les chiffres sont les chiffres.»