Climat : l’incroyable saga des températures (2)

Thermomètre — Photo by Jarosław Kwoczała on Unsplash, CC0

Vous reprendrez bien encore une petite analyse des relevés de températures ? (2e partie)

Par Michel Negynas.

On a vu dans le précédent billet que l’indicateur que s’est choisi l’humanité pour sceller son destin (l’anomalie de température globale) n’est pas vraiment scientifique, difficile à quantifier, et pas vraiment utile pour réagir à des évolutions du climat.

Nous allons examiner maintenant les problèmes posés par l’établissement des séries historiques recouvrant la période dite industrielle, c’est-à-dire, selon les auteurs, depuis 1850 ou 1880.

Pourquoi tant d’importance donnée au passé ?

La démarche scientifique habituelle est, si l’on trouve une corrélation entre deux variables, de bâtir une théorie qui explique une relation de cause à effet, ensuite, de modéliser le processus pour quantifier la relation, et de vérifier si le modèle est prédictif, en le soumettant à l’épreuve des faits.

Dans le cas de l’effet de serre, rien ne se passe comme cela. On ne peut vérifier le modèle pour l’instant car il faut attendre des dizaines d’années… Et il n’y a pas de corrélation, en tout cas pour un scientifique honnête.

On pourrait objecter que les deux courbes montent… Mais ce serait une entourloupe bien connue des statisticiens ; il suffit de lisser suffisamment deux courbes n’ayant rien en commun pour trouver, à un moment donné, qu’elles sont corrélées.

Joanne Nova a trouvé une meilleure corrélation :

On ne peut donc passer sous silence que même si l’effet du CO2 produit du réchauffement, il se passe des choses supplémentaires, non expliquées par l’effet de serre, sur cette série de température. Elle devient donc un enjeu important.

Or, retracer l’évolution des températures est évidemment un exercice de plus en plus risqué lorsqu’on recule de plus en plus dans le passé car on ne sait pas si les outils et les méthodes sont restés les mêmes (on est même certains du contraire). 

La rareté des mesures dans le passé

La NASA a là encore réalisé ce schéma, de l’état de l’art en 1880 :

En 1880, seulement 174 stations ont été retenues pour établir la température moyenne : quasiment rien sur les océans, sur les pôles, soit au moins 80 % de la surface… On peut à la limite définir une moyenne européenne, nord-américaine, mais une moyenne mondiale est pure spéculation.

Changements de méthode et d’outils de mesure

Pour beaucoup de stations, on est passé du thermomètre à alcool aux sondes électroniques. Mais d’autres changements, pas toujours documentés, sont plus sournois et peuvent produire des écarts allant jusqu’à 0,5 degré : changement de peinture ou de dimension des « cabanes » abritant le thermomètre… 

Mais surtout, il y a eu des changements de méthode de prélèvement. Autrefois, on prélevait à heure fixe, c’était manuel, une fois à l’heure supposée la plus froide, une fois à celle la plus chaude, mais ça ne collait pas bien avec, par exemple, les décalages saisonniers. Ensuite on a utilisé des thermomètres à mini/maxi. Mais la moyenne de deux mesures est-elle représentative de la journée ? Maintenant, on dispose de relevés en continu qui permettent de faire une vraie moyenne….

Changement de lieu de la station et interpolation pour le voisinage

Certaines stations ont été déplacées sans qu’on change leur dénomination. Si on a connaissance de cela, on peut essayer de calculer l’écart produit. Il se calcule généralement par interpolation des stations les plus proches… mais tient-on compte du relief, de la rose des vents… ? Pour faire cela correctement, il faudrait toute une étude. Les organismes en charge de la collecte n’en ont pas les moyens. Et surtout, certains maillages (voir celui de la France) sont trop lâches pour être utilisables.

Une évolution significative a été opérée un peu avant 1990 : une réduction drastique du nombre de stations utilisées. (source : NASA GISS, diagramme de R McIntrick). Il est difficile de vérifier si les méthodes employées pour garder une représentativité inchangée (souvent là encore à base d’interpolations) sont correctes. Cette période correspond d’ailleurs justement à un « réchauffement » très rapide. Et depuis, le nombre de stations a été ré-augmenté… 

Modification de l’environnement des stations

Mais les changements les plus significatifs sont certainement les changements de l’environnement des stations de mesure qui en affectent un grand nombre, comme l’a montré l’étude d’Antony Watts, aux États-Unis, déjà citée.  

Le processus est assez classique : une station météo est installée en bordure de la piste en herbe d’un aérodrome, pour les exigences de l’aviation, assez loin de la ville. L’aéroport se développe, on bétonne, la ville se rapproche… on ne mesure plus du tout la même chose. Et c’est plus chaud.

L’effet d’îlot urbain

Ce sujet est d’une grande importance et a fait l’objet d’intenses controverses, qui ne sont pas closes à ce jour. En effet, il pourrait constituer un biais de mesure très important.

Il est basé sur la constatation que tout un chacun peut faire en venant de la campagne et en pénétrant en ville : il fait plus chaud au centre (à Paris, 2 degrés d’écart ne sont pas exceptionnels). Dès lors, comme beaucoup de stations météo sont près des villes, il faut corriger cet effet. Le GIEC et les organismes officiels ont montré que cela n’excédait pas 0,01 degré de réchauffement tous les dix ans. Mais de nombreuses études montrent un biais bien plus important.

Le phénomène en lui-même est simple : le béton et l’asphalte des villes absorbent la chaleur du soleil davantage que la campagne, et la nuit ralentit le refroidissement. Toute la question est de savoir si cet effet est très limité ou s’étend sur une surface suffisamment étendue pour y affecter de nombreuses stations météo.

Une étude de deux chercheurs de la Royale Meteorology Society me semble assez robuste. Elle estime que l’effet d’îlot urbain en Angleterre pourrait aller jusqu’à 1,7 degré, concentré sur la température journalière minimum, et capable d’influencer la moyenne.

Un papier de Ross McIntrick, un statisticien qui a joué un rôle important de démystificateur sur d’autres sujets climatiques, montre que l’effet n’est pas négligeable sur la moyenne mondiale du fait d’un grand nombre de stations sous influence des villes et improprement considérées comme « rurales », ce que conteste le GIEC.

L’ajustement et l’homogénéisation des températures

Tous les biais cités ici sont connus et admis par les organismes en charge de compiler les séries de température. Mais les données sont très nombreuses, et les équipes ont peu de moyens. Pas question d’aller voir ce qui s’est passé depuis plus de 100 ans station par station… On a donc créé des algorithmes d’ajustement automatique, basés sur des analyses de l’évolution du signal (discontinuité, dérive lente détectée comme « anormale »…).

Les méthodes sont très mal documentées, les données brutes sont parfois déjà partiellement ajustées. Par ailleurs, lorsqu’on détecte une correction à faire, généralement on ne corrige pas la valeur mesurée mais toutes les valeurs du passé. Tout cela fait qu’en pratique personne ne peut plus auditer ces processus.

Quelques « moments clés » et exemples significatifs

Les auteurs des courbes de température affirment qu’il y a autant de corrections « chaudes » que froides » en moyenne. Force est de constater qu’on tombe sur des exemples troublants.

En 2000, une modification des algorithmes de NOAA/NASA « effaça » les records de température des années 1930 aux USA, pour les replacer en 1998. 

Cela cadre mal avec l’indicateur des vagues de chaleur de l’US EPA (agence pour l’environnement américaine) :

En France, on homogénéise aussi. Un exemple est donné par Météo France elle-même, pour montrer l’efficacité de son processus :

À Pau, un refroidissement de 1,19 degré devient un réchauffement de 0,67 degré… Pourquoi pas ? Mais cela mériterait peut-être plus d’explications que l’application automatique d’un algorithme… Météo France a raison d’être satisfaite de son algorithme : il chauffe, donc c’est bon !

En fait, les données mondiales sont corrigées en permanence ; NASA/NOAA est d’ailleurs transparente là-dessus, comme l’atteste ce tableau tiré de son site :

Par exemple, l’anomalie de 2005, initialement chiffrée à 1,08 degré F, a été corrigée à 1,12 en 2010, 1,15 en 2011 et 1,17 en 2012…. 

Le hiatus

Tout allait pour le mieux ; on réussissait à montrer que les données satellites et les donnes terrestres étaient à peu près cohérentes. Mais catastrophe ! À partir des années 2000, les températures n’augmentaient plus !    

Décidément, cette saga des températures fait aussi bien que House of cards…

La suite au prochain épisode…

__

Retrouvez ici le premier épisode de la saga des températures.

Vous souhaitez nous signaler une erreur ? Contactez la rédaction.