29 Aprile 2024
Interviste

Meteo – Come si misurano le temperature in Italia? Intervista a Giulio Betti e Daniele Visioni

La misurazione delle temperature, in questo periodo di caldo estremo, è stata al centro di una piccola polemica riguardante l’accuratezza delle rilevazioni e gli strumenti utilizzati dagli esperti. Per vederci più chiaro, abbiamo intervistato Giulio Betti, meteorologo del Consorzio LaMMA (Laboratorio di monitoraggio e modellistica ambientale) di Firenze,  e Daniele Visioni, docente del Dipartimento di Earth and Atmospheric Science della Cornell University.

Come viene misurato il dato della temperatura che poi riporta il telegiornale? Che cosa si intende per “temperatura al suolo”?

Giulio Betti: Premessa doverosa: quando telegiornali e media in generale parlano di meteorologia hanno molte fonti cui attingere, alcune attendibili, altre meno. Ad esempio, utilizzare la foto di un termometro di una farmacia per rimarcare il fatto che faccia molto caldo ha sicuramente un impatto mediatico efficace, ma non è rigoroso da un punto di vista scientifico. Le rilevazioni ufficiali e a norma, infatti, rispondono a determinati criteri previsti dall’Organizzazione Mondiale della Meteorologia (OMM-WMO). Criteri ai quali professionisti, tecnici e ricercatori devono attenersi. Pertanto, se si vuol fare corretta comunicazione, è necessario fare riferimento a reti di osservazione a norma, siano esse pubbliche o private. In Italia e nel mondo ne esistono migliaia e sono quasi tutte di libero e facile accesso da parte di chiunque. La temperatura “al suolo” è quella rilevata a circa 1.80 metri dal suolo, altrimenti conosciuta, a livello modellistico, come “temperatura dell’aria a 2 metri”.

Esistono delle norme che regolamentano dove può essere messa una centralina? Vengono poi fatti dei controlli sul loro funzionamento?

Giulio Betti: Esistono e sono molto rigorose. Le stazioni meteorologiche ufficiali e a norma devono rispettare determinati standard riportati da tutti i principali enti di osservazione, tra cui WMO, NWS e NOAA (in Italia l’Aeronautica Militare). Le stazioni meteorologiche possono rilevare diversi parametri fisici che variano in base all’utilizzo primario che ne viene fatto, ad esempio se per uso agro-meteorologico o meteorologico. La correttezza del dato è fondamentale perché la variazione di alcuni parametri può essere decisiva per l’attuazione di procedure di gestione, ad esempio, della risorsa idrica o delle reti di approvvigionamento elettrico, di gas o alimentare. Inoltre la correttezza del dato osservato è alla base dell’attendibilità dei modelli meteorologici che vengono usati per le previsioni del tempo. Questi, infatti, partono dalle cosiddette “condizioni iniziali” che vengono fornite dalla rete di osservazione globale la quale, oltre alle stazioni a terra, fornisce dati provenienti da satelliti, boe, palloni sonda, navi e radar. I controlli esistono e sono anch’essi rigorosi: i dati rilevati sono sottoposti a molteplici controlli che ne valutano l’accuratezza. Esistono codificate tecniche e formule di correzione del dato in caso di errori sistematici o non lineari, legati a malfunzionamenti o a posizionamenti non corretti. 

Da quante centraline è composta la rete italiana? Il malfunzionamento di una di queste può alterare i valori medi? Come si può capire se un dato è affidabile?

Giulio Betti: L’Italia vanta una fitta rete di stazioni meteorologiche, sebbene sia molto eterogenea sul territorio. Tra le reti nazionali più importanti sicuramente quella dell’Aeronautica Militare, che contribuisce al sistema di osservazione internazionale facente capo al WMO. Oltre a questa esistono centinaia di centraline appartenenti ai vari enti quali, ad esempio, Arpa, centri meteorologici, agrometeorologici e centri funzionali. Queste reti sono generalmente gestite dalle regioni e sono molto importanti in quanto rappresentano una preziosa banca dati storica, nonché uno strumento fondamentale per il monitoraggio delle condizioni meteorologiche in caso, ad esempio, di eventi atmosferici avversi. Alcune regioni contribuiscono, con i loro dati, ad alimentare una rete di osservazione a scala più ampia, denominata ArCIS, che conta 600 serie pluviometriche e 220 serie termometriche dell’Italia centro-settentrionale. Inoltre l’Italia possiede alcune tra le serie termo-pluviometriche più antiche in Europa e nel mondo, tra queste quella di Torino, che inizia nel 1753. Il malfunzionamento di una singola stazione rispetto alle migliaia di osservazioni totali non avrebbe alcun impatto sul dato complessivo, tuttavia queste anomalie vengono subito rimosse o corrette utilizzando, come già scritto, una serie di tecniche di controllo. I dati attendibili sono quelli che provengono dalle reti ufficiali (anche private a patto che rispettino gli standard internazionali) che sono quasi tutte disponibili e facilmente consultabili.

Di fronte ai dati preoccupanti registrati nella recente ondata di calore, alcune persone hanno ipotizzato che si trattasse della temperatura del suolo, magari dell’asfalto. Questo è possibile?

Giulio Betti: Purtroppo no, non si trattava di temperature “del suolo” ma temperature dell’aria a circa 2 metri d’altezza. I 47,4 °C di Olbia, i 44,6 °C di Cagliari o i 46,6 °C di Noto, ad esempio, sono tutte temperature dell’aria rilevate da stazioni a norma. Tuttavia alcuni organi di informazione hanno riportato anche le mappe satellitari che rilevano la temperatura “del suolo” che ovviamente in determinate condizioni, può essere molto più alta di quella dell’aria. Mappe che, ci tengo a precisare, sono molto utili per fini scientifici, agricoli, ecologici, infrastrutturali, ma che possono generare grande confusione se non utilizzate del modo giusto. Il problema è che in certe situazioni si vogliono esagerare eventi già di per sé eccezionali. 

Un’altra ipotesi avanzata anche da alcuni politici è che alcune centraline possano essere installate vicino ai “getti d’aria” in uscita dai condizionatori. Quanto è concreta questa possibilità? 

Daniele Visioni: Al momento, la World Meteorological Organisation conta oltre 11.000 stazioni sparse in tutto il mondo, dall’Europa all’Antartide. Tali osservazioni non sono le uniche di cui disponiamo però: la stessa WMO comprende anche circa 1.300 stazioni di misura in cui si misura il profilo verticale atmosferico fino a 30 km, 4.000 navi e 1,200 sonde galleggianti che misurano le temperature oceaniche (dove non ci sono condizionatori), vari aerei (anche commerciali) e un gran numero di satelliti in orbita. Ognuno di questi metodi di misura ha standard di calibrazione molto elevati, e molti sono i professionisti che ci lavorano: mettere in dubbio la loro professionalità è particolarmente vile, e immaginarsi una vasta rete di cospiratori in grado di falsificare migliaia di dati da tutto il mondo è abbastanza ridicolo: ogni singola parte dell’enorme rete di osservazioni andrebbe falsificata per evitare discrepanze tra i singoli componenti. Le misure di temperature, infine, sono solo una delle cose che osserviamo: il calore immagazzinato dell’oceano, l’energia in entrata e in uscita dal pianeta (e l’input solare, di cui conosciamo bene le variazioni!), le concentrazioni di anidride carbonica sono altre, e tutte sono concordi con la robusta teoria scientifica sulle cause del riscaldamento globale che stiamo osservando in questi decenni. Teoria la cui derivazione non dipende solo dalle osservazioni, ma da una robusta applicazione dei principi fisici e chimici che applichiamo in molti altri campi.

Cosa può dirci un singolo dato estremo misurato in un certo momento? Quanto vale in relazione al riscaldamento globale?

Daniele Visioni: Quello che noi osserviamo e sperimentiamo sulla nostra pelle non è “il clima”, ma è “il meteo”, cioè la sua istantanea in quel momento e in quel particolare luogo. Lunghe serie di misure possono aiutarci a identificare un certo segnale, prodotto da una certa forzante (in questo caso, l’aumento delle concentrazioni di anidride carbonica) e che si sovrappone a quella che chiamiamo variabilità interna del sistema, cioè le periodiche oscillazioni naturali in un sistema turbolento come quello accoppiato atmosfera-oceano. Ma una singola misura non può dirci molto, specialmente se consideriamo che la nostra risposta è influenzata dalla nostra personale percezione. Quello che i ricercatori fanno, quando si osserva un certo dato o fenomeno estremo, è cercare di comprendere come la forzante abbia influito sul suo accadimento. Cioè, quanto più frequente o quanto più estremo il fenomeno sia stato rispetto a uno scenario controfattuale in cui le temperature globali non sono aumentate. Questo tipo di ricerca, chiamata in gergo “Detection and attribution” (Rilevamento e Attribuzione), è un settore emergente, ma molto raramente può farci dire “questo fenomeno è stato causato al 100% dai cambiamenti climatici di origine antropica”. Può però dirci se una certa ondata di calore ora è più frequente di 100 anni fa (una volta ogni dieci anni piuttosto che ogni 50), se dura di più (6 giorni piuttosto che 2) o se è stata resa più intensa (44 gradi invece che 42, o notti molto più calde in cui la temperatura non scende più sotto una certa soglia) a causa della perturbazione indotta dall’uomo.

Foto di RitaE da Pixabay

Sofia Lincos

Sofia Lincos collabora col CICAP dal 2005 ed è caporedattrice di Queryonline. Fa parte del CeRaVoLC (Centro per la Raccolta delle Voci e Leggende Contemporanee) e si interessa da anni di leggende metropolitane, creepypasta, bufale e storia della scienza.