(Rinnovabili.it) – Il clima è un sistema complesso e, in quanto tale, difficile da prevedere. Le sue dinamiche sono legate a interazioni non lineari tra numerosi sottosistemi come l’atmosfera, l’idrosfera, la criosfera, la biosfera e non ultima la cosiddetta “antroposfera”.
La scienza ha elaborato due differenti metodologie di approccio alla previsione dei sistemi complessi:
– la prima consiste nel simulare il comportamento complessivo del sistema a partire dallo studio dei sottosistemi e delle loro interazioni;
– la seconda non prevede, invece, alcuna scomposizione del sistema, che viene indagato esclusivamente attraverso tecniche di elaborazione dei dati fornite dalla statistica e dall’intelligenza artificiale.
Sebbene la prima metodologia assicuri una migliore conoscenza dei meccanismi che regolano il clima (effetto serra, ciclo del carbonio, etc.), le tecniche cosiddette “data-driven” sono considerate più adatte nello studio dei sistemi complessi, perché ne analizzano il comportamento senza bisogno di operare una frantumazione che rischierebbe di snaturarli. Nel caso del clima, tuttavia, la prima metodologia è utilizzata in modo preponderante, se non esclusivo (fanno eccezione gli studi condotti da Antonello Pasini con reti neurali e test statistici di causalità). Infatti, ciò che fa l’IPCC nei suoi rapporti periodici sullo stato delle conoscenze sul clima – l’ultimo è uscito l’anno scorso ed è scaricabile gratuitamente dal sito www.ipcc.ch – non è altro che elaborare i risultati delle simulazioni di una serie di articolati modelli matematici che riproducono al computer le dinamiche del clima a partire dal comportamento dei sistemi che lo influenzano e delle loro interazioni.
I modelli matematici sono uno strumento potentissimo, ma molto criticato. Infatti, nonostante i significativi miglioramenti effettuati negli anni, rimangono svariate fonti di incertezza che possono condizionare l’affidabilità dei risultati. Innanzitutto, l’elevata sensibilità alle condizioni iniziali, che caratterizza tutti i sistemi complessi, richiede un’estrema precisione nella raccolta dei dati; i valori delle varabili significative (temperatura, umidità, pressione, etc.) vanno rinvenuti per ogni singolo parallelepipedo della griglia in cui l’atmosfera terrestre è idealmente divisa; questa enorme quantità di dati può essere elaborata solo con l’aiuto di un calcolatore che, per quanto potente, avrà sempre una capacità limitata. Per rendere gestibile il modello è quindi necessario operare una serie di semplificazioni e idealizzazioni che rischiano di tralasciare elementi apparentemente poco influenti ma che, grazie alla potenza dei feedback che caratterizzano le dinamiche del sistema, potrebbero diventare rilevanti in futuro. È il caso, ad esempio, dei cosiddetti “grandi imprevisti”: eventi potenzialmente catastrofici, come il rallentamento della corrente del Golfo o il collasso della foresta pluviale amazzonica, che potrebbero innescarsi con una probabilità che i modelli non sono in grado di stimare.
Come fidarsi, dunque, di strumenti così imperfetti? Innanzitutto va sempre ricordato che i modelli non generano vere e proprie “previsioni”, ma piuttosto “proiezioni” dei possibili impatti, provocati da altrettanto ipotetici scenari emissivi. E poi, come affermano i teorici della “scienza postnormale”, Silvio Funtowicz e Jerry Ravetz: per operare in contesti complessi, nei quali i fatti sono incerti, i valori in discussione, la posta in gioco alta e le decisioni urgenti, bisogna «andare oltre la scienza normale e sviluppare nuovi metodi per rendere utilizzabile la nostra ignoranza».
Questo nuovo metodo, basato su una sostanziale democratizzazione del processo scientifico, prevede un allargamento della comunità scientifica che arrivi a includere tutti gli stakeholders. È esattamente ciò che accade, nel caso del clima, con l’IPCC: organizzazione “di confine” tra scienza e politica che offre lo spazio necessario alla complessa valutazione degli studi scientifici e alla negoziazione delle eventuali politiche di intervento.