Da oltre 30 anni l’analisi probabilistica della pericolosità sismica (PSHA) rappresenta lo standard di riferimento per determinare i requisiti di progettazione antisismica nelle norme edilizie degli Stati Uniti e di molti altri Paesi del mondo. “Poiché in questi ultimi 3 decenni nel mondo sono emerse tutte le carenze, e sfortunatamente anche le fatali conseguenze, imputabili all’impiego del PSHA, è necessario un nuovo paradigma, se la mitigazione del rischio di disastri deve effettivamente riuscire a raggiungere i suoi importanti obiettivi”, scrivono Giuliano Panza e James Bela in un articolo pubblicato in linea su Engineering Geology e che farà parte del volume 274 della stessa rivista (disponibile anche in forma cartacea dal 5 Settembre 2020).
L’articolo è arricchito da “Supplementary material”. Questo file, certamente non convenzionale, consta di un testo, o meglio di una sceneggiatura, che intende sollecitare il lettore, tramite un’armoniosa mescolanza di rigore scientifico e di ironia in giusta dose, alla riflessione sulle conseguenze nefaste prodotte da paradigmi errati. Si tratta di una avventura che si dipana in un BIBLIOGRAPHIC JOURNEY verso un NEW PARADIGM ! Può servire come guida alla lettura del “Supplementary material” l’affermazione di Buckminster Fuller You never change things by fighting the existing reality. To change something, build a new model that makes the existing model obsolete. [Non cambi mai le cose combattendo la realtà esistente. Per cambiare qualcosa, crea un nuovo modello che renda obsoleto il modello esistente.]. TUTTI i riferimenti bibliografici sono riportati in ordine cronologico, non alfabetico. L’ordine cronologico è stato preferito per fornire al lettore la possibilità di comprendere la ”evoluzione a dogma” di un paradigma fondamentalmente errato.
“La metodologia per la valutazione neo-deterministica della pericolosità sismica (NDSHA), sviluppata alla fine dello scorso millennio, fornisce una soluzione scientifica, efficace e affidabile, ai problemi di caratterizzazione dei pericoli sismici e consente di affermare che difendersi dal terremoto è possibile. Le riconosciute e dimostrate gravi carenze del PSHA si riassumono in due precisi motivi: (a) perché prove oggettive non hanno mai confermato la validità del PSHA, nella sua pretesa di quantificare, considerati tutti i terremoti ivi possibili, il tasso (o la probabilità) di eccedenza di vari livelli di movimento del suolo in un sito od un insieme di siti, (b) perché le mappe di pericolosità sismica PSHA non sono stabili al mutare della loro origine e causano variazioni yo-yoing [in su e giù] nei codici di progettazione ingegneristica”, scrivono Panza e Bela.
Tra i diversi casi studio riportati per dimostrare tali carenze e i vantaggi del metodo NDSHA rispetto a quello PSHA, gli autori hanno preso in esame, fra i tanti, anche i terremoti dell’Emilia Romagna del 2012 e il terremoto del Centro Italia del 2009. Per quanto riguarda il primo, dallo studio emerge che: “Attualmente, la mappa PSHA prodotta dal Gruppo di Lavoro, Redazione della mappa di pericolosità sismica, rapporto conclusivo, 2004 (http://zonesismiche.mi.ingv.it/mappa_ps_apr04/italia.html), è la mappa di riferimento ufficiale sulla pericolosità sismica in Italia e mostra valori di accelerazione massima del suolo (PGA) che hanno una probabilità del 10% di essere superati in 50 anni (ossia, nella logica aberrante di PSHA, una volta ogni 475 anni). I terremoti di magnitudo 5.9 e 5.8 che hanno colpito l’Emilia Romagna rispettivamente il 20 maggio 2012 e il 29 maggio 2012 si sono verificati in una zona che era stata definita a bassa pericolosità sismica dal codice edilizio italiano basato sul metodo PSHA: mappa PGA < 0.175g; PGA osservata > 0.25g. La mappa NDSHA pubblicata nel 2001, che esprime lo scuotimento in termini di accelerazione al suolo di progetto (DGA), ha previsto valori nell’intervallo di 0.20-0.35g, in buon accordo con quanto osservato che ha superato 0.25g. Le mappe di pericolosità sismica sono utili quando puntano a prevedere lo scuotimento che potrebbe verificarsi; e quindi ciò che si è verificato al Nord Italia fornisce una forte motivazione per utilizzare proattivamente il metodo NDSHA, anche con lo scopo di minimizzare la necessità di rivedere le mappe di pericolosità nel tempo. In questa prospettiva, almeno gli edifici pubblici e altre strutture fondamentali dovrebbero essere progettati per resistere ai futuri terremoti! Al contrario di quanto implicitamente suggerito dal metodo PSHA, un terremoto di una determinata magnitudo causa uno specifico scuotimento del suolo che certamente non dipende da quanto sporadico sia l’evento! Di conseguenza, i parametri di movimento del suolo usati per la progettazione sismica devono essere indipendenti da quanto sporadico sia un terremoto, così come naturalmente fatto quando si segue il metodo NDSHA”.
Alcune delle osservazioni di Panza e Bela sul terremoto dell’Aquila del 2009 possono essere così riassunte: “Il disastro del terremoto di magnitudo 6.3 del 6 aprile 2009 che si è verificato in Abruzzo, uccidendo oltre 300 persone, era stato preceduto da uno sciame di attività sismica iniziato nell’ottobre 2008. Anche se si è verificato in una zona definita ad alta pericolosità sismica, l’elevata vulnerabilità del costruito si è combinata con i gravi errori nella valutazione e mitigazione del rischio. Questa fatale combinazione ha prodotto la ben nota tragica catastrofe ed il conseguente “processo per il terremoto dell’Aquila”. Poiché molti edifici si erano fessurati e indeboliti già durante i mesi dello sciame, quando i valori di accelerazione osservati hanno superato quelli previsti dal codice edilizio italiano basato sul metodo PSHA (mappa PGA 0.250-0.275g; PGA osservata > 0.35g), i loro effetti distruttivi sono stati amplificati! La mappa NDSHA prevede valori nell’intervallo di 0.3-0.6g e questo implica che gli eventi futuri potrebbero causare valori di accelerazione massima del suolo che superano quelli già registrati nel 2009. Per quanto ne sappiamo, questo avvertimento non è esplicitamente e debitamente considerato negli sforzi di ricostruzione tutt’ora in corso”.
Il metodo NDSHA “è stato ben validato da tutti gli eventi che si sono verificati nelle aree in cui erano disponibili le mappe NDHSA al momento dei terremoti successivi; incluse le osservazioni di 4 recenti terremoti distruttivi: M. 5.9 in Emilia Romagna nel 2012, M. 6.3 all’Aquila nel 2009, M. 5.5-5.6 al Centro Italia nella crisi sismica del 2016-2017 e M. 7.8 in Nepal nel 2015. Queste buone prestazioni del metodo suggeriscono che una più ampia adozione del metodo neo-deterministico può preparare meglio le società civili all’intera serie dei potenziali terremoti che si verificheranno. Meglio eliminare e seppellire il metodo probabilistico, che è più un concetto e una “fiducia nei numeri” di quanto non sia un percorso, confermato sperimentalmente, verso la sicurezza sismica, piuttosto che “provare a indovinare” e poi successivamente sperimentare altre catastrofi sismiche perché le mappe di pericolosità sbagliate avevano delineato solo un “pericolo basso”, si legge nello studio.
“A differenza del metodo deterministico, quello probabilistico non è mai stato validato da test strumentali; è stato invece globalmente dimostrato che non è affidabile come metodo di previsione dei tassi delle scosse di terremoto. Il metodo probabilistico ha tuttavia imposto che gli standard di progettazione antisismica, la pianificazione e la preparazione della società ai terremoti siano basati su modelli di “analisi ingegneristica del rischio sismico”, modelli che incorporano ipotesi, in realtà fabulazioni (ovvero “magico realismo”), ora note per essere in conflitto con ciò che abbiamo scientificamente imparato sulla geologia e sulla fisica dei terremoti nell’arco temporale (quasi 50 anni) di dominio di PSHA”, sottolineano Panza e Bela nell’ampia documentazione contenuta nel Supplementary material.
“Metodi alternativi, già disponibili e pronti all’uso, come il metodo NDSHA, potrebbero e dovrebbero essere applicati in tutto il mondo. Ora è stato sviluppato un nuovo schema per delineare, con la maggiore precisione possibile, le aree esposte a terremoti, dove concentrare le azioni di prevenzione e la pianificazione della mitigazione del rischio sismico. Il metodo è affidabile ed è guidato dalle nostre capacità di sfruttare pienamente il contenuto informativo di tutti i dati disponibili, insieme alle analisi sismologiche e geodetiche che non erano disponibili nel 1968, anno in cui sono nati il metodo PSHA e la tettonica delle placche (approfondimenti a p.12 e 13 del Supplementary material).
Dal punto di vista sismologico, una lunga pratica nonché i risultati ottenuti per il territorio italiano in due decenni di rigorosi test prospettici di algoritmi pienamente formalizzati, dimostrano la fattibilità della previsione dei terremoti. Questi algoritmi, di regola, non puntano alla loro precisa previsione e conseguente emissione di un’allerta rossa, tuttavia essi possono permettere azioni focalizzate di prevenzione e mitigazione del rischio. Una precisione migliore, ma non definitiva, può essere raggiunta riducendo il più possibile il volume spazio-temporale degli allarmi, considerando simultaneamente sia le informazioni sismologiche che quelle geodetiche. Un altro promettente miglioramento deriva quindi dall’attento monitoraggio e dalla valutazione dei segnali pre-sismici sia dalla Terra che dallo spazio”, concludono Panza e Bela.