Da oltre 30 anni l’analisi probabilistica della pericolosità sismica (PSHA) rappresenta lo standard di riferimento per determinare i requisiti di progettazione antisismica nelle norme edilizie degli Stati Uniti e di molti altri Paesi del mondo. “Poiché in questi ultimi 3 decenni nel mondo sono emerse tutte le carenze, e sfortunatamente anche le fatali conseguenze, imputabili all’impiego del PSHA, è necessario un nuovo paradigma, se la mitigazione del rischio di disastri deve effettivamente riuscire a raggiungere i suoi importanti obiettivi”, scrivono Giuliano Panza e James Bela in un articolo pubblicato in linea su Engineering Geology e che farà parte del volume 274 della stessa rivista (disponibile anche in forma cartacea dal 5 Settembre 2020).
L’articolo è arricchito da “Supplementary material”. Questo file, certamente non convenzionale, consta di un testo, o meglio di una sceneggiatura, che intende sollecitare il lettore, tramite un’armoniosa mescolanza di rigore scientifico e di ironia in giusta dose, alla riflessione sulle conseguenze nefaste prodotte da paradigmi errati. Si tratta di una avventura che si dipana in un BIBLIOGRAPHIC JOURNEY verso un NEW PARADIGM ! Può servire come guida alla lettura del “Supplementary material” l’affermazione di Buckminster Fuller You never change things by fighting the existing reality. To change something, build a new model that makes the existing model obsolete. [Non cambi mai le cose combattendo la realtà esistente. Per cambiare qualcosa, crea un nuovo modello che renda obsoleto il modello esistente.]. TUTTI i riferimenti bibliografici sono riportati in ordine cronologico, non alfabetico. L’ordine cronologico è stato preferito per fornire al lettore la possibilità di comprendere la ”evoluzione a dogma” di un paradigma fondamentalmente errato.
“La metodologia per la valutazione neo-deterministica della pericolosità sismica (NDSHA), sviluppata alla fine dello scorso millennio, fornisce una soluzione scientifica, efficace e affidabile, ai problemi di caratterizzazione dei pericoli sismici e consente di affermare che difendersi dal terremoto è possibile. Le riconosciute e dimostrate gravi carenze del PSHA si riassumono in due precisi motivi: (a) perché prove oggettive non hanno mai confermato la validità del PSHA, nella sua pretesa di quantificare, considerati tutti i terremoti ivi possibili, il tasso (o la probabilità) di eccedenza di vari livelli di movimento del suolo in un sito od un insieme di siti, (b) perché le mappe di pericolosità sismica PSHA non sono stabili al mutare della loro origine e causano variazioni yo-yoing [in su e giù] nei codici di progettazione ingegneristica”, scrivono Panza e Bela.
Il metodo NDSHA “è stato ben validato da tutti gli eventi che si sono verificati nelle aree in cui erano disponibili le mappe NDHSA al momento dei terremoti successivi; incluse le osservazioni di 4 recenti terremoti distruttivi: M. 5.9 in Emilia Romagna nel 2012, M. 6.3 all’Aquila nel 2009, M. 5.5-5.6 al Centro Italia nella crisi sismica del 2016-2017 e M. 7.8 in Nepal nel 2015. Queste buone prestazioni del metodo suggeriscono che una più ampia adozione del metodo neo-deterministico può preparare meglio le società civili all’intera serie dei potenziali terremoti che si verificheranno. Meglio eliminare e seppellire il metodo probabilistico, che è più un concetto e una “fiducia nei numeri” di quanto non sia un percorso, confermato sperimentalmente, verso la sicurezza sismica, piuttosto che “provare a indovinare” e poi successivamente sperimentare altre catastrofi sismiche perché le mappe di pericolosità sbagliate avevano delineato solo un “pericolo basso”, si legge nello studio.
“A differenza del metodo deterministico, quello probabilistico non è mai stato validato da test strumentali; è stato invece globalmente dimostrato che non è affidabile come metodo di previsione dei tassi delle scosse di terremoto. Il metodo probabilistico ha tuttavia imposto che gli standard di progettazione antisismica, la pianificazione e la preparazione della società ai terremoti siano basati su modelli di “analisi ingegneristica del rischio sismico”, modelli che incorporano ipotesi, in realtà fabulazioni (ovvero “magico realismo”), ora note per essere in conflitto con ciò che abbiamo scientificamente imparato sulla geologia e sulla fisica dei terremoti nell’arco temporale (quasi 50 anni) di dominio di PSHA”, sottolineano Panza e Bela nell’ampia documentazione contenuta nel Supplementary material.
Dal punto di vista sismologico, una lunga pratica nonché i risultati ottenuti per il territorio italiano in due decenni di rigorosi test prospettici di algoritmi pienamente formalizzati, dimostrano la fattibilità della previsione dei terremoti. Questi algoritmi, di regola, non puntano alla loro precisa previsione e conseguente emissione di un’allerta rossa, tuttavia essi possono permettere azioni focalizzate di prevenzione e mitigazione del rischio. Una precisione migliore, ma non definitiva, può essere raggiunta riducendo il più possibile il volume spazio-temporale degli allarmi, considerando simultaneamente sia le informazioni sismologiche che quelle geodetiche. Un altro promettente miglioramento deriva quindi dall’attento monitoraggio e dalla valutazione dei segnali pre-sismici sia dalla Terra che dallo spazio”, concludono Panza e Bela.