E’ possibile prevedere i terremoti? L’uomo ci prova da millenni, oggi la definizione del rischio è chiara

MeteoWeb

MeteoWeb continua a proporre l’analisi dei diversi approcci che gli scienziati sviluppano nella difficile materia della previsione dei terremoti e della valutazione del rischio sismico. Dopo l’articolo del Prof. Enzo Mantovani, oggi interviene sull’argomento anche Stefano Carlino, già ospite più volte di MeteoWeb (qui l’articolo sul pozzo nei campi flegrei), valido ed attivo Ricercatore dell’INGV nella sezione di Napoli presso l’Osservatorio Vesuviano.

Sono passati circa duemila anni da quando un ingegnoso astronomo cinese di nome Chang Heng, nel 132 AD, tentò per primo di registrare le onde simiche prodotte dai terremoti, utilizzando un rudimentale sismoscopio. Da allora la sismologia ha fatto enormi passi in avanti, attraverso un lungo percorso di ricerca fatto di sperimentazioni, pubblicazioni di studi, confronti e dibattiti e con la costruzione di nuovi paradigmi scientifici in luogo di quelli obsoleti. La sostituzione delle vecchie teorie sui terremoti con altre più attendibili, è avvenuta attraverso un sistema di verifica delle discipline scientifiche descritte da Thomas Kuhn, nel 1970, nel famoso saggio “The Structure of Scientific Revolutions”.

Thomas Kuhn

Una teoria scientifica, secondo Kuhn, si basa su un paradigma, una struttura fatta di dottrine, leggi e strumenti che definiscono una tradizione di ricerca, in cui le teorie sono accettate universalmente. Con esse si è in grado di verificare sperimentalmente i fenomeni fisici che osserviamo ed in alcuni casi di prevederli. Ad esempio, le teorie scientifiche come il Big Bang, l’espansione dell’universo o la Teoria della Tettonica a Zolle, sono oggi avvalorate da paradigmi consolidati, tuttavia alcune fenomenologie specifiche, nell’ambito delle varie discipline, non sono convalidate da questi paradigmi.
In tal caso la teoria scientifica può andare in crisi e gli scienziati si trovano ad affrontare nuovi problemi apparentemente irrisolvibili. Quando ciò accade possono prospettarsi due situazioni: si tenta di adattare la teoria al dato sperimentale utilizzando delle “eccezioni scientifiche”, o si può tentare il più difficile percorso di smantellamento della vecchia teoria, con la costruzione di una più moderna, basata su un nuovo paradigma in grado di colmare il gap conoscitivo precedente. Ogni volta che si crea un nuovo paradigma gli scienziati dovranno verificarne regolarmente l’attendibilità, o la possibilità di falsificazione, confrontando il dato sperimentale con quello teorico. Se il paradigma resiste ai tentativi di falsificazione aumenterà la sua attendibilità scientifica. In questo percorso non mancano le polemiche e le contrapposizioni ideologiche, che sempre accompagnano il dibattito scientifico tra le diverse scuole di pensiero.

Nel mondo delle scienze geologiche e della sismologia si è passati attraverso la costruzione e demolizione di paradigmi, a partire da Aristotele. Il passaggio dalla cultura aristotelica, di stampo mistico, in cui era dominante la teoria del catastrofismo, ad una cultura scientifica più rigorosa, si verificherà gradualmente, e soltanto molto più tardi. Con gli studi di J. Hutton (1726-1797) e successivamente di C. Lyell (1797-1875) nascerà un nuovo paradigma, l’attualismo, che identifica una più moderna chiave di lettura dei fenomeni geologici: il presente come chiave del passato. La Terra è un sistema in continua e lenta evoluzione: i fenomeni geologici, che hanno modellato la crosta terrestre, avvengono ora come nel passato. Con questa nuova chiave di lettura le osservazioni di ciò che accade nel presente sulla crosta terrestre e le registrazioni geologiche contenute nelle rocce serviranno a interpretare il passato e comprendere il futuro della Terra.
Il paradigma dell’attualismo sarà corroborato nel 1920 dagli studi di A.Wegener con la teoria della “Deriva dei Continenti” (poi della Tettonica a Zolle), e convalidato successivamente dalle osservazioni sperimentali eseguite sui fondi oceanici. Queste osservazioni dimostrano empiricamente che i fondi oceanici si espandono, a partire dalle dorsali oceaniche, producendo la deriva dei continenti. La Teoria della Tettonica a Zolle, sviluppatasi in seguito, è oggi accreditata dal mondo scientifico, sebbene in essa si trovino elementi di discrasia con i dati sperimentali. Tale teoria spiega in maniera attendibile la dinamica terrestre a scala globale, terremoti ed eruzioni vulcaniche, dove e perché essi avvengono, ma i meccanismi particolari che regolano sia i terremoti che le eruzioni non sono ancora del tutto chiari.
Ciò vale in particolare per i terremoti, per i quali è impossibile prevederne l’accadimento. Il prepararsi di un terremoto è caratterizzato dall’accumulo di pressioni (gli sforzi tettonici, in gergo fisico) all’interno della crosta terrestre, fino ad alcune centinaia di chilometri di profondità, per effetto del moto relativo tra le diverse zolle di cui la crosta è costituita. Un terremoto accade quando il livello di deformazione nella crosta, generato dagli sforzi tettonici, supera il limite di rottura delle rocce che si fratturano lungo le faglie generano onde sismiche. Il problema principale nella previsione dei terremoti è rappresentato dall’impossibilità di misurare in modo diretto gli sforzi che generano le deformazioni in profondità e di definire il limite di deformazione, lungo una faglia, oltre il quale accadrà un terremoto. Negli ultimi 30 anni, ed a seguito del disastroso terremoto dell’Irpinia del 1980, c’è stata in Italia una forte accelerazione degli studi sismologici, accompagnata da un potenziamento delle reti di monitoraggio dei fenomeni geofisici. Ciò ha portato nuove importanti conoscenze sui meccanismi dei terremoti, ma ha aperto la via ad ulteriori interrogativi ai quali non è facile dare una risposta. Queste nuove conoscenze hanno infatti dimostrato che il meccanismo che genera un terremoto è basato su processi caotici, non prevedibili nè attraverso un approccio olistico nè tantomeno riduzionistico.
Le attuali reti di monitoraggio, ad altissimo contenuto tecnologico, registrano una gran mole di dati geofisici, che servono a definire la dinamica terrestre. Oggi misuriamo con elevata precisione gli spostamenti in superficie della crosta terrestre prima e dopo un terremoto, registriamo le deformazioni lente del suolo ed utilizziamo le onde sismiche per studiare il meccanismo dei terremoti e la costituzione interna della Terra. Tuttavia, l’avanzamento delle tecniche di monitoraggio e l’incremento della mole dei dati utili per l’interpretazione della dinamica terrestre non ha consentito di ottenere modelli fisici in grado di prevedere i terremoti.
Per essere valido un modello fisico previsionale deve essere basato su precursori ripetibili, che si registrano ogni volta prima di un sisma, su un numero di casi più elevato possibile. Solo in alcuni episodi, come per il terremoto di Izu-Oshima-Kinkai del 1978, sono stati identificati precursori relativamente chiari, come la variazione del radon, della temperatura delle acque termali e del tasso di deformazione delle rocce, ma la casistica bassissima di tali fenomenologie consente di accertare che determinati processi sono precursori di un sisma solo a terremoto avvenuto. La non ripetibilità di questi fenomeni in sostanza riduce a zero la possibilità di qualsiasi tipo di previsione. Con questo genere di approccio anche gli sciami sismici registrati prima del catastrofico evento che ha colpito l’Abruzzo nel 2009 non possono essere considerati genericamente precursori di un terremoto, ma solo di quel terremoto. C’è da chiedersi quindi se non si sia giunti ad un punto critico nello sviluppo della sismologia e se la soluzione di questi problemi sia ancora ottenibile dai paradigmi costituiti. Sebbene oggi sia impossibile una previsione, si è almeno in grado di fornire elementi importanti per la definizione del rischio, quali le aree del territorio con più elevata probabilità di accadimento di terremoti di magnitudo elevata ed i possibili danni correlati. In più della metà del territorio italiano possono verificarsi forti terremoti ed in queste aree l’applicazione delle vigenti norme antisismiche consentirebbe di diminuire considerevolmente il rischio sismico, salvando vite umane e beni immobili.

Il nostro Paese ha una lunga storia sismica, e piuttosto che dibattere su un argomento che non può dare risposte attendibili, come la previsione dei terremoti, ci si dovrebbe chiedere perchè, al cospetto di tante drammatiche esperienze passate, non vengano ancora rispettate le normative antisismiche. Previsione e prevenzione viaggiano su due piani culturali diversi, il primo scientifico il secondo politico e la soluzione della prevenzione è l’unica efficace a fronte della inadeguatezza dei modelli fisici per la previsione dei terremoti. Vale la pena di ricordare che la prima normativa antisismica dell’Italia post-unitaria nasce nel lontano 1883, a seguito del disastroso terremoto che rase al suolo la cittadina di Casamicciola, nell’isola d’Ischia. Da allora in Italia si affrontò per primi il problema di prevedere questi eventi calamitosi, ed alcuni tra i pionieri della sismologia italiana come M.S. De Rossi, L. Palmieri e G. Mercalli posero le basi per lo studio sistematico dei terremoti. Successivamente, agli inizi del XX secolo, il problema fu affrontato a livello mondiale con il terremoto di San Francisco del 1906, quando l’America si trovò a fronteggiare un disastro di dimensioni epocali. In quella occasione si comprese subito che, con un’edilizia opportunamente progettata per resistere alle massime sollecitazioni del suolo, si poteva evitare la perdita di migliaia di vite umane e di ingenti somme di danaro. Di pari passo la scienza andò avanti negli studi sui terremoti, tanto che gli americani produssero una serie di pubblicazioni scientifiche che saranno i capisaldi per gli sviluppi futuri della sismologia mondiale.
L’attenzione sui terremoti negli Stati Uniti occidentali, così come in Giappone, è stata sempre mantenuta alta, anche attraverso la divulgazione scientifica, mentre le vittime dei forti terremoti diminuivano progressivamente, dimostrando l’efficacia delle politiche di prevenzione del rischio sismico. Nel XX secolo, anche l’Italia fornirà contributi essenziali allo studio dei terremoti, specie per la risonanza che ebbero i catastrofici eventi di Reggio Calabria-Messina (1908), Vulture (1930), Avezzano (1915), Friuli (1967) ed Irpinia (1980). Nonostante questi sismi abbiano causato oltre 170.000 vittime e danni economici incalcolabili, nel nostro Paese non si è registrata, come in America ed in Giappone, sufficiente attenzione per le politiche di prevenzione, mentre le normative antisismiche vengono ancora viste come una restrizione al profitto dell’industria edilizia. Eppure, una politica seria che preveda l’adeguamento antisismico delle città e dei centri storici potrebbe riattivare un settore importante dell’economia italiana, con vantaggi enormi in termini di sicurezza e quindi di mancata perdita di vite umane e beni. In questo quadro, il mondo della ricerca italiana si trova di fronte ad uno scenario che, sebbene complesso, sarà ulteriore stimolo per continuare ad investigare sulla dinamica terrestre, nel tentativo di comprenderne più a fondo i complicati processi che avvengono nella crosta terrestre; ma sarà necessario anche continuare a rafforzare l’opera di divulgazione scientifica per tenere costantemente alto il livello di percezione del rischio sismico in Italia. Servirà, d’altro canto, una più efficace collaborazione tra istituzioni scientifiche e mondo politico ed un impegno di quest’ultimo a non abbandonare la scelta della prevenzione dei disastri, che produrrebbe sul lungo termine maggiori profitti per chi investe in questo campo e sicurezza delle popolazioni a rischio.

Condividi