Terremoti, 110 anni dal devastante sisma di Messina: la città deve prepararsi alla catastrofe? Un eminente gruppo di scienziati apre una nuova frontiera sulle previsioni sismiche

Secondo gli  studiosi attenersi a previsioni di tipo statistico, come per esempio il terremoto a Messina ogni 100 anni, è quanto di più sbagliato e “aberrante possa esistere”

Un eminente gruppo di scienziati, composto da ingegneri e sismologi,  illustra una nuova frontiera aperta nello studio e nelle previsioni degli effetti dei terremoti.

In un’ interessante intervista radio Giuliano Panza, membro dell’Accademia dei Lincei e Paolo Rugarli, ingegnere strutturista, ribaltano completamente la tesi e il metodo di studio che finora è stato ampiamente accolto dalla normativa italiana di riferimento, cioè tesi probabilistica, in favore del metodo  neo-deterministico. Nel nostro paese le valutazioni tradizionali del rischio sismico si basano generalmente sull’ analisi statistica delle informazioni storiche disponibili, informazioni inevitabilmente incomplete a causa della lentezza dei processi tettonici in atto, rispetto alla scala dei tempi storici. Secondo quanto dichiarato dagli studiosi, i terremoti, non seguono una regolarità spazio-temporale, in sostanza: attenersi a previsioni di tipo statistico, come per esempio il terremoto a Messina ogni 100 anni, è quanto di più sbagliato e “aberrante possa esistere“. Pertanto il rischio può risultare pericolosamente sottostimato nei siti caratterizzati da prolungata inattività, cioè in siti tettonicamente attivi, ma la cui sismicità storica e strumentale si è estrinsecata con eventi di piccola magnitudo. Dal punto di vista della protezione civile, per proteggerci dal terremoto occorre certamente considerare i fenomeni basandosi sì sulla storia sismica e gli studi di tipo geologico, ma senza operazioni matematiche: occorre quindi considerare i fenomeni più alti nelle zone e informare la comunità degli ingegneri. “Il sistema probabilistico– ha spiegato Panza- si è dimostrato sbagliato a livello mondiale, il terremoto dell’Emilia testimonia”. “In generale– ha dichiarato Rugarli- si dà un’ idea eccessivamente ottimistica delle nostre conoscenze.  L’ effetto che si è creato è che si sottostima la pericolosità sismica e non si dice la verità, cioè che questo è un paese in cui un terremoto forte potrebbe arrivare anche domani“. Le uniche valutazioni possibili sono quelle invuluppanti e non quelle sul periodo di ritorno”. “Il nostro patrimonio edile– ha dichiarato Rugarli- non è in grado di reggere ad eventi sismici catastrofi. I terremoti arrivano come e quando vogliono loro, l’ingegnere ha l’obbligo morale di infondere informazioni di cui la popolazione non dispone. In Italia- secondo lo studioso- il quadro è disarmante e preoccupante”: per esempio, per 10 dei 12 forti terremoti avvenuti dal 2001,  le stime PSHA hanno sottovalutato gravemente i valori osservati di magnitudo e danni relativi.

L’approccio neo-deterministico (NDSHA) richiede solamente una classificazione empirica dei terremoti in eccezionali (catastrofici), rari (disastrosi), episodici (molto forti), occasionali (forti) e usuali. I sismogrammi calcolati con NDSHA sono utilizzati per stimare parametri di misura della pericolosità sismica quali Peak Ground Acceleration (PGA), Displacement (PGD), Velocity (PGV) e valori spettrali, e possono essere usati direttamente come dati di ingresso per analisi non lineari delle strutture.