
Terremoto Palermo: come un IA analizzerebbe la situazione
Quest’oggi si è palesato un terremoto al largo di Palermo, qualche Km in mare rispetto alla città. 2.7 il magnitudo, non proprio una scossa da nulla. Alcuni cittadini dei quartieri limitrofi hanno chiaramente avvertito la scossa che è stata localizzata come epicentro a 11 Km di profondità, ma per fortuna non si sono verificati danni ne a persone ne ad alcunché d’altro.
Ma, come tanti avvenimenti naturali, anche i terremoti sono sempre oggetto di interesse e studio, e non solo i più grandi. Anche i più lievi destano grande interesse, soprattutto per analizzarne il modello di propagazione terrestre e marino.

Una volta si cercavano le evidenze, oggi i numeri
Come in molti casi, la tecnologia ha permesso di fare passi da gigante anche e soprattutto nella ricerca. Come nel caso dell’IA che analizzava gli esami strumentali eseguiti sui polmoni dei potenziali malati di COVID-19, individuando i danni provocati dalla patologia, escludendone malattie di altra sorta, anche nei terremoti un processo di IA e Machine Learning è molto utile e largamente oggi utilizzato.
Per farla breve, mentre nel passato si raccoglievano dati e rilevazioni e ci si poneva a tavolino, in gruppi di lavoro, in cerca di evidenze e correlazioni diretto (o indirette), quest’oggi si esegue un processo di raccolta dati, analisi ANCHE manuale (o umana), ma passando poi i dati ad un processo di analisi computerizzata che ne archivia, cataloga i valori all’interno di un database Multi-relazionale. Una volta archiviati i datti vengono spulciati, estratti a campione e utilizzati in ripetute “Simulazioni” computerizzate,da parte della macchina, elaborazioni anch’esse create dalla macchina stessa, confrontandone poi i risultati con delle evidenze scientifiche di casi realmente accaduti.

Facciamo un esempio concreto, ma semplicistico
Negli anni di rilevazioni e raccolta dati tutti i valori relativi ad ogni singola attività sismica sono stati dapprima catalogati e poi archiviati all’interno di enormi database. Tutti questi dati sono stati divisi per evento, durata della scossa, andamento della scossa stessa, numero ed intensità di scosse di assestamento, creando un analisi dettagliata dell’andamento di ogni singolo terremoto. Ma non solo del durante, anche del comportamento precedente e successivo all’evento stesso.
Ma capiamo bene che in decide d’anni, la mole di dati accumulata è estremamente alta, e cercare quello che viene definito un Pattern (cioè un andamento comunque tra gli eventi) diventa estremamente impegnativo sia in termini di personale che di tempo.
Nei decenni passati si è incominciato ad utilizzare sempre più l’informatica per aiutare gli studiosi nel raccogliere e confrontare i dati, organizzando in gruppi gli eventi accaduti, ed aiutando i ricercatore ad abbreviare calcoli complessi che sempre più divenivano d’ardua risoluzione. Ma nonostante le macchine, l’arduo compito di paragone, studio e ricerca di un Pattern rimaneva a carico del personale scientifico.

Nei giorni d’oggi si applica una particolare tecnica, chiamata Deep Learning, in cui, a differenza del passato, non è la persona a fornire alla macchina dei modelli matematici che verranno poi eseguiti dal Computer e successivamente controllati dal ricercatore, ma bensì si fornisce alla macchina un algoritmo base, scarno di dati e di relazioni, si forniscono tutti gli insiemi di dati che abbiamo in nostro possesso e, grazie a questi software di elaborazione neurale basandosi sull’algoritmo base dato dagli studiosi stessi, la macchina comincerà ad eseguire dei calcoli, tentando diverse relazioni, operazioni e incroci di dati, registrandone poi i risultati in un secondo database.

La forza di queste macchine sta nell’enorme capacità di elaborazioni che possono effettuare ogni secondo. Da pensare che complesse unità neurali (configurazioni di Pc che permettono questo tipo di elaborazione dati) arrivano ad eseguire centinaia se non migliaia di elaborazioni matematiche al secondo.
Come riconosce il pc i calcoli corretti?
In realtà, in questo tipo di elaborazione (ne esistono tipologie differenti sulla base del tipo di ricerca e analisi dati che ci troviamo davanti) il pc non saprà mai quali calcoli siano giusti e quali sbagliati.-E infatti non è lo scopo di questo tipo di Machine Learning (o Deep Learning).

Immaginiamo una macchina che raccoglie dei gruppi di dati e fa vari esperimenti di calcolo. Ogni esperimento di calcolo lo si può paragonare ad una Tesi scientifica: “Ok, ho analizzato questi dati e la situazione potrebbe essere questa”.
Di fatto, la tesi non è verificata, e la macchina in questo stadio non può verificarla perchè non è in possesso di un qualche cosa con cui confrontarla.
Però…
Archivia questo risultato e lo tiene li per la seconda fase del processo.
Nel frattempo va avanti a fare altri centinaia di migliaia di esperimenti con i dati, alternando questa fase appena descritta (Chiamiamola fase 1), con una nuova fase 2.
Ogni TOT numero di elaborazioni, la macchina si ferma e comincia ad analizzare i vari risultati prodotti, cercando dei punti in comune, sia nel risultato che nell’algoritmo che la macchina stessa ha creato.
In moltissimi casi non troverà grandi correlazioni, ma in alcuni casi scoprirà che una certa sequenza di dati, porterà a dei comportamenti nel risultato verosimilmente uguali (o in gergo Lineari).
E qui scatta la scintilla.
Si trova un PATTERN, e lo archivia in un terzo database di potenziali Pattern “FUNZIONANTI”.
E via di seguito, ad analizzare miliardi di dati.
Al fine dell’elaborazione, la macchina restituirà una lista di Pattern più ricorrenti, risultati preziosissimi, perchè i ricercatori possono quindi analizzare questi pattern, trovarne evidenze scientifiche con i modelli reali, sperimentare matematicamente quali Pattern sono verosimilmente il più vicini possibili agli eventi accaduti nella realtà ed incominciare ad utilizzarli.
Per cosa?

Per fare previsioni. (Magari aiutandosi con altri processi di Machine Learning ad Hoc).
Esatto, perché analizzando anche gli avvenimenti ricorrenti che si verificano Prima del terremoto, è potenzialmente prevedibile, ascoltando con orecchio teso, ma soprattutto con m macchinari di rilevazione, cosa sta succedendo ora sotto ai nostri piedi e sotto alle nostre strade. E così è nata l’idea di creare delle seconde reti neurali, che lavorano a stretto contatto con i macchinari di rilevazione, come delle vigili sentinelle, e ci fanno un fischio quando qualcosa non sta andando per il verso giusto.
O meglio, quando qualcosa sta seguendo il Pattern giusto !

