Verso un multirotore a lunga durata
Vol. 307 (2015)

Quelle che seguono sono delle considerazioni da laboratorio di fisica, scritte cercando di dedurre quello che un ingegnere aeronautico saprebbe già da subito. Mi sono messo a fare questi conti nell’intento di aumentare l’autonomia del multirotore usato su LuSi (il vulcano di fango nella parte orientale di Java) cercando di capire quali parametri sia possibile modificare nel disegno per ottenere un tempo di volo decente. Tempo di volo significa non solo esplorare una superficie maggiore, ma anche riuscire ad avere una stazione base piazzata in un punto accettabile. Significa passare da così (fig. 1 sinistra) a così (fig. 1 destra). Tutte le considerazioni assumono come dato sperimentale la tabella 1, relativa al motore T-MOTOR U8 KV100, in fondo all’articolo, che è stato selezionato come motore per il progetto del drone ad alta autonomia. Man mano che si procede nelle considerazioni teoriche la tabella viene presa in considerazione per una verifica numerica, a conforto del lettore (e, soprattutto, mio!). Vorrei essere perdonato per la bibliografia piuttosto scarna ma, a parte le conoscenze pregresse di fisica, il mio studio sull’argomento è stato fatto piluccando notizie dalla rete, costantemente in contatto con il mondo in rapidissima evoluzione dei volatori automatici. L’unico testo di carta consultato è il libro del mio amico e collega dell’INGV, Carlo Salvaterra.

Criteri di progetto per la Compatibilità Elettromagnetica “ElectroMagnetic Compatibility, EMC”, “grounding” e “bonding"
Vol. 306 (2015)

Questa nota tecnica vuole mettere in evidenza il problema della Compatibilità Elettromagnetica e delle Interferenze Elettromagnetiche, con un approccio sistemistico. In particolare si illustrano due caratteristiche tipiche di apparecchiature e sistemi. La messa a massa (grounding) e le connessioni (bonding).

L’analisi morfologica di dati TLS per individuare variazioni ed irregolarità in relazione allo stato deformativo di un monumento: valutazione del metodo e applicazioni
Vol. 305 (2015)

Gli edifici danneggiati dal terremoto possono presentare un chiaro quadro fessurativo che permette agli addetti ai lavori l’analisi dei danneggiamenti strutturali, una veloce diagnostica per riconoscere i meccanismi di danno attivati ed una conseguente celere messa in sicurezza delle strutture. In molti casi, però, le deformazioni indotte da un sisma, benché potenzialmente pericolose, potrebbero non essere evidenti e/o facilmente interpretabili per cui si rende necessario un lavoro di monitoraggio basato sull’uso di tecniche di osservazione e misura in grado di fornire dati oggettivi in tempi estremamente brevi, secondo le necessità legate all’emergenza. Tecniche di telerilevamento quali il laser scanner terrestre (TLS) sono in grado di soddisfare tali requisiti perché consentono di ottenere nuvole di punti molto dense in tempi relativamente rapidi, a loro volta utilizzabili per generare modelli geometrici dettagliati e precisi (per una trattazione generale sul TLS si veda ad esempio Sgrenzaroli e Vassena, [2007]). L’esecuzione di una sessione di misura in condizioni di emergenza è caratterizzata da forti vincoli per il posizionamento delle strumentazioni e, di conseguenza, le scansioni potrebbero dover essere eseguite in maniera non ottimale. I sistemi TLS very long range (VLR-TLS), cioè quella gamma strumentale concepita prevalentemente per il rilievo ambientale e capaci di lavorare anche a grande distanza dagli edifici di interesse, hanno caratteristiche notevoli in termini di affidabilità del dato e stabilità del risultato, pertanto sono particolarmente adatti all’uso in condizioni di emergenza, quando cioè è necessario operare in tempi estremamente rapidi, in condizione di sicurezza, senza possibilità di sfruttare l’accesso ad edifici vicini alla struttura di interesse per misurare da punti di vista ottimali, e soprattutto fornire informazioni sullo stato deformativo ai tecnici di ingegneria strutturale. Le esperienze maturate durante il terremoto dell’Emilia hanno dimostrato che il dato VLR-TLS, restituito mediante mappe di deformazione, è uno strumento sinottico efficace. Esse presentano la sinteticità, la semplicità e l’intuitività di interpretazione di una tavola tematica, ma allo stesso tempo risultano uno strumento che racchiude informazioni utili alle diverse esigenze, dalla messa in sicurezza/protezione civile, al possibile restauro e/o consolidamento strutturale. sia per la situazione contingente, sia per le condizioni finali. Infatti, la possibilità di operare in maniera completamente indipendente, sicura e affidabile, unita alla messa a punto di metodologie semplici e veloci, sia in sede di sessione di misura sia al momento dell’analisi dei dati, può confluire in una procedura standard da adottarsi nei momenti di crisi sismica per controllare gli edifici e per fornire, in tempo utile, dati oggettivi al personale addetto ai controlli strutturali ed alla messa in sicurezza. Va precisato che nel contesto architettonico spesso il termine deformazione intende tutto ciò che si discosta dalla regolarità costruttiva e non è utilizzato nella sua accezione matematica che richiede, evidentemente, un confronto tra uno stato pre ed uno post terremoto. È interessante e importante comprendere che, nonostante una diagnostica completa possa essere fornita esclusivamente mediante uno studio multidisciplinare del monumento di interesse, come evidenziato ad esempio da Teza et al. [2014], i rilievi e le mappe di deformazione in oggetto possono fornire preziose e chiare indicazioni per individuare le zone critiche (fragili), potenzialmente soggette a meccanismi di collasso (a rischio) in caso di evento sismico. È importante ricordare che, nonostante nel presente lavoro sia stata evidenziata l’utilità della metodologia in condizioni di emergenza post-sismica, le mappe morfologiche possono essere utilizzate anche a livello preventivo, per evidenziare difformità strutturali e peculiarità geometriche sintomatiche di patologie strutturali; tali conoscenze possono infatti, in molto casi, suggerire le corrette strategie di intervento diventando una sorta di guida procedurale per le scelte progettuali di miglioramento e/o adeguamento sismico. Inoltre, i dati ottenuti in tal modo possono guidare la scelta degli edifici da monitorare con tecniche di più complessa attuazione come l’analisi modale sperimentale (EMA). Non va infatti trascurato che un evento sismico può portare al danneggiamento di una rilevante quantità di edifici che, con le limitate risorse umane, tecniche ed economiche solitamente disponibili, non potrebbero essere monitorati in modo completo durante lo sciame sismico con tecniche a contatto come l’EMA. Il tipo di analisi proposta per il controllo degli edifici colpiti da sisma è basata principalmente sullo studio morfologico dei prospetti in esame da cui trarre, se possibile, informazioni sullo stato deformativo. Tale strategia di analisi dati, con la precisione ottenibile (5-10 mm nell’acquisizione del singolo punto dalla distanza di 50 m) e l’elevata quantità di punti disponibile, si pone all’avanguardia come metodologia di interpretazione dello stato deformativo di un edificio. Il percorso prevede la misura, la creazione delle nuvole di punti, un ciclo di lavoro per definire le primitive che meglio rappresentano i prospetti in esame, la creazione delle mappe di deformazione, la verifica (mediante ciclo di controllo) che i valori ottenuti siano maggiori delle distorsioni indotte nel modello dalle condizioni di rilievo. In questo lavoro si mostrerà un esperimento mirato a comprendere l’utilità di effettuare uno studio morfologico per determinare lo stato deformativo di un edificio; inoltre si cercherà di
quantificare il vantaggio di questo genere di approccio rispetto al classico monitoraggio realizzato come confronto di scansioni multitemporali. Sta di fatto che, in questo caso, parlando di confronto tra uno stato iniziale ed uno finale è più rigoroso l’utilizzo del termine deformazione che, se ottenuto da analisi morfologica, si ribadisce che va inteso in senso architettonico come ciò che si discosta da una regolarità iniziale presa come ipotesi e quindi come vincolo per interpretazioni future.

TSDSystem: un database multidisciplinare per la gestione di serie temporali
Vol. 304 (2015)

Le grandezze acquisite da una rete di sensori costituiscono una fonte dati eterogenea che va organizzata opportunamente al fine di poter essere impiegata nell’ambito della sorveglianza, del monitoraggio e della ricerca in ambito geofisico. Con il termine serie temporale ci si riferisce ad un insieme di misure relative ad un determinato fenomeno, acquisite sequenzialmente nel tempo. Quando gli intervalli temporali sono equispaziati si parla di periodo o di frequenza di campionamento. Il presente report tecnico descrive nel dettaglio una possibile metodologia di archiviazione e gestione delle serie temporali mediante l’impiego di una specifica struttura dati. Il sistema prodotto, di seguito TSDSystem (Time Series Database System), è progettato in modo da acquisire serie temporali da differenti sorgenti dati e di standardizzarle all’interno di un database relazionale. L’operazione di standardizzazione fornisce la possibilità di eseguire operazioni come la richiesta e/o la visualizzazione. Tali operazioni possono essere eseguite contemporaneamente su qualsiasi serie temporale presente all’interno del database, permettendo di utilizzare un asse temporale comune. L’architettura proposta segue un paradigma composto da più livelli, detti layers, ognuno specializzato nell’eseguire particolari operazioni per la riorganizzazione e l’archiviazione di dati provenienti da fonti differenti quali file ASCII, file Excel, database ODBC (Open DataBase Connectivity), o file accessibili dal Web.

Specifiche tecniche del progetto di potenziamento a mare del sistema di sorveglianza dell’area vulcanica dei Campi Flegrei
Vol. 303 (2015)

L’Istituto Nazionale di Geofisica e Vulcanologia per lo svolgimento delle attività istituzionali condotte dalla Sezione di Napoli - Osservatorio Vesuviano, ha necessità di estendere in mare il sistema di sorveglianza dell’area vulcanica dei Campi Flegrei, sita in provincia di Napoli. Il sistema esistente, infatti, è costituito da varie reti di rilevamento di parametri geofisici e geochimici, tutte centralizzate presso la sede dell’Osservatorio, con punti stazione ubicati sulla terraferma. Solo una stazione sperimentale, denominata CUMAS (Cabled Underwater Multidisciplinary Acquisition System), è operativa nel Golfo di Pozzuoli a circa 2.4 km a sud del Rione Terra. (Per una descrizione dei sistemi di monitoraggio gestiti dall’Osservatorio Vesuviano si rimanda al sito www.ov.ingv.it). Il progetto di potenziamento “EMSO-MedIT: Potenziamento delle infrastrutture multidisciplinari di ricerca marina in Sicilia, Campania e Puglia quale contributo alla ESFRI EMSO”, finanziato dal MIUR, ha fornito le risorse per realizzare un sistema di monitoraggio permanente anche nella parte sommersa dei Campi Flegrei. Il presente rapporto tecnico descrive questo sistema di monitoraggio marino costiero per dati geofisici da fondo mare, da installare nel Golfo di Pozzuoli, che prevede l’acquisizione in continuo e la relativa trasmissione dei dati in tempo reale verso la sala di sorveglianza sismica-vulcanica dell’Osservatorio. Esso sarà costituito da tre sistemi di acquisizione dati indipendenti ognuno composto da una boa (tipo meda elastica e/o a palo) connessa via cavo elettromeccanico (per l’energizzazione e la comunicazione) ad un modulo multi-parametrico posizionato sul fondo del mare, ad una distanza massima di venti metri dal corpo morto (costituente la zavorra a cui è ancorata la boa), ed equipaggiati con strumentazione elettronica di controllo e di rilevamento di parametri geofisici. La Figura 1 riporta i siti, con la specifica delle coordinate e profondità, dove saranno posizionate le boe con i relativi moduli sottomarini.

NANOX - Un applicativo web per la gestione della rete sismica satellitare Nanometrics
Vol. 302 (2015)

La Rete Sismica Nazionale dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV-RSN) èattualmente composta da circa 300 stazioni di diversa tecnologia. Metà di queste è in tecnologiaNanometrics con differente tipologia di vettore di trasmissione [Delladio, 2011].Dal 2002, data di installazione della prima stazione satellitare Nanometrics a Tolfa, il rapidoincremento del numero di stazioni ha reso necessario organizzarle nei vettori trasmissivi in base acriteri geografici per impedire, durante un evento sismico, che la banda di trasmissione venga saturata.L’aumento del numero di server dedicati all’acquisizione ha richiesto una centralizzazione delleconfigurazioni dei vari sistemi.La presenza sul territorio nazionale di vari centri di controllo e manutenzione ha infine suggeritoche le informazioni relative fossero fruibili a tutte le sedi in modo da migliorare l’efficienza di tutto ilsistema.Scopo dei questo progetto è perciò quello di creare un sistema web per il monitoraggio di tutta lacatena di acquisizione dei dati, dalla configurazione dei sistemi remoti, alla qualità dell’acquisizionesui server dedicati.Poichè stiamo lavorando su un sistema ‘aperto’, ovvero in cui I file di configurazione sonoaccessibili ad un vasto numero di persone, si è preferito non creare un sistema top-down in cui il serverinvia le configurazioni ai client, ma uno in cui I client inviano periodicamente I propri dati e il servercentrale si occupa di confrontarle ed evidenziarne le differenze.Il risultato è stato quello di portare a disposizione del turnista tecnico in sala sismica,unostrumento che gli permette di controllare il corretto funzionamento del sistema satellitare Nanometricsin tempo reale in diversi punti di controllo, e di fornire alle sedi esterne e a chi si occupa dellamanutenzione, dati sempre aggiornati di facile accessibilità.Per realizzare questo scopo è stato scritto un aggregatore delle informazioni provenienti dai varifile di configurazione utilizzati, e che lavora lato-server.Dal lato-client, sono state costruite quattro pagine con:1. una mappa per poter localizzare geograficamente le stazioni e per monitorarnel’acquisizione;2. la struttura del sistema di trasmissione per poter identificare I problemi di sincronizzazionetra I vari blocchi e per poter facilmente trovare spazio per le nuove installazioni;3. un riassunto, attraverso il quale abbiamo le informazioni di tutte le stazioni in un’unicaschermata;4. un altro riassunto che ci permette di tenere sotto controllo in un’unica pagina leinformazioni qualitative e quantitative dell’acquisizione dei dati.  

Acquisizione dati sismici e GPS mediante implementazione di un cloud privato su rete dati cellulare ad integrazione della rete informatica della sede Irpinia
Vol. 301 (2015)

Nell’ambito delle attività di ricerca, monitoraggio e sorveglianza geofisica il Centro NazionaleTerremoti dell’Istituto Nazionale di Geofisica e Vulcanologia gestisce la Rete Integrata Nazionale GPS(RING) [Avallone et al., 2010] con installazioni permanenti di sensori GPS distribuite su tutto il territorioitaliano e nel bacino del mediterraneo. Tale gestione è affidata all’Unità Funzionale denominata“Osservatorio sismico e geodetico di Grottaminarda” che ne provvede alle attività di installazione,manutenzione e aggiornamento tecnologico [Falco et al., 2014], nonché dei sistemi di monitoraggio sismicoco-locati nel centro-sud Italia peninsulare. Mantenere in efficienza una rete geograficamente così estesaimplica un notevole impiego di risorse sia umane che economiche, volte a garantire il correttofunzionamento della strumentazione installata in campagna e dei sistemi di connettività per la trasmissioneremota dei dati; obiettivo quest’ultimo strategico per il contenimento dei costi di esercizio dell’infrastruttura.In tale ottica, infatti, per il collegamento remoto dei siti della RING sono stati sviluppati diversi progetti diricerca tecnologica, finalizzati a progettare e realizzare sistemi di connettività sia cablati (DSL internet,intranet) che wireless ([Falco, 2006], [Falco, 2008], [Cardinale et al., 2010]) dotati delle più avanzatetecnologie, sempre compatibili con il budget disponibile per la gestione della rete. In tale contesto, quindi,abbiamo maturato l’idea di ottimizzare il sistema di telecomunicazione “cellulare”, basato sulle connessionimobili tipo GPRS/UMTS [Falco, 2008], mediante l’avvio di un progetto con il provider di servizi ditelecomunicazioni ‘Vodafone’ avente come finalità la realizzazione dello scambio dati diretto tra le stazioniGPS remote e la nostra sede INGV di Grottaminarda interamente su rete Vodafone. Tale sistema permette,infatti, la connessione UMTS/LTE su APN (Access Point Name) dedicato all’INGV per l’istradamentodiretto dei flussi su circuito MPLS (Multi Protocol Label Switching) attestato presso la sede diGrottaminarda. L’obiettivo è quello di incrementare il numero di stazioni GPS della RING a connettivitàUMTS, garantendo al contempo un collegamento ‘sempre in real-time’ e un oculato controllo sulla proliferazione dei costi.

Sviluppo di un software per la detezione e classificazione in near real-time degli eventi sismo-vulcanici di Vulcano
Vol. 300 (2015)

Dati ricavati dall’analisi di eruzioni storiche indicano chiaramente che nella maggior parte dei casi esse sono precedute e accompagnate da periodi di unrest, caratterizzati da variazioni fisico-chimiche dello stato del vulcano e/o del sistema idrotermale ad esso associato [e.g., Tilling, 2008]. Tali variazioni possono essere individuate mediante il monitoraggio che può così mitigare il rischio associato ai vulcani. Per esempio, aumenti nel numero ed ampiezza degli eventi sismici registrati nelle aree vulcaniche sono spesso associati a comportamenti pre-eruttivi in molti vulcani come Redoubt [Alaska; Chouet et al., 1994], Galeras [Colombia; Gil Cruz and Chouet, 1997], e Colima [Mexico; Varley et al., 2010]. Vulcano (Isole Eolie, Italia), come la maggior parte dei vulcani attivi nel mondo, è caratterizzato da vari tipi di segnali sismici. Sulla base delle caratteristiche spettrali e delle forme d’onda, lavori recenti [Alparone et al., 2010; Milluzzo et al., 2010; Cannata et al., 2012] hanno suddiviso gli eventi sismici di Vulcano in due gruppi: terremoti vulcano-tettonici (VT) e eventi sismo-vulcanici. I primi, caratterizzati da energia a relativamente alta frequenza (> 5 Hz), bassa magnitudo (< 2.5) e chiare fasi P ed S nel sismogramma, si originano a causa della fratturazione lungo piani di faglia. Gli eventi sismo-vulcanici (vedi Figura 1) invece sono associati alla dinamica della porzione superficiale del sistema idrotermale (profondità minore di 1 km b.s.l.) e sono suddivisi in 4 classi [Alparone et al., 2010; Milluzzo et al., 2010; Cannata et al., 2012]: eventi a lungo periodo (LP), ad alta frequenza (HF), monocromatici (MC) e tornillos (TR). Gli eventi LP presentano un contenuto spettrale nella banda 0.5-5.0 Hz e sono simili agli eventi LP osservati nella maggior parte dei vulcani [e.g., McNutt, 2005]. Tali eventi sono probabilmente associati a risonanza di crack e condotti riempiti da fluidi idrotermali [Alparone et al., 2010]. Gli eventi HF presentano un contenuto spettrale nella banda 5-25 Hz e differiscono dai terremoti VT per gli inizi emergenti e le fasi P e S poco definite nei sismogrammi. Sulla base di tali caratteristiche gli eventi HF possono essere considerati eventi VT-B [Wassermann, 2009]. Come I classici terremoti VT, anche gli eventi HF sono probabilmente generati da fenomeni di fratturazione delle rocce, causati dalla dinamica dei fluidi idrotermali [Alparone et al., 2010]. Gli eventi MC sono caratterizzati da netti picchi di frequenza sopra 5 Hz, e, come gli eventi LP, possono essere causati da fenomeni di risonanza di crack e condotti riempiti da fluidi idrotermali [Alparone et al., 2010]. Infine, gli eventi TR sono caratterizzati da lunga durata (30-50 s) e netti picchi spettrali sopra I 5 Hz. Dal 2004 al 2009 si sono susseguiti diversi aumenti nel numero e nell’ampiezza degli eventi sismo-vulcanici, contemporanei a variazioni nel chimismo e nella temperatura alle fumarole, che sono stati interpretati come associati a incrementi nel rilascio di gas da corpi magmatici profondi e stabili, senza intrusioni nelle porzioni superficiali del sistema idrotermale [Cannata et al., 2012; Milluzzo, 2013]. È stato sviluppato un software per il monitoraggio automatico degli eventi sismo-vulcanici. Grazie a tale software sarà possibile monitorare in near real-time le variazioni dell’attività sismo-vulcanica, strettamente associate alla dinamica superficiale del sistema idrotermale.

MAGMA: Multiparametric dAtabase GUI for Monitoring and Administration
Vol. 299 (2015)

I vulcani attivi della Campania sono, come è noto, tra quelli a più alto rischio nel mondo a causa delloro stile eruttivo prevalentemente esplosivo e della presenza, nelle loro prossimità, di vaste aree urbanizzate.Gestire le informazioni riguardanti il parco strumentale delle Reti di monitoraggio sismico, geodetico egeochimico dell’Osservatorio Vesuviano, nonché dei sistemi di acquisizione dei dati, è di crucialeimportanza per consentire lo svolgimento delle numerose attività ad essi correlate.Negli ultimi anni, le Reti di monitoraggio sono andate incontro ad un notevole aggiornamentotecnologico, ad esempio con sostituzione di sistemi analogici con quelli digitali di moderna generazione, einstallazione di nuove stazioni digitali multi-parametriche. Tale aggiornamento richiede al tempo stessoun’attività non indifferente, nell’inserire, mantenere e aggiornare le informazioni del parco strumentaleinstallato. L’esigenza di migliorare la fruibilità di tali informazioni ha portato alla nascita di un databasedelle reti di monitoraggio e contestualmente di MAGMA, interfaccia web nata per la consultazione,l’inserimento e l’aggiornamento delle informazioni contenute nel database.Gli utenti cui si rivolge MAGMA sono il personale preposto alla gestione della manutenzione dellestazioni. Oltre alla gestione delle informazioni sulla strumentazione in uso in ognuna delle singole stazioni,MAGMA consente la consultazione dello stato di funzionamento della strumentazione e della suaubicazione, ad esempio se la strumentazione è installata ed in esercizio, se in magazzino o se in riparazione.Inoltre è possibile anche la gestione della componente amministrativa legata ai permessi di concessione dellearee scelte per l’ubicazione delle stazioni.

Un sistema di telemetria real-time e di campionamento di gas come payload per un drone
Vol. 298 (2015)

LUSI LAB è un progetto europeo, finanziato dall’università di Oslo, che si propone di effettuare uno studio multidisciplinare usando il vulcano Lusi come un eccezionale laboratorio naturale [Mazzini et al., 2007]. La prima eruzione del vulcano Lusi si è verificata nel nord est dell’isola di Java nel maggio del 2006 a seguito di un terremoto di magnitudo 6.3 che colpì l’isola. Inizialmente comparvero diversi siti di eruzione (siamo in prossimità del complesso vulcanico Arjuno) di gas e fango lungo un sistema di faglia riattivata, successivamente nel giro di qualche settimana diversi villaggi della zona furono completamente sommersi da fango bollente. Tuttora il vulcano Lusi è attivo e continua ad eruttare gas, fango e acqua. In figura 1 una foto del vulcano Lusi com’è oggi, la foto è stata scattata durante la missione effettuata dall’INGV lo scorso dicembre 2013. Il laboratorio LNTS partecipa al progetto, fornendo un drone dotato di payload per poter accedere al cratere ed effettuare campionamenti del gas emesso dal vulcano [Iarocci et al., 2014]. Il rapporto tecnico descrive il payload progettato dall’LNTS, che consiste di un sistema di campionamento di gas e di misura di parametri ambientali (pressione, temperatura, posizione) con telemetria real-time. L’obiettivo è quello di potere disporre, durante il sorvolo dell’area interessata, di una lettura costante dei parametri e dell’azionamento da remoto del sistema di campionamento del gas.

SQLX: Test di Installazione e Funzionamento
Vol. 297 (2015)

SQLX è un software che si propone come strumento per il controllo di qualità dei segnali sismici registrati in continuo dalle reti di monitoraggio. Attualmente è diventato un prodotto commerciale distribuito esclusivamente da Nanometrics Inc. (www.nanometrics.ca/products/sqlx) e sviluppato e supportato da Boaz Consultancy. SQLX sostituisce la vecchia versione conosciuta con il nome di PQLX. I maggiori utilizzatori del prodotto sono l’USGS-NEIC, l’IRIS-DMC e ORFEUS. La possibilità di verificare velocemente per ogni canale sismico acquisito le ordinate spettrali e la loro variabilità è utile per poter indagare i livelli di disturbo al sito, individuare le cause e le origini dei disturbi e monitorare le prestazioni degli strumenti. Infatti, l’elaborazione sistematica del segnale continuo e la produzione di parametri statistici che ne rappresentino il contenuto nel dominio delle frequenze evidenzia l’emergere delle caratteristiche stazionarie del rumore di fondo naturale presente in ogni sito, sempre presente ovunque si installi una stazione sismica. Il rumore di fondo può essere composto da sorgenti naturali e/o antropiche che si manifestano in differenti bande di frequenza a comporre una generale firma spettrale che è riconoscibile generalmente in tutti i siti di rilevamento. Questa forma dello spettro del rumore di fondo è ben riprodotta e contenuta all’interno di curve di riferimento ottenute dagli estremi di tutti i segnali registrati in siti differenti sul pianeta [Peterson, 1993]. Il rumore di fondo, per la sua natura aleatoria, ha un’ampia variabilità che in gran parte è contenuta all’interno delle curve di riferimento ed in generale si esprime con ben determinate caratteristiche. Ad esempio, se la strumentazione utilizzata lo permette, all’ interno dello spettro del rumore di fondo è sempre riconoscibile un picco spettrale intorno a 0.2 Hz generato dal segnale che si propaga a partire dai fondali marini al di sotto delle tempeste marine; oppure è caratterizzato da una risalita delle ampiezze con l’aumentare della frequenza al di sopra di 1 Hz se il sito è vicino a centri urbani e/o aree industriali. Quindi, risulta importante valutare quanto una stazione sismica sia disturbata rispetto agli obiettivi del monitoraggio sismico, confrontando le ampiezze spettrali dei segnali dei terremoti con quelle delle sorgenti di rumore sismico. Questa valutazione permette di definire quanto una stazione sismica risulta rumorosa e se è in grado di rilevare i segnali di eventi sismici. Inoltre, disponendo della strumentazione adeguata e all’avanguardia, è importante che tale strumentazione stia funzionando correttamente in modo da poterne sfruttare appieno le prestazioni. Individuando le anomalie e la loro periodicità all’interno del rumore di fondo medio di un sito, è possibile ipotizzare ed individuare guasti della strumentazione, malfunzionamenti e/o elementi che indicano possibili miglioramenti nelle configurazioni di installazione degli strumenti. Produrre un’analisi spettrale continua, il calcolo delle statistiche dei livelli di disturbo e l’archiviazione in un Database (DB) su centinaia di canali sismici sono operazioni che richiedono buone risorse di calcolo e strumenti software adeguati per permettere rapide analisi e per gestire la mole di dati prodotta. In questo rapporto è descritto il test di installazione e funzionamento eseguito con licenza di prova per verificare le potenzialità e le nuove opzioni di analisi del programma SQLX. Inoltre vengono mostrati alcuni esempi di consultazione dei risultati per descrivere come sfruttare SQLX per ipotizzare l’origine di alcune anomalie del segnale.

Studio per la verifica della bontà di allineamento delle scansioni da rilievo laser scanning: metodologia sperimentale TLS - fase 1.0
Vol. 296 (2015)

I sistemi laser a scansione terrestre, comunemente laser scanning (TLS), sono oggi molto utilizzati sia nel rilievo geologico che architettonico. Un rilievo TLS, in sostanza, è l’insieme delle nuvole di punti acquisite in ogni singola scansione e cioè un insieme di punti di cui sono misurate/calcolate le coordinate insieme ad un dato di intensità del segnale (dipendente dalla riflettenza del materiale alle frequenze utilizzate). Attualmente le tecniche TLS suscitano un interesse crescente in campo topografico in quanto consentono un’acquisizione rapida ed affidabile di nuvole di punti 3D a rappresentare tridimensionalmente gli oggetti rilevati e la qualità delle nuvole di punti 3D, collegata alla possibilità di automatizzare le successive post-elaborazioni dei dati, hanno esteso il potenziale applicativo dei laser scanner terrestri, aprendo la strada ad un ampio spettro di applicazioni in pieno campo [Teza and Pesci, 2013] In particolare, il rilievo morfologico tramite TLS sta emergendo a livello scientifico come metodologia integrata anche per la rappresentazione, l'analisi, la tutela e la valorizzazione del territorio e dei beni culturali. Diversi sforzi sono stati fatti in tal senso, negli ultimi anni, soprattutto al fine di comprendere appieno le potenzialità ancora in larga parte inespresse di questa tecnologia [Pesci et al., 2011a; Bonali et al., 2013]. Lavori recenti pubblicati dall’INGV, in collaborazione con gli Atenei di Padova e Bologna, per esempio, hanno mostrato come sia possibile estrarre in modo rapido (quasi immediato) informazioni sullo stato deformativo di monumenti specifici danneggiati, alterati o comunque sollecitati da eventi sismici e come sia possibile definire in modo semplice un protocollo di lavoro e di intervento al fine di essere operativi anche in condizioni di grave emergenza. Il filo che collega geofisica e ingegneria sismica non è poi cosi sottile in quanto la capacità di leggere i dati TLS rilevati in modo critico e rigoroso mediante specifiche e dirette metodologie di analisi, unita alla conoscenza del territorio e delle strutture in esame soggette o che sono state soggette a sollecitazioni sismiche, può offrire certo un vincolo importante per la comprensione del danno e nell’ambito di indagini e valutazioni sulla vulnerabilità strutturale [Teza et al., 2014]. Tutto questo rientra, evidentemente, in un settore della ricerca che si avvicina alla sfera delle applicazioni per scopi di protezione civile [Pesci et al., 2013]. Nelle esperienze maturate tra il 2010 ed il 2014, arco di tempo nel quale si verificò anche il terremoto dell’Emilia Romagna (2012), è stato interessante e fonte di soddisfazione personale, essere riusciti, mediante il metodo sperimentale, a raggiungere obiettivi quali: (i) comprendere le reali risoluzioni delle scansioni e le loro implicazioni nella metodologia di rilievo; (ii) modellare il segnale TLS e la sua interazione con gli oggetti da scansionare al fine di creare anche realistiche nuvole di punti, ma sintetiche, utili per realizzare studi di fattibilità; (iii) comprendere gli effetti di back-scattering delle superfici fisiche e la loro influenza sul segnale laser retro diffuso; (iv) valutare la consistenza del dato di intensità in riferimento alle rugosità ed irregolarità delle superfici per rilievi geologici e architettonici; (v) stimare gli effetti sistematici potenzialmente indotti dal fenomeno di spot-spreading, cioè dallo sparpagliamento dell’impronta del fascio laser su una superficie se osservata con angoli di incidenza troppo elevati; (vi) ideare un sistema semi automatico per l’analisi delle nuvole di punti basato sulla estrazione della morfologia dei prospetti osservati al fine di identificare gli stati deformativi di un edificio; (vii) mettere a punto un sistema di lavoro e protocollo di intervento per l’analisi in tempo quasi reale dello stato deformativo di un monumento [Pesci et al., 2013, 2011, 2008abc; Franceschi et al., 2009]. Tutto ciò premesso, entrando più nello specifico dell’acquisizione e trattamento dati TLS, va ricordato che generalmente la nuvola di punti, o il modello 3D da essa ricavato, è composto dall’insieme delle scansioni acquisite che, integrate tra loro, contribuiscono a restituire una ricostruzione completa dell’oggetto di interesse. In particolare, le scansioni vengono allineate tra loro, cioè unite mediante una roto-traslazione che ponga due o più rilievi in uno stesso sistema di riferimento, assoluto o relativo non ha importanza ai fini delle analisi. Ovviamente queste operazioni avvengono mediante algoritmi basati sulla teoria dei minimi quadrati e, in linea del tutto generale, funzionano minimizzando la distanza tra tutti gli elementi comuni alle scansioni. Volutamente si è parlato di elementi poiché, a seconda della strategia di calcolo utilizzata, possono essere minimizzate le distanze tra i punti appartenenti a due scansioni oppure si possono minimizzare le curvature tra modelli relativi alle stesse e così via. Si ribadisce ancora una volta che la fase di allineamento delle scansioni è il cuore dell’analisi dati TLS poiché fase fondamentale e delicata che, se affrontata in modo frettoloso, senza controlli o con superficialità può compromettere inevitabilmente ogni passo successivo e portare a conclusioni e valutazioni errate nonché a gravissimi errori di interpretazione. I software per la gestione e l’analisi dati di tipo commerciale per quanto estremamente efficienti, largamente diffusi ed utilizzati non sono aperti, non è cioè possibile studiare le sorgenti dei programmi ed esaminare nello
specifico il tipo di algoritmo utilizzato. Esistono riferimenti e bibliografie [Bergevin, 1996] che permettono di comprendere qualitativamente il tipo di analisi e processing che viene messo in opera ma è comunque sempre necessario testarne l’efficacia. Ciò può avvenire utilizzando dati sintetici perfettamente conosciuti poiché generati in laboratorio ma, ancora meglio, seguendo una strategia semplice ma ingegnosa che preveda l’utilizzo di dati reali acquisiti nelle campagne di misura TLS. Tutto ciò, con lo scopo di comprendere quale errore sia eventualmente introdotto nell’allineamento delle nuvole di punti in relazione all’area di sovrapposizione delle scansioni. In questo lavoro mostriamo un esperimento realizzato con l’utilizzo dei dati rilevati mediante lo strumento Optech ILRIS ER in area Ferrarese. Si tratta del rilievo di un prospetto della torre di Tieni. La torre in questione è stata rilevata nel 2012 nell’ambito di un esperimento mirato a comprendere l’effetto di “spot spreading” e conseguenze dirette sui modelli ottenuti in relazione all’angolo di incidenza [Pesci et al., 2013] ma lo stesso tipo di strategia era già stato proposta in un lavoro di Pesci et al. [2011] per dimostrare che il cambio di pendenza osservato nella parte sommitale di una torre di Bologna non dipendeva da un errore di allineamento bensì da un assetto risultante da fasi costruttive ed eventuali effetti di carico. Lo scopo del lavoro è fornire una mappa metodologica per essere in grado di valutare in modo qualitativo e quantitativo l’errore potenzialmente indotto da una sovrapposizione non abbastanza elevata al fine di fornire, anche per i casi peggiori, valori di soglia per l’accettabilità o meno delle informazioni morfologiche estratte da modelli non perfettamente realistici e caratterizzati da sistematismi causati dall’analisi di un rilievo non ottimale. Ancora una nota, per sottolineare che il pacchetto software utilizzato per le analisi TLS è il Polyworks (www.innovmetric.com) ma che è interesse degli autori, in un lavoro futuro e già in fase di attuazione, riproporre le analisi delle stesse scansioni impiegando altri programmi noti e diffusamente utilizzati quali Riscan Pro (www.riegl.com) e JCR 3D Reconstructor (www.gexcel.it) per capire come le differenze tra le procedure di calcolo (non aperte) a disposizione possono portare a differenze interessanti o meno della costruzione di modelli finali e, soprattutto, comprendere eventuali situazioni da evitare in fase di rilievo.

Determinazione della composizione isotopica dell’ossigeno su campioni acquosi a diversa salinità tramite spettroscopia ad assorbimento laser e tecnica IRMS
Vol. 295 (2015)

Negli ultimi 50 anni si è sempre più consolidato, negli studi di tipo idrogeologico e non solo, l’uso degli isotopi stabili dell’acqua (ossigeno e idrogeno) come traccianti naturali per ottenere informazioni difficilmente conseguibili con altre metodologie di indagine. A differenza di molti traccianti chimici, quelli isotopici possono essere considerati, in alcuni casi, più efficaci per la determinazione delle caratteristiche idrogeologiche dell’acquifero. Infatti le interazioni a seguito di processi organici ed inorganici che l’acqua subisce durante i movimenti sotterranei e/o superficiali hanno spesso un effetto trascurabile sulla composizione isotopica dell’acqua stessa. Questa tematica interessa in maniera particolare le acque oceaniche, ma si riflette anche sulle acque che evaporano dall’oceano e precipitano sui continenti andando a costituire i vari corsi d’acqua continentali. Poiché esistono in natura due isotopi stabili dell’idrogeno, 1H, 2H, e tre isotopi dell’ossigeno, 16O, 17O, O è possibile l’esistenza di 9 molecole di acqua isotopicamente differenti. Dato però che le abbondanze relative degli isotopi sono diverse, in pratica i due rapporti isotopici facilmente determinabili nelle molecole di acqua sono 2H/1H e18O/16O, rispettivamente per l’idrogeno e per l’ossigeno. La presenza di due molecole differenti contenenti 16O e 18O ha enorme importanza nella marcatura naturale delle acque dato che, a causa della massa differente, le due molecole si comportano diversamente nei processi di evaporazione, condensazione e formazione di ghiaccio. Fisicamente le molecole più leggere tendono a evaporare più facilmente delle molecole più pesanti, a causa della differente pressione di vapore tra 1H218O e 1H216O. In un processo evaporativo si ha il frazionamento delle molecole pesanti che restano preferenzialmente allo stato liquido, a discapito delle molecole leggere che passano più facilmente allo stato di vapore. Per evaporazioni successive si ha un progressivo impoverimento della frazione leggera nella fase liquida. Per questo motivo le piogge continentali (piogge successive) e di conseguenza l’acqua dei fiumi e le acque sotterranee, hanno una composizione isotopica differente rispetto alla massa d’acqua di partenza. Il valore di composizione isotopica delle piogge varia successivamente a seconda delle regioni, in dipendenza dalla distanza dall’oceano, dai sistemi di circolazione atmosferica e dalla presenza di catene montuose. In tal modo l’acqua di bacini differenti si può diversificare anche notevolmente, tanto da poter essere nettamente distinta (ciò serve anche a delimitare i bacini di alimentazione delle acque sotterranee e la variabilità di questi nel tempo). Per composizione isotopica si intende la determinazione del rapporto isotopico. Per convenzione, il rapporto isotopico si indica sempre ponendo a numeratore l’isotopo raro e a denominatore l’isotopo più abbondante. I risultati vengono espressi rispetto ad uno standard internazionale di riferimento in termini di notazione δ ‰ secondo la formula seguente: δ ‰ = (Rcampione/Rstandard - 1) * 1000 dove: Rstandard è il rapporto 2H/1H o Water)

Riproduzione digitale di sismogrammi storici del Vesuvio: prime registrazioni sismiche su un vulcano
Vol. 294 (2015)

Il presente rapporto descrive l’attività di riproduzione digitale di sismogrammi storici dell’Osservatorio Vesuviano. Come è noto l’Osservatorio Vesuviano, attualmente Sezione di Napoli dell’INGV, è il più antico osservatorio vulcanologico del mondo, fondato nel 1841 dal re delle due Sicilie Ferdinando II di Borbone. In un numero del marzo 2013 il prestigioso settimanale scientifico Nature, cita il monitoraggio del Vesuvio, come una delle osservazioni scientifiche di più lunga durata, seconda solo all’osservazione delle macchie solari iniziata da Galileo Galilei nel 1600 [http://www.nature.com/news/longterm-research-slow-science-1.12623]. Presso l’Osservatorio Vesuviano è stato sviluppato uno dei primi strumenti sismometrici di moderna concezione per la misura dei terremoti (Fig. 1). Questo strumento noto come il sismografo Palmieri, dal nome del suo ideatore, Luigi Palmieri (Faicchio, 1807 - Napoli, 1896), direttore dell’Osservatorio Vesuviano dal 1855 al 1896, fu installato al Vesuvio per la prima volta nel 1856 e sancì l’inizio delle osservazioni sismologiche sui vulcani [Giudicepietro et al., 2010]. Nel 1875 un esemplare dello strumento fu anche installato all’Osservatorio Meteorologico Centrale di Tokyo. Il sismografo Palmieri non registrava un vero e proprio sismogramma, ma in caso di terremoto ne permetteva la misura della durata, riportando su carta telegrafica tracce di moti orizzontali e verticali dei suoi sensori. Dai primi del ‘900 furono adottati nuovi strumenti per le osservazioni sismologiche sul Vesuvio. Con l’installazione dell’ortosismografo Alfani è iniziata la registrazione dei sismogrammi intesi come tracciati dell’evoluzione temporale delle onde sismiche. I sistemi di monitoraggio sismico al Vesuvio hanno poi seguito l’evoluzione tecnologica generale della sismologia fino all’attuale configurazione, prevalentemente basata su stazioni digitali a larga banda [Giudicepietro et al., 2010; Castellano et al., 2012; Orazi et al., 2013]. In questo contesto appare chiaro che all’Osservatorio Vesuviano sono state effettuate per la prima volta al mondo registrazioni di segnali sismici di ambiente vulcanico. Parte di questo materiale ha superato due guerre mondiali ed è stato conservato e tramandato giungendo fino a noi. Il presente lavoro, iniziato nell’ambito del progetto di servizio civile “Noi e i vulcani”, svoltosi presso l’Osservatorio Vesuviano nel 2012, si pone l’obbiettivo della conservazione attraverso la riproduzione digitale di un insieme di sismogrammi storici del Vesuvio che coprono un intervallo temporale dall’inizio del ‘900 agli anni ‘70 del Novecento. Questo periodo è di grande interesse perché riguarda una fase di transizione in cui il Vesuvio è passato da condizioni di condotto aperto, con
frequenti fenomeni eruttivi, alla condizione attuale di condotto chiuso. In particolare, rientra nel periodo considerato l’ultima eruzione del Vesuvio avvenuta nel marzo del 1944, i cui sismogrammi sono compresi nel dataset digitalizzato.

Sistema di acquisizione dati a basso consumo basato su Linux per sensori multiparametrici: il software
Vol. 293 (2015)

Questo rapporto tecnico nasce con lo scopo di completare il lavoro presentato nel Numero 226 di questa stessa collana editoriale [Guardato, 2012] in cui è ampiamente descritto l’hardware di un sistema di acquisizione dati a basso consumo, basato sul sistema operativo open-source Linux, per l’acquisizione di segnali digitali seriali provenienti da sensori multi-parametrici. Il documento presente descrive dettagliatamente il software di gestione e funzionamento del relativo sistema con un taglio di tipo nettamente manualistico. Il software, che gira su una CPU del tipo ARM-9 a basso consumo [AT91SAM9G20] montata su una scheda elettronica commerciale, è suddiviso in due versioni maggiori: una di essa gestisce parte della strumentazione fuori acqua installata su una meda elastica nel Golfo di Pozzuoli [Iannaccone, et al, 2009] e denominata SURFACE, mentre l’altra gestisce al completo un modulo sottomarino per misure multiparametriche, denominata MODULE. Su entrambe le versioni il software consente la gestione di: otto linee digitali di I/O, due interfacce seriali USB con accensione a comando, tre porte seriali asincrone di tipo RS232, una porta seriale asincrona half-duplex di tipo RS-485/RS-422, un convertitore analogico-digitale a 12bit ad otto canali multiplexati (utilizzati, tra l’altro, per monitorare i consumi elettrici della strumentazione e del sistema stesso), un sensore per la misura della temperatura del sistema ed una bussola magnetica digitale per la misura dell’inclinazione e dell’orientazione della meda elastica (per la versione SURFACE) e del modulo sottomarino (per la versione MODULE). L’architettura del software si completa, per il modulo sottomarino, con la gestione dell’evento relativo all’eventuale allagamento dell’housing del modulo; mentre per la parte fuori acqua, con la gestione del ricevitore GPS installato sulla parte emersa della meda elastica. Infine, una serie di script scritti in Bash, coadiuvati da una serie di applicazioni elaborate in linguaggio C, completano il software di gestione del microprocessore, delle periferiche e dei sensori integrati ed esterni al sistema di acquisizione.

GPU implementation and validation of fully three-dimensional multi-fluid SPH models
Vol. 292 (2014)

Computational fluid dynamics (CFD) provides the mathematical and computational tools for the numerical simulations of fluid flows, an essential component in a number of applications ranging from geophysics to industrial applications. It can be used to forecast the areas subject to potential inundation by natural flows (tsunamis, lava flows, landslides, pyroclastic flows), to evaluate the impact and cost of strategies aimed at reducing long- and short-term risk from natural and man-made hazards, or to test mechanical designs and verify their efficiency before the costly implementation processes. In many applications, multiple fluids (e.g. oil, water, air) may be present in the same problem, and the very different rheological properties of these fluids pose a challenge for some CFD methods. The work described in this report is focused on the implementation and validation of two state-of-the-art multi-fluid models for the Smoothed Particles Hydrodynamics (SPH) numerical method. The SPH method, in its weakly-compressible formulation, is highly parallelizable, and is therefore an excellent candidate for impementation on parallel computing hardware, such as Graphic Processing Units (GPUs). While GPUs have been primarily developed for high-performance three-dimensional graphic rendering and video-games, since 2007 the two major manufacturers have also exposed their massive parallel computing capabilities to more generic applications. Our work is integrated into GPUSPH [Hérault et al., 2010], the first implementation of SPH to use CUDA-enabled GPUs as high-performance parallel computing devices. The report begins with an introduction to the SPH method and its application to the Navier-Stokes equations for fluid dynamics, highlighting the issues that the classical SPH formulation encounters in the case of multiple fluids. This is followed by an overview of GPUSPH, the implementation of SPH on CUDA GPUs which is the basis for our implementation of the multi-fluid SPH models: the Hu & Adams model [Hu and Adams, 2006], and the more recent one developed by Grenier [Grenier et al., 2008; 2009; Grenier, 2009]. A description of these models, highlighting the differences over the classic SPH formulation, is included in the subsequent chapter. Finally, validation tests are shown for problems in both two and three dimensions, covering the classic Rayleigh-Taylor instability, the lock exchange gravity current problem, and finally a rising bubble example. To the best of our knowledge, the work described here represent the first fully three-dimensional implementation of these multi-fluid SPH models on the high-performance computing platform provided by CUDA-enabled GPUs.

Validazione dei dati dell’Osservatorio Geomagnetico di Duronia
Vol. 291 (2014)

La validazione dei dati illustrata in questa nota concerne due bande di frequenza distinte, separate dalla frequenza di ripetizione delle misure assolute ƒm. Questa frequenza definisce due regioni spettrali: ƒ > ƒm e ƒ < ƒm. Nella prima regione spettrale il rumore complessivo non viene discriminato dalle misure assolute perché si colloca al di fuori della banda delle misure assolute stesse, nella seconda regione spettrale le misure assolute consentono di eliminare, entro certi limiti, le varie derive introdotte dalla catena strumentale. Un terzo segmento spettrale, di grande interesse dal punto di vista del rumore, si colloca nella banda delle pulsazioni magnetosferiche (0.001 Hz – 1 Hz). In questa banda giace il ginocchio che separa il rumore bianco da quello colorato. In questa nota si pongono in evidenza soprattutto le componenti del rumore che non vengono discriminate dalle misure assolute.

Terremoto del 29 dicembre 2013 nel Matese (MW = 5.0). Indagine speditiva degli effetti nell’area epicentrale e analisi preliminare della sequenza sismica
Vol. 290 (2014)

Il 29 dicembre 2013 un terremoto di magnitudo MW = 5.0 (profondità 10.5 km) è avvenuto nell’area dei Monti del Matese alle ore 18:08:43, ora locale. Il terremoto è stato localizzato dalla Rete Sismica Nazionale dell’Istituto Nazionale di Geofisica e Vulcanologia (INGV) nei Monti del Matese (41.37°N, 14.45°E) (Figura 1). In seguito a tale evento, diversi interventi sono stati predisposti finalizzati al miglioramento del monitoraggio geofisico dell’area [De Gori et al., 2014]. L’evento ha prodotto panico e preoccupazione, in modo particolare nelle comunità alle falde del Matese, con un elevato livello di avvertibilità in tutta la provincia di Caserta, Benevento, Napoli, Avellino e Salerno, in Campania, e di Venafro ed Isernia, nel Molise. Nelle aree più prossime all’epicentro sono stati registrati lievi danni ad alcuni edifici e a strutture di culto. L’evento è tra quelli di maggiore energia registrati nell’area del Matese dopo il terremoto del 26 luglio 1805. L’area del Matese che si estende da Isernia a Benevento, è uno dei segmenti della catena Appenninica più attivi dal punto di vista sismico. Il livello di pericolosità sismica fornito dalle mappe dell’INGV indica un valore stimato di accelerazione di picco con probabilità di superamento del 10% in 50 anni, su sito roccioso, compreso tra 0.250g e 0.275g (g è l’accelerazione di gravità) (http://zonesismiche.mi.ingv.it/mappa_ps_apr04/italia.html). Considerato l’elevato livello di pericolosità dell’area si è ritenuto opportuno procedere ad un rilievo speditivo degli effetti del terremoto sulle costruzioni, al fine di analizzare la vulnerabilità del patrimonio edilizio (in gran parte costituito da centri storici ed edifici in c.a. non antisismici) ed esaminare l’andamento della radiazione sismica, elementi che potrebbero essere utilizzati in futuro in un’ottica di mitigazione del rischio nel caso di eventi di maggiore energia.
Figura 1. Epicentro del terremoto del 29 dicembre 2013 nel Matese (INGV- www.ingv.it).

L’applicazione “Segnali sismici in tempo reale” sul sito web dell’Osservatorio Vesuviano
Vol. 289 (2014)

L’applicazione “Segnali sismici in tempo reale del sito web dell’Osservatorio Vesuviano” è nata circa 14 anni fa, per rendere consultabili da remoto i sismogrammi delle reti di monitoraggio dei vulcani napoletani. Questa applicazione, pionieristica nel suo genere, era destinata in primis ai ricercatori dell’Osservatorio Vesuviano e in generale alla comunità scientifica. Tuttavia, lo scopo dell’applicazione era anche permettere la consultazione dei dati sismici alle popolazioni residenti nelle aree interessate dal rischio vulcanico. Infatti, nell’area vulcanica napoletana il problema del rischio sismico è molto avvertito socialmente. Nel 1999, al Vesuvio, si è avuta una fase di maggiore attività sismica, culminata con il terremoto di Magnitudo 3.6 del 9 ottobre, che è stato distintamente avvertito dalla popolazione e che ha provocato molta paura. Dopo questo evento è aumentata la richiesta di informazione e di trasparenza delle attività della nostra Istituzione scientifica da parte delle popolazioni residenti nell’area vesuviana; pertanto, si è ritenuto opportuno rendere pubblica l’applicazione. Questa scelta è risultata gradita al pubblico del web, che ha iniziato a seguire con interesse l’andamento dei sismogrammi in tempo reale, come peraltro emerso dal feedback ricevuto via mail e dall’analisi degli accessi al sito. L’applicazione è stata molto seguita anche in occasione di altri terremoti che hanno interessato il Centro e il Sud Italia negli ultimi 14 anni, come il terremoto di San Giuliano di Puglia del 31 ottobre 2002 e i terremoto de L’Aquila del 6 aprile 2009. Oggi, grazie a una sempre maggiore capillarità nella diffusione della rete internet ed un uso sempre più vasto ed intensivo della comunicazione via web, l’applicazione, in linea sul sito dell’Osservatorio Vesuviano (OV) dal 2000, con piccole modifiche necessarie per conservarne la funzionalità, è ancora più seguita e ha molti visitatori abituali. Questa applicazione ha aperto inoltre un canale di comunicazione con il pubblico che spesso invia via mail quesiti attinenti ai sismogrammi in tempo reale all’indirizzo del sito web dell’Osservatorio Vesuviano.

Note sull’uso efficiente dei pannelli solari
Vol. 288 (2014)

Queste note derivano dalla mia esperienza nell’uso di pannelli solari, maturata in istallazioni in Africa, in Antartide e sui palloni stratosferici. Si tratta di considerazioni, essenzialmente votate a trarre dal fotovoltaico tutta l’energia possibile, nate sul campo dalle necessità del problema tecnico, ed organizzate per scrivere questa nota. Si parla di installazioni fisse o su veicolo, e non si trattano i sistemi ad inseguimento. Tutte le considerazioni sono di principio, e non si scende troppo nei dettagli realizzativi. Sono convinto che il lettore tecnico cui sono destinate sia abbastanza smaliziato da non richiedere minuzie circuitali.

Contributo delle reti sismiche mobili durante i periodi di crisi: l’esempio della sequenza dei Monti Nebrodi del 2011
Vol. 287 (2014)

In questo lavoro viene descritta l’installazione di una rete mobile nell’area dei Monti Nebrodi in seguito all’evento del 23-06-2011 di Ml = 4.6 e come tale intervento ha contribuito al miglioramento della localizzazione delle sorgenti sismiche soprattutto nella determinazione della profondità degli eventi. Verranno anche presentati i risultati delle localizzazioni ottenute attraverso l’integrazione dei dati acquisiti durante questa campagna, con quelli della rete sismica permanente dell’INGV-Osservatorio Etneo (INGV-OE). L’uso delle reti sismiche temporanee serve, di fatto, a garantire un miglior monitoraggio delle aree colpite da crisi sismiche, permettendo di seguire con maggior precisione l’evoluzione spazio-temporale dei fenomeni in corso [Criscuoli et al., 2013; Margheriti et al., 2013]. La rete sismica mobile, in forza all’INGV Osservatorio Etneo - sezione di Catania, è da anni impegnata a supporto dell’attività di monitoraggio durante le emergenze vulcaniche e sismiche avvenute sul territorio siciliano [Rapisarda et al., 2009; Zuccarello et al., 2011].
Figura 1. Mappa dell’area d’interesse; in nero i lineamenti strutturali da Lentini et al., [2000]. Nel riquadro tratteggiato in rosso l’area dei Monti Nebrodi interessata dagli eventi sismici. L’attività sismica in oggetto iniziò il 23 di giugno quando venne registrato un terremoto di magnitudo locale ML 4.6 in un settore compreso tra i comuni di Tortorici, Galati Mamertino, Longi e Frazzanò (Fig.1). A partire dal 29 giugno, si intensificò il monitoraggio di questa area attraverso l’installazione della rete sismica mobile. Vengono qui riportati i dettagli dell’installazione della rete mobile e le localizzazioni di 59 eventi; per ognuno di essi si mostra il risultato ottenuto utilizzando i picking determinati attraverso la sola rete permanete e quelli ottenuti integrando i dati della rete mobile. I risultati dei confronti mostrano come l’utilizzo di stazioni aggiuntive, debitamente posizionate sul territorio, ha contribuito in maniera significativa a migliorare le localizzazioni degli eventi e quindi a fornire parametri più affidabili sia per scopi di monitoraggio che di ricerca.  

Misure geomeccaniche e di telerilevamento per la caratterizzazione di una parete rocciosa
Vol. 286 (2014)

Il laser scanning è una tecnologia ormai ampiamente diffusa sia nell’ambito della ricerca che in quello professionale. Esistono gamme estremamente differenti di strumenti ma tutti sono accumunati dalla possibilità di fornire, in tempi rapidi e con grande accuratezza e dettaglio, densi insiemi di punti le cui coordinate sono misurate nell’ambito di ogni singola scansione [Sgrenzaroli e Vassena, 2007]. In linea generale è possibile affermare che questa tipologia di strumenti è caratterizzata dalla capacità di inviare segnali laser secondo una griglia angolare calibrata e di investire cosi interamente una superficie fisica di interesse. Per ogni direzione di invio il sensore misura il tempo impiegato dal segnale nel tragitto stumentooggetto-strumento da cui è immediato il calcolo della distanza e, noti gli angoli di invio, è altresì immediato collocare in modo preciso il punto investito dal raggio laser nello spazio 3D. Si tratta di un sistema di riferimento relativo il cui centro è il centro strumentale e che può essere poi in un secondo tempo rototraslato in sistemi esterni di qualsivoglia tipo [Rinaudo, 2003]. Di fatto, l’acquisizione è una vera e propria scansione secondo linee orizzontali e verticali ognuna consistente in un insieme di punti misurati/calcolati in modo ordinato in base al principio meccanico e ottico di funzionamento dello specifico strumento: si tratta di meccanismi ad alta precisione realizzati per deflettere il raggio laser secondo, appunto, una griglia angolare calibrata e regolare che, in caso di misura effettuata da una posizione più o meno frontale, permette di ottenere una nuvola di punti caratterizzata da un passo di campionamento pressoché costante su tutta l’area scansita. Questo tipo di rilievo, cui si rimanda il lettore alla ampia bibliografia, risente delle condizioni atmosferiche e degli ostacoli fisici che possono letteralmente occludere l’area da osservare creando delle zone d’ombra (o gap) nella nuvola di punti. Per questo motivo, nella programmazione dei rilievi sia terrestri che da piattaforma mobile (terrestre o aerea) di aree fortemente vegetate si prediligono i mesi invernali al fine di limitare al massimo gli effetti negativi causati dalla presenza di tali ostacoli naturali. Questo lavoro, che nasce dalle esperienze di rilievo e lavoro effettuate nell’ambito di una tesi di laurea magistrale, frutto della collaborazione tra INGV ed il Dipartimento di Scienze Biologiche, Geologiche e Ambientali dell’Ateneo di Bologna, mostra l’impiego della tecnologia Optech ILRIS ER [Optech, 2006] nel rilievo e analisi di un affioramento roccioso nell’Appennino bolognese, al fine di una completa caratterizzazione morfologica e geomeccanica dello stesso. L’idea è stata quella di realizzare uno studio geomeccanico avvalendosi non soltanto delle misurazioni classiche in situ (acquisite scendendo in corda sulla parete) ma anche navigando virtualmente nelle nuvole di punti ed estraendo i parametri necessari al fine di una migliore comprensione fisico-meccanica dell’ammasso roccioso. L’oggetto di studio si trova nel basso Appennino Emiliano, appena oltrepassata la frazione di Pioppe di Vergato e appare come un affioramento in roccia isolato, dall’aspetto massivo. Su questo elemento paesaggistico si è focalizzato lo studio, in previsione dell’allestimento di una “palestra di roccia” per la pratica dell’arrampicata sportiva e in particolare del Paraclimbing (www.federclimb.it). Le condizioni di sicurezza per gli arrampicatori, ed in particolare per quelli portatori di handicap, devono essere esaminate con particolare attenzione, ragion per cui sono stati effettuati rilievi geomeccanici in situ, rilievi terrestrial laser scanning (TLS) ed analisi cinematiche per fornire indicazioni e dati su cui basare eventuali valutazioni del rischi geomorfologico per l’arrampicata sportiva [Motta et al., 2009]. L’utilizzo del TLS ha fornito la restituzione sia delle nuvole di punti che di un modello digitale del terreno (DTM) sul quale è stato possibile effettuare osservazioni generali dell’ammasso e comparative con i dati provenienti dal rilievo geomeccanico in situ, per quanto riguarda la giacitura delle discontinuità ed il loro raggruppamento in famiglie. Inoltre l’analisi del modello digitale ha permesso di visualizzare e successivamente quantificare i parametri di spaziatura e persistenza delle famiglie presenti nell’ammasso roccioso, parametri in questo caso difficilmente determinabili con le tecniche standard di rilievo.

Analizzatore software per il formato miniSEED
Vol. 285 (2014)

Il formato miniSeed è un sottoinsieme del più articolato formato Seed (Standard for the Exchange of Earthquake Data), che nasce con lo scopo di standardizzare lo scambio di dati, relativi al campo sismologico, tra le varie comunità scientifiche. Gli attuali acquisitori sismici commerciali o costruiti nei laboratori elettronici di enti sismologici (come ad esempio la GAIA sviluppata interamente in ambito INGV), adottano il formato miniSeed per la trasmissione dei dati o la loro archiviazione in locale su diversi tipi di memorie di massa. Per tale motivo il miniSeed è divenuto presto oggetto di studio anche per progettisti elettronici o informatici al fine di comprenderne le principali funzionalità per poterle successivamente integrare nei sistemi hardware nella produzione del dato sismico o in quelli software per la sua interpretazione. A tale proposito sono stati sviluppati molti software per la visualizzazione di dati miniSeed, sia in ambiente Unix che Windows, utilissimi per il sismologo che dovrà effettuare un’analisi sismica, ma spesso con qualche carenza per lo sviluppatore che vuole indagare il dato prodotto nei minimi dettagli tecnico-informatici dal suo acquisitore o dal suo software. Nel presente lavoro viene illustrato un piccolo programma (miniSEED analyzer), da me ideato e realizzato, in grado di analizzare dati miniSeed fornendone specifiche informazioni connesse con la struttura del formato stesso come ad esempio il livello di compressione del singolo “pacchetto” o la presenza di eventuali errori nello streaming preso in considerazione. Il software è in grado di aprire e di analizzare files miniSeed, di convertirli in formato ascii e di fornire una visualizzazione della forma d’onda o di estrarne determinate porzioni scelte in base ad una selezione temporale o di numero pacchetto. Prima di entrare nello specifico del software, per comprendere al meglio le sue funzionalità, verrà illustrato brevemente il protocollo miniSeed in relazione al tipo di analisi che è possibile effettuare con il programma miniSeed analyzer. Seguiranno delle osservazioni sul livello di compressione in base ad alcune forme d’onda prese in considerazione. Tengo a precisare che il presente lavoro non ha pretesa alcuna di sostituire altri softwares del settore (come il blasonatissimo SeisGram2K di Anthony Lomax, la suite di programmi del Quanterra User Group qlib, oppure i tools di libmseed), ma solo di fornire alcune funzioni di analisi che potrebbero esulare dal campo strettamente sismologico, ma fondamentali per eseguire dei test approfonditi di validità del dato prodotto da un acquisitore.

Il monitoraggio sismico della torre degli Asinelli e della Garisenda. Risultati preliminari dell’analisi dei dati
Vol. 284 (2014)

La Torre degli Asinelli e la Garisenda rappresentano sicuramente il simbolo stesso di Bologna, esse sono le due torri più note e importanti fra la ventina rimasta delle oltre cento di cui la città si fregiava alla fine del XII secolo. La Torre degli Asinelli, nota per essere la più alta torre pendente d’Italia, viene costruita tra il 1109 e il 1119 dalla famiglia omonima e passa al Comune già nel secolo successivo per essere destinata a fini militari e a prigione. Alta 97,38 m presenta uno strapiombo di 2,32 metri e una scalinata interna di 498 gradini terminata nel 1684. Il basamento è circondato da una ‘rocchetta’ realizzata nel 1488 per ospitare I soldati di guardia. Oggi sotto il portico sono state ricollocate alcune botteghe di artigianato a ricordo della funzione commerciale svolta dal medievale ‘mercato di mezzo’. La vicina Torre Garisenda, coeva alla precedente, si differenzia visivamente per la minore altezza di soli 48,6 metri e il forte strapiombo (3,22 m) dovuto ad un precoce e maggiore cedimento del terreno e delle fondamenta. Dante che la vide ancora integra quando misurava circa 60 m, la paragona ad Anteo chinato nel XXXI Canto dell’Inferno. Tra il 1351 e il 1360 si rese necessario l’abbassamento della torre di 12 metri temendo che la forte pendenza la potesse far crollare. Il rivestimento in bugne di selenite alla base risale invece alla fine del XIX secolo. Nel corso del tempo numerosi sono stati gli episodi che hanno prodotto effetti di danneggiamento sulle Torri, in particolare si ricordano quelli prodotti dai terremoti del 20 luglio 1399 (Mw 5.14, DBM11, [Locati et al., 2011]) nel modenese e del periodo sismico bolognese fra il dicembre 1504 e il maggio 1505 [Guidoboni et al., 2007], quando a causa Figura 1.1 Una immagine delle del terremoto del 3 gennaio 1505 (Me 5.57, DMB11) precipitarono due Torri alla metà del 1800 tratta da merli del torresino posto alla sommità della Torre e si determinò la dislocazione della struttura della cella campanaria Zuccagni-Orlandini, 1845. http://www.comune.bologna.it/duetorri/servizi/146:10316/10414 Dalla primavera del 2011 sono stati installati all’interno delle torri apparati di misura per la definizione dello stato di deformazione della muratura, di quello tensionale delle cinture metalliche e, in generale, per valutare la risposta statica delle strutture in relazione agli effetti termici giornalieri e stagionali, dell’azione del vento e, in generale, degli agenti ambientali (informazioni dettagliate su http://www.tecnoinmonitoraggi.it/cms_descrizione_sistema_monitoraggio.html). A seguito della sequenza sismica dell’Emilia innescata dai terremoti del maggio 2012, sebbene entrambe le torri non abbiano dato segni di aver risentito di sollecitazioni tali da generare allarme sulla loro stabilità, il Comune di Bologna ha sollecitato l’esecuzione di un monitoraggio sismico delle Due Torri. L’Istituto Nazionale di Geofisica e Vulcanologia ha dato la disponibilità a contribuire al monitoraggio dinamico delle due torri attraverso l’installazione di 6 stazioni sismometriche in acquisizione continua: quattro sono state installate all’interno della Torre degli Asinelli, due nella Torre Garisenda. Il monitoraggio ha avuto una durata di circa tre mesi, da metà Giugno a metà Settembre 2012. Il presente rapporto illustra I primi risultati ottenuti dall’analisi dei dati registrati durante l’esecuzione dell’esperimento.

MUDDY 1: Prototipo di un robot per il campionamento “step by step” di gas dai sedimenti lacustri
Vol. 283 (2014)

I sedimenti lacustri costituiscono una sorgente di metano, dove le modificazioni stagionali e l’apporto di nuovi sedimenti favoriscono la crescita di colonie batteriche specializzate sia nella produzione del metano che nella sua eventuale ossidazione, anche anaerobica. La genesi del metano in ambienti di acqua dolce è riconducibile all’attività di complessi sistemi biologici che riducono la CO2 e/o alla fermentazione dell’acetato che, nello stesso tempo, produce una molecola di CO2 per ognuna di CH4 [Whiticar et al., 1986]. Quindi, i processi biologici, legati alla genesi del metano, producono insieme sia l’abbattimento che la produzione della CO2, sia pure con caratteristiche isotopicamente contraddistinte. Tali processi sono chiaramente documentati in bibliografia, ed in alcuni casi presentano una distribuzione disordinata delle comunità batteriche specializzate, per esempio nei laghi olomittici (in cui vi è un’azione di rimescolamento per il movimento delle acque). In contrasto, nei laghi meromittici viene normalmente osservata una distribuzione verticale regolare, a partire dall’interfaccia colonna d’acqua/sedimenti [Zepp Falz et al., 1999; Borrell et al., 2012]. Lo studio geochimico del metano e della CO2 prodotti nei sedimenti lacustri, costituisce spesso la migliore base per acquisire informazioni essenziali riguardanti aspetti che trascendono quello microbiologico e possono paradossalmente interessare l’origine inorganica di fluidi presenti nei laghi craterici. Infatti, la frequente presenza di specie carbonatiche disciolte (CO2, HCO3-, CO32-) nelle acque dei laghi può avere origine sia organica (fermentazione della sostanza organica, fotosintesi), che inorganica (dissoluzione di rocce carbonatiche, degassamento di magmi, ecc.). Anche il metano può essere generato dalla sintesi inorganica, sia pure in casi particolari ed in ambienti generalmente geotermici con temperature e pressioni superiori a quelle ambientali. La possibilità di distinguere i vari processi genetici, e quindi l’opportunità di stimare l’apporto di CO2 biogenica, è soprattutto legata alla caratterizzazione isotopica del carbonio della CO2 e del CH4, nonché a quella dell’idrogeno del metano [Whiticar, 1999]. Tuttavia, la complessità e la sovrapposizione di più processi, sia genetici che ossido-riduttivi, richiedono l’adozione di specifiche metodologie di campionamento ed analisi. A tale scopo è stata progettata e realizzata un’apparecchiatura semiautomatica per il campionamento “step by step” di gas dai sedimenti lacustri, in grado cioè di effettuare campionamenti a varie profondità dei sedimenti fino all’interfaccia della colonna d’acqua/sedimenti. Il robot può memorizzare alcuni parametri chimico-fisici, come pH e temperatura con frequenza di acquisizione definita da un operatore posto in superficie, lungo il profilo verticale dei sedimenti interessati dal campionamento di gas. Dopo numerosi test di funzionamento (sia nelle singole parti, sia del sistema integrato) e di assetto in vasca, il prototipo del robot, denominato MUDDY 1, è stato collaudato nel Lago Piccolo di Monticchio (fig. 1), un lago craterico meromittico sito sulle pendici del vulcano Vulture in Basilicata; sono state misurate quantità rilevanti di CO2 e CH4 [Caracausi et al., 2009; 2013] e sono state verificate le sue capacità operative nell’ambiente lacustre. Vengono di seguito descritte le caratteristiche costruttive e funzionali dell’apparecchiatura realizzata.