SeisBook: il sistema di gestione per l’archivio degli eventi sismici della sala operativa INGV di Roma
Vol. 357 (2016)

Il processo di ammodernamento delle procedure informatiche della Sala Operativa di monitoraggio sismico in Roma ha comportato, negli ultimi anni, la necessità di disporre di un nuovo software gestionale per il database degli eventi sismici. In particolare, l’adozione di un sistema digitale per l’archiviazione delle localizzazioni consente un notevole risparmio di tempo per gli operatori in servizio, consolidando in un unico prodotto le funzionalità che prima venivano svolte con strumenti eterogenei e poco funzionali. Tra le altre cose, si è potuta finalmente eliminare la “storica” Agenda Terremoti cartacea, ultima reminiscenza di un protocollo di monitoraggio ormai superato da anni.

Software per la sincronizzazione dei sistemi di acquisizione attraverso l’uso del GPS: implementazione hardware per architettura PC/104
Vol. 356 (2016)

Dal 1998 la rete magnetica dell’Etna provvede all’acquisizione del campo magnetico totale a una frequenza di campionamento di 0.2 Hz, una misura ogni 5 secondi. Inizialmente il sistema provvedeva alla sincronizzazione delle misure acquisite attraverso la linea di trasmissione [Del Negro et al., 1998]. Un’idea molto semplice da attuare a costo zero, che può nascondere comunque diversi problemi. Durante i periodi di avaria del sistema di trasmissione, che possono accadere più spesso di quando si creda, l’acquisizione può subire una forte deriva temporale a causa della base dei tempi, generalmente un RTC (Real Time Clock), imprecisa. Utilizzando particolari tecnologie, come i GSM (Global System for Mobile Communications), in luoghi con copertura non totale, si potrebbe esporre il sistema anche a blackout temporanei. Sul M.te Etna accade molto spesso che non ci sia la possibilità di sincronizzare l’acquisizione attraverso la linea di trasmissione. Inoltre, in alcuni siti non esiste un collegamento telemetrico utilizzabile per lo scopo poiché le misure sono acquisite solamente in locale. In altre situazioni la sincronizzazione attraverso i sistemi di trasmissione potrebbe essere addirittura insufficiente e imprecisa, a causa della loro velocità troppo bassa e assolutamente non confrontabile con la frequenza di campionamento. Il sistema di sincronizzazione che utilizza una linea di trasmissione per sincronizzare una base dei tempi si basa sul concetto che il ritardo nella ricezione dei pacchetti rimanga costante o almeno sia prevedibile. Alcuni sistemi come NTP (Network Time Protocol) che viaggiano sulle reti tipo Ethernet, la cui velocità è molto superiore alla precisione richiesta dalla maggior parte dei sistemi di acquisizione utilizzati nella geofisica, potrebbero funzionare discretamente. Altri, utilizzanti una semplice connessione GSM potrebbero avere non pochi problemi, in quanto, i pacchetti non viaggiano sempre alla medesima velocità. Con i sistemi tipo GSM è molto difficile raggiungere una precisione accettabile. La sincronizzazione via GSM è perfetta per stazioni che acquisiscono un campione ogni cinque secondi, ma limita qualsiasi incremento della frequenza di campionamento. Per ovviare ai limiti delle trasmissioni GSM e cercare di diminuire l’errore, si sono adottati nel tempo molti accorgimenti. Ridurre la lunghezza dei pacchetti inviati e l’intervallo tra il pacchetto di test e di sincronismo, aiuta a minimizzare l’errore. Lo scopo è di evitare fluttuazioni di velocità nel canale di trasmissione, terminando le operazioni di sincronizzazione nel minor tempo possibile. Nonostante ciò, per migliorare i risultati della sincronizzazione e ovviare a tutti quei problemi derivanti dal sistema fino allora adottato, si è deciso di ricercare un modello alternativo.

Ocean Seismic - Integrated Solutions (OS-IS): metodo innovativo per il monitoraggio dello stato del mare
Vol. 355 (2016)

Il sistema OS-IS® è stato sviluppato nell’ambito del progetto europeo “Vento, Porti e Mare” (VPM nel seguito) per il monitoraggio e la previsione del moto ondoso nell’Alto Tirreno; il progetto è finalizzato al miglioramento della sicurezza della navigazione e alla mitigazione del rischio di incidenti nelle aree portuali [Burlando, 2014; Burlando, 2015; Solari, 2012]. La peculiarità di questo sistema consiste sia nell’impiego di accelerometri ad alta sensibilità che permettono la determinazione di parametri caratteristici del moto ondoso sia nell’applicazione di opportuni algoritmi appositamente sviluppati. Di fatto, il metodo OS-IS® è uno dei primi casi di installazione di stazioni microsismiche in Italia, il cui scopo principale è quello della misura del moto ondoso piuttosto che del monitoraggio sismico. Tra i principali vantaggi di questo sistema vi è il fatto che l’intero apparato funziona “a terra”, senza la necessità di utilizzare strumentazione in mare. Il sistema si basa su un fenomeno fisico noto fin dagli inizi del 1900: le onde di mare si comportano come una sorgente di rumore microsismico dovuto alla variazione di pressione esercitata sul fondale marino. Questo fenomeno è stato modellizzato a partire dal 1950 da Longuet-Higgins e successivamente implementato in diverse circostanze. Il sistema predisposto per il progetto VPM è costituito da tre stazioni multiparametriche, ciascuna installata in uno specifico punto nel Golfo della Spezia e ciascuna corredata di stazione microsismica, meteorologica e di opportuno data-logger. Queste stazioni trasmettono i dati ad un server centrale che converte le misure microsismiche nelle corrispondenti altezze significative, periodi di picco e periodi medi d’onda. Per un’analisi di confronto e per operare una calibrazione degli algoritmi di conversione del dato sismico in dato ondametrico sono state utilizzate due boe ondametriche: la boa ISPRA posta fuori dal Golfo della Spezia a circa 7 miglia nautiche dalla costa (analisi di confronto) e la boa temporanea INGV sita all’interno dello stesso golfo (calibrazione del sistema). Dal confronto fra le misure dell’altezza significativa d’onda ottenute dalle stazioni microsismiche a terra e quelle acquisite dalle due boe ondametriche già citate, è stata riscontrata, come atteso, una maggiore correlazione dei dati a terra con quelli acquisiti dalla boa ISPRA. Al fine di operare un’ulteriore verifica sulla bontà del metodo, è stato inserito nel confronto anche il dataset ottenuto da un’altra boa posta offshore, a 35 miglia nautiche dal porto della Spezia, di proprietà del CNR e denominata ODAS Italia 1; anche in questo caso è stata riscontrata una buona correlazione. Allo stato attuale il sistema ha mostrato un notevole livello di affidabilità; ciò ha permesso la raccolta di numerosi dati nel corso della sperimentazione iniziata il 13 ottobre 2014 e tutt’oggi in corso. Presto la sperimentazione, tutt’ora in corso, si arricchirà di un ulteriore elemento di confronto: un radar in banda X utilizzato, in particolare, per la determinazione della direzione delle onde.

Installation and configuration of an Ionospheric Scintillation Monitoring Station based on GNSS receivers in Antarctica
Vol. 354 (2016)

Global Navigation Satellite Systems (GNSSs), such as the US Global Positioning System (GPS), The Russian GLONASS or the European Galileo, are space-based navigation systems. GNSSs enable a generic user located anywhere on the Earth to determine in real time his Position, Velocity and Time (PVT), by means of a Radio Frequency (RF) electro-magnetic signal, the Signal-In-Space (SIS), transmitted by a constellation of satellites orbiting around Earth. Uninterrupted Positioning, Navigation, and Timing (PNT) solution is determined by GNSS receivers, which continuously process the SIS from the satellites in view. GNSS receivers are part of the GNSSs ground segment. They are a suboptimal implementation of a maximum likelihood estimator of the SIS propagation time. The PNT solution is indeed based on the computation of the SIS Time Of Arrival (TOA), according to the satellite and receiver local clocks. This is achieved thanks to the presence of a different Pseudo Random Noise (PRN) spreading code in the modulated SIS broadcast by each satellite. In the GNSS receiver, the incoming signal is correlated with a local replica of signal code, obtaining the time difference information. The time difference is then transformed into a range information by multiplying it by the speed of light in the vacuum. However, since the receiver clock is not synchronized with the transmitters clock, this measure suffers of time bias, which is considered as an additional unknown in the navigation solution. Finally, the user position is determined on an Earth centred reference system with a process denoted trilateration, by exploiting the range information computed by the receiver and the information contained in the SIS navigation message, such as satellite ephemeris [Kaplan et al., 2005].

Progettazione di un’architettura cluster High Availability per il portale web dell’Osservatorio Etneo
Vol. 353 (2016)

Al fine di garantire la scalabilità dei servizi offerti dai portali web, in risposta al costante aumento del volume di traffico sulla rete Internet, la progettazione dei sistemi informativi per la fornitura dei servizi di rete ha visto un massiccio utilizzo di approcci distribuiti, sfruttando differenti tecnologie tra cui quelle introdotte dalle piattaforme di virtualizzazione di calcolo e per l’alta disponibilità. L’approccio tradizionale, che prevede l’allocazione dei servizi e delle risorse da condividere in un unico nodo che svolge il compito di soddisfare tutte le richieste al sistema, implica una serie di limitazioni quali: • single point of failure: ad un guasto del nodo corrisponde un’indisponibilità del servizio; • sistema non scalabile: le prestazioni decrescono con l’aumentare delle richieste senza possibilità di poter intervenire sul carico senza interruzione dei servizi. È necessario l’upgrade del sistema stesso. Per ovviare a tali limitazioni, la pratica ormai consolidata è quella di seguire un approccio distribuito che prevede l’allocazione delle risorse ed il bilanciamento delle richieste mediante la ripartizione su un cluster composto da un determinato numero di nodi. L’adozione di questa architettura implica tra I suoi vantaggi: • alta disponibilità delle risorse e resilienza dei dati: eliminazione del single point of failure e disponibilità del servizio anche in presenza di guasti ad uno o più componenti del cluster. Il servizio continua ad essere erogato, con prestazioni ovviamente inferiori; • scalabilità: le risorse vengono distribuite su più nodi. In caso di aumento del fabbisogno di risorse, le prestazioni possono essere aumentate aggiungendo nodi al cluster. L’esperienza nella gestione del portale web dell’Osservatorio Etneo, ha evidenziato come, in concomitanza con l’accadimento di particolari fenomeni sismici e vulcanici, si verifica un drastico aumento delle connessioni al servizio web che talvolta ha comportato una imprevista indisponibilità del servizio a causa della saturazione delle risorse hardware disponibili. Al fine di limitare il verificarsi di tale evenienza è stata avviata la progettazione e l’implementazione di un load balancing cluster, il cui scopo principale è quello di garantire accesso alle risorse ottimizzando la redistribuzione del traffico di rete, per limitarne l’impatto sull’erogazione del servizio web, assicurandone al contempo scalabilità e affidabilità di quest’ultimo. Una prerogativa fondamentale nella progettazione del sistema è stata l’utilizzo esclusivo di strumenti software open source. Lo studio della fattibilità di quanto detto si è basato sull’intensa ricerca di fondamenti scientifici, sulla corretta progettazione di architetture cluster [Pfister, 1997] in alta disponibilità [Ang e Tham, 2007] su sistemi open-source come Linux [Van Vugt, 2014; Kopper, 2005; Pfister, 1997] ed in modo da ottenere alte performance [Buyya, 1999a; Buyya, 1999b; Tanenbaum, 2006].

La precisione e la risoluzione delle nuvole di punti SfM: fattibilità di un approccio sperimentale
Vol. 352 (2016)

Nel presente lavoro è descritto un approccio sperimentale mirato alla stima della risoluzione di nuvole di punti ottenute da analisi di fotogrammetria digitale di tipo Structure-from-Motion (SfM). I risultati ottenuti rappresentano un secondo step e non un punto di arrivo, poiché la finalità di questa esperienza è valutare se il metodo utilizzato permette di estrarre informazioni sulla precisione e sulla risoluzione dei modelli ottenuti e metterle in relazione con i parametri del rilievo legati sia alle caratteristiche delle camere utilizzate che alla loro disposizione nello spazio. Si ricorda brevemente che la fotogrammetria SfM si basa su algoritmi, del tutto compatibili con risorse di calcolo ormai comunemente disponibili (indicativamente sistemi dotati di microprocessori Intel i7 o equivalenti, RAM da 16 Gbyte, scheda video con architettura CUDA) che permettono di creare modelli tridimensionali realistici a partire da un set di immagini scattate senza alcun tipo di vincolo sulle posizioni delle camere utilizzate. La tecnica SfM è stata già ampiamente descritta in [Pesci et al., 2015; Pesci e Teza, 2016; Pesci et al., 2016; Teza et al., 2016]; è tuttavia opportuno sottolineare come una caratteristica fondamentale di detta tecnica sia la registrazione automatica in uno stesso sistema di riferimento delle immagini di partenza. Nel caso in cui sia utilizzata una procedura di allineamento di tipo feature-based, questa è attuata attraverso i seguenti passi [Granshaw e Fraser, 2015]: (i) riconoscimento di particolari mediante operatori morfologici; (ii) memorizzazione di dati atti a descrivere l’intorno di ciascun particolare individuato; (iii) confronto tra gli intorni dei punti, nelle singole immagini, e individuazione dei punti omologhi; (iv) verifica delle corrispondenze individuate in (iii) mediante tecnica RANSAC (RANdom SAmple Consensus) [Fisher e Bolles, 1981]. Altri algoritmi di registrazione automatica, di tipo area-based, operano il riconoscimento automatico di aree corrispondenti utilizzando o la correlazione incrociata o la correlazione di fase o, ancora, l’informazione mutua tra le immagini, eventualmente col supporto di tecniche di ottimizzazione come il simulated annealing. Interessanti considerazioni sul confronto di vari pacchetti software per SfM sono riportati da [Remondino et al., 2015]. Il risultato del trattamento dati SfM è una nuvola di punti molto densa e fotorealistica, da cui è possibile altresì trarre un modello digitale 3D, del pari fotorealistico. È importante sottolineare il fatto che, nel caso in cui il trattamento delle immagini sia completamente automatico e non sia assegnata alcuna informazione a priori su punti di controllo a terra o sulle posizioni assunte dalla fotocamera, si ottiene una nuvola di punti definita a meno di un fattore di scala. Si tratta dunque, in generale, di assegnare un valido fattore di scala, cosa che è possibile attuare in vari modi: (i) fornendo le posizioni relativamente precise della fotocamera (ottenute, ad esempio, mediante ricevitore GPS incorporato), (ii) fornendo le posizioni di alcuni punti di controllo a terra (Ground Control Points, GCPs) riconosciuti anche in alcune immagini e acquisiti mediante misure GPS differenziali rapido-statiche oppure misure con stazione topografica totale, (iii) una combinazione dei casi precedenti, o anche (iv) attribuzione del fattore di scala a posteriori. Nei casi (i)-(iii) il fattore di scala, come pure la contestuale georeferenziazione, è ottenuto durante la generazione della nuvola di punti e quindi utilizzando il software SfM. Nel caso (iv), invece, esso è ottenuto successivamente alla generazione della nuvola di punti stessa, utilizzando un software esterno, ad esempio un tipico pacchetto di analisi dati forniti da laser scanning terrestre (TLS). Una stima precisa dell’errore associato al processo di ricostruzione fotogrammetrica non è facile in quanto non inclusa nel processo stesso, anche se i software concepiti per SfM certamente consentono di stimare gli errori nel caso dei GCPs come differenze tra le posizioni reali e quelle modellate, però, giocoforza, limitatamente ad essi. Nel caso in cui non si faccia invece uso di GCPs, la stima degli errori è molto più complessa. In lavori precedenti [applicazioni architettoniche: Pesci e Teza, 2016; applicazioni su scenari naturali: Pesci et al., 2016] è stato mostrato come la possibilità di identificare particolari morfologici sulla nuvola di punti o sul modello sia strettamente legata alla buona copertura del sistema osservato, alla posizione spaziale e all’orientamento della fotocamera (o della serie di fotocamere) utilizzate. In tali lavori, il confronto tra le nuvole di punti ottenute con SfM e quella dovuta ad un rilievo TLS ha evidenziato un ottimo accordo generale, con medie centrate sullo zero e deviazioni di pochi millimetri nonostante fosse chiara l’esistenza di alcuni effetti sistematici, pur contenuti, che tendono a comparire ogniqualvolta la modellazione fotogrammetrica è ottenuta con un numero esiguo di immagini (3 o 4). In [Pesci e Teza, 2016], in particolare, era stato altresì suggerito uno schema operativo per l’attuazione di un esperimento mirato ad una più esaustiva comprensione della precisione associabile ai modelli SfM. L’esperimento allora prospettato è l’oggetto del presente lavoro.

Il GeoDatabase dell’INGV della Sezione di Catania - Osservatorio Etneo: progettazione ed implementazione
Vol. 351 (2016)

Il GeoDatabase dell’Osservatorio Etneo nasce come estensione spaziale del Database di Sezione, sistema attualmente impiegato per l’archiviazione dei segnali e delle serie temporali [Cassisi et al., 2015]. Esso è costituito principalmente da un insieme di strumenti volti all’archiviazione ed alla divulgazione di dati spaziali georiferiti, mediante l’impiego di tecnologie open source. Strutturalmente il sistema è basato su: • Un Relational Database Management System (RDBMS) PostgreSQL [PostgreSQL ref.] con estensione PostGIS [PostGIS ref.] per l’archiviazione di dati georiferiti; • Geoserver [Geoserver ref.] impiegato come server di mappe per l’esportazione di servizi quali Web Map Service (WMS), Web Features Service (WFS) e Web Coverage Access (WCS); • GeoNetwork [GeoNetwork ref.], uno strumento di catalogazione per la creazione del metadato e la pubblicazione del catalogo delle mappe; • Geoexplorer [Geoexplorer ref.], una web application per la navigazione dei dati pubblicati nel Geoserver e la composizione di nuove mappe mediante la sovrapposizione di diversi layers. Inoltre, sono stati sviluppati moduli per la gestione e la visualizzazione delle mappe mediante l’impiego di pagine web accessibili presso la rete intranet dell’INGV - Osservatorio Etneo, Sezione di Catania (INGV-OE).

Misure RES in banda HF su ghiacciai antartici
Vol. 350 (2016)

Le tecniche RES (Radio Echo Sounding) sono ampiamente utilizzate in glaciologia per studiare molte delle caratteristiche dei ghiacciai, tra cui lo spessore complessivo, eventuali stratificazioni e disomogeneità, le caratteristiche dell’interfaccia tra ghiaccio e fondo roccioso, nonché quella con eventuali laghi subglaciali. La tecnologia è basata sull’impiego di un radar pseudo-monostatico ad impulsi, usualmente aereotrasportato, ma che può essere anche adagiato a terra e spostato su opportuno veicolo per sondare punti differenti. Gli impulsi elettromagnetici sono inviati verso il basso e gli echi vengono analizzati per estrarne le informazioni rilevanti (fig.1). Circa la definizione di radar “pseudo-monostatico” si rimanda alle considerazioni svolte in appendice B.

Improved instruments for volcanic plume observation for monitoring purpose: Solfatara and Vulcano island preliminary results
Vol. 349 (2016)

This report describes the methodology, instruments and findings of the field campaign which took place at the beginning of September 2015 in Solfatara (Naples) and Vulcano Island. The campaign was held in order to test miniaturized instruments developed for NASA under Research Opportunities in Space and Earth Science (ROSES), and was part of a framework of monitoring activities on active volcanoes. It followed a first campaign held in Naples on the 30th and 31th October 2014 and described in Silvestri et al., [2015]. In the first campaign miniaturized multi-gas instruments for the CO2, H2S and SO2 measurements were tested for the first time on Solfatara site and some of the results were reported in Silvestri et al., 2015. During these campaigns, measurements of in situ gaseous emissions have been collected using different instruments also mounted on drones. To complete the analysis conducted during the Vulcano campaign, some results using the spectro-radiometer ASD FieldSpec and thermal camera of the optical laboratory of “Unità Funzionale Dati satellitari per l’osservazione della Terra” (UF8) of INGV section of CNT are also reported. Moreover, the Vulcano island field campaign has been organized considering also the satellite data acquisitions from TERRA ASTER and LANDSAT 8. Both satellites data will be used to compare their measurements with the in situ data collected as regards temperature.

Potenziamento delle reti tiltmetriche nell’area vulcanica campana: Rapporto sull’attività svolta nell’ambito del Progetto VULCAMED
Vol. 348 (2016)

Il monitoraggio tiltmetrico permette di osservare in continuo le variazioni di inclinazione del suolo in aree vulcaniche con l’obiettivo di individuare eventuali precursori geofisici delle fasi eruttive e più in generale, di studiare l’evoluzione del fenomeno dalla fase di inflation a quella di deflation. A tale scopo vengono utilizzati quei sensori la cui risoluzione è dell’ordine della deformazione che ci si aspetta e la cui tipologia è legata alle caratteristiche del sito da attrezzare [Dzurisin, 1992]. Il monitoraggio tiltmetrico, con l’utilizzo di sensori elettronici, gestito dall’Osservatorio Vesuviano (che con il Decreto Legislativo n. 381 del 29 Settembre 1999 è diventato Sezione di Napoli dell’Istituto Nazionale di Geofisica e Vulcanologia, OV-INGV) è iniziato nel 1991, con la realizzazione delle reti dei Campi Flegrei e del Vesuvio [Aquino et al., 2006; Ricco et al., 2009]. I sensori utilizzati sono tiltmetri analogici di superficie (modello 702 Applied Geomechanics Instruments - AGI) e da pozzo (modello 722 AGI) con trasduttore a bolla, che misurano le variazioni di inclinazione del suolo con una risoluzione di 0.1 µradianti lungo le due direzioni ortogonali X e Y, corredati da un sensore termico [AGI, 1988]. Il passo di campionamento è di 5 minuti (dall’inizio del 2016 è passato ad 1 minuto). Questi sensori sono fortemente influenzati da fattori ambientali, come le variazioni di temperatura e pressione, le precipitazioni e le variazioni della falda acquifera, che possono mascherare la reale deformazione misurata. Per minimizzare questi disturbi, i sensori analogici da superficie sono stati installati in ambienti sotterranei come gallerie o in pozzetti profondi almeno 2 metri, mentre quelli analogici da pozzo sono stati installati in fori profondi circa 10 metri. Successivamente sono stati installati sensori biassiali digitali di ultima generazione modello Lily selfLeveling Borehole tiltmeter (della Jewell Instruments. ex AGI) [AGI, 2005] con risoluzione inferiore a 5 nradianti e passo di campionamento di 1 minuto.

Linee guida e criticità nella progettazione di sistemi per l’acquisizione di dati geofisici in prossimità di vulcani attivi
Vol. 347 (2016)

Nel monitoraggio e nella sorveglianza dei vulcani attivi ricoprono un ruolo di prim’ordine i sistemi di acquisizione dati. In commercio esistono già diversi sistemi pronti all’uso, utilizzabili per acquisire i più svariati tipi di segnali, quindi l’idea di progettare un nuovo sistema può sembrare alquanto strana. Ciononostante, molto spesso, non si riesce a trovare ciò di cui si ha bisogno e questo porta alla necessità di compiere qualche adattamento, ottenendo il più delle volte un sistema ibrido, instabile e troppo complesso. L’esperienza maturata negli anni ha permesso d’identificare poche decine di punti essenziali per il buon funzionamento dei sistemi di acquisizione. Questo documento nasce dalla necessità di riunire tali specifiche e ottenere un promemoria da seguire, sia in fase di progettazione che durante l’esame di un sistema esistente. Si può quindi utilizzare il documento anche per classificare qualunque sistema di acquisizione, in termini di affidabilità ed efficienza, che debba essere utilizzato in aree di estremo funzionamento. Le zone di estremo funzionamento sono tutte quelle in cui i parametri come la temperatura e l’umidità raggiungono valori limite, in cui possono essere presenti gas corrosivi, condizioni meteo estreme come alluvioni, neve, forte vento, tempeste di sabbia, e nel caso specifico dei vulcani, colate e fontane di lava. Le specifiche riportate in seguito derivano essenzialmente dall’esperienza maturata negli ultimi due decenni grazie all’osservazione quanto più oggettiva possibile del comportamento e dei problemi riscontrati nei sistemi dislocati sul M.te Etna e sull’Isola di Stromboli. Le specifiche sono riassunte sinteticamente nelle tabelle 1 e 2 allegate. Il testo non si prefigge lo scopo di esaurire completamente gli argomenti trattati ma di creare uno spunto di discussione sui sistemi di acquisizione. Dovrebbe permettere, soprattutto a chi non ha precedente esperienza sull’argomento, di evitare alcuni errori grossolani nella progettazione e di assicurarsi la buona riuscita di un progetto. Non sono importanti i dettagli poiché cambiano per ciascuna applicazione ma sono invece importanti le linee guida e la filosofia con cui si affronta il problema.

Manuale delle operazioni con SAPR e Analisi del Rischio
Vol. 346 (2016)

Questo rapporto ha lo scopo di pubblicare il manuale operativo delle operazioni con SAPR (Sistema A Pilotaggio Remoto) in dotazione all’Istituto Nazionale di Geofisica e Vulcanologia sezione di Pisa, redatto con la consulenza della Zefiro Ricerca e Innovazione Srl nell’ambito delle procedure operative, tecniche e di sicurezza nell’utilizzo dei droni. L’orizzonte d’impiego dei droni, o più correttamente dei SAPR, in campo militare, civile, commerciale e scientifico è ormai riconosciuto, non solo tra gli esperti del settore, a dimostrazione dei grandi progressi tecnologici conseguiti in questo ambito. La grande flessibilità d’impiego, la facilità d’utilizzo, l’ampia gamma di modelli dai pochi chili a qualche tonnellata, danno la possibilità di accedere ai SAPR a una vasta platea di utilizzatori a costi di acquisto e di esercizio molto variabili. E questo è molto stimolante ma anche preoccupante. Non solo quindi le istituzioni, gli organismi governativi o le Forze armate, ma anche le aziende, le associazioni, i club, i singoli, possono disporre di un velivolo calibrato sulle proprie esigenze, e capacità per varie finalità.

Towards the Mediterranean Forecasting System MyOcean V5: numerical experiments results and validation
Vol. 345 (2016)

This work describes a set of numerical experiments carried out using a coupled wave-ocean modeling system implemented in the Mediterranean Sea in order to meet the needs of an improvement of the operational sea state and current analysis and forecasts in the framework of the MyOcean FollowOn project. MyOcean is a series of projects granted by the European Commission within the GMES Program (Seventh Framework Program), whose objective is a pan-European capacity for ocean monitoring and forecasting. INGV is responsible for the production of two products within MyOcean: • Mediterranean Sea Physics Analysis and Forecast (MEDSEA_ANALYSIS_FORECAST_PHYS_006_001_a). • Mediterranean Sea Physics Reanalysis (MEDSEA_REANALYSIS_PHYS_006_004). In particular, the main focus of the present work has been to investigate a series of hydrodynamic model developments to provide enhanced analysis and forecast products.

Continuous gas sampling and analysis at the Pisciarelli fumarolic field (Campi Flegrei) by using a quadrupole mass spectrometer (QMS)
Vol. 344 (2016)

Volcanic monitoring has as main goal the identification of typical phenomena of impending-eruption precursors. Therefore, recording a large amount of data of volcanic gases composition, during the quiescence period, is fundamental in order to identify baseline values to be distinguished from any anomalous geochemical signal. The gases emitted by most of the volcanoes are difficult to be sampled especially when the volcano is restless. Volcanic gases have traditionally been monitored by means of direct in situ sampling of fumaroles, followed by laboratory analysis [e.g., Symonds et al., 1994]. However, since direct sampling is often impractical and hazardous, particularly during eruptions, or of too low temporal resolution, efforts have been made (since the 1970s) to improve volcanological applications of optical remote sensing techniques [Pedone et al., 2014; and references therein]. Soil-gas surveys of hydrothermal volcanoes in a quiescent condition have also quantified diffuse CO2 emissions, but much less information has been obtained on fumarolic CO2 emissions. Because of these difficulties, the volcanic CO2 flux (the most reliable gas precursor to an eruption, [Aiuppa et al., 2015]) inventory remains sparse and incomplete for most of the active volcanoes on Earth [Burton et al., 2013]. Collection of fumarole gases is – depending on the state of volcanic activity, for logistics and other practical reasons – mostly performed discontinuously with time intervals ranging from days, weeks or even months between consecutive sample collections [Pecoraino and Giammanco, 2005]. Conventional sampling requires that operators collect fluid samples directly from the fumarolic vent in different kind of flasks directly on site. By this way any short-term variation in gasgeochemical parameters may be missed.

Progetto FIRB-UR4. Installazione stazioni elettromagnetiche e validazione dei segnali registrati
Vol. 343 (2016)

In questa nota viene presentata una nuova infrastruttura di misura realizzata nell’ambito del progetto FIRB-Abruzzo-UR4 (Monitoraggio Gravimetrico, Magnetico ed Elettromagnetico dell’area del terremoto di L’Aquila), in particolare è stato sviluppato un interferometro elettromagnetico a bassa frequenza finalizzato allo studio dei campi elettromagnetici legati alla dinamica della crosta terrestre. La realizzazione di questa infrastruttura ha comportato un rilevante impegno tecnico, finanziario, organizzativo e burocratico legato essenzialmente all’acquisizione delle aree, ai permessi di edificazione, ai cantieri, alla logistica, all’organizzazione del lavoro, ecc. L’interferometro è costituito da tre stazioni di misura ubicate in aree a basso rumore elettromagnetico, intorno a L’Aquila. Ciascuna stazione di misura è stata equipaggiata con strumenti per la misura del campo elettrico e del campo magnetico nella banda 30 nHz - 2000 Hz. La necessità di realizzare un interferometro per rilevare i segnali geogenici nasce dal fatto che questi segnali sono molto meno intensi del rumore di fondo antropico presente praticamente in tutti i contesti ambientali anche quelli elettromagneticamente più quieti. Nel nostro caso anche i segnali naturali di origine magnetosferica e ionosferica costituiscono il rumore da eliminare. La strumentazione impiegata per rilevare questi segnali è quanto di meglio offra oggi il mercato mondiale del settore. Nella banda 30 nHz - 0.4 Hz è stato impiegato un magnetometro flux-gate LEMI 18, uno strumento estremamente preciso ed accurato, con un rumore di fondo molto basso [Trigg, 1988]. Nella banda 0.001 Hz - 2000 Hz sono stati impiegati sensori METRONIX MFS06, caratterizzati da un rumore intrinseco molto basso. Al di sopra di 40 Hz il rumore è inferiore a quello dei magnetometri quantistici (SQUID, noise 10 fT/Hz1/2). Questa infrastruttura in una prima fase dovrà minimizzare i livelli di rumore della strumentazione scegliendo la configurazione strumentale migliore, e successivamente operare in continuo nella misura e acquisizione dei campi elettromagnetici.

Monitoraggio speditivo delle coste rocciose da fotogrammetria SfM da imbarcazione: considerazioni sul metodo per misure indipendenti
Vol. 342 (2016)

La fotogrammetria digitale si avvale oggi di innovative tecniche di trattamento dati basate su algoritmi specifici, del tutto compatibili con risorse di calcolo comunemente disponibili, che consentono di ricostruire la geometria delle superfici fisiche osservate, senza alcun tipo di vincolo sulle posizioni di scatto delle immagini o altri dati esterni di calibrazione. La fotogrammetria Structure from Motion (SfM), talvolta indicata con SfM-MVS (dove MSV indica Multi-View Stereo), è uno strumento estremamente versatile ed efficace nel rilievo sia per la semplicità e rapidità delle campagne di misura sia per l’efficienza del calcolo con software specifico che processa immagini di fotocamere digitali ad alta risoluzione e basso costo. Gli accorgimenti necessari per la buona riuscita di una campagna di misura SfM sono prevalentemente legati alla qualità delle camere digitali, alla dimensione dei pixel a terra con la distanza di acquisizione, alle condizioni di illuminazione solare durante il rilievo, alla posizione occupata dalla camera ed al suo orientamento nello spazio e, infine, alla buona e sovrabbondante sovrapposizione tra le immagini. La fotogrammetria SfM differisce dalla fotogrammetria digitale tradizionale perché la registrazione in uno stesso sistema di riferimento delle immagini rilevate ai fini della successiva ricostruzione fotogrammetrica è completamente automatica. Ad esempio, nel caso di un approccio del tipo feature-based, le corrispondenze tra immagini diverse sono ottenute mediante [Granshaw e Fraser, 2015]: (1) individuazione automatica di particolari morfologici corrispondenti in immagini di uno stesso oggetto acquisite da posizioni diverse mediante algoritmo SIFT (Scale Invariant Feature Transform) [Lowe, 1999]; (2) verifica delle corrispondente così individuate e soppressione delle false corrispondenze mediante algoritmo RANSAC (RANdom SAmple Consensus) [Fisher e Bolles, 1981]. Nel caso di un approccio del tipo area-based, il riconoscimento automatico di aree corrispondenti in immagini diverse è invece attuato considerando direttamente i valori di intensità. Tale tecnica è ormai spesso utilizzata nel rilievo di superfici naturali [Westoby et al., 2014; Teza et al., 2016]. Il risultato della modellazione mediante SfM delle immagini che rappresentano una porzione di territorio di interesse è una nuvola di punti fotorealistica, cioè un insieme denso di N punti del tipo {(xk , yk, zk , RGBk ), k = 1, 2,, N } , dove RGBk è il colore (vettore a tre componenti, una per canale) associato al punto di coordinate (xk , yk, zk ) . Da tale nuvola di punti è possibile trarre un modello digitale 3D testurizzato. È necessario precisare che ad una nuvola di punti SfM dev’essere assegnato un fattore di scala affinché essa possa divenire la rappresentazione di un oggetto reale in un sistema metrico. Tale fattore di scala può essere assegnato sia nella fase di allineamento delle immagini, cioè nella fase di registrazione delle stesse in uno stesso sistema di riferimento, dunque antecedentemente alla generazione della nuvola di punti, sia successivamente alla generazione della nuvola di punti. La prima soluzione richiede tuttavia o i dati sulle posizioni delle fotocamere (con errore massimo di 5-10 cm), o quelli sulle posizioni di alcuni punti di controllo a terra (con errore centimetrico). La seconda soluzione si basa invece sulla trasformazione da un dato sistema di riferimento non metrico ad uno metrico mediante roto-traslazione e fattore di scala utilizzando un approccio ai minimi quadrati. In questo lavoro si descrive il rilievo di un tratto di costa rocciosa posta presso l’abitato di Monterosso a Mare (La Spezia). Durante l’attività, inquadrata nell’ambito del progetto SCANCOAST, finanziato dalla Regione Liguria nell’ambito del Piano Operativo Regionale (2007-2013) Asse 1 Bando DLTM (Distretto Ligure delle Tecnologie Marine), è stata utilizzata la fotogrammetria SfM con acquisizioni effettuate dal mare con l’ausilio di una piccola imbarcazione, ponendo particolare attenzione alla fase di calcolo del fattore di scala. Nel caso specifico si è scelta infatti la seconda soluzione per l’attribuzione del fattore di scala (e contestuale georeferenziazione), al fine di simulare le condizioni di un rilievo eseguito in condizioni di emergenza, senza utilizzare punti di controllo a terra o piattaforme inerziali per georeferenziare con precisione la posizione della fotocamera durante il rilievo. In tal modo è possibile mostrare se e come dati significativi, utili ai fini del monitoraggio di un’area costiera, possano essere ottenuti in tempi molto brevi.

Applicazione “Missioni”. Realizzazione del flusso documentale elettronico per la Sezione INGV di Pisa
Vol. 341 (2016)

Come “Missione” si intende lo svolgimento di un incarico o di una prestazione di servizio svolto nell’interesse dell’Ente ed al di fuori dell’ordinaria sede di lavoro. Lo svolgimento di una missione da parte di personale dipendente e non, comporta l’apertura di un iter documentale che si apre con la richiesta di autorizzazione da parte del responsabile della sezione (o dell’Amministrazione Centrale) e del visto del “Responsabile Scientifico” (o più in generale del responsabile dei fondi) e termina con l’approvazione della relazione di missione e la liquidazione delle relative spese sostenute. Tale iter, comportando l’interazione di vari soggetti, può protrarsi anche per tempi molto lunghi. Come per ogni altro atto amministrativo, tutta la documentazione risultante deve poi essere mantenuta nel tempo. La gestione tradizionale, interamente basata su moduli cartacei, presenta diverse problematiche, principalmente legate a: • difficoltà ad ottenere l’autorizzazione formale in caso di missioni predisposte con brevissimo preavviso (come, ad esempio, per interventi di emergenza a seguito di terremoto / eruzione vulcanica) e/o assenza dei soggetti autorizzanti; • complessità nella gestione contabile, con conseguenti difficoltà per i responsabili dei fondi di avere una valutazione aggiornata circa lo stato dei pagamenti, l’ammontare degli impegni, l’entità delle cifre residue; • estrema laboriosità per ottenere informazioni aggregate sulle spese: ad esempio raggruppate per tipologia (spese di trasporto, vitto, alloggio, etc.), suddivise per progetto. Il presente progetto si è posto come obiettivo quello di mantenere tutte le funzionalità offerte dal sistema cartaceo, rappresentate principalmente dalla raccolta e conservazione di informazioni ed autorizzazioni, eliminandone dove possibile le problematiche evidenziate. Tale obiettivo è stato perseguito mediante lo sviluppo di un’applicazione software che registra le informazioni ed i vari passaggi dell’iter documentale e permette la stampa della sola documentazione cartacea minima ai fini amministrativi, possibilmente in un’unica soluzione per ciascuna missione.

Linear Solar Panel Regulator - Regolatore di carica lineare per pannelli solari negli osservatori geomagnetici
Vol. 340 (2016)

In molti sistemi di monitoraggio, come gli osservatori remoti e stazioni di misura di parametri geofisici, si utilizzano batterie, gruppi di continuità (UPS) e pannelli solari, sia per fornire una adeguata alimentazione che per garantire una continuità di funzionamento della strumentazione. In particolare nei siti remoti là dove non è disponibile la rete elettrica, l’utilizzo dei sistemi fotovoltaici è fondamentale. Inoltre negli osservatori geomagnetici vengono utilizzati strumenti automatici di registrazione come magnetometri scalari e vettoriali. Questo tipo di strumentazione è molto sensibile al rumore elettromagnetico e al rumore in generale, come quello che può viaggiare nei circuiti di alimentazione. È importante quindi prestare attenzione ai tipi di apparati che si utilizzano sia negli impianti a 220V che negli impianti fotovoltaici. A questo proposito è stato realizzato un regolatore lineare di carica per pannelli solari (figura 1), impiegato nell’osservatorio geomagnetico di Lampedusa.

Precisione della nuvola di punti SfM: considerazioni e test
Vol. 339 (2016)

L’obiettivo di questo lavoro è mostrare i primi risultati di un approccio sperimentale realizzato per stimare la precisione tipica che è possibile conseguire nell’ambito del telerilevamento mediante sistemi di fotogrammetria digitale Structure from Motion (SfM). Come evidenziato da [Granshaw e Fraser, 2015], la fotogrammetria SfM differisce dalla fotogrammetria digitale tradizionale per due innovazioni significative, vale a dire: (1) l’uso dell’algoritmo SIFT (Scale Invariant Feature Transform) [Lowe, 1999], o di altro algoritmo per l’individuazione automatica dei punti corrispondenti in immagini di uno stesso oggetto acquisite da posizioni diverse, e (2) la tecnica RANSAC (RANdom SAmple Consensus) [Fisher e Bolles, 1981], utilizzata per la verifica delle corrispondente individuate e, in particolare, la soppressione delle false corrispondenze. Tali innovazioni consentono la registrazione completamente automatica in uno stesso sistema di riferimento delle immagini rilevate ai fini della successiva ricostruzione fotogrammetrica. In particolare, l’algoritmo SIFT, del tipo feature based, individua in modo automatico i punti omologhi tra due immagini mediante: (i) riconoscimento di particolari (ad esempio spigoli, vertici) mediante operatori morfologici; (ii) memorizzazione di dati rilevanti ai fini della descrizione dell’intorno di ciascun particolare individuato; (iii) confronto tra gli intorni dei punti individuati nelle singole immagini e individuazione dei punti omologhi. Altri algoritmi di registrazione automatica, di tipo area-based, operano il riconoscimento automatico di aree corrispondenti in immagini diverse considerando direttamente i valori di intensità. Si deve comunque precisare che non tutti i produttori di pacchetti software per la fotogrammetria dichiarano il tipo di algoritmo da essi implementato. Interessanti considerazioni su diversi pacchetti per la fotogrammetria SfM, incluso un confronto critico tra le corrispondenti prestazioni e con enfasi sugli algoritmi utilizzati per la registrazione automatica, possono trovarsi in [Remondino et al., 2015]. Trattandosi di procedure che ricercano e verificano in modo pressoché completamente automatico delle corrispondenze tra immagini digitali, è requisito fondamentale che il rilievo delle aree di interesse avvenga in modo rapido al fine di prevenire effetti indesiderati dovuti al moto apparente del Sole. Questo agisce, infatti, sia sulle ombre che possono interessare le superfici osservate, a disegnare pattern di forma e colore molto diversi, sia sulla maggiore o minore luminosità delle immagini a seconda degli orari in cui si effettua il rilievo. Tali effetti indesiderati possono condurre al mancato allineamento automatico delle immagini. Il risultato del processamento fotogrammetrico delle immagini mediante SfM è una nuvola di punti molto densa e fotorealistica, da cui è possibile trarre un modello digitale 3D, del pari fotorealistico. In generale, è difficile fornire una valutazione dell’errore tipico perché una stima di esso non è prevista nel processo di ricostruzione fotogrammetrica. Tuttavia, le nuvole di punti possono essere trattate secondo le strategie comunemente utilizzate nell’ambito dell’analisi dati da laser a scansione terrestre (TLS) per estrarre informazioni utili a quantificare l’errore in parola. È necessario altresì sottolineare che ad una nuvola di punti SfM deve essere assegnato un fattore di scala affinché essa possa divenire la rappresentazione di un oggetto reale in un sistema metrico. Tale fattore di scala può essere gestito sia nella fase di allineamento delle immagini, cioè nella fase di registrazione delle stesse in uno stesso sistema di riferimento, dunque antecedentemente alla generazione della nuvola di punti (utilizzando quindi lo stesso pacchetto software della fotogrammetria), sia successivamente alla generazione della nuvola di punti in questione, eventualmente utilizzando un diverso pacchetto software. Vari autori hanno già affrontato la questione delle prestazioni dell’SfM anche in riferimento al confronto rispetto alle prestazioni del TLS utilizzato in analoghe condizioni di osservazione. Ad esempio [Andrews et al., 2013] ha mostrato che l’uso di TLS e SfM ha portato a modelli digitali triangolati di un antico granaio molto simili; [Kustoudis et al., 2014] ha evidenziato che, se un’ampia serie di immagini è acquisita in opportuni condizioni di illuminazione, la fotogrammetria SfM permette di ottenere risultati di alta qualità anche per i monumenti caratterizzati da superfici complesse. Inoltre, [Teza et al., 2016] ha evidenziato che le prestazioni di TLS e SfM sono analoghe anche nella generazione di nuvole di punti finalizzate all’esecuzione dell’analisi morfologica di un edificio storico, a patto che i punti i vista del rilievo fotogrammetrico siano ben distribuiti spazialmente. Le elaborazioni presentate in questo lavoro sono realizzate mediante il software PhotoScan [Agisoft, 2015], per l’analisi delle immagini digitali e l’estrazione delle nuvole di punti, e mediante il software PolyWorks [Innovmetric, 2015] per il calcolo del fattore di scala, per la registrazione delle nuvole in un comune sistema di riferimento e per il calcolo della mappa delle differenze tra modelli digitali.

Sistema integrato per la gestione dell’attività di sorveglianza sismo-vulcanica presso la sala operativa INGV della Sezione di Catania – Osservatorio Etneo
Vol. 338 (2016)

Il sistema oggetto del presente report tecnico, di seguito indicato come “Registro Turni”, è impiegato presso la Sala Operativa della Sezione di Catania - Osservatorio Etneo (OE) in seno all’attività di sorveglianza sismo-vulcanica. Questo costituisce il principale strumento utilizzato dal personale turnista per il regolare svolgimento del turno. Il Registro Turni è composto da un’interfaccia al Database di Sezione dell’OE e da un insieme di organi di visualizzazione, consultazione e gestione, realizzati mediante tecnologie web. I dati e le operazioni gestite attraverso il Registro Turni vengono archiviati all’interno di un’apposita banca dati di Sala Operativa. L’esigenza di un’interfaccia software nasce principalmente dalla possibilità di poter archiviare le azioni eseguite e le informazioni ricevute dall’esterno durante i turni svolti in Sala Operativa. Sebbene tali mansioni siano alla base dei compiti di un registro, l’interfaccia web è stata progettata anche per favorire le operazioni del personale turnista durante l’occorrenza di eventi sismici e vulcanici nelle aree di pertinenza. Il corretto utilizzo del Registro Turni permette infatti di eseguire tutte le procedure di competenza del personale turnista, e in particolar modo di: • inviare tempestivamente le comunicazioni alle autorità preposte tramite posta elettronica; • produrre la documentazione ufficiale da allegare; • accedere ai dati impiegati per la sorveglianza. Inoltre, mediante il Registro Turni è possibile visualizzare i livelli correnti di allerta attivi in Sala Operativa, l’attuale situazione dell’attività vulcanica (in relazione alle comunicazioni prodotte) nonché la mappa dei parametri monitorati all’interno del videowall. Al fine di velocizzare la consultazione dei dati impiegati nelle procedure di sorveglianza (serie temporali sismo-vulcaniche, immagini e video provenienti dalle telecamere), l’interfaccia è stata corredata di opportuni “container” per la visualizzazione dei dati archiviati nella Banca Dati di Sezione [Cassisi et al., 2015]. Il presente report, redatto dall’Unità Funzionale Sala Operativa e Servizi ITC (UFSO-IT) dell’OE, ha lo scopo di illustrare le funzionalità messe a disposizione dalla nuova interfaccia web, utilizzata dal personale turnista a partire dal 1 Marzo 2015.

Un metalinguaggio versatile per strumentazione con interfaccia di comunicazione seriale
Vol. 336 (2016)

La grande variabilità dei numerosi fattori fisici, chimici e biologici che caratterizzano in particolare l’ambiente marino, obbliga ad equipaggiare i sistemi progettati per il suo studio e monitoraggio con più tipologie di sensori relativi a differenti discipline, anche al fine di ottimizzare il costo di un’infrastruttura di osservazione sottomarina. Infatti, frequentemente tali sistemi sono equipaggiati con sensori oceanografici (correntometri, sensori CTD), geofisici (sensori di pressione, idrofoni a bassa frequenza, sismometri, tiltmetri, ecc), chimici (sensori di torbidità, ossigeno disciolto, ecc). Inoltre, in siffatti sistemi, sono anche integrati sensori per la misura dei parametri di stato, indispensabili per un corretto funzionamento dei sensori e, più in generale, per il controllo dello stato di tutta l’elettronica presente. Gran parte di questi sensori utilizza una comunicazione digitale di tipo seriale (TTL, RS-232, RS-422, RS-485, …) connessi a sistemi di gestione/acquisizione che hanno a disposizione diverse porte seriali per consentire l’integrazione della sensoristica necessaria allo svolgimento della propria missione. In fase di progettazione del sistema globale, dopo aver identificato i sensori da utilizzare, si procede ad uno studio del protocollo di comunicazione relativo ad ognuno dei sensori componenti il sistema. In tale fase bisogna comprendere quali comandi inviare al particolare sensore (ad esempio, di lettura), e in che formato verrà restituita la misura desiderata. A seconda della configurazione scelta, poi, bisognerà implementare, tramite software/firmware, dei drivers specifici per consentire il corretto funzionamento del sensore all’interno del sistema (configurazione) e l’acquisizione dei dati di misura (funzionamento). Durante il processo di integrazione di un sensore all’interno di un sistema di misura complesso, viene normalmente sviluppato un driver ad-hoc come modulo del software di controllo. Il driver ha la funzione di creare un’interfaccia in grado di mascherare il protocollo proprietario ed ottenere dei dati nel formato richiesto. Tale operazione richiede l’implementazione, all’interno del software, di driver specifici per ogni dispositivo. Tutto questo limita notevolmente la flessibilità di un sistema di osservazione multi-parametrico in quanto l’eventuale aggiunta di un nuovo sensore o, semplicemente, il riposizionamento di un altro tipo di sensore già presente su una porta seriale differente, comporta l’aggiornamento di tutto il software/firmware di controllo. Inoltre, un approccio di questo tipo rende minima la portabilità di eventuali drivers già realizzati che dovrebbero comunque essere ricompilati ed adattati ad eventuali nuovi sistemi, in special modo quando si decide di passare ad un’altra piattaforma hardware. Nell’ambito della gestione di osservatori da fondo marino, l’esigenza di semplificare l’uso di sensori di tipologia differente e giungere ad una standardizzazione è stata sempre molto sentita e sono state proposte varie possibili soluzioni. Ad esempio, lo “Smart Ocean Sensor Consortium” (SOSC) raggruppa produttori ed utenti di sensori oceanografici al fine di migliorare l’affidabilità, l’utilità e la convenienza delle reti di sensori attraverso lo sviluppo e la promozione di interfacce e protocolli standard. In particolare il SOSC ha proposto un protocollo denominato PUCK (Programmable Underwater Connector with Knowledge), originariamente sviluppato dal Monterey Bay Aquarium Research Institute [O’Reilly & Reed, 2012]. PUCK definisce un protocollo di comunicazione seriale, di tipo RS-232, ed Ethernet per rendere standard le operazioni di comunicazione e memorizzazione dei dati ottenuti da strumenti digitali. Questo protocollo, memorizzando fisicamente informazioni dello strumento nello strumento stesso, consente di automatizzare le operazioni di installazione, configurazione e funzionamento del relativo sensore. In particolare, PUCK contiene informazioni standard sullo strumento, una sua descrizione (metadata), il codice del driver ed altre informazioni utili ad un sistema esterno. Quando un dispositivo “PUCK-Enabled” viene collegato ad un computer host questo può reperire informazioni sull’identità del sensore direttamente dal formato PUCK e predisporsi quindi al funzionamento selezionando il driver adatto al fine di interpretare ed eseguire il parsing dei dati da esso provenienti. La seguente tabella descrive in modo schematico i vantaggi e gli inconvenienti relativi all’utilizzo del protocollo PUCK.

Caratterizzazione geometrica mediante laser a scansione della Torre Volognana e del Palazzo del Bargello (Firenze) per fini di indagini strutturali e storiche
Vol. 335 (2016)

La tecnica laser a scansione terrestre (Terrestrial Laser Scanning, TLS) è di rilevante interesse sia nel rilievo geologico, sia in quello architettonico perché consente un’acquisizione relativamente rapida e affidabile di nuvole di punti in grado di rappresentare tridimensionalmente gli oggetti rilevati. La qualità delle nuvole di punti in termini di precisione, accuratezza e risoluzione spaziale, unita alla possibilità di automatizzare o quantomeno rendere semiautomatiche le successive post-elaborazioni dei dati, ha portato ad un ampio spettro di applicazioni della tecnica in questione. Nel caso di un edificio, tali dati, eventualmente integrati con dati fotogrammetrici, possono usarsi per fornire informazioni a carattere tecnico-strutturale e storico-documentale [De Luca et al., 2011]. Dalle dense nuvole di punti ottenute, in tempi relativamente rapidi, con TLS possono generarsi modelli geometrici precisi e dettagliati (per una trattazione generale si veda ad esempio [Sgrenzaroli and Vassena, 2007]). La fase di post-elaborazione dei dati è indubbiamente la fase più complessa e determinante dell’intero ciclo di lavoro e deve comunque essere oggetto di valutazione ed interpretazione sulla base della specifica applicazione. Vari studi hanno evidenziato come i sistemi very long range (VLR-TLS), cioè gli strumenti concepiti prevalentemente per il rilievo ambientale e in grado di acquisire superfici distanti centinaia di metri, siano particolarmente adatti al rilievo di edifici in condizioni di emergenza sismica, in modo da fornire informazioni sullo stato deformativo degli stessi utili ai fini dell’analisi strutturale. Le esperienze maturate durante il terremoto dell’Emilia Romagna del 2012 hanno attestato che il dato VLR-TLS, restituito mediante mappe di deformazione, è uno strumento sinottico efficace, sintetico e soprattutto intuitivo. Lo studio delle condizioni di un edificio è basato principalmente sull’analisi morfologica dei prospetti di tipo planare o cilindrico [Pesci et al., 2013] o anche tronco-conico [Teza and Pesci, 2013]. Tale metodologia di analisi dati è articolata in: misura e creazione delle nuvole di punti, definizione delle primitive che meglio rappresentano ciascun prospetto, creazione delle mappe di deformazione e, infine, verifica che i valori ottenuti siano maggiori delle distorsioni indotte nel modello dalle condizioni di rilievo. Nel presente studio la tecnica TLS è stata utilizzata al fine di caratterizzare la geometria del Museo Nazionale del Bargello e della Torre Volognana a Firenze (Figura 1). Il Palazzo del Podestà o del Bargello, situato nel Centro Storico della città e costruito nel 1250, dal 1865 ospita il Museo Nazionale del Bargello; l’adiacente torre campanaria, alta circa 55 m, è denominata Torre dei Boscoli, comunemente però detta di Volognana dai tempi della prigionia nella stessa di Geri da Volognano sul finire del XIII secolo. Lo studio non è legato a problematiche inerenti all’emergenza sismica. Al contrario, l’obiettivo è evidenziare come un’adeguata analisi dei dati TLS possa fornire informazioni fondamentali non solo in condizioni di emergenza ma anche ai fini dell’identificazione di caratteristiche e peculiarità strutturali, utili negli studi progettuali di eventuali restauri e/o consolidamenti strutturali. Tali conoscenze possono infatti suggerire le corrette strategie di intervento diventando una sorta di guida procedurale per le scelte progettuali di miglioramento e/o adeguamento sismico. Inoltre, i dati ottenuti possono guidare la scelta degli edifici da monitorare con tecniche di più complessa attuazione come l’analisi modale sperimentale (EMA), che, pur in grado di fornire data particolarmente affidabili ai fini della valutazione dello stato strutturale di un edificio, richiede l’installazione di una rete di accelerometri sull’edificio stesso [Catbas et al., 2006].

L’esperimento Sardinia Passive Array (SPA): acquisizione dati sismici per lo studio della geodinamica e della sismotettonica dell’area mediterranea
Vol. 334 (2016)

L’esperimento Sardinia Passive Array (SPA) nasce all’interno della linea di attività T1 “Geodinamica e interno della Terra” della struttura terremoti dell’Istituto Nazionale di Geofisica e Vulcanologia, con l’intento primario di estendere gli studi sulla struttura profonda e sulla sismicità del mediterraneo centrooccidentale, realizzati dal gruppo di ricerca degli autori negli ultimi dieci anni [Argnani et al., 2015; Monna et al., 2015, 2013; Montuori et al., 2007; Cimini and Marchetti, 2006; Cimini, 2004]. A tal fine, considerata la posizione centrale della Sardegna nell’area in studio, e più in generale del blocco Sardo-Corso, la presenza in loco di un maggiore numero di stazioni risulta fondamentale per la produzione di modelli tomografici ad alta risoluzione della crosta-litosfera (Pn/Sn tomography) e del mantello superiore (inversione travel times di fasi telesismiche e di terremoti profondi). La campagna di acquisizione dati, iniziata a luglio 2014, è stata prevista di lunga durata, almeno due anni, per ottenere data set significativi anche per altre analisi quali receiver function, attenuazione e meccanismi focali. Obiettivo dell’esperimento è anche una migliore caratterizzazione della sismicità locale, spesso non adeguatamente rilevata proprio per la scarsa copertura delle reti permanenti e perciò solo parzialmente presente nei cataloghi sismici dei centri sismologici mediterranei. A titolo esemplificativo, la Figura 1 mostra gli eventi localizzati dalla Rete Sismica Nazionale (RSN) nel periodo gennaio 1985 - giugno 2014 nell’area comprendente il blocco Sardo-Corso. Si tratta di una sismicità sparsa e sporadica nel tempo, ad eccezione della sequenza di una dozzina di scosse rilevata a seguito del terremoto di magnitudo ML4.7 del 7 luglio 2011 nel Mare di Corsica, che caratterizza soprattutto i bordi del blocco di litosfera continentale. Anche nel settore orientale sono avvenuti eventi significativi, in particolare tre eventi di magnitudo superiore a 4 (26 aprile 2000, magnitudo Md 4.2 e 4.7, e 18 dicembre 2004, magnitudo ML 4.3) localizzati nel mar Tirreno centrale a circa 60 km ad est di Olbia nella cosiddetta depressione di Comino. In questo rapporto tecnico si descrive la rete temporanea installata durante il primo anno dell’esperimento SPA e si presentano i primi risultati del monitoraggio sismico effettuato nel periodo luglio 2014 – ottobre 2015, mostrando, in particolare, i dati relativi ad alcuni eventi locali occorsi nella zona nordorientale della Sardegna e nei mari circostanti.

Sr isotope analysis of water samples at the Radiogenic Isotope Laboratory of the Istituto Nazionale di Geofisica e Vulcanologia, Sezione di Napoli - Osservatorio Vesuviano (INGV-OV)
Vol. 333 (2016)

Since 2000, a Thermal Ionisation Mass Spectrometer (Thermo ScientificTM Triton TI® Mass Spectrometer) and a clean laboratory are operating at the Istituto Nazionale di Geofisica e Vulcanologia (INGV), Sezione di Napoli, Osservatorio Vesuviano (OV) to measure strontium (Sr) and neodymium (Nd) isotope compositions of volcanic products for scientific purposes. In 2014 particular attention has been dedicated to set up the analytical procedure for extracting Sr and Nd and measuring their isotope compositions from groundwater and mineral water, due to its growing interest on environmental topics. Strontium is considered a trace element and Sr2+ preferentially substitutes for Ca2+ in most rock types since it geochemically behaves like calcium. Groundwater is enriched in Sr during water-rock interaction processes occurring within the saturated and/or unsaturated zones. Conversely, Sr is removed from water as a result of mineral precipitation and ion exchange reactions. The most common removal process is the coprecipitation of Sr2+ ions with calcium carbonate. However, this latter process does not fractionate Sr2+ [Faure and Powell, 1972]. Therefore, the Sr isotopic composition of groundwater records an integrated signal of water-rock interaction along flow path and dissolution/precipitation events, and can be used as a dynamic tracer to constrain subsurface flow in volcanic, non volcanic and geothermal areas. Water is a natural resource, which is renewed by different processes. The aforementioned geochemical processes and reactions with dissolving/precipitating minerals have a profound effect on water quality. Since the 1990s, Sr isotopes have been extensively used as a natural tracer of groundwater flow [Peterman and Stuckless, 1992; Bullen et al., 1996; Johnson and De Paolo, 1994; McNutt et al., 1990; McNutt, 2000; Frost et al., 2002; Gosselin et al., 2004; Klaus et al., 2007] because groundwater progressively acquires the 87Sr /86Sr isotopic ratio from the rocks with which it has interacted [Prasanna et al. 2009]. Furthermore, variable Sr isotope ratios and concentrations characterize different groundwater sources and are tracers of groundwater mixing [eg. Carucci et al., 2012]. In this work we present the first results obtained by analyzing the Sr isotope composition of two mineral waters, selected groundwater samples from Mt. Etna and a certified water sample from North America (National Research Council Canada - NRC, Certified Reference Materials - CRM TM-25.4). On the contrary, the Nd isotope ratios of such water samples have been not measured due to the low Nd content of the investigated samples. A statistically representative data set on certified international standards (NIST SRM 987, La Jolla and JNdi-1) was used to evaluate the quality of the analytical data produced at the INGVOV Radiogenic Isotope Laboratory since 2014. This methodological approach will allow us to isotopically characterize different water systems with the aim to trace back the water-rock interaction and mixing processes in different environments. This analytical procedure could be exported to other geological contests and applied to other types of waters (e.g. surface and thermal water).