DISGAS-2.0: A model for passive DISpersion of GAS
Vol. 332 (2016)

The code DISGAS (model for passive DISpersion of GASes) is a Eulerian model for passive dispersion of diluted gas and fine dust particles. Turbulent diffusion is based on the K-theory and the wind field can be evaluated assuming either a uniform wind profile based on the Similarity Theory or using a terrain-following mass-consistent wind model. DISGAS can be used to forecast concentration of gas (or dust) over complex terrains. The inputs to the model are topography, wind observations from meteorological stations, atmospheric stability information, and gas flow rate from a discrete number of point sources. DISGAS is written in fortran 90. Here we describe the model and an application example.

Acquisizione di noise sismico ambientale nell’area denominata Boschetto Playa (Catania)
Vol. 331 (2016)

Lo studio degli effetti di amplificazione sismica locale rappresenta uno strumento fondamentale sia per una corretta pianificazione urbanistica e territoriale, sia per la definizione degli interventi ingegneristici di prevenzione. Attraverso esso è possibile valutare la pericolosità sismica dei siti prima del verificarsi di eventi sismici, non solo ai fini della progettazione antisismica ma anche della mitigazione del rischio. Negli ultimi anni sono state sviluppate tecniche di investigazione geofisica speditive e di basso costo, basate sull’analisi del rumore simico ambientale. Inoltre, alcuni progetti europei (ad esempio SESAME European Project 2005) hanno cercato di fornire chiare indicazioni sull’utilizzo di queste tecnologie. Il principale obiettivo delle analisi di microzonazione sismica di primo e secondo livello [Gruppo di lavoro MS, 2008], è quello di identificare eventuali frequenze fondamentali di risonanza dei siti investigati. Le misure possono essere effettuate mediante tecnica a stazione singola [Bard et al., 1999], meglio conosciuta come “metodo H/V o di Nakamura” [Nakamura, 1989]. Tale tecnica utilizza il rapporto spettrale tra le componenti orizzontali e la componente verticale del segnale sismico acquisito, per individuare la frequenza di risonanza del sito, e, utilizzando la legge del quarto d’onda, la profondità a cui si incontra un significativo contrasto d’impedenza sismica [Ibs-Von Seht and Wohlenberg, 1999]. In tale studio vengono riportati e discussi I risultati ottenuti dall’elaborazione di nuovi dati di noise ambientale acquisiti nel 2014 presso la località Boschetto Playa, a sud della città di Catania. Tale area è stata una delle tre sedi oggetto di una precedente campagna condotta nel 2007, che coinvolse l’area urbana della città di Catania, I cui risultati sono descritti in Condorelli et al. [2009] (vedi Rapporti Tecnici INGV n. 110). In particolare nel 2007, utilizzando la medesima strumentazione adottata nel presente studio, gli autori hanno acquisito misure di noise sia in due siti ubicati all’interno dell’area urbana di Catania e sia proprio presso il Boschetto Playa. Confrontando I risultati ottenuti per I tre siti investigati, Condarelli et al. [2009] evidenziano la presenza di un picco predominante a 3Hz, che caratterizza fondamentalmente il sito di Boschetto Playa. Gli stessi autori sottolineano come tale risultato desti un certo interesse, e spinge ad investigare ulteriormente sulla natura dei picchi osservati. Partendo proprio da questo risultato abbiamo focalizzato la nostra attenzione sull’area del Boschetto Playa ai fini di stabilire con maggiore dettaglio l’origine dei picchi in frequenza in essa osservati. Per questo, all’analisi dei rapporti HVSR è stata affiancata anche una puntuale analisi di polarizzazione del segnale acquisito [Jurkevics, 1988] utile per individuare eventuali sorgenti direzionali di noise. Inoltre, l’analisi dei dati ai fini della determinazione delle funzioni del rapporto H(f)/V(f), è stata eseguita applicando una procedura differente da quella utilizzata da Condarelli et al. [2009]. Questo rappresenta un aspetto importante ai fini dei risultati che ne scaturiscono, poiché il trattamento dei dati (ad esempio il filtraggio delle tracce, il calcolo della media delle componenti del moto del suolo, etc.) condiziona fortemente la funzione H(f)/V(f) ottenuta. Siamo così riusciti a risalire alla reale natura del picco a 3 Hz che caratterizza l’area sotto esame.

Integrazione di dati laser scanning e fotogrammetrici per il monitoraggio delle coste: i primi rilievi TLS terrestri per il progetto SCANCOAST
Vol. 330 (2016)

Il lavoro descritto in questo rapporto tecnico è parte integrante del programma operativo del progetto SCANCOAST, pensato per il monitoraggio di aree costiere e sottomarine condotto mediante l’integrazione di tecniche di telerilevamento quali Terrestrial Laser Scanning (TLS), fotogrammetria digitale e multibeam interferometrico. SCANCOAST è un progetto finanziato dalla Regione Liguria nell’ambito del Piano Operativo Regionale (2007-2013) Asse 1 Bando Distretto Ligure delle Tecnologie Marine. L’attività si concentra nel territorio ligure, nel versante delle Cinque Terre, particolarmente soggetto ad instabilità di natura idrogeologica quali fenomeni franosi o alluvioni le cui tragiche conseguenze sono state più volte raccontate nelle cronache locali e nazionali (ad esempio l’alluvione di Vernazza e Monterosso del 25 ottobre 2011). Lo scopo principale del progetto è realizzare ed utilizzare un sistema di osservazione e monitoraggio di tipo contactless che permetta, in tempi rapidi e con operazioni veloci, di restituire un data set di Modelli Digitali del Terreno (DTM) utilizzabile per identificare e monitorare potenziali fenomeni franosi. L’area indagata si caratterizza per un elevato numero di settori con problemi di stabilità e di difficile accessibilità per la presenza di ripidi versanti esposti al mare che rendono assai ostico un approccio di studio di tipo tradizionale effettuato con misure ed osservazioni dirette in situ. Nell’ambito delle tecniche da remoto, la fotogrammetria digitale moderna integrata da un’analisi delle immagini basata su algoritmi di tipo Structure from Motion (SfM) risulta particolarmente adatta per ottenere una definizione geo-morfologica di dettaglio dei corpi di frana [Westoby et al., 2012]. Tale prodotto costituisce la base fondamentale per mappare, nella fascia costiera, aree emerse e sottomarine potenzialmente instabili che possono costituire un fattore di rischio per le attività umane. L’osservazione da mare fornisce il vantaggio di avere una visione d’insieme della costa, compresi eventuali corpi di frana presenti. L’integrazione con i dati sottomarini da multibeam interferometrico, permette di investigare anche i corpi detritici alla base della scarpata, elemento di principale importanza per valutazioni sulla stabilità generale del pendio [Brock and Purkis, 2009; Michoud et al., 2014].

Preliminary activity for identification and characterization of an international CAL/VAL site
Vol. 329 (2015)

During the four years Italian Space Agency (ASI) funded project “ASI-AGI” (Analisi Sistemi Iperspettrali per le Applicazioni Geofisiche Integrate) INGV has developed specific algorithms and products for various geophysical applications to be applied on hyperspectral data that will be acquired during lifetime of the next ASI-PRISMA (Precursore IperSpettrale della Missione Applicativa). PRISMA is a pre-operative small Italian hyperspectral mission aiming to observe routinely and to characterize the earth surface by coupling an hyperspectral and a panchromatic sensor. In this context ASI-AGI project contributes to develop applications and provides products to institutional and scientific users for environmental observation and risk management. Moreover the identification of a CAL/VAL site is a direct interest of European Space Agency (ESA) in the framework of the Committee on Earth Observation Satellite (CEOS) actions. The scope of this project is to select, identify and characterise test sites, to be used as a reference, for the calibration and characterisation of different sensor types and identifying and characterizing test sites that can be used for external calibration. The project is part of the ESA strategy for ensuring the quality (in terms of calibration, validation and operational quality) of data developed for current and future missions within the Explorers and he European Earth observation programme Copernicus, previously known as GMES (Global Monitoring Environment and Security) framework. The choice of a sites or the use of a site depends on the nature of the space mission (ocean color, terrestrial biosphere), by the sensor resolution (high medium or low spatial resolution), and then on the needs to produce reliable information in terms of accuracy and stability. In this context from May 6th and 11th, 2014 INGV has performed a pre-survey for the identification and characterization of a vicarious calibration-validation remote site supporting the future ASI space missions. This field campaign has been conducted in Algeria in the Western Sahara region, in the Bechar province, more precisely in the area ranging from Ougarta and Beni Abbes. While the CAL/VAL activities of ASIAGI project have been already described in Colini et al., [2014] this report describes the activity done during the dedicated field campaign aimed to identify a new vicarious test site in North Africa in the Algerian desert. In the follows, we present the region Ougarta, its location, the overall field campaign organization, geology and sites description that have been measured in the framework of this project. All these information are required in order to verify the compliance of the chosen site with the retained criteria expressed in Berthelot and Santer [2008]. The level of compliance will allow the characterization of inland calibration-validation site as: LES: Land Equipped Site LNES: Land Non Equipped Site Equipped sites correspond to a test sites and are adapted for Optical sensor medium resolution and geostationary instruments. They can be used for Optical sensor high-resolution sensors as well. Because of high radiometric requirements, class 2 sensors can be used as reference for cross calibration with class 3.

HERMES: una procedura automatica per la creazione di Report, Bollettini e Comunicati sulla sismicità italiana
Vol. 328 (2015)

L’Allegato Tecnico Generale della Convenzione Quadro con il Dipartimento della Protezione Civile1 per il triennio 2010-2012 specifica al punto 2.2.2 tre tipi di documento che l’Istituto Nazionale di Geofisica e Vulcanologia è tenuto a inviare via e-mail al Dipartimento di Protezione Civile (DPC), Centro Funzionale Centrale settore Rischio Sismico (CFC-RS), a supporto del servizio di sorveglianza sismica H24. I documenti richiesti sono: Bollettini, Comunicati e Relazioni. Di seguito sono riportate le specifiche di tali documenti come da Allegato Tecnico. Bollettini: • riportano una descrizione della attività sismica della settimana precedente; • contengono informazioni sullo stato delle reti di monitoraggio; • vengono prodotti periodicamente con cadenza settimanale oppure possono essere emessi più di frequente in caso di: 1. sciame sismico in atto con eventi di M ≥ 3.5; 2. dopo un evento sismico di M ≥ 4.5; 3. su richiesta del DPC. Comunicati: • riguardano il verificarsi di eventi sismici significativi secondo i criteri indicati in Tabella 1 dell’Allegato Tecnico e/o di fenomeni potenzialmente associati; • sono trasmessi entro 1h dall’evento; • contengono una descrizione tecnico-scientifica sintetica dei fenomeni in corso. Relazioni: • descrivono in modo più completo ed esauriente il quadro sismotettonico complessivo dei terremoti avvenuti anche al di fuori del territorio nazionale o sequenze sismiche occorse o in atto, di cui sia già stato inviato il Comunicato; • sono basate sulle informazioni contenute nelle basi di dati dell’INGV e su quelle raccolte dalle reti di monitoraggio; • devono essere redatte in caso di eventi nel territorio nazionale con M ≥ 4.0 e profondità < 40 km; • devono essere inviate entro 2h dall’evento; • in caso di aftershock l’invio è da concordare con DPC; • possono essere prodotti anche a richiesta del DPC; • per gli eventi fuori dal territorio nazionale sono prodotte sempre a seguito di una richiesta da parte di DPC. La persona incaricata di redigere ed inviare i Bollettini/Relazioni al DPC è il Funzionario di turno nel Servizio di Sorveglianza Sismica. Con l’intenzione di supportare e velocizzare il lavoro del Funzionario, abbiamo sviluppato uno strumento informatico, HERMES, in grado di generare automaticamente tutti i documenti richiesti dalla convenzione. Il gruppo di lavoro che ha progettato e realizzato HERMES è stato formalizzato attraverso l’incarico di servizio firmato l’11/11/2011 dall’allora Direttore del Centro Nazionale Terremoti (CNT) Dott. Giulio Selvaggi (Num. Protocollo 0011781), e coincide con gli autori di questo rapporto tecnico.

Installazione e test di riflettori radar per misure di deformazione superficiale con tecniche DINSAR in banda X
Vol. 327 (2015)

Il riflettore radar (anche noto con il termine inglese “Corner Reflector”, CR) è un manufatto metallico passivo (ovvero non alimentato da corrente elettrica) di semplice costruzione che, mediante un opportuno orientamento delle sue pareti, ha un’elevata capacità di riflettere le onde radar nella stessa direzione di provenienza (vedi Figura 1) [Marinkovic et al., 2007]. Grazie alle sue caratteristiche geometriche, il CR si comporta come un bersaglio radar artificiale, ben visibile all’interno di una immagine radar, caratterizzato da un elevato contributo di retrodiffusione (o backscattering) e da un’elevata stabilità temporale del segnale elettromagnetico retrodiffuso [Marinkovic et al., 2007]. Il loro utilizzo è di particolare importanza in molte applicazioni del telerilevamento ambientale, quali la calibrazione radiometrica, la georeferenziazione di misure SAR (Radar ad Apertura Sintetica), nonché la stima delle mappe di deformazioni del suolo mediante tecniche di Interferometria Differenziale SAR (DInSAR) [Hanssen, 2001]. Grazie alle dimensioni ridotte, alla facile installazione e alla loro bassa tecnologia di creazione e messa in opera, I CR rappresentano un valido strumento a supporto dell’interferometria SAR per la generazione di mappe di velocità e serie temporali di deformazione del suolo [Sarabandi et al., 1995; 1996]. Nel presente lavoro sono illustrate due modalità di installazione dei CR per supportare le misure satellitari SAR di deformazione superficiale di ambienti urbani e strutture murarie, localizzate in aree soggette a rischio sismo-idrogeologico. Alcuni risultati preliminari saranno di seguito illustrati per le aree urbane di Cosenza e Reggio Calabria al fine di perseguire I seguenti obiettivi:
Testare le potenzialità dei CR a supporto di misure SAR in banda X; Fornire punti di riferimento stabili, coerenti e ad alta riflettività radar, per misure di deformazione DInSAR in ambienti urbani.
Il lavoro è stato organizzato come segue. Nella sezione 2 sono definite le specifiche tecniche dei CR utilizzati a supporto di un sistema satellitare SAR in banda X. Nella sezione 3 sono illustrate le modalità di installazione dei CR, per ambienti naturali ed antropici. Nella sezione 4 sono illustrate le aree urbane ed I siti di interesse identificati per la sperimentazione e l’installazione della rete di CR. Nella sezione 5 sono illustrati alcuni risultati preliminari relativi all’uso dei CR per misure DInSAR di deformazione superficiale in banda X. Infine, alcune considerazioni conclusive sono riportate in sezione 6.

Interfaccia grafica GUI per modelli matematici integrati di formazione, diffusione e distribuzione del percolato (progetto SIGLOD)
Vol. 326 (2015)

Questo rapporto tecnico riguarda lo sviluppo di un’interfaccia grafica, la cosiddetta Graphic User Interface (GUI), effettuata nell’ambito del progetto PON SIGLOD per facilitare il compito degli operatori addetti alla gestione delle grandi discariche, nell’utilizzo del modello matematico o software per simulazione di percolazione. Lo sviluppo di questa GUI si riallaccia al lavoro di formulazione ed implementazione di modelli matematici di formazione, diffusione e distribuzione del percolato,presentato nei Quaderni di Geofisica n.128[Bianchi et al. 2015]. La GUI si adatta bene all’utilizzo di tecniche di simulazione attraverso modelli matematici dei processi concernenti sia la formazione che la diffusione dei materiali inquinanti. Così, si viene incontro ad un’esigenza pratica per gli operatori di questo settore, fornendo loro il modo di rappresentare gli scenari e dare essenziali informazioni ai cosiddetti Decisional Support System (DDS) o sistemi esperti che sovraintendono al controllo e alla gestione di queste strutture. I modelli matematici di simulazione implementati con il programma MATLAB sono stati successivamente incorporati all’interno di un’unica interfaccia, che permette di utilizzarli in combinazione, al fine di ottenere risultati più immediati e chiari.

Site Show Roma2: sistema di visualizzazione siti web
Vol. 324 (2015)

Il controllo regolare degli osservatori e delle reti geofisiche gestite dalla Sezione Roma2 viene effettuato attraverso alcune pagine web dedicate, in particolare quelle sui dati geofisici acquisiti e quelle con la descrizione delle attività di servizio della Sezione Roma2. La rappresentazione grafica dei dati acquisiti permette anche di monitorare il funzionamento delle varie strumentazioni di acquisizione. Per pubblicizzare le attività svolte è stata proposta l’idea, dalla Unità Funzionale Laboratori per l’Innovazione Tecnologica, di installare un monitor di grande dimensione in un luogo di passaggio dove poter mostrare in successione le suddette pagine web. L’idea è stata approvata dal Direttore di Sezione, dopo di che è stato realizzato un prototipo posizionato (temporaneamente) presso l’ingresso del corridoio della sede romana della Sezione (Figura 1). Lo scopo di questo rapporto tecnico è quello di descrivere il sistema di visualizzazione “Site Show Roma2” con i dispositivi elettronici e i programmi utilizzati, ma anche di fornire un utile strumento di consultazione per il mantenimento o l’aggiornamento futuro del sistema.

Determinazione di anioni inorganici e fosfati in acque naturali mediante cromatografia ionica: applicazioni della colonna Dionex IonPac AS19-4 µm
Vol. 323 (2015)

La determinazione di anioni inorganici nelle acque naturali, sotterranee e superficiali, cosi come nelle acque reflue e potabili, è una delle applicazioni più importanti della cromatografia ionica (IC). Con questa tecnica si possono comunemente determinare i principali anioni inorganici: fluoruro, cloruro, bromuro, nitrato e solfato. Utilizzando specifiche metodologie oltre ai predetti analiti, si può determinare anche il fosfato durante la medesima analisi. La determinazione dei fosfati nelle acque riveste una notevole importanza in considerazione del fatto che il fosfato rappresenta un possibile indice di inquinamento per la presenza di questa sostanza in moltissimi composti chimici, quali: detersivi domestici ed industriali, fertilizzanti ecc. La quantità di fosfati, nelle acque naturali, quando è di origine minerale e non indica inquinamento, raggiunge concentrazioni appena dosabili, mentre concentrazioni elevate e quindi misurabili, sono indice di inquinamento. Il fosfato è uno dei nutrienti di maggiore importanza nelle acque, la sua presenza in concentrazioni consistenti, può essere responsabile di manifestazioni eutrofiche ed ipertrofiche nelle acque superficiali. Data la sua importanza nel condizionare il funzionamento degli ecosistemi acquatici, esso è incluso nella lista dei cosiddetti macrodescrittori utilizzati per definire lo stato chimico delle acque fluviali e lacustri e per valutare, lo stato trofico delle acque. La determinazione del fosfato viene comunemente effettuata utilizzando l’analisi spettrofotometrica dell’eteropoliacido fosfomolibdico formatosi in seguito alla reazione con molibdato in ambiente acido ed in presenza di idoneo riducente. Tuttavia questo, metodo ampliamente utilizzato, consente la determinazione del singolo analita e non consente quindi la caratterizzazione chimica del campione. La cromatografia ionica, invece, presenta il vantaggio di essere una tecnica multi-elementare che consente di determinare in breve tempo tutti i costituenti maggiori disciolti nelle acque. In questo rapporto tecnico viene descritta la determinazione del fosfato e dei costituenti maggiori nelle acque naturali utilizzando, un cromatografo Thermo Scientific Dionex ICS 5000+, equipaggiato con una colonna a scambio anionico “Dionex AS19 4µm”, un generatore di eluente a idrossido di potassio (KOH), un soppressore elettrochimico ed un rivelatore a cella conduttimetrica.

Test della nuova versione del datalogger GILDA: applicazione alla caratterizzazione del rumore sismico registrato in prossimità delle fumarole del vulcano Solfatara nella caldera dei Campi Flegrei
Vol. 322 (2015)

Nell’ambito del Progetto Europeo MED-SUV è in corso un’attività di aggiornamento e sviluppo dell’acquisitore digitale GILDA [Orazi et al., 2006; 2008], realizzato presso l’Osservatorio Vesuviano (INGV) e largamente impiegato nelle reti sismiche per il monitoraggio del Vesuvio [Orazi et al., 2013], dei Campi Flegrei, di Ischia e di Stromboli. Lo scopo principale di questa attività, inserita nel Work Package 2 del progetto MED-SUV (WP2), è favorire lo sviluppo di avanzati sistemi di monitoraggio, permettendo la realizzazione di reti dense di strumenti geofisici, relativamente a basso costo. Inoltre, un acquisitore con elevate prestazioni e costi contenuti può favorire la costituzione di un parco strumentale mobile utile per esperimenti e anche per progetti di cooperazione con paesi in via di sviluppo. Uno schema dei consumi in diverse condizioni di operatività dell’acquisitore GILDA è riportati nella Tabella 1, da cui si evince che nel caso di una configurazione con 4 canali attivi con frequenza di campionamento di 100 Hz il consumo è al di sotto di 850 mW. In queste stesse condizioni di operatività il livello di rumore elettronico intrinseco dello strumento, che è dotato di un ADC a 24 bit, è di circa 320 nV. Le attività previste nell’ambito del progetto MED-SUV sono finalizzate alla realizzazione di una nuova versione dello strumento, in cui saranno perfezionati alcuni aspetti. In particolare, la nuova versione prevede un’ulteriore ottimizzazione dei consumi, grazie ad una migliore gestione dell’alimentazione del modulo GPS, per la temporizzazione dei dati, che porterà ad un risparmio di circa 110 mW, e migliori funzionalità per l’utilizzo della stazione in modalità stand alone. Allo stato, questo secondo aspetto è stato già implementato e la versione attuale del datalogger è stata installata dal 10 al 19 Novembre 2014 ai Campi Flegrei, per una applicazione sperimentale. L’esperimento è finalizzato al test della attuale versione dell’acquisitore GILDA, in configurazione multi scheda e per l’acquisizione di dati multiparametrici. Un secondo obbiettivo dell’esperimento è la caratterizzazione dei segnali sismici generati dalle fumarole della Solfatara di Pozzuoli per ottenere informazioni indirette sullo stato di attività del sistema idrotermale dei Campi Flegrei [Chiodini et al., 2001] e per eventuali confronti con i dati geochimici raccolti sulle stesse fumarole. Il test site è la fumarola “Bocca Grande” del vulcano Solfatara (Fig. 1).

Modellazione tridimensionale di edifici mediante tecnologia laser a scansione terrestre
Vol. 321 (2015)

Negli ultimi anni i sistemi laser a scansione terrestre (TLS) sono divenuti sempre più soventemente strumenti utili al monitoraggio: sia di fenomeni di dissesto come frane e problemi di stabilità di versante, ma anche per il monitoraggio di aree crateriche dei vulcani o di caldera. Sono frequenti le applicazioni nelle cave o nelle saline per il monitoraggio dei volumi di materiale estratto. Sono state effettuate applicazioni per lo studio e la geo-referenziazione della struttura complessa delle grotte, il monitoraggio per la stabilità delle dighe o dei ponti, lo studio dell’evoluzione del corpo dei ghiacciai e dei fenomeni di dissesto a questi associati [http://www.microgeo.it/LaserScanner/applicazioni-laser-scanner-3d.php; Fantini, 2015; Zogg et al., 2008; Shen-En Chen, 2012; Alba et al., 2006; Bauer, 2003; Bauer et al., 2005; Micheletti et al., 2014]. L’evoluzione della moderna tecnologia vede laser sempre più potenti e sicuri per l’occhio umano, l’implementazione di sistemi con memorie a stato solido di dimensioni pari a diverse decine di Giga byte, schermi integrati a cristalli liquidi dotati di tecnologia touch screen in grado di comandare in maniera user friendly la strumentazione. I moderni firmware consentono la visualizzazione dell’oggetto in esame già in fase di rilievo. Infine la portata può raggiungere e superare i 3 Km per i sistemi very long range [Pesci et al., 2011; Abmayr et al., 2005], mentre la frequenza di acquisizione supera il milione di punti al secondo per i sistemi laser utilizzati tipicamente in ambito architetturale. Nel campo dell’industria meccanica e automobilistica sono stati implementati laser a scansione terrestre triangolatori che funzionano in virtù della tecnica dell’intersezione in avanti e che sono in grado di raggiungere delle precisioni di alcune decine di µm. Inoltre, meritano menzione i sistemi laser 3D a luce strutturata [Pesci et al., 2011; Abmayr et al., 2005], che consentono la modellazione di piccoli oggetti con precisioni estreme come quelle già citate. Fra i più vasti settori di applicazione della tecnologia TLS vi è tuttavia, il rilievo morfologico e la modellazione 3D degli edifici sia storici che moderni [Casula et al., 2009; Costanzo et al., 2015; Casula et al., 2015]. Nel caso di antiche costruzioni è sempre necessaria una preliminare ricerca storica finalizzata alla ricostruzione stratigrafica degli interventi di restauro, seguita poi da indagini in laboratorio per l’analisi delle caratteristiche petrografiche, granulometriche e compositive dei materiali compositi utilizzati per la costruzione degli edifici stessi [Casula et al., 2009; Costanzo et al., 2015; Casula et al., 2015; Doglioni, 1997]. Per quanto riguarda i fabbricati moderni, le cui tipologie costruttive vanno dalle murature animate al calcestruzzo animato, hanno forme architettoniche meno travagliate, ma comunque per l’analisi dello stato di conservazione delle murature è sempre necessario applicare diverse tecniche d’indagine sia distruttive che non distruttive (NDT) per studiare come evolve l’usura nel tempo dei materiali da costruzione, come previsto dalla legislazione [Casula et al., 2009; Costanzo et al., 2015; Casula et al., 2015]. Nel caso del monitoraggio degli edifici oltre che per la realizzazione di piante e sezioni utili ai tecnici per la progettazione o la variazione di uso degli edifici stessi, la tecnologia TLS costituisce un metodo utile per la realizzazione di test non distruttivi atti alla verifica strutturale di elementi portanti dei manufatti analizzati come: pareti, pilastri portanti, solai e pavimentazioni. Esistono infine, applicazioni per grandi opere, dov’è necessario l’utilizzo di sistemi laser montati su veicoli o su droni [Girelli, 2007; Doglioni, 1997]. All’evoluzione strumentale corrisponde uno sviluppo altrettanto importante del software e dell’hardware per la restituzione del dato. I computer consentono, allo stato attuale, l’installazione di memorie di massa con volumi di dimensioni di diverse decine di Tera byte. I processori dei moderni calcolatori sono dotati di core con più CPU (central processing unit) integrate e persino i processori grafici sono dotati di più processori e memorie pari a 6 Giga byte con frequenze di clock elevate. Tra i più noti software object oriented per Graphic User Interface (GUI), abbiamo il pacchetto JRC 3D Reconstructor® della Gexcel (http://www.gexcel.it). Sviluppato in virtù delle più moderne e veloci versioni del compilatore Microsoft Visual C++, tale software consente sia di effettuare in maniera grafica interattiva l’analisi del dato TLS, sia di interfacciarsi con ambienti AutCAD©. “La maggior parte delle attività descritte in questo lavoro sono state finanziate con fondi del progetto PON01_02710 MASSIMO-Monitoraggio in Area Sismica di Sistemi Monumentali”. Il progetto PON MASSIMO nasce con la prerogativa di produrre uno strumento dedicato alla tutela di strutture a valenza storico – artistica. Questo avviene attraverso un percorso di catalogazione, analisi del bene inteso come elemento costituito da elementi resistenti e da materiali, ubicazione e studio del sito della struttura, attività di monitoraggio dove le variabili che definiscono il livello di affidabilità e di esposizione possano essere aggiornate periodicamente in funzione degli eventi che si susseguiranno negli anni e del fisiologico impoverimento dei materiali presenti.  
Il progetto ha come principale obiettivo quello di fornire un software di controllo del patrimonio storico, basato sull’acquisizione di dati provenienti da strutture e siti opportunamente monitorati, in grado di produrre risultati utili già nella fase di acquisizione minima dei dati. Inoltre, sarà concepito in modo da ridurre fortemente le attività decisionali legate alle interpretazioni soggettive dei tecnici. Ovviamente, tale software di gestione sarà opportunamente validato su due edifici prototipo, scelti dall’analisi di quanto è già stato eseguito sul territorio in termini di identificazione e catalogazione, secondo gli standard nazionali, delle strutture architettoniche e dei beni culturali del patrimonio Calabrese come ad esempio il complesso monumentale di Sant’Agostino a Cosenza. In questo lavoro sono descritte, le procedure di acquisizione ed analisi del dato TLS nell’ambito del progetto PON MASSIMO, nell’area di convergenza sita nel territorio della Regione Calabria, mediante strumento TLS di tipo architettonico Z+F 5010c®; inoltre verrà illustrato il processo di elaborazione dei dati tramite il potente pacchetto software Reconstructor®. Questo ci fornirà la possibilità di ottenere modelli 3D che serviranno come base per la pianificazione di altri test NDT.

Progetto di infittimento della rete permanente GPS RING nell’area del Pollino (Basilicata-Calabria)
Vol. 320 (2015)

La catena del Pollino è una morfostruttura con direzione N120° formata da rocce carbonatiche del mesozoico collocata geograficamente al confine tra Lucania e Calabria; infatti il confine calabro lucano separa le strutture sedimentarie dell’Appennino meridionale dalle unità metamorfiche dell’arco calabro (fig. 3). L’area del Pollino è da tempo nota in letteratura per l’assenza di forti terremoti storici (M>6.0) [Rovida et al., 2011] che caratterizzano invece la fascia di sismicità che segue le massime elevazioni dell’Appennino meridionale e la Calabria [D’Agostino et al., 2011]. Questa caratteristica, insieme alle evidenze paleosismologiche di tettonica attiva, ha suggerito che quest’area costituisse quindi un “gap” sismico [Cinti et al., 1997; Michetti et al., 1997] in cui la deformazione accumulata non è stata rilasciata in tempi sufficientemente prossimi a noi per essere conservata nei documenti storici. Studi più recenti [Sabadini et al., 2009] hanno proposto, sulla base di dati InSAR e misure episodiche GPS, un comportamento per creeping transiente della faglia del Pollino con velocità di slip localmente maggiori della sua velocità (geologica) a lungo-termine. Da tutto ciò la necessità di avere a disposizione dati GPS in continuo con l’obiettivo di verificare l’ipotesi di comportamento a regime transiente della faglia del Pollino, definirne lo stato di deformazione ed analizzarne le implicazioni in termini di potenziale sismico.

Telerilevamento speditivo mediante laser scanning e moderne tecniche di fotogrammetria digitale
Vol. 319 (2015)

Recenti sviluppi delle tecniche di telerilevamento hanno dato luogo da un lato alla realizzazione di strumenti laser a scansione concepiti per misure a breve, media e lunga distanza con chiare peculiarità osservazionali, affidabilità e comodità di utilizzo, dall’altro a tecniche fotogrammetriche innovative caratterizzate da una grande precisione e da un elevato livello di automazione del processo di generazione del modello geometrico tridimensionale (3D). L’applicazione della tecnica laser scanning terrestre (TLS) all’analisi dello stato deformativo di edifici danneggiati da un terremoto o di versanti franosi è stata già trattata più volte nella collana dei rapporti tecnici dell’INGV [Pesci et al., 2011b; Pesci at al., 2013; Pesci et al., 2015]. I sistemi TLS si basano essenzialmente sulla possibilità di inviare impulsi laser (oppure, nel caso degli strumenti a onda continua, segnali laser modulati) e misurarne il tempo di volo (rispettivamente la differenza di fase) in modo da ottenere la distanza tra l’oggetto osservato e lo strumento. In tal modo, la scansione di un’intera superficie fisica di interesse, attuata secondo una griglia angolare calibrata, permette di ottenere modelli tridimensionali ad alta precisione e risoluzione, perciò fedeli alla realtà. Le informazioni tecniche fornite dalle case costruttrici sono generalmente chiare ed esaurienti; tuttavia, è sempre necessario realizzare esperimenti specifici al fine di caratterizzare completamente le prestazioni degli strumenti utilizzati e quindi di ottimizzare il rilievo per una massima resa in termini di risoluzione, stabilità e ripetibilità dei risultati [Pesci et al., 2011a]. Ciò è importante soprattutto in condizioni di emergenza, in cui tempi e logistica di lavoro possono essere non favorevoli; in particolare, se vincoli di sicurezza o di presenza di macerie impongono l’esecuzione del rilievo da posizioni non favorevoli, la conoscenza delle corrispondenti distorsioni introdotte nella modellazione geometrica diviene prioritaria al fine di prevenire ingenui errori di valutazione ed interpretazione dei risultati. Al giorno d’oggi, gli strumenti TLS sono generalmente portabili, veloci, altamente automatizzati e consentono di riprodurre la realtà in tempi rapidi e con costi ragionevoli (ad esempio, è spesso possibile noleggiare la strumentazione più idonea per il genere di misura programmata). Di pari passo, lo sviluppo di tecniche di visione artificiale, dovuto anche all’evoluzione della robotica, ha avuto importanti ricadute sulla fotogrammetria digitale. In particolare, la fotogrammetria Structure from Motion (SfM) permette di ottenere modelli tridimensionali densi e precisi a partire da serie di immagini digitali acquisite in piena libertà, senza uso di complessi e costosi sistemi di orientamento delle camere. Anche se la base geometrica della nuova tecnica è la stessa della fotogrammetria tradizionale (equazioni di collinearità e geometria epipolare), vi è stato un avanzamento notevole, reso possibile anche dalla potenza di calcolo oggi disponibile, che consiste nell’utilizzo di algoritmi che individuano in modo automatico o semiautomatico i punti “omologhi” sulle immagini digitali acquisite da posizioni differenti intorno alla superficie di interesse. In tal modo, è possibile individuare l’orientazione delle camere nello spazio fisico e calcolare i parametri delle equazioni fotogrammetriche necessari a trasformare i pixel delle immagini in punti nello spazio tridimensionale. Si noti che, con l’avvento della fotografia digitale, la distanza focale e i parametri di orientazione interna di una fotocamera sono di norma inclusi nei metadata delle immagini da essa fornite in qualunque formato conosciuto (JPEG, TIFF, etc.). Infine, è da notare che, per definizione, un modello ottenuto mediante SfM è foto-realistico. In questo lavoro sono messi a confronto i modelli ottenuti mediante TLS e SfM per valutare vantaggi e svantaggi di queste metodologie di rilievo nell’ottica di un monitoraggio veloce in caso di emergenza, ricollegandosi a lavori presentati precedentemente sia su questa collana, sia altrove, ad esempio Pesci et al. [2013] e Pesci et al. [2015]. In particolare, seguendo l’approccio basato sulla creazione di mappe morfologiche, verranno messi a confronto rilievi realizzati con alcune camere digitali, sia compatte che professionali, per evincerne l’affidabilità in termini di ripetibilità del risultato. È infine importante sottolineare come, in generale, nessuna tecnica di rilievo sia del tutto autosufficiente ai fini della completa descrizione dello stato deformativo di un edificio. Al contrario, la comprensione delle effettive prestazioni di un sistema di misura e l’uso di tecniche di supporto (ad esempio, stazione topografica totale nel rilievo fotogrammetrico nel caso in cui sia richiesto un modello georeferenziato) sono fondamentali per l’integrazione dei risultati nell’ambito di un progetto globale.

Taratura del magnetometro LEMI 025
Vol. 318 (2015)

Le misure delle grandezze geofisiche sono tanto più significative quanto più sono continue e sistematiche nel tempo. Pertanto gli strumenti di misura devono avere una risposta corretta, che sia anche riproducibile e stabile. In particolare gli strumenti di misura devono assicurare le tre condizioni che sono sensibilità, precisione e giustezza. Assicurare la qualità dei dati significa avere una misura quanto più veritiera possibile della grandezza fisica. Rivestendo un ruolo così importante e delicato si intuisce subito che lo strumento di misura deve essere sempre mantenuto efficiente. Ogni strumento subisce un peggioramento del proprio errore di misura con l’usura. Ma anche senza utilizzo, uno strumento può perdere le proprie caratteristiche, per il deterioramento naturale al passare del tempo. Urti, cadute, sostituzione di parti, riparazioni e/o aggiustamenti vari richiedono sicuramente una verifica della sua funzionalità. Esiste, una ragione tecnica per cui va effettuata una taratura (“calibration” in inglese) della strumentazione, a garanzia della produzione e dell’inalterabilità metrologica nel tempo. È opportuno evitare di confondere la taratura con la calibrazione (“adjiustament” in inglese): mentre la taratura è un’operazione che permette di definire le caratteristiche metrologiche di uno strumento e di capire con quale incertezza le misure sono attendibili, la calibrazione ha come obiettivo di rendere lo strumento più preciso e di migliorare la sua incertezza strumentale riducendone gli errori. La taratura, non “aggiusta” l’apparecchiatura ma valuta l’esattezza della misura e quanto le misure effettuate si discostano da quelle reali. La taratura è il procedimento di valutazione della risposta impulsiva, nel dominio del tempo, o della funzione di trasferimento, nel dominio della frequenza. Questo può avvenire, tramite un confronto di misure con uno strumento di riferimento definito campione. La calibrazione, interviene per rendere le misure strumentali esatte, modificando i parametri di controllo dello strumento. È una procedura di misurazione accurata che permette una riduzione dell’errore di misura. Alla taratura iniziale di una strumento può seguire una operazione di calibrazione con una successiva verifica degli errori attraverso una nuova taratura di controllo. Il magnetometro LEMI-025 è uno strumento di buone caratteristiche utilizzato per le misure del campo magnetico terrestre negli osservatori geomagnetici. È attualmente utilizzato presso l’osservatorio di Duroni (CB) e diverrà presto uno strumento di riferimento e verrà installato anche negli altri osservatori geomagnetici italiani: Castello Tesino (TN), Lampedusa (AG).

Algoritmi di Change Point Analysis delle serie temporali: il tremore vulcanico registrato sul vulcano Etna come caso di studio
Vol. 317 (2015)

Il presente studio ha lo scopo di illustrare l’applicazione della metodologia della change point analysis (CPA) alle serie temporali relative al tremore vulcanico registrato sul vulcano Etna, e impiegate per le attività di sorveglianza e monitoraggio. La CPA consiste nella progettazione di tecniche per il rilevamento automatico (detection) dei cambiamenti di stato durante l’osservazione di un processo. L’analisi tiene conto di due caratteristiche fondamentali che sono la tempestività dell’individuazione e la limitata occorrenza di falsi allarmi [Tartakovsky et al., 2014], la cui quantificazione viene definita in base al contesto di applicazione. La classificazione circa lo stato del processo si basa su delle caratteristiche (misurabili) che nel tempo formano una sequenza di osservazioni (serie temporali, se si tratta di misure quantitative). Nella maggior parte delle applicazioni, i sensori costituiscono un ruolo centrale perché sono gli agenti incaricati alla produzione delle osservazioni temporali. Nel caso della CPA, l’oggetto di maggiore interesse risulta la detection del cambiamento di stato da “normale” ad “anomalo”. Fintanto che la sequenza di osservazioni suggerisce che il processo risulti in uno stato di normalità, si lascia continuare; se invece si ritiene che qualcosa sia cambiato, l’obiettivo è quello di rilevare il cambiamento in maniera tempestiva, in modo da concedere il tempo adeguato, a chi di competenza, per la valutazione di un’azione, come ad esempio la sospensione del processo o l’innesco di un allarme. Storicamente, la CPA iniziò ad emergere intorno agli anni ‘30, nel dopoguerra, in riferimento al controllo della produzione industriale, attraverso lo studio di un tipo di grafico noto come carta di controllo o Carta di Shewhart delle medie [Shewhart, 1931]. Questo tipo di grafico riporta semplicemente una linea centrale che rappresenta il valore attorno al quale le misurazioni della caratteristica del processo dovrebbero presentarsi nelle condizioni naturali. Successivamente, l’applicazione della CPA si è estesa su diversi campi, nella maggior parte dei casi per lo sviluppo delle reti di sensori e delle relative tecnologie, come ad esempio: nella sorveglianza dell’ambiente [e.g., Ortner and Nehorai, 2007], nell’ambito della meteorologia per l’analisi delle variazioni dei dati climatici [e.g., Tomozeiu et al., 2000; Reeves et al., 2009], nell’analisi dei segnali biomedici [e.g. Gustafson et al., 1978], nell’analisi delle serie temporali dei mercati finanziari [e.g. Andreou and Ghysels, 2002], nel rilevamento delle intrusioni in reti di computer e sistemi di sicurezza [e.g. Tartakovsky et al., 2013], o nel monitoraggio del traffico stradale [e.g. Grossman et al., 2005]. In questa sede si applica la CPA per lo studio e l’identificazione di cambiamenti dello stato del vulcano sulla base di variazioni nelle serie temporali sismo-vulcaniche. Per l’analisi di interesse, le metodologie utilizzate sono il calcolo della cumulative sum (CUSUM) descritto da Taylor [2000] e la “One Pass Concept Change Detection for Data Streams” di Sakthithasan et al. [2013], di seguito riferita come SeqDrift. La prima tecnica si presta meglio per l’analisi storica delle serie temporali, in quanto si basa su informazioni calcolabili solo a posteriori (come ad es. la media della serie); mentre la seconda è stata implementata in modo da analizzare in maniera efficace ed efficiente dati di tipo stream ovvero dati acquisiti in real-time e near realtime, attraverso il concetto di finestra mobile (sliding window). Entrambe le tecniche appartengono alla classe dei metodi non-supervisionati. Di seguito verranno proposti alcuni casi di studio, riguardanti l’analisi di serie temporali di RMS (Root Mean Square) calcolate sul segnale sismico allo scopo di individuare i cambiamenti da uno stato di normalità (steady state) ad uno stato di anomalia. Sarà prestata particolare attenzione all’analisi sperimentale di SeqDrift, in quanto ha fornito risultati più attendibili ai fini del monitoraggio vulcanico.

Sviluppo di un sistema strumentale per il rilievo speditivo della temperatura su superfici esposte
Vol. 316 (2015)

In un’area vulcanica attiva la presenza di superfici con temperature superiori rispetto alla norma locale è determinata dal flusso di calore prodotto in profondità. Un elevato flusso di calore orientato verso la superficie è la risultante di più processi naturali che tendono a controbilanciare gli elevati gradienti fisici (di pressione e temperatura) e chimici (differenze di composizione) inevitabilmente presenti fra il corpo magmatico e l’ambiente circostante. Il rilievo delle anomalie termiche di superficie dovrebbe suscitare quindi interesse scientifico, offrendo la possibilità di monitorare nel dettaglio uno dei parametri che ci permette di finalizzare un modello del sistema in esame, per la corretta interpretazione dei fenomeni naturali connessi all’attività magmatica ed idrotermale. Oltre alla finalità scientifica, il rilievo delle temperature di superficie in un’area vulcanica è una procedura utile per rispondere tanto a questioni legate alla sorveglianza vulcanica, quanto alla fruizione delle aree a scopo turistico. Spampinato et al. [2011] hanno pubblicato una revisione degli strumenti utilizzati in ambienti vulcanici per il rilievo delle temperature. Riportando diversi esempi in bibliografia la revisione ha posto l’attenzione sulla varietà di fattori che concorrono a sottostimare sensibilmente le temperature di superficie, rispetto alla reale condizione termodinamica del sistema quando si scelgono metodologie di remote sensing. Fra i diversi fattori si citano ad esempio effetti atmosferici di rifrazione e riflessione, presenza di aerosol, gas e vapore vulcanico lungo il cammino ottico dalla superficie al sensore, eterogenea distribuzione della temperatura all’interno del singolo pixel.
Figura 1. Foto scattata durante il test effettuato nel campo fumarolico di alta temperatura sul cono attivo della Fossa di Vulcano. Il presente Rapporto Tecnico descrive un sistema strumentale, denominato Pirogips, dedicato all’acquisizione speditiva di dati termici di superficie [Diliberto et al., 2014]. Rispetto ad una telecamera ad infrarosso questa strumentazione risulta meno costosa, e di più facile utilizzo in prossimità di bocche esalative. La funzionalità ed operatività del sistema sono state testate mediante specifici test effettuati sia in ambienti controllati, sia in condizioni reali di acquisizione. Pirogips associa un sensore all’infrarosso ad un rilevatore di posizione satellitare ed è stato realizzato per consentire un rilievo di temperatura con caratteristiche intermedie, in termini di accuratezza della temperatura misurata e risoluzione areale, rispetto ai metodi di acquisizione diretta della temperatura con sensore termico di contatto (termocoppia) e di acquisizione indiretta, ottenuta attraverso il telerilevamento prossimale con il sensore ottico montato su telecamera. Il sensore del pirometro offre una risoluzione spaziale adeguata alla elevata variabilità areale
della temperatura delle emanazioni fumaroliche. L’accuratezza è stata testata su diverse superfici esposte ed è risultata accettabile per la identificazione delle anomalie termiche di superficie in aree vulcaniche. Un datalogger preparato nel laboratorio elettronico di Palermo combina i parametri acquisiti e restituisce una stringa di dati per la visualizzazione su mappe georeferenziate. I dati registrati sono la posizione (latitudine e longitudine, WGS84), temperatura (derivata dal pirometro e/o da una termocoppia), temperatura ambiente, pressione barometrica e umidità dell’aria. I rilevi preliminari sono stati effettuati per verificare se le caratteristiche strumentali di Pirogips risolvono le problematiche derivanti dalla disomogeneità del terreno da rilevare. In particolare nel presente lavoro i dati riportati non sono stati rilevati lungo maglie geometriche, ma sono rilievi effettuati lungo percorsi predefiniti (strade e/o sentieri naturali). L’utilizzo di Pirogips consente di ridurre notevolmente i tempi del rilievo di temperatura superficiale, rispetto all’acquisizione del parametro con metodo di contatto. L’uso di Pirogips inoltre aumenta la possibilità di identificare anomalie termiche intense, ma poco estese, in quanto l’accuratezza del rilievo è determinata dalla posizione rispetto al piano di campagna (lente perpendicolare al piano e distanza inferiore ad 1 metro).

Determinazione della composizione isotopica del carbonio inorganico totale disciolto in campioni naturali attraverso tecnica CF-IRMS accoppiata ad un GasBench II
Vol. 315 (2015)

Lo studio dei rapporti isotopici fornisce informazioni in diversi settori scientifici, come in campo ambientale, medico, farmaceutico ecc.. Il carbonio totale presente nelle acque naturali è il risultato della somma della frazione inorganica di carbonio (TDIC) e di quella organica (TOC). Nelle acque naturali il TOC, che deriva dalla trasformazione della sostanza organica costituita prevalentemente da acidi fulvici e umici, viene spesso utilizzato come un indicatore non specifico della qualità dell’acqua. La somma delle specie carbonatiche inorganiche disciolte in soluzione H2CO3aq o CO2aq, HCO3− e 2− CO3 formano il TDIC. Il TDIC è quindi dato dalla seguente espressione: CTDIC = [CO2*] + [HCO3−] + [CO32−]
(1) dove: CTDIC è il carbonio inorganico totale disciolto [CO2*] è la somma delle concentrazioni di anidride carbonica e dell’acido carbonico [CO2aq]+ [H2CO3aq]; [HCO3−] è la concentrazione di ioni bicarbonato; [CO32−] è la concentrazione di ioni carbonato; Nella geochimica delle acque la determinazione del TDIC e della sua composizione isotopica (δ13CTDIC) è molto importante, perché rappresenta il risultato di complessi processi di interazione acquaroccia-gas e trova applicazione in studi per la caratterizzazione e l’individuazione di aree anomale di degassamento. Lo studio dei gas disciolti nelle acque, è stato utilizzato con successo in prospezioni geochimiche per risolvere problemi idrogeologici, geotermici e minerari. Italiano et.al., [2009] attraverso lo studio del δ13CTDIC insieme ad altri parametri chimici e fisici hanno dimostrato l’esistenza di un area di degassamento attivo presente su una vasta area sismica nelle Alpi meridionali (Friuli Regione, NE Italia). Chiodini et al., [1999] dai bilanci di massa sui valori di TDIC e sui valori di δ13CTDIC determinati nelle acque dei principali acquiferi carbonatici degli Appennini dell’Italia centrale, hanno determinato e quantificato l’apporto di CO2 di origine profonda proveniente dal mantello e originata dal termometamorfismo di rocce carbonatiche. In campo vulcanologico lo studio di variazioni temporali osservati del δ13CTDIC in alcune acque geotermiche di Ischia, è stato riconosciuto come significativo per la sorveglianza vulcanica dell’isola stessa [Caliro et al., 1999]. L’anidride carbonica è, dopo il vapore acqueo, il principale costituente gassoso dei gas vulcanici ed al contrario della maggior parte di gas emessi è caratterizzato da una elevata solubilità in acqua (circa 866 cc/l a T = 25°C e P = 1 atm) che genera forme ionizzate. Questi aspetti fanno si che in corrispondenza di aree vulcaniche attive si rinvengono acque particolarmente ricche in specie carbonatiche, generalmente CO2aq, HCO3-, classificate come “peripheral waters” da Giggenbach, proponendole come possibili indicatori di un attività vulcanica e/o sismica. Negli ultimi anni sono stati messi a punto metodi analitici rapidi per la determinazione sia della composizione isotopica che della concentrazione del TDIC, su campioni acquosi, mediante estrazione della CO2 con sistemi automatici di acidificazione accoppiati a spettrometri di massa CF-IRMS [Capasso et al., 2005; Oliveri et al., 2013]. Il metodo analitico introdotto da Capasso et al., [2005] per la determinazione del δ13CTDIC è basato sull’acidificazione del campione con acido orto-fosforico (H3PO4) al 100% e successiva determinazione tramite tecnica IRMS. La strumentazione utilizzata da Capasso et al., [2005] comprende uno spettrometro di massa a flusso continuo di He “AP2003” connesso ad un sistema automatizzato “Carbonate Prep System” entrambi della Analytical Precision Ltd. Sia lo spettrometro di massa AP2003 che il Carbonate Prep System sono stati da qualche anno sostituiti in commercio con strumenti più sensibili ed efficienti, questo ha portato a nuove standardizzazioni nelle metodiche analitiche di determinazione del δ13C, δ18O e δD. Uno degli ultimi ritrovati in campo analitico per le analisi del δ13C in campioni solidi e acquosi è il sistema di preparazione Thermo Scientific GasBench II associato allo spettrometro Thermo Scientific Delta V a flusso continuo di He. Il GBII/Delta V ha apportato delle variazioni nelle procedure di analisi automatizzando sempre più le operazioni analitiche, riducendo i tempi di lavoro ed introducendo al tempo stesso una maggiore sensibilità strumentale legata ad un alta flessibilità e versatilità. Con questo nuovo
strumento le determinazioni del δ13C e del δ18O in campioni solidi possono essere svolte con circa 10ug di campione rispetto al mg di campione richiesto in passato. Il cambiamento tecnologico con l’utilizzo di nuove metodologie ha portato ad un aggiornamento delle tecniche analitiche al fine di acquisire degli standard di laboratorio sempre più alti in conformità con le attuali linee di ricerca. Il seguente lavoro ha lo scopo di applicare la metodologia utilizzata da Capasso et al., [2005] al Thermo Scientific GasBench II / Delta V. La metodologia è stata testata con alcune soluzioni di NaHCO3 in polvere a composizione isotopica nota e su alcuni campioni di acque naturali. Gli strumenti utilizzati e le prove effettuate sono state svolte presso i laboratori analitici dell’Istituto Nazionale di Geofisica e Vulcanologia della sezione di Palermo.

Metodologia per la preparazione, attraverso disidratazione, dell’acido orto fosforico (85%)
Vol. 314 (2015)

L’acido orto-fosforico (H3PO4) è un acido triprotico i cui tre atomi di idrogeno sono acidi. Si trova comunemente in soluzione acquosa al 75-85% (le più comuni) che risulta limpida, incolore, inodore e scarsamente volatile. A causa dell’alta percentuale di acido fosforico, spesso alcune molecole sono condensate in acidi polifosforici in quantità dipendente dalla temperatura, ma, per semplicità, l’85% rappresenta solo H3PO4. Quando soluzioni di acido fosforico o fosfato sono diluite, esse raggiungeranno l’equilibro quando tutte le unità fosfate o fosforiche saranno nella forma orto. Può essere prodotto sia per azione di un acido forte (ad esempio acido solforico, acido nitrico o acido cloridrico) su rocce e minerali fosfatici, come per esempio l’apatite Ca5(PO4)3[F, OH, Cl], oppure per reazione diretta tra fosforo bianco e ossigeno per ottenere anidride fosforica P2O5, la cui successiva e progressiva idratazione forma acido meta fosforico (monoidrato), acido piro-fosforico (bi-idrato) e acido orto fosforico (tri-idrato). La formula di struttura dell’acido ortofosforico è la seguente:
Generalmente viene utilizzato nella produzione di detergenti, fertilizzanti fosfatici ed è inoltre una materia prima per la produzione di composti anti-ruggine. Trova infine impiego come additivo nell’industria alimentare, in special modo nelle bevande, come correttore di acidità. Nei laboratori di geochimica isotopica viene utilizzato nelle metodologie analitiche per la determinazione della composizione isotopica dell’ossigeno e del carbonio in rocce carbonatiche e per la determinazione della composizione isotopica del carbonio totale disciolto (TDIC) nelle acque naturali [Capasso et al., 2005]. In queste metodologie l’acido orto-fosforico é preferito ad altri acidi, come per esempio l’acido cloridrico, perché possiede una tensione di vapore più bassa, limitando la presenza di vapori acidi nel campione gassoso da introdurre allo spettrometro di massa. Tuttavia, le procedure standard per le analisi isotopiche prevedono che l’acido orto-fosforico sia al 100% [Duhr et al., 2008] in quanto la presenza di molecole di acqua nell’acido influirebbe sul valore isotopico dell’ossigeno dei carbonati, alterandone il risultato analitico. Visto che l’acido orto-fosforico reperibile in commercio arriva al massimo all’85% in volume si ha l’esigenza di eliminare il 15% di acqua presente. La procedura che più comunemente si utilizza per ottenere un acido anidro al 100% è basata sull’aggiunta di anidride fosforica all’acido orto-fosforico all’85%, fino a raggiungere la saturazione. Tuttavia, la diffusione degli spettrometri di massa a flusso continuo di elio (CF-IRMS) e il conseguente sviluppo di moduli automatici per l’acidificazione dei campioni, ha reso poco idoneo il metodo dell’aggiunta. Infatti, l’eventuale presenza di particelle solide di anidride fosforica che non hanno reagito con l’acido, può provocare un’ostruzione dei capillari attraverso i quali passa l’acido, con conseguente danneggiamento della pompa del dispenser. Per ovviare a questo inconveniente, nei laboratori della Sezione di Palermo dell’INGV è stato messo a punto un procedimento alternativo di produzione di acido orto-fosforico anidro. Questo metodo si basa su un processo di disidratazione dell’acido mediante evaporazione a temperatura controllata, in condizioni di basso vuoto (10-3 mbar). Le condizioni anidre sono verificate mediante misura della densità della soluzione fino al raggiungimento del valore teorico dell’acido orto-fosforico al 100%.
In questo rapporto tecnico vengono descritte in dettaglio le attrezzature, le procedure metodologiche e di controllo utilizzate per la disidratazione completa dell’acido orto-fosforico 85%.

Progettazione e realizzazione del portale web istituzionale e del logotipo della Rete Integrata Nazionale GPS (RING) dell’INGV
Vol. 312 (2015)

Il progetto CESIS (Centro per la Sismologia e l’Ingegneria Sismica), finanziato dal Ministerodell’Università e della Ricerca (Legge 488/92), oltre a prevedere la realizzazione di una nuova sededell’Istituto Nazionale di Geofisica e Vulcanologia (INGV) a Grottaminarda, aveva come obiettivo ilpotenziamento della Rete Sismica Nazionale nel centro-sud Italia attraverso l’installazione di 60 nuovestazioni di monitoraggio multi-parametriche costituite da sismometro, accelerometro e ricevitore GPS diprecisione. Grazie anche ai finanziamenti ricevuti per questo progetto, verso la fine del 2004, l’INGV avviòla realizzazione di una rete di stazioni GPS permanenti a scala nazionale, sia integrando le esperienzepreesistenti nelle diverse sedi INGV che sviluppando una strategia triennale di nuove installazioni. Nacquecosì la Rete Integrata Nazionale GPS (RING) caratterizzata dalla co-localizzazione di strumentazionesismica e GPS. In particolare, nelle stazioni furono installati sismometri a banda larga o larghissima (40 sec÷ 240 sec) e accelerometri strong motion, insieme a ricevitori GPS. L’obiettivo principale consisteva nelcontribuire ad aumentare le conoscenze relative alla cinematica e alla tettonica attiva del territorio italiano,puntando soprattutto sulla condivisione delle esperienze lavorative dei vari gruppi di lavoro in particolaredelle sezioni di Napoli, Catania, Bologna, Roma e Grottaminarda dell’INGV [Avallone et al., 2010]. Oggi laRING è una rete multisensoriale dotata di sistema di trasmissione in tempo reale costituita da più di 170stazioni dislocate in tutta la penisola (si veda Fig.1) e con maggiore densificazione nelle aree sismogenetichepiù importanti. Il presente rapporto tecnico descriverà le tecnologie software utilizzate per la realizzazionedel portale web istituzionale della rete RING.

Esperimento DIONYSUS: Deep structure of the IONian Sea and east SicilY: wide-angle seismic SUrvey of the Calabria Subduction zone and Tethys margins. Il contributo dell’Istituto Nazionale di Geofisica e Vulcanologia
Vol. 311 (2015)

Durante il mese di ottobre 2014 si è svolta nel Mar Ionio una campagna oceanografica franco-tedescadenominata DIONYSUS, acronimo di “Deep structure of the IONian sea and east sicilY : wide-angleseismic Survey of the calabria Subduction zone and tethys margins”, organizzata dal personale degli Istitutifrancesi del Laboratoire Domaines Océaniques1 (LDO) dell’Institut Universitaire Européen de la Mer2(IUEM) e dell’Institut français de recherche pour l’exploitation de la mer3 (Ifremer) e tedeschi di GEOMARHelmholtz Centre for Ocean Research Kiel4. All’esperimento ha contribuito anche l’Istituto Nazionale diGeofisica e Vulcanologia (INGV) nella fase propositiva del progetto e in seguito nella realizzazione dellacampagna sismica per la parte di acquisizione a terra.Lo scopo della crociera DIONYSUS era di condurre un’indagine dettagliata del margine attivo del sudItalia, tra la Calabria e la Sicilia Orientale, una regione colpita più volte da terremoti e tsunami distruttivi; tratutti ricordiamo il devastante terremoto del 1908 a Messina. L’esperimento era finalizzato all’acquisizione diprofili sismici a rifrazione/riflessione a grande angolo nel Mare Ionio meridionale per l’imaging della crostaprofonda e della Moho lungo il prisma di accrezione calabro e la Scarpata Ibleo-Maltese.In questo rapporto tecnico, dopo un breve riferimento relativo al progetto DIONYSUS, verrà descrittocon maggior dettaglio il coinvolgimento dell’INGV, dalla fase di preparazione e realizzazione dellacampagna sismica a terra svoltasi in sinergia con I colleghi francesi e tedeschi sino alla predisposizione e ladistribuzione del dataset acquisito. Per maggiori dettagli relativi al progetto, alla campagna sismica e aiprimi risultati preliminari, consigliamo di riferirsi al rapporto dedicato della crociera “M111” [Kopp et al.,2014].Vista la collaborazione con altri istituti di ricerca stranieri, in allegato è riportato in inglese un breveriassunto del lavoro e le schede stazioni.

Determinazione in continuo di CO2, CH4 e H2Ov in ambiente atmosferico attraverso tecnica ad assorbimento laser (UGGA)
Vol. 310 (2015)

Molti dei composti chimici presenti nell’atmosfera terrestre prendono il nome di “gas serra”. Questespecie gassose consentono alla radiazione solare di entrare liberamente nell’atmosfera e di trattenere partedella radiazione solare riflessa dalla superficie terrestre come energia termica. Nel corso del tempo siinstaura un complesso equilibrio termico tra la quantità di energia inviata dal sole e quella irradiata dallasuperficie. L’alterazione di questo equilibrio, con l’aumento di uno o più gas serra in atmosfera, porta a deglisquilibri termici e un conseguente innalzamento delle temperature. Questo fenomeno è definito come“effetto serra”. I principali gas serra in natura che prendono parte a questo fenomeno sono: vapor d’acqua(H2Ov), anidride carbonica (CO2), metano (CH4), e ossido nitroso (N2O).Il vapore acqueo è il più potente gas serra ed è responsabile per circa due terzi dell’effetto serranaturale. Il secondo gas serra più importante è l’anidride carbonica. Il suo contributo è responsabile per il 5 20% dell’effetto serra naturale ed è la causa principale dell’effetto sera accelerato essendo il più emessoattraverso attività umane, difatti la sua concentrazione in atmosfera è aumentata del 142% dal livello pre–industriale al 2013 [WMO Greenhouse Gas Bulletin, n° 10: 06 November 2014].Il terzo gas serra più importante è il metano. Anche se possiede un tempo di residenza in atmosferabreve e una concentrazione atmosferica bassa, è una molecola estremamente efficiente nell’assorbire ilcalore ed è responsabile per circa 8% dell’effetto serra, con picchi del 20% [G. Etiope et. Al.,2008]. Laconcentrazione di metano in atmosfera è aumentata di 772ppb (parti per miliardo) dal periodo pre-industrialefino al 2013 [WMO Greenhouse Gas Bulletin, n° 10: 06 November 2014]. L’ossido nitroso ha unaconcentrazione atmosferica molto limitata ma un efficienza nel trattenere il calore molto elevata, circa 300volte quella dell’anidride carbonica.Come abbiamo accennato, I gas serra possono essere di origine sia naturale che antropica. Elevatequantità di vapor d’acqua e anidride carbonica vengono rilasciate ogni anno in atmosfera dai sistemivulcanici attivi, non solo durante I periodi eruttivi ma anche nei periodi di quiescenza. Emissioni naturali dimetano in atmosfera sono legati al degassamento di vulcani di fango, largamente diffusi sull’intero pianeta.Recentemente l’organizzazione mondiale Intergovernmental Panel on ClimateChangedelle NazioniUnite ha pubblicato una relazione internazionale (ICCP 2013) in cui, attraverso informazioni tecnicoscientifiche e socioeconomiche, ha valutato come il rischio del cambiamento climatico sia legatoall’emissione di gas serra (principalmente CO2, H2O(v) e CH4), stimando che la temperatura media globale delsuolo è aumentata di 0,6 ± 0.2K dalla fine del 19° secolo. L’IPCC rivela che: “c’è una nuova e più forteevidenza che gran parte del riscaldamento e dell’emissione di questi gas negli ultimi 50 anni sianoattribuibili alle attività antropiche più che alle attività naturali” [Crosson, 2008].Essendo l’effetto serra diventato un problema globale per la salute del pianeta è di fondamentaleimportanza disporre di strumentazioni analitiche per il monitoraggio di queste specie chimiche in atmosfera.Nel corso degli anni si sono utilizzate diverse tecniche analitiche per lo studio di questi gas inatmosfera al fine di capirne l’evoluzione. La tecnica più consolidata utilizzata per le misurazioni di speciegassose in atmosfera per oltre un decennio è stata la spettroscopia a raggi infrarossi non dispersiva (NDIRS).Nonostante la tecnica NDIRS abbia una buona precisione di misurazione per la maggior parte dei gas serra,questa tecnica risulta essere molto macchinosa e complessa in quanto necessita di frequenti azzeramenti ecalibrazioni allungando notevolmente I tempi di analisi. Ultimamente in commercio sono stati introdotti deinuovi strumenti molto più sensibili e precisi dei classici NDIRS. Questi strumenti, assimilabili ai vecchispettrofotometri a doppio raggio, utilizzano una particolare cavità ottica Cavity Ringdown Spectroscopy(CRDS) che oltre ad offrire una maggiore sensibilità analitica, per un ampio numero di specie gassose,riducono I tempi analitici e non richiedono particolari operazioni di calibrazione. Alcuni di questi strumentihanno come caratteristica principale, oltre la determinazione e quantificazione della specie gassosa, anche ladeterminazione della composizione isotopica, come ad esempio il Thermo Fischer Delta Ray per analisi delδ13C dell’anidride carbonica e il Picarro CRDS per l’analisi del δ13C del metano. Negli ultimi tempi questistrumenti al laser hanno esteso il loro campo di applicazione, difatti in aggiunta agli studi sulla qualitàdell’aria, vengono anche impiegati per il monitoraggio di gas naturali, rilevamento di perdite nei giacimentidi carbone e studi sui flussi di gas dal suolo [Carapezza et. Al., 2003].In questo lavoro sono state testate le potenzialità in laboratorio ed in campagna del nuovo analizzatoreUltra-Portable Greenhouse Gas Analyzer (UGGA) prodotto da Los Gatos Research (LGR).Lo strumento è basato sull’implementazione della tecnica CRDS denominata “Off-Axis ICOS” chepermette di determinare simultaneamente ed in continuo le concentrazioni di CO2, H2O(v) e CH4 inatmosfera all’interno di intervalli di concentrazioni dell’ordine dei ppm.  7  Il lavoro ha avuto l’obiettivo di studiare gli errori e I tempi analitici per la determinazione delleconcentrazioni di CO2, H2O e CH4 in atmosfera. Lo strumento è stato da prima testato in laboratorio e poi incampagna. Le analisi in laboratorio sono state svolte presso I laboratori analitici dell’Istituto Nazionale diGeofisica e Vulcanologia di Palermo. Le prospezioni sono state eseguite lungo percorsi urbani e periferici diPalermo e lungo la faglia della Pernicana, nella zona etnea, a cui sono state associate tramite un GPS (GlobalPosition System) informazioni sulle coordinate geografiche.

Stazione interferometrica INGV
Vol. 308 (2015)

Gli interferometri sono strumenti ottici di elevata sensibilità, permettono di eseguire misure di lunghezze dell’ordine del centesimo della lunghezza d’onda della luce utilizzata. Gli interferometri in fibra, che utilizzano le fibre ottiche come mezzo di propagazione della luce, se paragonati con gli interferometri ottici in aria, sono ugualmente sensibili, ma più semplici da realizzare, e questo grazie anche al notevole sviluppo che negli ultimi decenni le fibre ottiche hanno avuto nel campo delle telecomunicazioni. In questa nota si cercherà di descrivere il loro principio di funzionamento attraverso l’analisi di due importantissimi utilizzi di questi strumenti: l’esperimento di Michelson e Morley e il rilevamento delle onde gravitazionali. Verranno anche descritti i due interferometri in fibra ottica realizzati presso i laboratori di elettronica dell’INGV e i risultati ottenuti.