I dati e la loro elaborazione
I dati gravimetrici
Fasi di elaborazione
Le fasi iniziali del progetto hanno previsto una riorganizzazione del precedente archivio storico di dati, disponibile presso il Servizio Geologico d’Italia, in una più estesa e organizzata Banca Dati Geografica di tutti i dataset disponibili e delle stazioni di misura. I dati gravimetrici utilizzati provengono da diverse Fonti: ENI, OGS, USDMA (U.S. Defence Mapping Agency), Servizio Geologico d’Italia, Università.
Le gravità osservate sono riferite alla IGSN71 e le Anomalie di Bouguer sono state calcolate a densità 2.67 g/cm3 utilizzando una catena di elaborazione che prevedeva i seguenti passaggi:- determinazione dei valori di gravità teorica secondo il GRS80;
- correzione in Aria libera del secondo ordine;
- correzione di Bouguer tramite calotta sferica estesa a 166.7 km;
- correzione topografica: i DTM utilizzati per la correzione topografica sono stati i seguenti: dtm 20m IGM da 0 a 250 m; dtm 7.5" * 10" (OGS) da 250 m a 166,7 km tramite il modello digitale del terreno, realizzato da OGS specificatamente per questo progetto. La correzione topografica è comprensiva della compensazione dell’effetto della curvatura terrestre, i cui contributi sono stati calcolati con le formule di Jung (in Ehrismann et Alii,1966);
- per i dati gravimetrici marini di superficie è stata inoltre applicata la correzione di Eotvos.
Editing
Nonostante l’adozione di una "catena di elaborazione" il più possibile omogenea, applicata a partire dai valori di g osservata (riferiti alla International Gravity Standardization Net 1971), molteplici discrepanze erano presenti, imputabili alla diversa accuratezza dei dataset ed errori nei valori inseriti nei files di origine (quote, posizionamento, g osservata, valore gravità di riferimento,…).
L’editing dei dati è stato focalizzato sugli errori e conseguente "rumore" nel segnale gravimetrico evidenti alla scala di lavoro (1:250.000) ed ha cercato ove possibile di correggere tali discrepanze, limitando al minimo il numero di valori eliminati (circa 1%).
Sono stati eseguiti diversi controlli di qualità dei dati relativamente all'appartenenza al dominio geografico, alla posizione, ridondanza e duplicazione, e soprattutto controlli di attendibilità in "senso stretto", ovvero volti all'individuazione degli eventuali valori anomali delle misure, il tutto ovviamente nell’ambito della accuratezza richiesta dalla scala cartografica di progetto.
Per l’identificazione e trattamento degli errori e/o artefatti sono stati utilizzati funzionalità GIS e di cross-validazione con grids preliminari.
Il risultato ottenuto è stato un dataset omogeneo che consta di oltre 360.000 punti di misura distribuiti sia sul territorio nazionale che sui mari circostanti.
Gridding e filtraggio
Le fasi successive hanno riguardato l’interpolazione su griglia regolare tramite Kriging ed il relativo filtraggio passa basso finalizzato all’eliminazione del "rumore" di alta frequenza. Il filtraggio, seppur conservativo e di minima entità, è stato diversificato a seconda delle condizioni del rumore presente, variabile da foglio a foglio, evitando l’introduzione di effetti spuri di bordo.