Metodi rigorosi per la predizione di Modelli Digitali di Superficie



Documenti analoghi
1. Distribuzioni campionarie

E naturale chiedersi alcune cose sulla media campionaria x n

Analisi Statistica Spaziale

Automazione Industriale (scheduling+mms) scheduling+mms.


Rette e curve, piani e superfici

Corso di Matematica per la Chimica

Matematica generale CTF

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI

Analisi di dati di frequenza

Statistica. Lezione 6

Dimensione di uno Spazio vettoriale

Appunti sulla Macchina di Turing. Macchina di Turing

Programmazione dinamica

Esempio. Approssimazione con il criterio dei minimi quadrati. Esempio. Esempio. Risultati sperimentali. Interpolazione con spline cubica.

Approssimazione polinomiale di funzioni e dati

e-dva - eni-depth Velocity Analysis

Tecniche di analisi multivariata

~ Copyright Ripetizionando - All rights reserved ~ STUDIO DI FUNZIONE

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 8

Ricerca di outlier. Ricerca di Anomalie/Outlier

Piano di gestione della qualità

OSSERVAZIONI TEORICHE Lezione n. 4

Inferenza statistica. Statistica medica 1

Temi di Esame a.a Statistica - CLEF

Ing. Simone Giovannetti

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

Ottimizzazione Multi Obiettivo

Progettaz. e sviluppo Data Base

Capitolo 2 Distribuzioni di frequenza

Esponenziali elogaritmi

Esercitazione #5 di Statistica. Test ed Intervalli di Confidenza (per una popolazione)

4 Dispense di Matematica per il biennio dell Istituto I.S.I.S. Gaetano Filangieri di Frattamaggiore EQUAZIONI FRATTE E SISTEMI DI EQUAZIONI

SPC e distribuzione normale con Access

Prof. Ing. Andrea Giuseppe CAPODAGLIO. Prof. Ing. Arianna CALLEGARI

Applicazioni lineari

La distribuzione Normale. La distribuzione Normale

LEZIONE n. 5 (a cura di Antonio Di Marco)

Sistemi Informativi Territoriali. Map Algebra

Capitolo 4: Ottimizzazione non lineare non vincolata parte II. E. Amaldi DEIB, Politecnico di Milano

Istituzioni di Statistica e Statistica Economica

SVM. Veronica Piccialli. Roma 11 gennaio Università degli Studi di Roma Tor Vergata 1 / 14

( x) ( x) 0. Equazioni irrazionali

Il problema è di modellizzare tali dati geografici in modo da gestirli poi automaticamente con pacchetti software.

Analisi della performance temporale della rete

La Programmazione Lineare

Le equazioni. Diapositive riassemblate e rielaborate da prof. Antonio Manca da materiali offerti dalla rete.

Corso di Psicometria Progredito

Le strumentazioni laser scanning oriented per i processi di censimento anagrafico dei patrimoni

postulato della valutazione tramite indicatori: La valutazione di un sistema sanitario tramite indicatori ipotizza

Statistica. Esercitazione 15. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice

LE FUNZIONI A DUE VARIABILI

GESTIONE DELLE TECNOLOGIE AMBIENTALI PER SCARICHI INDUSTRIALI ED EMISSIONI NOCIVE LEZIONE 10. Angelo Bonomi

Federico Laschi. Conclusioni

IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 40: Filtro di Kalman - introduzione. Struttura ricorsiva della soluzione.

Soluzione di equazioni quadratiche

15 febbraio Soluzione esame di geometria - 12 crediti Ingegneria gestionale - a.a COGNOME... NOME... N. MATRICOLA...

Tesina di Identificazione dei Modelli e Analisi dei Dati

Capitolo 4 Probabilità

Nota sullo svolgimento delle prove INVALSI per gli allievi con bisogni educativi speciali

Metodi Computazionali

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k

Slide Cerbara parte1 5. Le distribuzioni teoriche

I Modelli della Ricerca Operativa

Esame di Stato Tema di Matematica

Sia data la rete di fig. 1 costituita da tre resistori,,, e da due generatori indipendenti ideali di corrente ed. Fig. 1

Capitolo 12 La regressione lineare semplice

1 Serie di Taylor di una funzione

OCCUPATI SETTORE DI ATTIVITA' ECONOMICA

Ottimizazione vincolata

3 CENNI DI TEORIA DELLA COMPLESSITA COMPUTAZIONALE. E. Amaldi Fondamenti di R.O. Politecnico di Milano 1

Perché si fanno previsioni?

Regressione Mario Guarracino Data Mining a.a. 2010/2011

Il sapere tende oggi a caratterizzarsi non più come un insieme di contenuti ma come un insieme di metodi e di strategie per risolvere problemi.

1. Limite finito di una funzione in un punto

General Linear Model. Esercizio

Un po di statistica. Christian Ferrari. Laboratorio di Matematica

Le funzioni continue. A. Pisani Liceo Classico Dante Alighieri A.S A. Pisani, appunti di Matematica 1

Metodi statistici per le ricerche di mercato

risulta (x) = 1 se x < 0.

VALORE DELLE MERCI SEQUESTRATE

CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI

Polli e conigli. problemi Piano cartesiano. Numeri e algoritmi Sistemi e loro. geometrica. Relazioni e funzioni Linguaggio naturale e

Esempi di algoritmi. Lezione III

Amministrazione, finanza e marketing - Turismo Ministero dell Istruzione, dell Università e della Ricerca PROGRAMMAZIONE DISCIPLINARE PER U. di A.

Algoritmi e Strutture Dati II: Parte B Anno Accademico Lezione 11

Nota interpretativa. La definizione delle imprese di dimensione minori ai fini dell applicazione dei principi di revisione internazionali

Teoria delle code. Sistemi stazionari: M/M/1 M/M/1/K M/M/S

Identificazione dei Parametri Caratteristici di un Plasma Circolare Tramite Rete Neuronale

Limiti e continuità delle funzioni reali a variabile reale

Prof. Silvio Reato Valcavasia Ricerche. Il piano cartesiano

COMUNE DI SOLBIATE ARNO

Relazioni statistiche: regressione e correlazione

Indice generale. OOA Analisi Orientata agli Oggetti. Introduzione. Analisi

SISTEMA di GESTIONE QUALITÀ Non Conformità ed Efficacia delle Azioni Correttive Preventive

Prova di autovalutazione Prof. Roberta Siciliano

11. Analisi statistica degli eventi idrologici estremi

Il concetto di valore medio in generale

MATEMATICA. { 2 x =12 y 3 y +8 x =0, si pone il problema di trovare, se esistono, un numero x ed un numero y che risolvano entrambe le equazioni.

Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R

Transcript:

Metodi rigorosi per la predizione di Modelli Digitali di Superficie Ludovico Biagi, Maria Antonia Brovelli, Marco Negretti Politecnico di Milano Campus Como; via Valleggio 11, 1 Como; tel: +39/31/33756; fax: +39/31/337519; e-mail:ludo@gemini.como.polimi.it Riassunto Nei GIS finalizzati ad analisi ambientale i Modelli Digitali di Superficie (DSM) assumono particolare rilevanza, sia per numerosità, sia per contenuto; perciò, nell ambito dello sviluppo metodologico e dell implementazione del progetto ISOLA (Biagi et al. 1998), ovvero di un GIS finalizzato ad analisi e pianificazione ambientale, si è posta l esigenza di studiare ed implementare un metodo statisticamente ottimale per la predizione di DSM a partire da osservazioni sparse. Si è studiato il Kriging Universale (UK), ritenendolo il più adatto allo scopo proposto; se ne sono quindi studiati i limiti, formalizzando un algoritmo per il loro superamento; il metodo proposto, inoltre, si presta ad un ingegnerizzazione semiautomatica, quindi fruibile anche da utenti non esperti di geomatica. Nel presente lavoro viene presentato il metodo studiato e la sua prima applicazione a dati simulati. Abstract The Digital Surface Models (DSM) assume great importance in the framework of the environmental GIS. So, within the methodological and the operative development of the ISOLA project, i.e. an environmental planning GIS (Biagi et al., 1998), the study and the implementation of a rigorous method for the DSM prediction by observation analysis are required. We have studied the Universal Kriging (UK) which, in our opinion, is the most suitable; the limits of the UK have been also analyzed and a new algorithm to overcome these is proposed. It is suitable for a semiautomatic implementation and so it can be used also by non geomatics expert users. In the paper the method and its first application to synthetic data are described. 1. Introduzione La definizione di campo viene in genere adottata per i fenomeni caratterizzati da una variazione continua o quasi continua di un attributo nello spazio: ad esempio la topografia o il valore di subsidenza di una porzione del territorio. In ambito GIS i campi vengono sempre memorizzati ed analizzati mediante Modelli Digitali di Superficie (DSM): questi, in genere, sono dati da un campionamento del campo per un certo numero di punti rappresentativi, sufficienti a descrivere con risoluzione adeguata il campo stesso; la tipologia più comune di DSM, e quella cui ci riferiremo nel lavoro, consiste nella memorizzazione dei valori del campo per una matrice regolare di punti: tale formato viene usualmente definito matrix o raster georeferenziato (Burrough, McDonnel, 1998). La ricostruzione di un DSM parte dai valori osservati del campo in punti sparsi; da tali dati si avvia un processo di interpolazione / predizione che può essere condotto mediante molti e differenti metodi alternativi; indipendentemente dal metodo adottato, il processo di interpolazione / predizione può essere scomposto in due passaggi fondamentali consecutivi: 1. la definizione analitica o parametrica e stocastica del campo;. la predizione dei valori del campo sui nodi del DSM. I risultati forniti dal primo processo dipendono ovviamente dalle osservazioni e dal metodo di interpolazione / predizione adottato: essi sono in genere trasparenti all utente, poiché il prodotto finale richiesto è quello fornito dal secondo passaggio; è il primo passaggio però che caratterizza la

bontà del metodo di interpolazione / predizione poiché dai risultati ottenuti in tale processo derivano i valori predetti e quindi l accuratezza e la consistenza dei risultati finali, che a loro volta condizionano la significatività di qualunque analisi cartografica successiva. Si distingue in letteratura (Christakos, 199) fra metodi deterministici e metodi stocastici. I primi sono quelli che impongono a priori un modello descrittivo rigido del campo da predire, senza alcuna analisi preventiva delle caratteristiche stocastiche delle osservazioni: alla classe dei metodi deterministici appartiene ad esempio la semplice interpolazione mediante media pesata sull inverso della distanza (Davis, 1986). I metodi deterministici possono generare una predizione del campo non consistente; inoltre in genere non risultano robusti rispetto alla presenza di eventuali errori grossolani (outlier) e non modellizzano gli errori di misura presenti nelle osservazioni; infine non sempre permettono un'analisi a posteriori sull'attendibilità dei valori predetti. In alternativa a tali approcci si possono adottare metodi di predizione relativamente recenti, basati sull'analisi delle proprietà stocastiche delle osservazioni a monte del processo di predizione dei dati; tale analisi serve appunto agli scopi di tarare in modo adattivo la predizione alla natura dei dati disponibili; permette inoltre un'efficace analisi di eventuali outlier e fornisce a posteriori indici di accuratezza per le quantità predette. Fra i metodi stocastici descriviamo sinteticamente il metodo del Kriging Universale (UK), che costituisce il nucleo del metodo proposto nel presente lavoro; per una trattazione e dimostrazione esaustiva dello stesso si rimanda al lavoro fondamentale di Matheron (1971). 1.1 Il Kriging Universale, i suoi limiti ed un ipotesi di lavoro. Tale metodo appartiene alla classe degli stimatori lineari; come i minimi quadrati è basato su un principio di minimizzazione dell'errore quadratico di predizione e presenta caratteristiche di consistenza e correttezza. d Sia { Z () s :s D R } un processo stocastico, definito su un dominio D dello spazio a d dimensioni R d, Z ( s) = m( s) + u( s), ove m è detta componente deterministica del processo, usualmente uno sviluppo polinomiale di funzioni delle coordinate del punto; u rappresenta viceversa un processo stocastico stazionario in senso debole a media nulla (SRF). Si ha quindi m s ) = a l f ( s = a l= 1,..., M l 1 ) T f s (, E [ u( s) ] =, [ Z( s) ] m( s) processo mediante la γ( h) = Var[ ( Z( s + h) - Z( s) )] s,h D E =. Si definisce il variogramma γ del ; si nota che il variogramma dipende solo dal vettore h; in particolare, nel caso di processi isotropi, il variogramma dipende solo dal modulo di h. Si ipotizza di conoscere il tipo di sviluppo soggiacente alla componente deterministica l del processo, ovvero il grado (M-1) dello sviluppo e la famiglia di funzioni di base f, mentre non è richiesto di conoscere a priori il valore dei coefficienti a l. Si ipotizza inoltre di conoscere la forma analitica di γ (h). Si suppone di disporre di valori osservati Zi = Zobs ( s i ), i = 1,..., N [1] per il processo; si vuole determinare il valore Z = Z( s ) in un punto s non campionato, tramite una combinazione lineare degli Z i : Z = λ i Z i i= 1,..., N = Τ = λ Z. L algoritmo di predizione è basato = sulla ricerca dei coefficienti λ i tali che Ε[ Z Z ] e Ε[ ( Z Z ) ] min, ovvero sui principi di stima corretta e di minimizzazione dell e.q.m. Le due condizioni portano alla ˆ 1 1 T Z = Γ [ γ + F( F Γ F) ( f F Γ 1 γ) ]Z []

i j 1 ove f è un vettore [Mx1] in cui f i = f ( s ) ; F è una matrice [NxM] in cui Fi, j = f ( si ) ; γ è un vettore [Nx1] in cui γi = γ ( s s ) ; Γ è una matrice [NxN] in cui Γ ( ) i ij = γ si s j. Si ottiene inoltre, per la varianza di predizione, la T σ ˆ ( s ) = γ Γ γ ( F Γ γ f ) ( F Γ F)( F Γ γ f ) [3] Z Non ci addentriamo nella discussione delle numerose problematiche formali del problema di stima, per le quali si rimanda ai lavori già citati. Si nota comunque che la predizione mediante UK ha buone caratteristiche di robustezza e di adattabilità alla natura stocastica degli errori sempre presenti nelle osservazioni. L applicazione del UK presenta però anche alcune problematiche operative, per le quali si propone un superamento nel seguito dell articolo. Tutto lo sviluppo formale, e quindi la soluzione delle [],[3], si basa sulla conoscenza a priori della famiglia di funzioni di base che descrivono la componente deterministica e sulla conoscenza della forma analitica del variogramma; nella generalità dei casi però tali informazioni non sono disponibili prima del processo di stima e costituiscono un ulteriore elemento incognito. In particolare, in presenza di una componente deterministica diversa dall iperpiano medio e incognita risulta impossibile determinare in modo empirico il variogramma della componente stocastica (Chiles, Delfiner, 1999). Lo scopo del presente lavoro è quello di integrare il metodo generale del UK con un metodo approssimato ma rigoroso per la determinazione, a partire dalle osservazioni disponibili, del tipo di modello deterministico soggiacente al processo; la determinazione del modello f e del vettore dei coefficienti a permette quindi una stima approssimata della componente stocastica delle osservazioni; da questa è possibile stimare il variogramma modello in modo empirico e quindi applicare alle osservazioni originarie il processo di predizione mediante UK. Il formalismo studiato permette inoltre un implementazione sostanzialmente semiautomatica: tale caratteristica, apparentemente minore, in realtà è auspicabile se non necessaria in ambiente GIS poichè ne aumenta la fruibilità anche da parte di utenti non esperti.. Il metodo proposto per l analisi della componente deterministica Si ipotizza di non conoscere a priori il grado massimo M dello sviluppo polinomiale per il trend ed i coefficienti a l dello sviluppo stesso; si suppone di disporre di un insieme di osservazioni per il processo, per ciascuna delle quali valga la [1]. Si vuole formalizzare ed implementare un metodo per la predizione del campo Z che permetta innanzitutto la stima del grado di sviluppo del trend; quindi porti alla predizione del campo e delle accuratezze mediante le [],[3]. Per risolvere operativamente il problema si introduce una semplificazione iniziale significativa ma necessaria: si ipotizza cioè che la matrice di covarianza della componente stocastica u sia del tipo C uu = σ I. Riscrivendo in forma matriciale l insieme di equazioni di osservazione per i diversi punti di osservazione, si ha Z = Fa + u [4] ove Z, F e a hanno il medesimo significato dato loro nel Par. 1.1; [ u s ) u( s )... u( )] T u = ( 1 s N. Si considera un modello deterministico assegnato: il vettore a contiene i parametri incogniti ed ha contenuto e dimensione dipendente dal modello in analisi; la matrice F esprime la relazione fra osservazioni e parametri incogniti. Ad esempio avremo, per il caso dell iperpiano medio, dimf = N x1, F i = 1, a = a. Per la superficie lineare nel caso bidimensionale ( s = ( ξ, η) ): dimf = N x3, F i, 1 = 1, F i, = ξi, F i,3 = ηi, a = [ a a1 a]. Impostato con la precedente notazione, dato un modello deterministico del quale si voglia valutare la presenza nelle osservazioni, si trova innanzitutto la stima ai minimi quadrati del vettore incognito a; ricordando che C = I si ha (Sansò, 1996): ˆ 1 T T a = N F Z; N = F F ; ˆ [, ˆ 1 a N a σ N ] ; Z ˆ = Fa ; vˆ = Z Z ˆ ; σ ˆ ( ˆ T ˆ = v v) /( N M σ ). Si vuole ora, per il modello in analisi, valutare se le stime ottenute per i

parametri incogniti a abbiano un valore significativamente differente da zero oppure se esse non abbiano alcun significato: tale test permette, a livello generale, di capire se il modello in analisi è o meno rappresentativo della componente deterministica del campo; la verifica di significatività sui parametri stimati avviene valutando, ad un livello prefissato di affidabilità, l ipotesi: H O : il vettore dei parametri a è uguale a zero (ipotesi di non significatività delle quantità stimate). Per svolgere il test sui parametri si utilizza la statistica 1 T (ˆ a a) N(ˆ a a) = Fˆ F M, N M [5] Mσˆ Volendo valutare l intero vettore dei parametri stimati si pone a = e si costruisce la grandezza Fˆ utilizzando le quantità stimate mediante minimi quadrati. Si confronta tale quantità empirica con la statistica di riferimento (ovvero la funzione F M,N-M (α), F di Fisher a M e (N-M) gradi di libertà e livello di affidabilità α); a seconda che F ˆ F M, N M o Fˆ > F M, N M viene rispettivamente accettata o rigettata l ipotesi H O. Volendo invece sottoporre a test solo alcune componenti del vettore a, si può introdurre il vettore ζ (di dimensione r), estratto da a mediante la ζ = Ra e sottoporre ad analogo test 1 (ˆ ζ ζ) ( RN R ) (ˆ ζ ζ) = Fˆ F r, N r [6] rσˆ Data una libreria di modelli differenti ed ordinati per complessità crescente, è possibile strutturare un metodo di analisi che segua il seguente schema iterativo. 1. Per il primo modello f non ancora analizzato della libreria vengono determinati i coefficienti â ;. i coefficienti di sviluppo del modello vengono sottoposti a test di significatività; 3. qualora venga accettata H O, viene adottato il modello precedente a quello in esame; 4. qualora venga rifiutata H O si ripete dal passo 1 con il modello seguente. In base a tale procedura, una volta adottato un modello deterministico m ˆ ( s) = af ˆ s, si stimano i valori uˆ i = Z i âfi, dai quali è possibile stimare in modo empirico γ (h). A partire da tali informazioni a priori si può quindi condurre un processo di predizione del campo mediante UK nei punti desiderati, nel nostro caso i nodi rappresentativi del DSM. Si nota una semplificazione nel metodo proposto, peraltro già evidenziata ad inizio paragrafo: il processo di analisi e identificazione della componente deterministica si basa sull ipotesi di incorrelazione della componente stocastica. La significatività e l effetto di tale ipotesi possono peraltro essere valutate solo mediante analisi di dati. 3. Implementazione del metodo e prime prove di simulazione Si vuole, nella forma definitiva, implementare il formalismo appena descritto in un motore GIS e rendere disponibile alla comunità scientifica il codice freeware; evidentemente, vista l applicazione all ambito GIS, il problema formalmente affrontato in un generico dominio D n-dimensionale è stato e verrà sviluppato per il caso bidimensionale. Per lo sviluppo definitivo, si è deciso di sviluppare il tutto come comando in linea per il programma GRASS (Clamons, Byars, 1997), in quanto quest ultimo è il motore principale adottato nel progetto ISOLA (Biagi et al., ) ed è anch esso disponibile freeware; allo stato attuale il formalismo appena descritto è stato implementato in forma prototipale per effettuare i primi test. Le librerie per la stima del trend mediante minimi quadrati e quelle per la validazione del trend mediante test di Fisher sono state realizzate in linguaggio C: allo stato attuale il metodo di stima della componente deterministica prevede una libreria di modelli di superfici polinomiali, dal piano medio alla superficie bicubica. Il metodo di validazione mediante test di Fisher prevede l analisi dei modelli dal più semplice (piano medio) al più complesso (superficie bicubica): per ogni modello vengono stimati i parametri e sottoposti a test di significatività quelli che lo distinguono dal modello precedente. Qualora ad un certo passaggio i parametri aggiuntivi non risultino significativamente

differenti da zero il ciclo termina e viene accettato il modello precedente. Per la stima empirica del variogramma sulla componente stocastica stimata e per la predizione del DSM mediante UK si è utilizzato il programma freeware GStat (Pebesma, ). Ad un primo livello si è valutata la funzionalità del metodo di identificazione della componente deterministica nel processo. Le osservazioni sono state generate sinteticamente sommando campioni estratti di volta in volta da diverse superfici polinomiali di equazione nota e rumore bianco; per ciascuna superficie polinomiale, inoltre, sono state effettuate diverse prove sommando un rumore via via crescente, sino ad un rapporto massimo di.5 fra SQM del rumore e SQM del modello deterministico. Senza riportare i singoli risultati si è sempre ottenuta la stima della superficie polinomiale corretta. Effettuate queste prime prove si è quindi passati all analisi del metodo nel suo complesso. Le osservazioni sono state generate artificialmente sommando campioni estratti da una superficie polinomiale di equazione data con i valori ottenuti da un processo stocastico simulato a partire da un variogramma assegnato. Le osservazioni sono state simulate sulla medesima matrice di predizione, caratterizzata da 1x1 nodi, spaziati di 5 m sia nella direzione Nord sia nella direzione Est, in modo da effettuare a posteriori un confronto numerico fra valori simulati e valori predetti; si nota inoltre che i valori ripropongono, sia per ordine di grandezza sia per caratteristiche stocastiche, l andamento esibito dalle misure di subsidenza del territorio del Comune di Modena (Paltrinieri et al., 1995). In Tab. 1 sono riportate le caratteristiche salienti dell insieme di dati utilizzato. Componente Tipo E (cm) σ (cm) m (cm) M (cm) Deterministica Lineare 5.14 1 Stocastica γ (h) sferico (*).38.87 -.16.59 Processo 5.38 1.89 -.33 9.63 Tabella 1.Dati simulati. (*): si veda Pebesma () 9.5.5. 1.5 1..5. -.5-1. -1.5 -. -.5 8.5 7.5 6.5 5.5 4.5 3.5.5 1.5.5 -.5 Figura 1. Il processo simulato. A sinistra la componente stocastica; a destra l intero processo. Valori in cm; estensione dell area: 1 Km x 1 Km I risultati sono illustrati in Tab. e in Fig.. Insieme ad essi vengono mostrati gli errori finali di predizione, ovvero le differenze fra il processo simulato sui nodi del DSM e le predizioni sui medesimi punti: come si nota le stime finali appaiono del tutto soddisfacenti, con errori di predizione centrati sullo zero ed errori massimi in modulo sempre inferiori a.1 cm. 4. Conclusioni Con l approccio descritto si è cercato di utilizzare al meglio quanto già noto dalla letteratura sui metodi di predizione di campi a partire da osservazioni, in particolare fruendo di algoritmi già consolidati quali il metodo ai minimi quadrati per l analisi e la validazione di trend ed il metodo del Kriging per il filtraggio / predizione di processi stocastici. Avendo inoltre ipotizzato a priori la maggior correttezza di un modello stocastico per l analisi di campi rispetto ai modelli deterministici, si è voluto coerentemente sviluppare un metodo di analisi di trend che non

imponesse un ipotesi a priori sulla presenza di questi ma effettuasse una scelta e validazione di vari modelli da libreria in base ai dati disponibili. L algoritmo proposto fornisce, oltre alla ricostruzione del modello digitale del campo in analisi, anche il modello digitale contenente le precisioni di predizione: nella costruzione di carte tematiche derivate dall analisi di modelli digitali la conoscenza delle precisioni di tali modelli permetterà una ricostruzione corretta anche per le accuratezze delle carte derivate, e quindi degli indicatori da esse desunte. Nell immediato futuro l algoritmo verrà completamente ingegnerizzato e sarà reso disponibile come comando in linea del motore GIS GRASS. E (cm) σ (cm) m (cm) M (cm) Predizioni 5.38 1.89 -.33 9.63 Errori finali..4 -.11.1 Tabella. Valori predetti ed errori 9.5 8.5 7.5 6.5 5.5 4.5 3.5.5 1.5.5 -.5.1.8.6.4. -. -.4 -.6 -.8 -.1 -.1 Figura. Risultati di predizione. A sinistra la predizione; a destra gli errori di predizione. Valori in cm; estensione dell area: 1 Km x 1 Km Bibliografia Biagi, L.; Brovelli, M. A.; Muratori, A. (1998), Un sistema informativo ambientale per l analisi e la gestione territoriale delle aree urbane: il progetto ISOLA, Bollettino SIFET 4: 57-7 Biagi, L.; Brovelli, M. A.; Negretti, M (), The ISOLA project: methodological and numerical problems: some solutions and a first process prototype, in stampa sugli Atti di UDMS, nd Symposium, 11-15 September, Delft Burrough, P.; McDonnel, A. (1998), Principles of Geographical Information Systems, Oxford University Press, Oxford Chiles J. P.; Delfiner, P. (1999), Geostatistics, Modeling Spatial Uncertainty, Wiley Interscience Publication, New York Christakos, G (199), Random field models for earth sciences, Academic Press, New York Davis, John C. (1986), Statistics and Data Analysis in Geology, John Wiley and Sons, New York Clamons, S. F.; Byars, B. W. (1997), GRASS 4. Reference and Programmer Manual, GRASS Research Group, Baylor University Online sul sito http://www.baylor.edu/~grass/ Matheron, G. (1971), The Theory of Regionalized Variables and its Applications, Chaiers du Centre de Morphologie Mathematique, Fontainbleu Paltrinieri, N.; Biagi, L.; Barelli, G. (1995), Rapporto sulla subsidenza nella Città di Modena, Quaderni di Geologia Applicata, Vol 1: 3-13 Pebesma E. J. (), Gstat.1. User manual, Online sul sito http://www.geog.uu.nl/gstat/ Sansò, F. (1996), Quaderni di trattamento statistico dei dati, Città Studi Edizioni, Milano