Analisi Statistica Spaziale

Похожие документы
Esempio. Approssimazione con il criterio dei minimi quadrati. Esempio. Esempio. Risultati sperimentali. Interpolazione con spline cubica.

Amministrazione, finanza e marketing - Turismo Ministero dell Istruzione, dell Università e della Ricerca PROGRAMMAZIONE DISCIPLINARE PER U. di A.


(a cura di Francesca Godioli)

1. Distribuzioni campionarie

LE FUNZIONI A DUE VARIABILI

3. Confronto tra medie di due campioni indipendenti o appaiati

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 8

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 6

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

11. Analisi statistica degli eventi idrologici estremi

2 + (σ2 - ρσ 1 ) 2 > 0 [da -1 ρ 1] b = (σ ρσ1 σ 2 ) = (σ 1

Potenza dello studio e dimensione campionaria. Laurea in Medicina e Chirurgia - Statistica medica 1

LEZIONE n. 5 (a cura di Antonio Di Marco)

La variabile casuale Binomiale

MODELLO DI REGRESSIONE PER DATI DI PANEL

Automazione Industriale (scheduling+mms) scheduling+mms.

x 1 + x 2 3x 4 = 0 x1 + x 2 + x 3 = 0 x 1 + x 2 3x 4 = 0.

Ing. Simone Giovannetti

Il concetto di valore medio in generale

ANALISI DEI DATI BIOLOGICI

La categoria «ES» presenta (di solito) gli stessi comandi

Relazioni statistiche: regressione e correlazione

Università del Piemonte Orientale. Corsi di Laurea Triennale di area tecnica. Corso di Statistica Medica

Analisi di scenario File Nr. 10

FUNZIONE. Si scrive: A B f: A B x y=f(x) (si legge: f funzione da A in B) x f y= f(x)

Capitolo 12 La regressione lineare semplice

STATISTICA GIUSEPPE DE NICOLAO. Dipartimento di Informatica e Sistemistica Università di Pavia

Il problema è di modellizzare tali dati geografici in modo da gestirli poi automaticamente con pacchetti software.

VARIABILI ALEATORIE MULTIPLE E TEOREMI ASSOCIATI. Dopo aver trattato delle distribuzioni di probabilità di una variabile aleatoria, che

Barriere assorbenti nelle catene di Markov e una loro applicazione al web

Pro e contro delle RNA

ESAME DI STATISTICA Nome: Cognome: Matricola:

4. Confronto tra medie di tre o più campioni indipendenti

Esercitazione 1 del corso di Statistica 2 Prof. Domenico Vistocco

Metodi Stocastici per la Finanza

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D)

2.1 Definizione di applicazione lineare. Siano V e W due spazi vettoriali su R. Un applicazione

Corso di Matematica per la Chimica

Principi di analisi causale Lezione 2

Statistica. Lezione 6

VERIFICA DELLE IPOTESI

Università degli Studi di Roma Tor Vergata. Corso di Laurea in Ingegneria Meccanica

Programmazione Disciplinare: Calcolo Classe: Quarte - Quinte

Metodologia per l analisi dei dati sperimentali L analisi di studi con variabili di risposta multiple: Regressione multipla

ESERCIZI SVOLTI PER LA PROVA DI STATISTICA

Esercizio 1. Proprietà desiderabili degli stimatori (piccoli campioni)

VERIFICA DELLE IPOTESI

CORSO DI LAUREA INF TWM ANNO DI IMMATRICOLAZIONE MATRICOLA

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza

Corso di Analisi Numerica - AN1. Parte 2: metodi diretti per sistemi lineari. Roberto Ferretti

1a) Calcolare gli estremi dell intervallo di confidenza per µ al 90% in corrispondenza del campione osservato.

Appendice III. Criteri per l utilizzo dei metodi di valutazione diversi dalle misurazioni in siti fissi

1 Applicazioni Lineari tra Spazi Vettoriali

STATISTICA DESCRITTIVA SCHEDA N. 5: REGRESSIONE LINEARE

Regressione Logistica: un Modello per Variabili Risposta Categoriali

Analisi di dati di frequenza

Metodi statistici per le ricerche di mercato

Lezione 4: Principi di Conservazione Conservazione della quantità di moto e del momento della quantità di moto

Lineamenti di econometria 2

Verifica di ipotesi e intervalli di confidenza nella regressione multipla

Esercizi test ipotesi. Prof. Raffaella Folgieri aa 2009/2010

Regressione Mario Guarracino Data Mining a.a. 2010/2011

L Analisi della Varianza ANOVA (ANalysis Of VAriance)

Esercizio 1. Verifica di ipotesi sulla media (varianza nota), p-value del test

Università di Firenze - Corso di laurea in Statistica Seconda prova intermedia di Statistica. 18 dicembre 2008

Soluzioni degli Esercizi del Parziale del 30/06/201 (Ippoliti-Fontanella-Valentini)

Capitolo 11 Test chi-quadro

LEZIONE 23. Esempio Si consideri la matrice (si veda l Esempio ) A =

Tecniche di analisi multivariata

Statistica inferenziale

Sistemi Informativi Territoriali. Map Algebra

( x) ( x) 0. Equazioni irrazionali

Esercitazione N. 1 Misurazione di resistenza con metodo volt-amperometrico

ESTRAZIONE DI DATI 3D DA IMMAGINI DIGITALI. (Visione 3D)

Metodi Computazionali

Metodi statistici per le ricerche di mercato

E naturale chiedersi alcune cose sulla media campionaria x n

STATISTICA IX lezione

CORSO DI LAUREA IN INGEGNERIA.

Corso di Laurea in Ingegneria Informatica Anno Accademico 2014/2015 Calcolo delle Probabilità e Statistica Matematica

Analisi discriminante

SVM. Veronica Piccialli. Roma 11 gennaio Università degli Studi di Roma Tor Vergata 1 / 14

Disegni di Ricerca e Analisi dei Dati in Psicologia Clinica. Indici di Affidabilità

Interpolazione ed approssimazione di funzioni

Algebra Lineare e Geometria

Lezione 9: Cambio di base

Lineamenti di econometria 2

Esercitazione #5 di Statistica. Test ed Intervalli di Confidenza (per una popolazione)

Istituzioni di Statistica e Statistica Economica

Politecnico di Milano Facoltà di Ingegneria dell Informazione AGENTI AUTONOMI E SISTEMI MULTIAGENTE Appello COGNOME E NOME

Orbite preliminari di asteroidi e satelliti artificiali

INTRODUZIONE AL CONTROLLO OTTIMO

MINIMI QUADRATI. REGRESSIONE LINEARE

ISTITUTO D'ISTRUZIONE SUPERIORE A. MOTTI PROGRAMMAZIONE ANNUALE ANNO SCOLASTICO 2014 /2015

La distribuzione Normale. La distribuzione Normale

rappresentazione astratta di un sistema e/o di una situazione reale tramite un insieme di dati/elementi ad essa analoghi

Parte 2. Determinante e matrice inversa

Транскрипт:

Analisi Statistica Spaziale Posa D., De Iaco S. posa@economia.unile.it s.deiaco@economia.unile.it UNIVERSITÀ del SALENTO DIP.TO DI SCIENZE ECONOMICHE E MATEMATICO-STATISTICHE FACOLTÀ DI ECONOMIA ANNO ACCADEMICO 2007/2008

Analisi Statistica Spaziale 2 Kriging non stazionario Kriging non stazionario Tale metodo è anche denominato kriging con un modello trend Figura: distribuzione spaziale di un fenomeno non stazionario

Analisi Statistica Spaziale 3 Kriging non stazionario Campo aleatorio non stazionario Sia Z un campo aleatorio non stazionario espresso come segue: Z(u) = m(u) + Y (u), dove m(u) rappresenta la componente deterministica di Z ed è denominata trend Y (u) rappresenta la componente residua ed è tale che E[Y (u)] = 0, u D R d

Analisi Statistica Spaziale 3 Kriging non stazionario Campo aleatorio non stazionario Sia Z un campo aleatorio non stazionario espresso come segue: Z(u) = m(u) + Y (u), dove m(u) rappresenta la componente deterministica di Z ed è denominata trend Y (u) rappresenta la componente residua ed è tale che E[Y (u)] = 0, u D R d

Analisi Statistica Spaziale 3 Kriging non stazionario Campo aleatorio non stazionario Sia Z un campo aleatorio non stazionario espresso come segue: Z(u) = m(u) + Y (u), dove m(u) rappresenta la componente deterministica di Z ed è denominata trend Y (u) rappresenta la componente residua ed è tale che E[Y (u)] = 0, u D R d

Analisi Statistica Spaziale 4 Componente trend m(u) Componente trend m(u) Il trend m(u) viene spesso descritto da un modello polinomiale del tipo: L m(u) = a l f l (u) l=0 dove a l, l = 0,...,L, sono coefficienti incogniti; f l (u) rappresentano i monomi.

Analisi Statistica Spaziale 5 Componente trend m(u) Ad esempio, nel caso bidimensionale (piano) u = (x, y), l espressione esplicita di un trend lineare in termini delle coordinate cartesiane x, y risulta essere: m(x, y) = a 0 + a 1 x + a 2 y. In tal caso, f 0 (u) = 1, f 1 (u) = x, f 2 (u) = y.

Analisi Statistica Spaziale 5 Componente trend m(u) Ad esempio, nel caso bidimensionale (piano) u = (x, y), l espressione esplicita di un trend lineare in termini delle coordinate cartesiane x, y risulta essere: m(x, y) = a 0 + a 1 x + a 2 y. In tal caso, f 0 (u) = 1, f 1 (u) = x, f 2 (u) = y.

Analisi Statistica Spaziale 5 Componente trend m(u) Ad esempio, nel caso bidimensionale (piano) u = (x, y), l espressione esplicita di un trend lineare in termini delle coordinate cartesiane x, y risulta essere: m(x, y) = a 0 + a 1 x + a 2 y. In tal caso, f 0 (u) = 1, f 1 (u) = x, f 2 (u) = y.

Analisi Statistica Spaziale 6 Stima per un campo aleatorio non stazionario Stima per un campo aleatorio non stazionario Sia {Z(u), u D} un campo aleatorio spaziale non stazionario. Obiettivo: stimare il campo aleatorio Z in una localizzazione u mediante uno stimatore di tipo lineare Ẑ(u) = n λ i (u)z(u i ). i=1

Analisi Statistica Spaziale 7 Stima per un campo aleatorio non stazionario I coefficienti λ i sono determinati in modo che siano rispettate le seguenti condizioni: non distorsione dello stimatore, minimo della varianza dell errore.

Analisi Statistica Spaziale 7 Stima per un campo aleatorio non stazionario I coefficienti λ i sono determinati in modo che siano rispettate le seguenti condizioni: non distorsione dello stimatore, minimo della varianza dell errore.

Analisi Statistica Spaziale 7 Stima per un campo aleatorio non stazionario I coefficienti λ i sono determinati in modo che siano rispettate le seguenti condizioni: non distorsione dello stimatore, minimo della varianza dell errore.

Analisi Statistica Spaziale 8 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario Vincoli di non distorsione nel kriging non stazionario La condizione di non distorsione richiede che ] E [Ẑ(u) Z(u) = 0, per cui: ] E [Ẑ(u) E [Z(u)] = 0 n λ i (u)m(u i ) m(u) = 0 i=1 [ n L ] L λ i (u) a l f l (u i ) a l f l (u) = 0 i=1 l=0 l=0

Analisi Statistica Spaziale 8 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario Vincoli di non distorsione nel kriging non stazionario La condizione di non distorsione richiede che ] E [Ẑ(u) Z(u) = 0, per cui: ] E [Ẑ(u) E [Z(u)] = 0 n λ i (u)m(u i ) m(u) = 0 i=1 [ n L ] L λ i (u) a l f l (u i ) a l f l (u) = 0 i=1 l=0 l=0

Analisi Statistica Spaziale 8 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario Vincoli di non distorsione nel kriging non stazionario La condizione di non distorsione richiede che ] E [Ẑ(u) Z(u) = 0, per cui: ] E [Ẑ(u) E [Z(u)] = 0 n λ i (u)m(u i ) m(u) = 0 i=1 [ n L ] L λ i (u) a l f l (u i ) a l f l (u) = 0 i=1 l=0 l=0

Analisi Statistica Spaziale 8 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario Vincoli di non distorsione nel kriging non stazionario La condizione di non distorsione richiede che ] E [Ẑ(u) Z(u) = 0, per cui: ] E [Ẑ(u) E [Z(u)] = 0 n λ i (u)m(u i ) m(u) = 0 i=1 [ n L ] L λ i (u) a l f l (u i ) a l f l (u) = 0 i=1 l=0 l=0

Analisi Statistica Spaziale 8 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario Vincoli di non distorsione nel kriging non stazionario La condizione di non distorsione richiede che ] E [Ẑ(u) Z(u) = 0, per cui: ] E [Ẑ(u) E [Z(u)] = 0 n λ i (u)m(u i ) m(u) = 0 i=1 [ n L ] L λ i (u) a l f l (u i ) a l f l (u) = 0 i=1 l=0 l=0

Analisi Statistica Spaziale 9 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario Ne segue che: [ L n ] a l λ i (u)f l (u i ) f l (u) = 0, i=1 l=0 per cui, per qualunque valore dei coefficienti incogniti a l, l = 0,...,L, deve risultare: n λ i (u)f l (u i ) = f l (u), i=1 l = 0,...,L.

Analisi Statistica Spaziale 9 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario Ne segue che: [ L n ] a l λ i (u)f l (u i ) f l (u) = 0, i=1 l=0 per cui, per qualunque valore dei coefficienti incogniti a l, l = 0,...,L, deve risultare: n λ i (u)f l (u i ) = f l (u), i=1 l = 0,...,L.

Analisi Statistica Spaziale 10 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario La condizione di non distorsione impone L + 1 vincoli, ovvero n λ i (u)f l (u i ) = f l (u), i=1 l = 0,...,L Nel caso stazionario, dove L = 0, f 0 (u) = 1, la condizione di non distorsione risulta essere una sola, ovvero n λ i (u) = 1. i=1

Analisi Statistica Spaziale 10 Stima per un campo aleatorio non stazionario Vincoli di non distorsione nel kriging non stazionario La condizione di non distorsione impone L + 1 vincoli, ovvero n λ i (u)f l (u i ) = f l (u), i=1 l = 0,...,L Nel caso stazionario, dove L = 0, f 0 (u) = 1, la condizione di non distorsione risulta essere una sola, ovvero n λ i (u) = 1. i=1

Analisi Statistica Spaziale 11 Stima per un campo aleatorio non stazionario Vincoli di efficienza nel kriging non stazionario Vincoli di efficienza nel kriging non stazionario Si desidera minimizzare la varianza dell errore tenendo conto dei vincoli di non distorsione. Il metodo di Lagrange consente di risolvere tale problema di minimo vincolato in maniera del tutto analoga al caso stazionario.

Analisi Statistica Spaziale 11 Stima per un campo aleatorio non stazionario Vincoli di efficienza nel kriging non stazionario Vincoli di efficienza nel kriging non stazionario Si desidera minimizzare la varianza dell errore tenendo conto dei vincoli di non distorsione. Il metodo di Lagrange consente di risolvere tale problema di minimo vincolato in maniera del tutto analoga al caso stazionario.

Analisi Statistica Spaziale 12 Stima per un campo aleatorio non stazionario Vincoli di efficienza nel kriging non stazionario Tuttavia, occorre introdurre (L + 1) moltiplicatori di Lagrange (µ 0, µ 1,...,µ L ) poichè in tale caso devono essere rispettati (L + 1) vincoli di non distorsione.

Analisi Statistica Spaziale 13 Stima per un campo aleatorio non stazionario Vincoli di efficienza nel kriging non stazionario Il sistema del kriging non stazionario sarà costituito da (n + L + 1) equazioni nelle (n + L + 1) incognite (λ 1,...,λ n, µ 0,...,µ L ): n λ j (u)γ ij j=1 L µ l (u)f l (u i ) = γ i0 (u) i = 1,...,n l=0 n λ i (u)f l (u i ) = f l (u), l = 0,...,L i=1

Analisi Statistica Spaziale 13 Stima per un campo aleatorio non stazionario Vincoli di efficienza nel kriging non stazionario Il sistema del kriging non stazionario sarà costituito da (n + L + 1) equazioni nelle (n + L + 1) incognite (λ 1,...,λ n, µ 0,...,µ L ): n λ j (u)γ ij j=1 L µ l (u)f l (u i ) = γ i0 (u) i = 1,...,n l=0 n λ i (u)f l (u i ) = f l (u), l = 0,...,L i=1

Analisi Statistica Spaziale 14 Stima per un campo aleatorio non stazionario Vincoli di efficienza nel kriging non stazionario Analogamente, in termini della covarianza C ij = C(u i u j ), si ottiene: n L λ j (u)c ij + µ l (u)f l (u i ) = C i0 (u) i = 1,...,n j=1 l=0 n λ i (u)f l (u i ) = f l (u), l = 0,...,L i=1 Il valore minimo della varianza dell errore risulta pari a: n L σr(u) 2 = σ 2 λ i (u)c i0 (u) µ l (u)f l (u) i=1 l=0

Analisi Statistica Spaziale 14 Stima per un campo aleatorio non stazionario Vincoli di efficienza nel kriging non stazionario Analogamente, in termini della covarianza C ij = C(u i u j ), si ottiene: n L λ j (u)c ij + µ l (u)f l (u i ) = C i0 (u) i = 1,...,n j=1 l=0 n λ i (u)f l (u i ) = f l (u), l = 0,...,L i=1 Il valore minimo della varianza dell errore risulta pari a: n L σr(u) 2 = σ 2 λ i (u)c i0 (u) µ l (u)f l (u) i=1 l=0

Osservazioni 1) Analogamente al caso stazionario, il kriging universale richiede la conoscenza di una delle due funzioni strutturali C(u, v) = E [Z(u) m(u)] [Z(v) m(v)] = E [Y (u) Y (v)], 2γ(u, v) = V ar [Z(u) Z(v)] = V ar [Y (u) Y (v)] = E [ (Y (u) Y (v)) 2]. Ciò comporterebbe la stima simultanea del trend m(u) e del semivariogramma γ(u,v) dalle osservazioni (z(u 1 ),...,z(u n )). Per cui il kriging universale risulta essere non soddisfacente. Per la soluzione di questo problema, Matheron (1973) propose il formalismo delle Funzioni Aleatorie Intrinseche di ordine L. Tuttavia, nelle applicazioni, la stima di C o γ dei residui viene effettuata lungo la direzione ortogonale a quella del trend.

Osservazioni 1) Analogamente al caso stazionario, il kriging universale richiede la conoscenza di una delle due funzioni strutturali C(u, v) = E [Z(u) m(u)] [Z(v) m(v)] = E [Y (u) Y (v)], 2γ(u, v) = V ar [Z(u) Z(v)] = V ar [Y (u) Y (v)] = E [ (Y (u) Y (v)) 2]. Ciò comporterebbe la stima simultanea del trend m(u) e del semivariogramma γ(u,v) dalle osservazioni (z(u 1 ),...,z(u n )). Per cui il kriging universale risulta essere non soddisfacente. Per la soluzione di questo problema, Matheron (1973) propose il formalismo delle Funzioni Aleatorie Intrinseche di ordine L. Tuttavia, nelle applicazioni, la stima di C o γ dei residui viene effettuata lungo la direzione ortogonale a quella del trend.

Osservazioni 1) Analogamente al caso stazionario, il kriging universale richiede la conoscenza di una delle due funzioni strutturali C(u, v) = E [Z(u) m(u)] [Z(v) m(v)] = E [Y (u) Y (v)], 2γ(u, v) = V ar [Z(u) Z(v)] = V ar [Y (u) Y (v)] = E [ (Y (u) Y (v)) 2]. Ciò comporterebbe la stima simultanea del trend m(u) e del semivariogramma γ(u,v) dalle osservazioni (z(u 1 ),...,z(u n )). Per cui il kriging universale risulta essere non soddisfacente. Per la soluzione di questo problema, Matheron (1973) propose il formalismo delle Funzioni Aleatorie Intrinseche di ordine L. Tuttavia, nelle applicazioni, la stima di C o γ dei residui viene effettuata lungo la direzione ortogonale a quella del trend.

Osservazioni 1) Analogamente al caso stazionario, il kriging universale richiede la conoscenza di una delle due funzioni strutturali C(u, v) = E [Z(u) m(u)] [Z(v) m(v)] = E [Y (u) Y (v)], 2γ(u, v) = V ar [Z(u) Z(v)] = V ar [Y (u) Y (v)] = E [ (Y (u) Y (v)) 2]. Ciò comporterebbe la stima simultanea del trend m(u) e del semivariogramma γ(u,v) dalle osservazioni (z(u 1 ),...,z(u n )). Per cui il kriging universale risulta essere non soddisfacente. Per la soluzione di questo problema, Matheron (1973) propose il formalismo delle Funzioni Aleatorie Intrinseche di ordine L. Tuttavia, nelle applicazioni, la stima di C o γ dei residui viene effettuata lungo la direzione ortogonale a quella del trend.

Osservazioni 1) Analogamente al caso stazionario, il kriging universale richiede la conoscenza di una delle due funzioni strutturali C(u, v) = E [Z(u) m(u)] [Z(v) m(v)] = E [Y (u) Y (v)], 2γ(u, v) = V ar [Z(u) Z(v)] = V ar [Y (u) Y (v)] = E [ (Y (u) Y (v)) 2]. Ciò comporterebbe la stima simultanea del trend m(u) e del semivariogramma γ(u,v) dalle osservazioni (z(u 1 ),...,z(u n )). Per cui il kriging universale risulta essere non soddisfacente. Per la soluzione di questo problema, Matheron (1973) propose il formalismo delle Funzioni Aleatorie Intrinseche di ordine L. Tuttavia, nelle applicazioni, la stima di C o γ dei residui viene effettuata lungo la direzione ortogonale a quella del trend.

Osservazioni 2) Il sistema del kriging non universale presenta una ed una sola soluzione se e solo se: 1 il covariogramma è una funzione definita positiva; 2 le (L+1) funzioni f l (u) sono linearmente indipendenti.

Analisi Statistica Spaziale 17 Kriging indicatore Kriging indicatore Tecnica non-parametrica che consente di stimare la distribuzione di probabilità di Z(u) in ogni localizzazione u non campionata.

Analisi Statistica Spaziale 18 Kriging indicatore Formalismo indicatore Sia {Z(u), u D} un campo aleatorio spaziale stazionario del secondo ordine. Mediante il formalismo indicatore, l informazione disponibile viene codificata in bits (0 e 1).

Analisi Statistica Spaziale 18 Kriging indicatore Formalismo indicatore Sia {Z(u), u D} un campo aleatorio spaziale stazionario del secondo ordine. Mediante il formalismo indicatore, l informazione disponibile viene codificata in bits (0 e 1).

Analisi Statistica Spaziale 19 Kriging indicatore Campo aleatorio indicatore Il campo aleatorio indicatore I(u;z) viene definito come segue: 1 Z(u) z I(u;z) = 0 Z(u) > z Per un prefissato valore di soglia z il campo aleatorio I(u,z) presenta distribuzione Bernoulliana.

Analisi Statistica Spaziale 19 Kriging indicatore Campo aleatorio indicatore Il campo aleatorio indicatore I(u;z) viene definito come segue: 1 Z(u) z I(u;z) = 0 Z(u) > z Per un prefissato valore di soglia z il campo aleatorio I(u,z) presenta distribuzione Bernoulliana.

Analisi Statistica Spaziale 20 Kriging indicatore Momenti del primo ordine Valore atteso E [I(u;z)] = 1 Prob [Z(u) z] + 0 Prob [Z(u) > z] = = Prob [Z(u) z] = F(z), u D

Analisi Statistica Spaziale 21 Kriging indicatore Momenti del secondo ordine Covariogramma indicatore C I (h;z) = E [I(u + h;z) I(u;z)] F 2 (z) Varianza V ar [I(u;z)] = C I (0;z) = F(z) F 2 (z) Semivariogramma indicatore γ I (h;z) = E{ [I(u + h;z) I(u;z)] } 2 2

Analisi Statistica Spaziale 21 Kriging indicatore Momenti del secondo ordine Covariogramma indicatore C I (h;z) = E [I(u + h;z) I(u;z)] F 2 (z) Varianza V ar [I(u;z)] = C I (0;z) = F(z) F 2 (z) Semivariogramma indicatore γ I (h;z) = E{ [I(u + h;z) I(u;z)] } 2 2

Analisi Statistica Spaziale 21 Kriging indicatore Momenti del secondo ordine Covariogramma indicatore C I (h;z) = E [I(u + h;z) I(u;z)] F 2 (z) Varianza V ar [I(u;z)] = C I (0;z) = F(z) F 2 (z) Semivariogramma indicatore γ I (h;z) = E{ [I(u + h;z) I(u;z)] } 2 2

Analisi Statistica Spaziale 22 Kriging indicatore Mappa indicatrice Sia {z(u α ),α = 1, 2,...,n} una realizzazione di Z nelle localizzazioni u α D,α = 1, 2,...,n. Per un prefissato valore di soglia z è possibile individuare una realizzazione di I, ovvero {i(u α ;z),α = 1, 2,...,n}

Analisi Statistica Spaziale 22 Kriging indicatore Mappa indicatrice Sia {z(u α ),α = 1, 2,...,n} una realizzazione di Z nelle localizzazioni u α D,α = 1, 2,...,n. Per un prefissato valore di soglia z è possibile individuare una realizzazione di I, ovvero {i(u α ;z),α = 1, 2,...,n}

Analisi Statistica Spaziale 23 Kriging indicatore Figura: trasformazione della mappa dei valori di Z nella mappa dei valori di I, per un prefissato valore di soglia (z = 4).

Analisi Statistica Spaziale 24 Kriging indicatore Stima della variabile indicatrice Lo stimatore Î(u; z) definito come segue Î(u; z) = n λ i (u; z)i(u i ; z) i=1 rappresenta un modello per la distribuzione di probabilità del campo aleatorio Z(u) condizionata alle osservazioni z(u i ), i = 1, 2,...,n.

Analisi Statistica Spaziale 25 Kriging indicatore Stima della funzione di ripartizione Si osservi che, per un prefissato valore di soglia z: Î(u, z) = F(u, z) dove F(u, z) rappresenta lo stimatore di Prob[Z(u) z z(u 1 ),...,z(u n )] Figura: stima di un punto della funzione di ripartizione

Analisi Statistica Spaziale 26 Kriging indicatore Stima della variabile indicatrice I pesi λ i (u; z), i = 1, 2,...,n, utilizzati nell espressione dello stimatore Î(u; z), sono soluzione del seguente sistema: n λ j (u; z)γ I (u i u j ; z) µ(u; z) = γ I (u i u; z) i = 1, 2,...,n j=1 n λ i (u; z) = 1 i=1 dove γ I (h; z), con h = u i u j, rappresenta il semivariogramma indicatore per un prefissato valore di soglia z.

Analisi Statistica Spaziale 27 Kriging indicatore Stima della funzione di ripartizione Per stimare un intera distribuzione di probabilità si sceglieranno K valori di soglia z k, k = 1, 2,...,K si risolveranno K sistemi del kriging. Figura: funzione di ripartizione stimata

Analisi Statistica Spaziale 28 Simulazione stocastica Simulazione stocastica Sia {Z(u), u A, A R n } un campo aleatorio, caratterizzato da una funzione di distribuzione e da un modello di covariogramma o variogramma. Si definisce simulazione stocastica una tecnica per la costruzione di modelli alternativi ed equiprobabili del campo aleatorio Z. Figura: mappe alternative ed equiprobabili

Analisi Statistica Spaziale 28 Simulazione stocastica Simulazione stocastica Sia {Z(u), u A, A R n } un campo aleatorio, caratterizzato da una funzione di distribuzione e da un modello di covariogramma o variogramma. Si definisce simulazione stocastica una tecnica per la costruzione di modelli alternativi ed equiprobabili del campo aleatorio Z. Figura: mappe alternative ed equiprobabili

Analisi Statistica Spaziale 29 Simulazione stocastica Osservazioni Ogni realizzazione simulata viene indicata con l indice s: {z (s) (u), u A}, s = 1, 2,...,S. La simulazione viene denominata condizionata se, in ciascuna localizzazione campionata, la realizzazione ottenuta soddisfa la condizione: z (s) (u i ) = z(u i ), s = 1, 2,...,S, dove z(u i ), i = 1, 2,...,n rappresentano i valori osservati di Z. Le diverse mappe simulate differiscono tra loro, anche se esse provengono dallo stesso campo aleatorio Z, con funzione di distribuzione e momenti del primo e del secondo ordine fissati.

Analisi Statistica Spaziale 29 Simulazione stocastica Osservazioni Ogni realizzazione simulata viene indicata con l indice s: {z (s) (u), u A}, s = 1, 2,...,S. La simulazione viene denominata condizionata se, in ciascuna localizzazione campionata, la realizzazione ottenuta soddisfa la condizione: z (s) (u i ) = z(u i ), s = 1, 2,...,S, dove z(u i ), i = 1, 2,...,n rappresentano i valori osservati di Z. Le diverse mappe simulate differiscono tra loro, anche se esse provengono dallo stesso campo aleatorio Z, con funzione di distribuzione e momenti del primo e del secondo ordine fissati.

Analisi Statistica Spaziale 29 Simulazione stocastica Osservazioni Ogni realizzazione simulata viene indicata con l indice s: {z (s) (u), u A}, s = 1, 2,...,S. La simulazione viene denominata condizionata se, in ciascuna localizzazione campionata, la realizzazione ottenuta soddisfa la condizione: z (s) (u i ) = z(u i ), s = 1, 2,...,S, dove z(u i ), i = 1, 2,...,n rappresentano i valori osservati di Z. Le diverse mappe simulate differiscono tra loro, anche se esse provengono dallo stesso campo aleatorio Z, con funzione di distribuzione e momenti del primo e del secondo ordine fissati.

Analisi Statistica Spaziale 30 Differenze tra simulazione e interpolazione Differenze tra simulazione e interpolazione La simulazione si differenzia da ogni altro algoritmo di interpolazione, per i motivi riportati di seguito. Un algoritmo di interpolazione fornisce una stima locale ẑ(u), nella localizzazione u non campionata che si discosti il meno possibile dal valore vero. Nella simulazione viene data priorità alle caratteristiche globali dei valori simulati, rispetto all accuratezza locale.

Analisi Statistica Spaziale 30 Differenze tra simulazione e interpolazione Differenze tra simulazione e interpolazione La simulazione si differenzia da ogni altro algoritmo di interpolazione, per i motivi riportati di seguito. Un algoritmo di interpolazione fornisce una stima locale ẑ(u), nella localizzazione u non campionata che si discosti il meno possibile dal valore vero. Nella simulazione viene data priorità alle caratteristiche globali dei valori simulati, rispetto all accuratezza locale.

Analisi Statistica Spaziale 31 Differenze tra simulazione e interpolazione Differenze tra simulazione e interpolazione Un algoritmo di interpolazione fornisce un solo modello numerico {ẑ(u), u A} che risulta essere il migliore in senso locale. La simulazione fornisce diversi modelli numerici alternativi {z (s) (u), u A}, s = 1, 2,...,S che rappresentano le caratteristiche globali del fenomeno. Le differenze osservate tra gli S modelli alternativi forniscono una misura di incertezza spaziale.

Analisi Statistica Spaziale 31 Differenze tra simulazione e interpolazione Differenze tra simulazione e interpolazione Un algoritmo di interpolazione fornisce un solo modello numerico {ẑ(u), u A} che risulta essere il migliore in senso locale. La simulazione fornisce diversi modelli numerici alternativi {z (s) (u), u A}, s = 1, 2,...,S che rappresentano le caratteristiche globali del fenomeno. Le differenze osservate tra gli S modelli alternativi forniscono una misura di incertezza spaziale.

Analisi Statistica Spaziale 31 Differenze tra simulazione e interpolazione Differenze tra simulazione e interpolazione Un algoritmo di interpolazione fornisce un solo modello numerico {ẑ(u), u A} che risulta essere il migliore in senso locale. La simulazione fornisce diversi modelli numerici alternativi {z (s) (u), u A}, s = 1, 2,...,S che rappresentano le caratteristiche globali del fenomeno. Le differenze osservate tra gli S modelli alternativi forniscono una misura di incertezza spaziale.

Analisi Statistica Spaziale 31 Differenze tra simulazione e interpolazione Differenze tra simulazione e interpolazione Un algoritmo di interpolazione fornisce un solo modello numerico {ẑ(u), u A} che risulta essere il migliore in senso locale. La simulazione fornisce diversi modelli numerici alternativi {z (s) (u), u A}, s = 1, 2,...,S che rappresentano le caratteristiche globali del fenomeno. Le differenze osservate tra gli S modelli alternativi forniscono una misura di incertezza spaziale.

Analisi Statistica Spaziale 32 Simulazione stocastica Decomposizione di Cholesky Decomposizione di Cholesky CARATTERISTICHE PRINCIPALI tecnica di simulazione stocastica non condizionata; numero N di nodi in cui si intende ottenere i valori simulati non elevato, ovvero N 1000; numero sufficientemente elevato di mappe.

Analisi Statistica Spaziale 32 Simulazione stocastica Decomposizione di Cholesky Decomposizione di Cholesky CARATTERISTICHE PRINCIPALI tecnica di simulazione stocastica non condizionata; numero N di nodi in cui si intende ottenere i valori simulati non elevato, ovvero N 1000; numero sufficientemente elevato di mappe.

Analisi Statistica Spaziale 32 Simulazione stocastica Decomposizione di Cholesky Decomposizione di Cholesky CARATTERISTICHE PRINCIPALI tecnica di simulazione stocastica non condizionata; numero N di nodi in cui si intende ottenere i valori simulati non elevato, ovvero N 1000; numero sufficientemente elevato di mappe.

Analisi Statistica Spaziale 33 Simulazione stocastica Decomposizione di Cholesky Assegnato un campo aleatorio Z, sia N il numero di localizzazioni prefissate ω 1, ω 2,...,ω N in cui si intende ottenere i valori simulati. I momenti del primo e del secondo ordine del campo aleatorio Z risultano essere: ( ) µ(u) = E Z(u) u D ( ) C(u, ω) = Cov Z(u), Z(ω) u, ω D

Analisi Statistica Spaziale 33 Simulazione stocastica Decomposizione di Cholesky Assegnato un campo aleatorio Z, sia N il numero di localizzazioni prefissate ω 1, ω 2,...,ω N in cui si intende ottenere i valori simulati. I momenti del primo e del secondo ordine del campo aleatorio Z risultano essere: ( ) µ(u) = E Z(u) u D ( ) C(u, ω) = Cov Z(u), Z(ω) u, ω D

Analisi Statistica Spaziale 33 Simulazione stocastica Decomposizione di Cholesky Assegnato un campo aleatorio Z, sia N il numero di localizzazioni prefissate ω 1, ω 2,...,ω N in cui si intende ottenere i valori simulati. I momenti del primo e del secondo ordine del campo aleatorio Z risultano essere: ( ) µ(u) = E Z(u) u D ( ) C(u, ω) = Cov Z(u), Z(ω) u, ω D

Analisi Statistica Spaziale 34 Simulazione stocastica Decomposizione di Cholesky Notazione vettoriale Sia Z il vettore dei valori da simulare Z T = (Z(w 1 ),...,Z(w N )), per cui: E(Z T ) = (µ(w 1 ),...,µ(w N )) = µ T

Analisi Statistica Spaziale 35 Simulazione stocastica Decomposizione di Cholesky Notazione vettoriale V ar(z) = C(w 1, w 1 ) C(w 1, w 2 )... C(w 1, w N ) C(w 2, w 1 ) C(w 2, w 2 )... C(w 2, w N )........ = Σ C(w N, w 1 ) C(w N, w 2 )... C(w N, w N ) Si osservi che Σ è una matrice N N simmetrica e definita positiva, dove il generico elemento C(ω i,ω j ) rappresenta la covarianza tra Z(ω i ) e Z(ω j ), i,j = 1,2,...,N.

Analisi Statistica Spaziale 35 Simulazione stocastica Decomposizione di Cholesky Notazione vettoriale V ar(z) = C(w 1, w 1 ) C(w 1, w 2 )... C(w 1, w N ) C(w 2, w 1 ) C(w 2, w 2 )... C(w 2, w N )........ = Σ C(w N, w 1 ) C(w N, w 2 )... C(w N, w N ) Si osservi che Σ è una matrice N N simmetrica e definita positiva, dove il generico elemento C(ω i,ω j ) rappresenta la covarianza tra Z(ω i ) e Z(ω j ), i,j = 1,2,...,N.

Analisi Statistica Spaziale 35 Simulazione stocastica Decomposizione di Cholesky Notazione vettoriale V ar(z) = C(w 1, w 1 ) C(w 1, w 2 )... C(w 1, w N ) C(w 2, w 1 ) C(w 2, w 2 )... C(w 2, w N )........ = Σ C(w N, w 1 ) C(w N, w 2 )... C(w N, w N ) Si osservi che Σ è una matrice N N simmetrica e definita positiva, dove il generico elemento C(ω i,ω j ) rappresenta la covarianza tra Z(ω i ) e Z(ω j ), i,j = 1,2,...,N.

Analisi Statistica Spaziale 36 Simulazione stocastica Decomposizione di Cholesky Processo di simulazione Il metodo di simulazione di Cholesky consente di scomporre Σ nel prodotto di matrici: Σ = LL T, dove L è una matrice N N triangolare inferiore; L T è la trasposta di L. Il processo Z può essere simulato mediante la seguente relazione Z = µ + Lε, ( ) dove ε = ε(ω 1 ),...,ε(ω N ) è un vettore di N variabili aleatorie non correlate, con E(ε) = 0, V ar(ε) = I, dove I è la matrice identica.

Analisi Statistica Spaziale 36 Simulazione stocastica Decomposizione di Cholesky Processo di simulazione Il metodo di simulazione di Cholesky consente di scomporre Σ nel prodotto di matrici: Σ = LL T, dove L è una matrice N N triangolare inferiore; L T è la trasposta di L. Il processo Z può essere simulato mediante la seguente relazione Z = µ + Lε, ( ) dove ε = ε(ω 1 ),...,ε(ω N ) è un vettore di N variabili aleatorie non correlate, con E(ε) = 0, V ar(ε) = I, dove I è la matrice identica.

Analisi Statistica Spaziale 36 Simulazione stocastica Decomposizione di Cholesky Processo di simulazione Il metodo di simulazione di Cholesky consente di scomporre Σ nel prodotto di matrici: Σ = LL T, dove L è una matrice N N triangolare inferiore; L T è la trasposta di L. Il processo Z può essere simulato mediante la seguente relazione Z = µ + Lε, ( ) dove ε = ε(ω 1 ),...,ε(ω N ) è un vettore di N variabili aleatorie non correlate, con E(ε) = 0, V ar(ε) = I, dove I è la matrice identica.

Analisi Statistica Spaziale 36 Simulazione stocastica Decomposizione di Cholesky Processo di simulazione Il metodo di simulazione di Cholesky consente di scomporre Σ nel prodotto di matrici: Σ = LL T, dove L è una matrice N N triangolare inferiore; L T è la trasposta di L. Il processo Z può essere simulato mediante la seguente relazione Z = µ + Lε, ( ) dove ε = ε(ω 1 ),...,ε(ω N ) è un vettore di N variabili aleatorie non correlate, con E(ε) = 0, V ar(ε) = I, dove I è la matrice identica.

Analisi Statistica Spaziale 36 Simulazione stocastica Decomposizione di Cholesky Processo di simulazione Il metodo di simulazione di Cholesky consente di scomporre Σ nel prodotto di matrici: Σ = LL T, dove L è una matrice N N triangolare inferiore; L T è la trasposta di L. Il processo Z può essere simulato mediante la seguente relazione Z = µ + Lε, ( ) dove ε = ε(ω 1 ),...,ε(ω N ) è un vettore di N variabili aleatorie non correlate, con E(ε) = 0, V ar(ε) = I, dove I è la matrice identica.

Analisi Statistica Spaziale 36 Simulazione stocastica Decomposizione di Cholesky Processo di simulazione Il metodo di simulazione di Cholesky consente di scomporre Σ nel prodotto di matrici: Σ = LL T, dove L è una matrice N N triangolare inferiore; L T è la trasposta di L. Il processo Z può essere simulato mediante la seguente relazione Z = µ + Lε, ( ) dove ε = ε(ω 1 ),...,ε(ω N ) è un vettore di N variabili aleatorie non correlate, con E(ε) = 0, V ar(ε) = I, dove I è la matrice identica.

Analisi Statistica Spaziale 37 Simulazione stocastica Decomposizione di Cholesky Osservazioni Il processo simulato Z = µ + Lε rispecchia le stesse caratteristiche globali fissate inizialmente, essendo E(Z) = µ V ar(z) = Σ. Mediante un generatore di numeri pseudo-casuali è possibile determinare il vettore ε e quindi costruire più mappe alternative ed equiprobabili.

Analisi Statistica Spaziale 37 Simulazione stocastica Decomposizione di Cholesky Osservazioni Il processo simulato Z = µ + Lε rispecchia le stesse caratteristiche globali fissate inizialmente, essendo E(Z) = µ V ar(z) = Σ. Mediante un generatore di numeri pseudo-casuali è possibile determinare il vettore ε e quindi costruire più mappe alternative ed equiprobabili.

Analisi Statistica Spaziale 37 Simulazione stocastica Decomposizione di Cholesky Osservazioni Il processo simulato Z = µ + Lε rispecchia le stesse caratteristiche globali fissate inizialmente, essendo E(Z) = µ V ar(z) = Σ. Mediante un generatore di numeri pseudo-casuali è possibile determinare il vettore ε e quindi costruire più mappe alternative ed equiprobabili.

Analisi Statistica Spaziale 38 Simulazione stocastica Simulazione sequenziale Simulazione sequenziale CARATTERISTICA PRINCIPALE: tecnica di simulazione stocastica condizionata Assegnato un campo aleatorio Z, sia N il numero di localizzazioni prefissate ω 1, ω 2,...,ω N in cui si intende ottenere i valori simulati. I momenti del primo e del secondo ordine del campo aleatorio Z risultano essere: ( ) µ(u) = E Z(u) u D ( ) C(u, ω) = Cov Z(u), Z(ω) u, ω D.

Analisi Statistica Spaziale 38 Simulazione stocastica Simulazione sequenziale Simulazione sequenziale CARATTERISTICA PRINCIPALE: tecnica di simulazione stocastica condizionata Assegnato un campo aleatorio Z, sia N il numero di localizzazioni prefissate ω 1, ω 2,...,ω N in cui si intende ottenere i valori simulati. I momenti del primo e del secondo ordine del campo aleatorio Z risultano essere: ( ) µ(u) = E Z(u) u D ( ) C(u, ω) = Cov Z(u), Z(ω) u, ω D.

Analisi Statistica Spaziale 38 Simulazione stocastica Simulazione sequenziale Simulazione sequenziale CARATTERISTICA PRINCIPALE: tecnica di simulazione stocastica condizionata Assegnato un campo aleatorio Z, sia N il numero di localizzazioni prefissate ω 1, ω 2,...,ω N in cui si intende ottenere i valori simulati. I momenti del primo e del secondo ordine del campo aleatorio Z risultano essere: ( ) µ(u) = E Z(u) u D ( ) C(u, ω) = Cov Z(u), Z(ω) u, ω D.

Analisi Statistica Spaziale 38 Simulazione stocastica Simulazione sequenziale Simulazione sequenziale CARATTERISTICA PRINCIPALE: tecnica di simulazione stocastica condizionata Assegnato un campo aleatorio Z, sia N il numero di localizzazioni prefissate ω 1, ω 2,...,ω N in cui si intende ottenere i valori simulati. I momenti del primo e del secondo ordine del campo aleatorio Z risultano essere: ( ) µ(u) = E Z(u) u D ( ) C(u, ω) = Cov Z(u), Z(ω) u, ω D.

Analisi Statistica Spaziale 39 Simulazione stocastica Simulazione sequenziale Simulazione sequenziale Sia { } z(u i ) = z i, i = 1, 2,...,n una realizzazione di Z, nelle localizzazioni campionate u i, i = 1, 2,...,n.

Algoritmo di simulazione sequenziale L algoritmo di simulazione sequenziale, per ciascuna delle s mappe, si articola nelle fasi: 1 estrazione casuale di un nodo, ad esempio ω 1; 2 stima della distribuzione di probabilità di Z(ω 1), condizionata all informazione disponibile ovvero ai valori campionati z(u i), u i (n), ( ) ( { }) P Z(ω 1) z n = P Z(ω 1) z z(u i), u i (n) ; 3 estrazione di un valore z (s) (ω 1) da quest ultima distribuzione. Il processo di simulazione continua, ripercorrendo le fasi 1, 2, 3, ovvero 1 viene selezionato casualmente un secondo nodo, ad esempio ω 2; 2 si stima la distribuzione di Z(ω 2), condizionata sia ai valori campionati che ai valori precedentemente simulati, ovvero ( ) ( { }) P Z(ω 2) z n + 1 = P Z(ω 2) z z(u i), u i (n); z (s) (ω 1) ; 3 si estrae un valore z (s) (ω 2) da quest ultima distribuzione.

Algoritmo di simulazione sequenziale L algoritmo di simulazione sequenziale, per ciascuna delle s mappe, si articola nelle fasi: 1 estrazione casuale di un nodo, ad esempio ω 1; 2 stima della distribuzione di probabilità di Z(ω 1), condizionata all informazione disponibile ovvero ai valori campionati z(u i), u i (n), ( ) ( { }) P Z(ω 1) z n = P Z(ω 1) z z(u i), u i (n) ; 3 estrazione di un valore z (s) (ω 1) da quest ultima distribuzione. Il processo di simulazione continua, ripercorrendo le fasi 1, 2, 3, ovvero 1 viene selezionato casualmente un secondo nodo, ad esempio ω 2; 2 si stima la distribuzione di Z(ω 2), condizionata sia ai valori campionati che ai valori precedentemente simulati, ovvero ( ) ( { }) P Z(ω 2) z n + 1 = P Z(ω 2) z z(u i), u i (n); z (s) (ω 1) ; 3 si estrae un valore z (s) (ω 2) da quest ultima distribuzione.

Algoritmo di simulazione sequenziale L algoritmo di simulazione sequenziale, per ciascuna delle s mappe, si articola nelle fasi: 1 estrazione casuale di un nodo, ad esempio ω 1; 2 stima della distribuzione di probabilità di Z(ω 1), condizionata all informazione disponibile ovvero ai valori campionati z(u i), u i (n), ( ) ( { }) P Z(ω 1) z n = P Z(ω 1) z z(u i), u i (n) ; 3 estrazione di un valore z (s) (ω 1) da quest ultima distribuzione. Il processo di simulazione continua, ripercorrendo le fasi 1, 2, 3, ovvero 1 viene selezionato casualmente un secondo nodo, ad esempio ω 2; 2 si stima la distribuzione di Z(ω 2), condizionata sia ai valori campionati che ai valori precedentemente simulati, ovvero ( ) ( { }) P Z(ω 2) z n + 1 = P Z(ω 2) z z(u i), u i (n); z (s) (ω 1) ; 3 si estrae un valore z (s) (ω 2) da quest ultima distribuzione.

Algoritmo di simulazione sequenziale L algoritmo di simulazione sequenziale, per ciascuna delle s mappe, si articola nelle fasi: 1 estrazione casuale di un nodo, ad esempio ω 1; 2 stima della distribuzione di probabilità di Z(ω 1), condizionata all informazione disponibile ovvero ai valori campionati z(u i), u i (n), ( ) ( { }) P Z(ω 1) z n = P Z(ω 1) z z(u i), u i (n) ; 3 estrazione di un valore z (s) (ω 1) da quest ultima distribuzione. Il processo di simulazione continua, ripercorrendo le fasi 1, 2, 3, ovvero 1 viene selezionato casualmente un secondo nodo, ad esempio ω 2; 2 si stima la distribuzione di Z(ω 2), condizionata sia ai valori campionati che ai valori precedentemente simulati, ovvero ( ) ( { }) P Z(ω 2) z n + 1 = P Z(ω 2) z z(u i), u i (n); z (s) (ω 1) ; 3 si estrae un valore z (s) (ω 2) da quest ultima distribuzione.

Algoritmo di simulazione sequenziale L algoritmo di simulazione sequenziale, per ciascuna delle s mappe, si articola nelle fasi: 1 estrazione casuale di un nodo, ad esempio ω 1; 2 stima della distribuzione di probabilità di Z(ω 1), condizionata all informazione disponibile ovvero ai valori campionati z(u i), u i (n), ( ) ( { }) P Z(ω 1) z n = P Z(ω 1) z z(u i), u i (n) ; 3 estrazione di un valore z (s) (ω 1) da quest ultima distribuzione. Il processo di simulazione continua, ripercorrendo le fasi 1, 2, 3, ovvero 1 viene selezionato casualmente un secondo nodo, ad esempio ω 2; 2 si stima la distribuzione di Z(ω 2), condizionata sia ai valori campionati che ai valori precedentemente simulati, ovvero ( ) ( { }) P Z(ω 2) z n + 1 = P Z(ω 2) z z(u i), u i (n); z (s) (ω 1) ; 3 si estrae un valore z (s) (ω 2) da quest ultima distribuzione.

Algoritmo di simulazione sequenziale L algoritmo di simulazione sequenziale, per ciascuna delle s mappe, si articola nelle fasi: 1 estrazione casuale di un nodo, ad esempio ω 1; 2 stima della distribuzione di probabilità di Z(ω 1), condizionata all informazione disponibile ovvero ai valori campionati z(u i), u i (n), ( ) ( { }) P Z(ω 1) z n = P Z(ω 1) z z(u i), u i (n) ; 3 estrazione di un valore z (s) (ω 1) da quest ultima distribuzione. Il processo di simulazione continua, ripercorrendo le fasi 1, 2, 3, ovvero 1 viene selezionato casualmente un secondo nodo, ad esempio ω 2; 2 si stima la distribuzione di Z(ω 2), condizionata sia ai valori campionati che ai valori precedentemente simulati, ovvero ( ) ( { }) P Z(ω 2) z n + 1 = P Z(ω 2) z z(u i), u i (n); z (s) (ω 1) ; 3 si estrae un valore z (s) (ω 2) da quest ultima distribuzione.

Algoritmo di simulazione sequenziale L algoritmo di simulazione sequenziale, per ciascuna delle s mappe, si articola nelle fasi: 1 estrazione casuale di un nodo, ad esempio ω 1; 2 stima della distribuzione di probabilità di Z(ω 1), condizionata all informazione disponibile ovvero ai valori campionati z(u i), u i (n), ( ) ( { }) P Z(ω 1) z n = P Z(ω 1) z z(u i), u i (n) ; 3 estrazione di un valore z (s) (ω 1) da quest ultima distribuzione. Il processo di simulazione continua, ripercorrendo le fasi 1, 2, 3, ovvero 1 viene selezionato casualmente un secondo nodo, ad esempio ω 2; 2 si stima la distribuzione di Z(ω 2), condizionata sia ai valori campionati che ai valori precedentemente simulati, ovvero ( ) ( { }) P Z(ω 2) z n + 1 = P Z(ω 2) z z(u i), u i (n); z (s) (ω 1) ; 3 si estrae un valore z (s) (ω 2) da quest ultima distribuzione.

Algoritmo di simulazione sequenziale Si reiterano le 3 fasi fino a quando non vengono esaminati tutti gli N nodi, a ciascuno dei quali viene associato un valore simulato. L insieme { } z (s) (ω i ), i = 1, 2,...,N rappresenta una realizzazione simulata del campo aleatorio Z.

Algoritmo di simulazione sequenziale Si reiterano le 3 fasi fino a quando non vengono esaminati tutti gli N nodi, a ciascuno dei quali viene associato un valore simulato. L insieme { } z (s) (ω i ), i = 1, 2,...,N rappresenta una realizzazione simulata del campo aleatorio Z.