Probablità, Statistica e Processi Stocastici

Documenti analoghi
Probablità, Statistica e Processi Stocastici

Probablità, Statistica e Processi Stocastici

Scheda n. 7: primi elementi sui legami tra più variabili

Probablità, Statistica e Processi Stocastici

Statistica II Laurea magistrale in Ing. Gestionale a.a. 2012/13 Esempi di domande brevi. 1. Definizione di quantile gaussiano standard

Scheda n. 9: PCA - parte prima

()Probablità, Statistica e Processi Stocastici

Vettore (o matrice) casuale (o aleatorio): vettore (o matrice) i cui elementi sono variabili aleatorie

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Statistica II Laurea magistrale in Ing. Gestionale a.a. 2012/13 Registro delle lezioni

MMMPG 2008/09 Registro delle lezioni

Scheda n. 13: modelli lineari

Corso di Geometria Meccanica, Elettrotecnica Esercizi 11: soluzioni

()Probablità, Statistica e Processi Stocastici

Calcolo di Probabilità e Processi Stocastici, Laurea magistrale in Ing. Robotica e dell Automazione, a.a. 2011/12 Registro delle lezioni

SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE

Politecnico di Milano Ingegneria Industriale Analisi e Geometria 2 Secondo Appello 7 Settembre 2016

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

()Probablità, Statistica e Processi Stocastici

Università degli Studi di Bergamo Corso integrato di Analisi 1 (Geometria e Algebra Lineare) 3 settembre 2009 Tema A

5 Un applicazione: le matrici di rotazione

Istituzioni di Probabilità Laurea magistrale in Matematica a.a. 2013/14 Registro delle lezioni

Prodotto scalare e matrici < PX,PY >=< X,Y >

Esercizi su leggi Gaussiane

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Analisi Statistica Multivariata Modulo Modelli Statistici

()Probablità, Statistica e Processi Stocastici

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2017/18 - Prova scritta

(P x) (P y) = x P t (P y) = x (P t P )y = x y.

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

Probabilità e Statistica

Matematica con elementi di Informatica

Geometria A. Università degli Studi di Trento Corso di laurea in Matematica A.A. 2017/ Maggio 2018 Prova Intermedia

()Probablità, Statistica e Processi Stocastici

ESAMI A.A ANDREA RATTO

()Probablità, Statistica e Processi Stocastici

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

Capitolo 8 Forme quadratiche e loro applicazioni Esercizi svolti Tutorato di geometria e algebra lineare. Marco Robutti

ESAMI E ESERCITAZIONI A.A

Corso di Laurea in Scienze dell Organizzazione Facoltà di Sociologia, Università degli Studi di Milano-Bicocca a.a. 2009/2010.

Metodi e Modelli Matematici di Probabilità per la Gestione Prova scritta 12/01/2009

Scheda n.3: densità gaussiana e Beta

Esercitazione ENS su processi casuali (13 e 14 Maggio 2008)

Errata corrige. p. 10 riga 5 del secondo paragrafo: misurare

Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche

Algebra lineare e geometria AA Appunti sul cambio di base in uno spazio vettoriale

Metodi e Modelli Matematici di Probabilità per la Gestione Prova scritta 12/6/2010

VIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul

con distribuzione gaussiana standard e si ponga

Geometria BAER Canale A-K Esercizi 8

APPUNTI SULLA DIAGONALIZZAZIONE Corso Prof. F.Podestà, a.a

F x 1 = x 1 + x 2. 2x 1 x 2 Determinare la matrice C associata a F rispetto alla base canonica (equivalentemente,

ESAMI E ESERCITAZIONI A.A Esempio di Prova d Esame Tempo a disposizione: 60 minuti. Esercizio 1.1. (8 punti) Si consideri la matrice

I VETTORI GAUSSIANI E. DI NARDO

Università degli Studi di Bergamo Modulo di Geometria e Algebra Lineare (vecchio programma) 2 settembre 2013 Tema A

Esercizi vari sulle schede di statistica

Variabile aleatoria vettoriale

Volumi in spazi euclidei 12 dicembre 2014

Esame di Calcolo delle Probabilità del 11 dicembre 2007 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

FM210 - Fisica Matematica I

Computazione per l interazione naturale: fondamenti probabilistici (2)

Isometrie e cambiamenti di riferimento

ESAMI E ESERCITAZIONI A.A

Endomorfismi simmetrici

Statistica II, Laurea magistrale in Ing. Gestionale, a.a. 2013/14 10/01/2014

01CXGBN Trasmissione numerica. parte 6: calcolo delle probabilità I

1 Alcuni risultati sulle variabili Gaussiane multivariate

ESERCIZI DI ALGEBRA LINEARE (II PARTE) In ogni sezione gli esercizi sono tendenzialmente ordinati per difficoltà crescente.

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2017/2018. Giovanni Lafratta

Geometria BAER Canale A-K Esercizi 11

Geometria BAER Canale I Esercizi 12

Esercizi sulle coniche (prof.ssa C. Carrara)

Correzione di Esercizi 4 di Calcolo delle Probabilità e Statistica. Mercoledì 4 maggio 2016

Statistica I. Ingegneria Gestionale. Scritto del 17/07/2012

Corso di Laurea Magistrale in Ingegneria Informatica A.A. 2016/17 Processi stocastici e analisi di serie temporali

Metodi e Modelli Matematici di Probabilità per la Gestione Prova scritta 15/12/2008 Compito B

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

Prova scritta di Geometria 18/01/2016, Soluzioni Ing. Meccanica a.a

11 Piccole oscillazioni attorno a posizioni stabili

Geometria BAER Canale A-K Esercizi 9

Convergenza di martingale - La convergenza in L p, p > 1 equivale alla limitatezza in L p : disuguaglianza per submg non negative; disuguaglianza di

La media e la mediana sono indicatori di centralità, che indicano un centro dei dati.

DIAGONALIZZAZIONE E FORME QUADRATICHE / ESERCIZI PROPOSTI

Generazione di Numeri Casuali- Parte 2

Esercizio 1. Trovare un intervallo della distribuzione di COR che contenga il 95% dell'area.

Concetti di teoria dei campioni ad uso degli studenti di Statistica Economica e Finanziaria, A.A. 2016/2017. Giovanni Lafratta

9.3 Il metodo dei minimi quadrati in formalismo matriciale

Esercizi sulle coniche (prof.ssa C. Carrara)

Teoria dei Fenomeni Aleatori AA 2012/13

Stima puntuale di parametri

LEZIONE 16 A = Verifichiamo se qualcuna fra le entrate a di A è suo autovalore. determinare per quale entrata a di A risulta rk(a ai 2 ) 1.

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2016/17 - Prima prova in itinere

ESAMI E ESERCITAZIONI A.A

Coppie di variabili aleatorie

Statistica. Esercitazione 4 17 febbraio 2011 Medie condizionate. Covarianza e correlazione

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione.

Corso di Laurea in Informatica Calcolo delle Probabilità e Statistica (269AA) A.A. 2017/18 - Seconda prova in itinere (A)

MODELLI e METODI MATEMATICI della FISICA. Programma dettagliato del corso - A.A

Risolvere il seguente sistema lineare ESERCIZIO 2

Transcript:

Probablità, Statistica e Processi Stocastici Franco Flandoli, Università di Pisa

Programma del corso vettori gaussiani, PCA ed fpca altri metodi di analisi e previsione di serie storiche catene di Markov e simulazioni MCMC equazioni differenziali stocastiche

PCA ed fpca PCA = principal component analysis fpca = functional principal component analysis Sono due tecniche statistiche, basate su interessanti teorie matematiche, la prima adatta all esplorazione di tabelle, la seconda all esplorazione di serie storiche, immagini ed altro N. ore: circa 6

Altri metodi di analisi e previsione di serie storiche Metodi regressivi (simili ai modelli ARIMAX) Holt Winters e suoi precursori (smorzamento esponenziale, versione con trend) corredati di altri elementi utili, come acf, algoritmi di decomposizione. N. ore: circa 4

Catene di Markov e simulazioni MCMC un po di teoria, teorema ergodico e di convergenza all equilibrio algoritmo di Metropolis, misure di Gibbs esempio: il modello di Ising N. ore: circa 5

Equazioni differenziali stocastiche elementi di teoria dei processi stocastici moto browniano integrali stocastici e calcolo stocastico equazioni differenziali stocastiche simulazioni N. ore: circa 5-9

Software Tutto il corso sarà basato sull uso del software R. Scaricarlo da rete (gratuito).

PCA (principal component analysis) L idea geometrica parte dalle gaussiane multidimensionali. Iniziamo con un breve richiamo sulle gaussiane unidimensionali. Densità gaussiana standard f (x) = 1 e x2 2 2π y 0.4 0.3 0.2 0.1 5 4 3 2 1 0 1 2 3 4 5 x

Gaussiane unidimensionali La gaussiana standard ha media 0 e deviazione standard 1. Se Z è una variabile aleatoria gaussiana standard, la nuova variabile aleatoria X = σz + µ ha media µ e deviazione standard σ (la sua densità si scrive facilmente, vedi Wiki). Verrà abbreviata N ( µ, σ 2). Col software R possiamo generare campioni N ( µ, σ 2), col comando: rnorm(n,mu,sig) > rnorm(10,7,1) [1] 6.349231 7.608871 7.474523 7.664420 5.027992 6.748387 6.341020 6.948569 [9] 7.359332 7.368808

Gaussiane unidimensionali Coi comandi dnorm e pnorm si ottengono densità e cumulativa: X =seq(-5,5,0.01) Y= dnorm(x) plot(x,y,asp=8)

Gaussiane unidimensionali X =seq(-5,5,0.01) Y= pnorm(x) plot(x,y)

Gaussiana multidimensionale standard Densità gaussiana (o normale) standard in dimensione n: 1 f (x 1,..., x n ) = e x2 1 1 2 e x2 n 2 2π 2π ( = (2π) n/2 exp 1 ( x 2 2 1 +... + xn 2 ) ) o in notazione vettoriale f (x) = (2π) n/2 exp Questa è la densità di un vettore aleatorio ( 12 x 2 ), x = (x 1,..., x n ). Z = (Z 1,..., Z n ) fatto di componenti Z i gaussiane standard e indipendenti.

Gaussiana bidimensionale standard f (x, y) = (2π) 1 exp ( 1 ( 2 x 2 + y 2)). Curve di livello: x 2 + y 2 = R 2 (circonferenze, centrate nell origine) 0.15 0.10 z 0.05 4 0.00 2 0 2 0 2 4 4 2 y 4 x (ottenuto con Maple)

Simulazione di punti gaussiani standard nel piano n=1000 Z1=rnorm(n) Z2=rnorm(n) plot(z1,z2)

Gaussiana multidimensionale generica Se Z = (Z 1,..., Z n ) è un vettore gaussiano standard, A : R n R k è una matrice, µ R k è un vettore (deterministico), allora X = AZ + µ è un vettore gaussiano qualsiasi. I vettori gaussiani sono tutti e soli quelli ottenibili in questo modo. Posto Q = AA T, se det Q = 0, allora il vettore X ha densità 1 f (x) = ( (2π) n det Q exp 1 ) 2 (x µ)t Q 1 (x µ). Si verifica che µ è il vettore delle medie (delle componenti di X) e Q è la matrice di covarianza.

Visualizzazioni gaussiana bidimensionale generica Il grafico della densità non è molto effi cace. Proviamo a titolo di esempio. ( ) 3 0 A =, µ = 0 0 1 ovvero Q = AA T = ( 9 0 0 1 f (x 1, x 2 ) = X 1 = 3Z 1 X 2 = Z 2. ) (, Q 1 1/9 0 = 0 1 ( exp 1 2 1 (2π) 2 9 ( x 2 1 9 + x 2 2 ), det Q = 9 )).

Esempio di gaussiana bidimensionale ( )) 1 ( (2π) 2 9 exp 1 x 2 19 2 + x2 2 0.04 z 0.02 4 4 20.00 2 0 0 2 2 4y x4 Si immagini ( un esempio) analogo ( con ) rotazione: cos θ sin θ 9 0 A =. sin θ cos θ 0 1

Curve di livello I calcoli sulla densità in genere sono diffi cili. Più trasparente è visualizzare le curve di livello: {x R n : f (x) = a}. Si vede immediatamente che hanno la forma { x R n : (x µ) T Q 1 (x µ) = ra 2 ( 3 0 0 1 Questi sono ellissoidi. Ad esemio, per A = ellissi della forma ( x1 ) 2 + x 2 3 2 = ra 2. }. ), µ = 0, sono le y 2 1 4 2 2 4 x

Visualizzazione tramite punti aleatori Ricordiamo che i comandi n=1000; Z1=rnorm(n); Z2=rnorm(n); plot(z1,z2) generavano punti gaussiani standard nel piano. Essendo X = AZ + µ, per generare punti secondo la gaussiana X, basta applicare la trasformazione affi ne ai punti standard generati sopra. Esempio: { X1 = 3Z 1 A = ( 3 0 0 1 ), µ = 0, X1=3*Z1; X2=Z2; plot(x1,x2,asp=1) X 2 = Z 2

Si parte da A o da Q? Nella nostra definizione, un vettore gaussiano è definito tramite una matrice A: X = AZ + µ. Poi però la densità è definita tramite Q. Se si parte da A, si calcola Q con la formula Q = AA T. Se si parte da Q e serve conoscere A, bisogna trovare una matrice A tale che AA T = Q. Negli esempi/applicazioni, di solito si parte da Q, è nota Q. A questo scopo però è necessario capire meglio il concetto di matrice di covarianza.

Matrice di covarianza Dato un vettore aleatorio (anche non gaussiano) X = (X 1,..., X n ), chiamiamo sua media il vettore µ = (E [X 1 ],..., E [X n ]) e matrice di covarianza la matrice n n di componenti Q ij = Cov (X i, X j ), i, j = 1,..., n Ricordiamo che Cov (X, Y ) = E [(X E [X ]) (Y E [Y ])] E [XY ] E [X ] E [Y ]. e che questa operazione è lineare in entrambi i sui argomenti. Theorem La matrice Q è simmetrica, definita non negativa. ranco Flandoli, Università di Pisa () Processi Stocastici

Matrice di covarianza Media e matrice di covarianza riassumono solo alcune caratteristiche statistiche di un vettore aleatorio (come media e varianza di una variabile aleatoria). Però per i vettori gaussiani racchiudono tutte le informazioni. Gli elementi sulla diagonale di Q sono le varianze delle componenti, Q ii = Cov (X i, X i ) = Var [X i ] quindi catturano la dispersione delle singole componenti. Gli elementi fuori dalla diagonale Q ij, per i = j, catturano in una certa misura il legame, la dipendenza reciproca, tra le variabili X i e X j. (Modulato dalla dispersione.) Più precisamente, per esaminare il legame andrebbe usato il coeffi ciente di correlazione, che non dipende dalla scala ρ (X i, X j ) = Cov (X i, X i ) Var [Xi ] Var [X j ].

Dati sperimentali multidimensionali Esamineremo nelle esercitazioni una tabella del tipo SC SA.SC TD Piem 0.471-0.707-0.607 Vaos 0.348-0.642-0.813 Lomb 1.397-0.836-0.790 TrAA 0.435-1.269-0.966............ dove SC sono le Spese Complessive per famiglia di quella regione in un certo anno, SA.SC le Spese per Alimenti rispetto al totale delle spese, TD il Tasso di Disoccupazione. Il vettore aleatorio è X = (X 1, X 2, X 3 ) = (SC, SA.SC, TD).

Fare un modello Supponiamo di voler "conoscere la densità di probabilità" di X. Più realisticamente, supponiamo di voler trovare una densità di probabilità f (x 1, x 2, x 3 ) che "descriva ragionevolmente" i dati. Per semplicità, decidiamo di cercarla gaussiana. Calcolare (più precisamente "stimare") direttamente A dai dati non è naturale. Invece possiamo stimare Q e µ, usando gli usuali stimatori empirici di media e covarianza. Con R, per stimare Q, basta usare il comando cov(b), dove B è il nome della tabella. In questo senso dicevamo sopra che negli esempi di solito si conosce Q (in genere empirica), non A.

Generazione di punti aleatori nota Q Sopra abbiamo visto il modo banale di generare punti aleatori nota A (basta generare punti standard ed applicare A). Se è nota Q, bisogna risolvere l equazione AA T = Q. Essa ha infinite soluzioni. Quella "canonica" è A = Q definita come quell unica matrice simmetrica e definita positiva che al quadrato dà Q. Come la si calcola? Dopo averla calcolata, basta generare punti standard z ed applicarci Q.

Decomposizione spettrale Essendo simmetrica, Q è diagonalizzabile: esiste una base ortonormale e 1,..., e n di R n fatta di autovettori di Q, Qe i = λ i e i e, posto Q e = λ 1 0 0 0... 0 0 0 λ n, U = e n e 1... vale Q = UQ e U T. Essendo Q positiva, gli autovalori λ i risultano positivi.

Definizione di radice quadrata Ricordando Q = UQ e U T, basta ora porre Q = U Qe U T. Si verifica subito che Q Q = Q e che Q è simmetrica e definita positiva. Ecco i comandi di R: e = eigen(q) U = e$vectors B = U %*% diag(sqrt(e$values)) %*% t(u)

Esercizio riassuntivo Svolgiamo insieme un esercizio riassuntivo. 1 Creiamo un vettore di punti gaussiani generati con R, che corrispondano ad una gaussiana dilatata in una direzione e ruotata di π/10 2 Di tali punti calcoliamo la matrice di covarianza empirica, che chiameremo Q 3 Di Q calcoliamo la radice quadrata Q 4 Usando Q, simuleremo punti gaussiani aventi covarianza Q 5 osserveremo ad occhio la somiglianza coi punti creati all inizio (volendo ci sarebbero dei test statistici) L esercizio si trova svolto in una scheda a parte.

Verso PCA Supponiamo di avere dei punti nello spazio 3D. Ad esempio, supponiamo che siano stati generati da una gaussiana tridimensionale. Se vogliamo vederli nel modo più "aperto" ("sparpagliato") possibile, meno "sovrapposto", come dobbiamo ruotare il disegno? Immaginate che i punti siano una nuvola ellissoidale; l ellissoide avrà un asse più lungo, un secondo asse più lungo ed un terzo asse più corto. Se ci mettiamo nel piano dei due assi più lunghi abbiamo la visuale più sparpagliata possibile. Come si trovano gli assi dell ellisoide?

Le superfici di livello di una gaussiana qualsiasi Theorem Supponiamo det Q = 0. Allora le superfici di livello della densità 1 f (x) = ( (2π) n det Q exp 1 ) 2 (x µ)t Q 1 (x µ) ovvero gli insieli della forma { } x R n : (x µ) T Q 1 (x µ) = ra 2 sono ellissoidi aventi come assi gli autovettori e 1,..., e n di Q, e lunghezze degli assi i numeri λ 1,..., λ n, dove λ 1,..., λ n sono gli autovalori corrispondenti a e 1,..., e n. Useremo la convenzione che sia λ 1... λ n. ranco Flandoli, Università di Pisa () Processi Stocastici

Verso PCA Dal precedente teorema è chiaro come agire: dato un insieme di puntui nello spazio R n si calcola la loro matrice di covarianza empirica Q si trova il suo spettro e 1,..., e n, λ 1,..., λ n si decide che il piano individuato da e 1, e 2 è quello che fornisce la miglior visione dei punti. L ipotesi di gaussianità vedremo che non serve, strettamente parlando. Però ci ha fornito in modo facile e geometricamente intuitivo il risultato.

Il metodo PCA Data una tabella (si veda l esempio nella scheda a parte) le righe vengono interpretate come punti di uno spazio R n il metodo PCA calcola la matrice di covarianza empirica Q della tabella (cioè di tali punti) e la decomposizione spettrale di Q. Tutto questo col comando princomp(b) col comando biplot si ottiene il piano individuato da e 1, e 2 con disegnati i punti di partenza, corrispondenti alle righe ("gli individui") della tabella. Nelle lezioni successive vedremo un po di teoria e di pratica in più su PCA e la sua versione funzionale, fpca.