Macroeconometria. Introduzione alle Serie Storiche. Carolina Castagnetti Universitá di Pavia

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "Macroeconometria. Introduzione alle Serie Storiche. Carolina Castagnetti Universitá di Pavia"

Transcript

1 Macroeconometria Introduzione alle Serie Storiche Carolina Castagnetti Universitá di Pavia

2 Definizione:Convergenza in Probabilitá Il vettore di vc x n converge in probabilitá alla costante c se: lim n Prob( x n c > ǫ) = 0 ǫ > 0 e si indica con plimx n = c o x n p c Definizione:Consistenza di uno stimatore (debole) Uno stimatore ˆβ n di un vettore di parametri β é uno stimatore consistente di β se e solo se plimˆβ n = β cioé se converge al suo valore vero quando n. (trattiamo lo stimatore come una sequenza di variabili casuali) 1

3 Teorema:Convergenza in media quadratica Se x n ha media µ n e varianza σ n tali che lim n µ n = c e lim n σ n = 0 allora x n converge in media quadratica a c: plimx n = c Definizione:Convergenza in modo quasi certo Il vettore di variabili casuali x n converge in modo quasi certo a c se Prob[ lim n x n c < ǫ] = 1 ǫ > 0 x n q.c c Prima abbiamo parlato di consistenza in senso debole. Si parla invece di consistenza in senso forte quando facciamo riferimento alla convergenza in modo quasi certo. La convergenza in modo quasi certo convergenza in probabilitá. 2

4 Definizione:Convergenza in distribuzione Il vettore di variabili casuali x n converge in distribuzione al vettore di variabili casuali x, avente funzione di densitá cumulata F(x) se: ovvero lim n F x n (x) = F x (x) lim n Pr(x n b) = Pr(x b) per tutti i vettori b per cui la distribuzione limite é continua. La convergenza in distribuzione si indica con: x n d x 3

5 Regole per i limiti in probabilitá Se x n e y n sono variabili casuali con plimx n = c e plimy n = d allora: plim(x n + y n ) = c + d plim x n y n = c d plim(x n y n ) = cd se d 0 Se X n é una matrice di variabili casuali e plimx n = W allora plimx 1 n = W 1 Se X n e Y n sono matrici di variabili casuali con plimx n = A e plimy n = B allora: plimx n Y n = AB 4

6 Cramér-Slutsky Se x n d x e yn p c dove x é una variabile casuale e c é una costante deterministica, allora: x n y n d cx x n + y n d x + c x n y n d x c x n d x y n c se c 0 5

7 Legge debole dei grandi numeri Sia x n un vettore di variabili casuali I.I.D. con E[x n ] = µ, costante finita. Allora: 1 N N n=1 x n p µ Teorema del Limite Centrale di Lindberg-Levy Sia x n un vettore di variabili casuali I.I.D. con E[x n ] = µ e matrice di varianza e covarianza definita positiva Σ allora: N( xn µ) d N(0,Σ) 6

8 Questo teorema del Limite Centrale assume che i vettori di variabili casuali abbiano la stessa distribuzione. Esiste una variante del teorema (versione di Lindberg-Feller) secondo cui non é necessario che le variabili casuali abbiano la stessa distribuzione ma possono avere distribuzioni diverse e quindi medie e varianze diverse.

9 Definizione Processo stocastico: Un processo stocastico è costituito da una sequenza di variabili casuali {y t } indicizzate dal parametro t mathcal(t) e definite su uno stesso spazio di probabilità {Ω, G, P }. Il processo stocastico è tale che per ogni t (T), y t (ω) é una variabile casuale nello spazio campionario Ω, e per ogni ω Ω, y t (ω) é una realizzazione del processo stocastico sull insieme (T). Definizione Serie storica: Una serie storica é (la parte finita di) una particolare realizzazione {y t } t= di un processo stocastico. 7

10 Definizione Funzione di Autocovarianza: La distribuzione congiunta di (y t, y t 1,..., y t h ) di solito é caratterizzata dalla funzione di autocovarianza: γ t (h) = Cov(y t, y t h ) = E[(y t µ t )(y t h µ t h )] =... (y t µ t )(y t h µ t h )f(y t,..., y t h )dy t... dy t h (1) 8

11 Definizione La media non condizionale µ t = E[y t ] = Definizione La media condizionale E[y t x t ] = y t f(y t )dy t (2) y t f(y t x t )dy t (3) dove f(y t x t ) = f(x t,y t ) f(x t ) x t. è la distribuzione condizionale di y t rispetto a 9

12 Definizione La funzione di autocorrelazione ρ t (h) = γ t (h) γ t (0)γ t h (0) (4) 10

13 Stazionarietá Definizione Stazionarietá debole (o in covarianza): Il processo y t si dice stazionario in senso debole o stazionario in covarianza se la media e i momenti secondi del processo sono indipendenti dal tempo: E[y t ] = µ t (5) E[(y t µ)(y t h µ)] = γ(h) t, h (6) Se un processo é stazionario in covarianza, la covarianza tra y t e y t h dipende solo da h, la durata dell intervallo di tempo che separa le osservazioni. Ne consegue che per un processo stazionario in covarianza γ t (h) = γ t ( h) = γ(h). 11

14 Definizione Stazionarietá in senso stretto Un processo si dice stazionario in senso stretto se, per ogni valore di h 1, h 2,..., h n, la distribuzione congiunta di (y t, y t+h1,..., y t+hn ) dipende solamente dall intervallo che separa le date (h 1, h 2,..., h n ) ma non dalla data stessa t: f(y t, y t+h1,..., y t+hn ) = f(y τ, y τ+h1,..., y τ+hn ) t, h (7) La stazionarietá in senso stretto implica che tutti i momenti esistenti sono indipendenti dal tempo e quindi un processo stazionario in senso stretto deve essere stazionario in covarianza. Non é vero il contrario. Definizione Processo gaussiano Il processo y t si dice Gaussiano se la densitá congiunta di (y t, y t+h1,..., y t+hn ), f(y t, y t+h1,..., y t+hn ), é Gaussiana per ogni h 1, h 2,..., h n. 12

15 Poiché la media e la varianza sono tutto ció che é richiesto per parametrizzare completamente una distribuzione gaussiana, un processo guassiano stazionario in covarianza é strettamente stazionario.

16 Ergodicitá Il concetto di ergodicitá riguarda quale tipo di informazione possiamo avere da una media temporale rispetto al concetto di media d insieme E[y t ] in ogni istante t. Non é possibile applicare la legge dei grandi numeri perché la serie storica osservata altro non é che una singola realizzazione di ampiezza T del processo. Definizione Ergodicitá rispetto alla media. Sia {y t (ω), ω Ω, t T } un processo stazionario in covarianza, tale che E[y t (ω)] = µ < e E[(y t (ω) µ) 2 ] = σ 2 < t. Sia y T = T 1 T t=1 y t la media temporale. Se y T converge in probabilitá a µ per T, y t si dice ergodico rispetto alla media. 13

17 Affinché un processo stocastico sia ergodico é necessario che le autocovarianze convergano a zero abbastanza in fretta al crescere della distanza tra osservazioni. Si puó mostrare che condizione sufficiente affinché un processo stazionario in covarianza sia ergodico rispetto alla media é che: h=0 γ(h) < Ergodicitá rispetto ai momenti secondi γ(h) = (T h) 1 T t=h+1 (y t µ)(y t h µ) P γ(h) 14

18 Il concetto di ergodicitá ha a che fare con l indipendenza asintotica, mentre il concetto di stazionarietá ha a che fare con l invarianza nel tempo del processo.

19 Esempio 1 Si consideri il processo stocastico {y t } definito da { u0 t = 0 con u y t = 0 N(0, σ 2 ) y t 1 t > 0 segue che {y t } é stazionario in senso stretto ma non ergodico. Dimostrazione Ovviamente abbiamo che y t = u 0 per ogni t 0. La stazionarietá deriva da: E[y t ] = E[u 0 ] = 0 E[y 2 t ] = E[u2 0 ] = σ2 E[y t y t 1 ] = E[u 2 0 ] = σ2 15

20 Quindi abbiamo che µ = 0, γ(h) = σ 2 ρ(h) = 1 sono indipendenti dal tempo. L ergodicitá per la media richiede che: y T = T T 1 1 t=0 converga a µ = 0 mentre invece é pari a u 0. Una possibile strada per mostrare l ergodicità è quella di utilizzare il teorema della convergenza in media quadratica: y t E[y t ] = E[ T T u 0] = E[u 0 ] = 0 var(y t ) = E[(y t E[y t ]) 2 ] = σ 2 in questo caso si vede come non sia possibile utilizzarla. 16

21 Esempio 2 Si consideri il processo stocastico {y t } definito da dove y t = µ + ǫ t ǫ t NID(0, σ 2 ) µ N(0, λ 2 ) e E[ǫ t µ] = 0 si vede che la serie è stazionaria in covarianza: E[y t ] = 0 var(y t ) = λ 2 + σ 2 γ t (j) = E[(µ + ǫ t )(µ + ǫ t+j )] = λ 2 j 17

22 la serie non è però ergodica. La condizione per l ergodicità è infatti violata: infatti si ha: j=0 γ t (j) 1 T T t=1 = 1 T T t=1 (ǫ t + µ) = µ + 1 T ǫ t µ

23 Esempio Il processo stocastico {y t } é detto random walk se y t = y 0 + t s=1 La media é indipendente dal tempo: µ = E[y t ] = E y 0 + t u s s=1 = y 0 + u s t > 0 (8) t s=1 E[u s ] = 0 se y 0 = 0. (9) 18

24 ma i momenti secondi divergono, cioé aumentano al crescere di t. La varianza é data da: 2 γ t (0) = E[yt 2 ] = E t y 0 + t = E = E = = t t s=1 k=1 t s=1 t s=1 E[u 2 s] + u s u k = E u s s=1 t t t s=1,s k k=1 u 2 s + 2 u s s=1 t t s=1 s=1,s k k=1 E[u s u k ] u s u k σ 2 = tσ 2. (10) 19

25 Le funzioni di autocovarianza sono: γ t (h) = E[y t y t h ] = E = E = = y 0 + t t h u s u k s=1 k=1 t h k=1 t h k=1 E[u 2 k ] t u s s=1 y 0 + t h u k k=1 σ 2 = (t h)σ 2 h > 0. (11) Infine, la funzione di autocorrelazione ρ t (h) per h > 0 é data da: ρ 2 t (h) = γt 2(h) γ t (0)γ t h (0) = [(t h)σ2 ] 2 [tσ 2 ][(t h)σ 2 ] = 1 h t h > 0 (12) 20

26 Processo White-Noise Un processo white-noise é un processo stazionario in senso debole che ha media zero ed é incorrelato nel tempo Quindi u t é un processo WN t T : E[u t ] = 0 u t WN(0, σ 2 ) (13) E[u 2 t ] = σ2 < E[u t u t h ] = 0 h 0, t h T (14) Quando viene rilassata l assunzione sulla varianza costante e viene sostituita con E[u 2 t ] <, u t é chiamato un processo WN debole. 21

27 Processo White-Noise Gaussiano Se il processo white-noise é distribuito secondo una normale, esso si chiama processo white-noise Gaussiano: u t NID(0, σ 2 ). (15) L ipotesi di normalitá implica stazionarietá forte e indipendenza seriale (unpredictability). Una generalizzazione del processo NID é il processo IID con momenti superiori costanti ma non specificati. 22

28 Martingala Il processo stocastico x t si chiama martingala rispetto all insieme informativo, I t 1, dei dati realizzati entro t 1 se E[ x t ] < E[x t I t 1 ] = x t 1 (16) Successione di differenze di martingale Il processo u t = x t x t 1 con E[ u t ] < e E[u t I t 1 ] = 0 per ogni t si dice una successione di differenze di martingale, MDS. 23

29 Mean Innovation il processo {u t } è un innovazione media rispetto all insieme informativo I t 1 se E[u t I t 1 ] = 0 24

30 Equazioni alle differenze del primo ordine y t = φy t 1 + w t Risoluzione per sostituzioni successive: y t = φ t+1 y 1 + φ t w 0 + φ t 1 w 1 + φ t 2 w φw t 1 + w t y t w 0 = φ t moltiplicatore dinamico in generale, se la sostituzione dinamica inizia al tempo t (per y t 1 dato) y t+j = φ j+1 y t 1 +φ j w t +φ j 1 w t+1 +φ j 2 w t+2 + +φw t+j 1 +w t+j y t+j w t = φ j 25

31 il moltiplicatore dinamico dipende solo da j: l intervallo di tempo che separa la variazione dell input e il valore dell output. Se 0 < φ < 1 il moltiplicatore y t+j verso lo zero w t decresce geometricamente Se 1 < φ < 0 il moltiplicatore y t+j w cambierá alternativamente di t segno decrescendo in valore assoluto Se φ > 0 il moltiplicatore dinamico y t+j aumenta esponenzialmente. w t

32 Se φ < 1 il sistema mostra oscillazione esplosive con segni alternati. Ricapitolando Se φ < 1 il sistema é stabile e gli effetti di una data variazione di w t alla fine si esauriscono. Se φ > 1 il sistema é esplosivo.

33 Caso intermedio: φ = 1: y t+j = y t 1 + w t + w t+1 + w t w t+j 1 + w t+j in questo caso un aumento unitario di w t causa un aumento permanente di una unitá di y t+j j = 0,1,... In generale, gli effetti di una variazione permanente della w (w t, w t+1,... aumentano tutti di una unitá) su y t+j sono dati da: y t+j w t + y t+j w t+1 + y t+j w t y t+j w t+j = φ j + φ j 1 + φ j 2 + +φ+1 per j e φ < 1 la successione a destra del segno di uguale converge a 1 φ 1 che é pari all effetto cumulato sulla y di una variazione transitoria della w: y t+j = 1 w t 1 φ j=0 26

34 Caso generale: equazioni alle differenze di ordine p Il valore di y al tempo t dipende dai suoi valori ritardati fino a p e dal valore corrente di (w t ): y t = φ 1 y t φ p y t p + w t (17) Companion Form ξ t = y t. y t p+1 (p 1) ξ t 1 = y t 1. y t p (p 1) 27

35 F = φ 1 φ 2... φ p 1 φ p v t = w t

36 Equazione alle differenze del primo ordine Questo é un sistema di p equazioni ξ t = Fξ t 1 + v t (18) y t = φ 1 y t φ p y t p + w t y t 1 = y t 1. =. y t p+1 = y t p+1 (19) ξ 0 = Fξ 1 + v 0 ξ 1 = Fξ 0 + v 1 = F(Fξ 1 + v 0 ) + v 1 = F 2 ξ 1 + Fv 0 + v 1 29

37 Ricorsivamente, ξ t = F t+1 ξ 1 + F t v Fv t 1 + v t (20) y t y t 1. y t p+1 = F t+1 y 1 y 2. y p +F t w F w t w t 0. 0 (21) 30

38 La prima equazione é y t = f (t+1) 11 y 1 +f (t+1) 12 y f (t+1) 1p y p +f (t) 11 w f 11 w t 1 +w t dove f (t+1) 11 indica l elemento (1,1) di F t+1, f (t+1) 12 indica l elemento (1,2) di F t+1, etc. In questo modo il valore di y t é descritto come funzione lineare di p valori iniziali di y, (y 1, y 2,..., y p ) e la storia della variabile input w dal tempo 0, (w 0, w 1,..., w t ). Per l istante t+j, ξ t+j = F j+1 ξ t 1 + F j v t Fv t+j 1 + v t+j y t+j = f (j+1) 11 y t 1 + f (j+1) 12 y t f (j+1) 1p y t p +f (j) 11 w t + f (j 1) 11 w t f 11 w t+1 + w t+j 31

39 Il moltiplicatore dinamico y t+j w t = f (j) 11 (22) quando j = 1, f (j) 11 = φ 1. Per ogni sistema di ordine p-esimo, l effetto su y t+1 di un aumento di una unitá di w t é dato dal coefficiente che lega y t a y t 1 yt+1 w t = φ 1 y t+2 w t = φ φ 2 = f (2) 11 Per valori di j piú grandi un modo per ottenere il valore numerico del moltiplicatore dinamico é quello di simulare numericamente il sistema. 32

40 Alternativamente, si puó avere una caratterizzazione analitica di y t+j w t tramite gli autovalori della matrice F. Gli autovalori sono F λi p = 0 (23) Il determinante é un polinomio di ordine p-esimo in λ le cui p soluzioni caratterizzano i p autovalori di F. Proposizione Gli autovalori di F sono i valori di λ che soddisfano λ p φ 1 λ p 1 φ 2 λ p 2... φ p 1 λ φ p = 0 (24) una volta che conosciamo gli autovalori, é immediato caratterizzare il comportamento dinamico del sistema.

41 Soluzione generale di una equazione alle differenze di ordine p con autovalori distinti Quando tutti gli autovalori sono minori di 1 in valore assoluto, il sistema é stabile e la sua dinamica puó essere rappresentata a mezzo di una media mobile di funzioni esponenziali decrescenti oppure di esponenziali sempre decrescenti ma di segno alternato. Quando gli autovalori sono reali ma almeno uno é maggiore in valore assoluto di 1, il sistema é esplosivo. 33

42 Se qualcuno degli autovalori é complesso avremo dinamiche interessanti. Quando gli autovalori sono complessi, sono sempre complessi coniugati. Ad esempio, λ 1 = a + ib, e la sua coniugata λ 2 = a ib dove i = 1 e a e b sono numeri reali, con modulo R = λ 1 λ 2 = a 2 + b 2. Il modulo R é un numero reale da interpretarsi come la distanza radiale di z dall origine nel piano complesso, dove a e b sono misurati sulle assi delle coordinate. 34

43 Se 1. R = 1, cioé gli autovalori complessi hanno modulo unitario, i moltiplicatori sono funzioni periodiche di seno e coseno di j. Un dato aumento di w t fa aumentare y t+j per certi intervalli di j e lo riduce per altri intervalli, con l impulso che non si esaurisce per j. 2. R < 1. L impulso segue un sentiero sinusoidale con un ampiezza che si smorza al tasso R j. 3. R > 1. L ampiezza della sinusoide esplode al tasso R j. 35

44 Operatore ritardo Supponiamo che y t sia un processo stocastico. Definiamo L come Ly t = y t 1 L j y t = y t j j N L(β x t ) = β Lx t Proprietá distributiva rispetto all addizione L(y t + x t ) = y t 1 + x t 1 (25) L operatore L segue esattamente le stesse regole algebriche dell operatore moltiplicazione: gode della proprietá commutativa e della proprietá distributiva rispetto all addizione. 36

45 Polinomio in L (al + bl 2 ) (26) questa espressione é algebricamente simile ad un polinomio semplice (az+bz 2 ) dove z é uno scalare. La differenza é che mentre il polinomio semplice definisce un numero particolare, il polinomio nell operatore ritardo di per sé non ha senso ma é un operatore e deve essere applicato ad una serie temporale per assumere significato.

46 L operatore differenza: = 1 L y t = (1 L)y t = y t y t 1 L operatore differenza su n-periodi n = 1 L n. n y t = (1 L n )y t = y t y t n. L operatore differenza di ordine n n = (1 L) n n y t = (1 L) n y t. 37

47 L é un operatore e non una variabile. L operatore ritardo permette un gran risparmio di notazione quando lavoriamo con i modelli dinamici delle serie storiche. Quando consideriamo le proprietá dei polinomi nell operatore ritardo spesso si preferisce descrivere le proprietá dei polinomi rispetto alla variabile complessa z, che ha la forma seguente z = a + ib. le proprietá che deriviamo per il polinomio in z possono essere usate direttamente per interpretare gli effetti dell operatore ritardo. 38

48 Esempio 1 (1 + α 1 z) α 1 R Assumiamo l esistenza di (1 + α 1 z) 1 : δ(z) = (1 + α 1 z) 1, i.e. δ(z)(1 + α 1 z) = 1 Assumiamo che δ(z) sia un polinomio di ordine indeterminato δ(z) = δ 0 + δ 1 z + δ 2 z δ i, i = 1,2,... sono costanti da determinare δ(z)(1 + α 1 z) = (δ 0 + δ 1 z + δ 2 z )(1 + α 1 z) = δ 0 + (δ 1 + δ 0 α 1 )z + (δ 2 + δ 1 α 1 )z per soddisfare l identitá δ(z)(1 + α 1 z) = 1 é necessario che δ 0 = 1 e δ j = δ j 1 α 1 39

49 L esistenza dell inversa dipende da α 1 : Se α 1 < 1 i termini in δ(z) formano una somma di vc convergente, δ(z) = 1 α 1 z + α 2 1 z2 α 3 1 z questa serie é convergente (la somma dei termini é cioé finita) per ogni z nel cerchio di raggio unitario ( z 1) Se α 1 1 la serie 1 α 1 z+α 2 1 z2 α 3 1 z é infinita per almeno qualche punto. 40

50 La radice unitaria di questo polinomio é α 1 1 : 1 + α 1 z = 0 z = 1 α 1. La condizione z > 1, equivale a α 1 < 1, ed é chiamata condizione di invertibilitá per il polinomio. la funzione inversa é finita per tutti i valori z < α

51 Osservazione 1 Consideriamo un equazione alle differenze del primo ordine scritta in termini dell operatore ritardo: y t = φy t 1 + ω t (1 φl)y t = ω t (27) moltiplichiamo entrambi i membri della precedente per: la (28) diventa: (1 + φl + φ 2 L 2 + φ 3 L φ t L t ) (1 + φl + φ 2 L 2 + φ 3 L φ t L t )(1 φl)y t = (1 + φl + φ 2 L 2 + φ 3 L φ t L t )ω t y t = φ t+1 y 1 + ω t + φω t 1 + φ 2 ω t φ t ω 0 Applicare l operatore (1 + φl + φ 2 L 2 + φ 3 L φ t L t ) significa eseguire le stesse sostituzioni ricorsive viste per risolvere l equazione alle differenze. 42

52 Osservazione 2 Si osservi che per φ < 1 e t elevato: (1 + φl + φ 2 L 2 + φ 3 L φ t L t )(1 φl)y t y t poiché (1 + φl + φ 2 L 2 + φ 3 L φ t L t )(1 φl) = 1 φ t+1 L t+1 Osservazione 3 Dalla relazione precedente, discende che quando φ < 1 e stiamo pensando di applicare un operatore ritardo ad una sequenza limitata (o ad un processo stocastico stazionario) possiamo considerare: (1 φl) 1 = lim j (1 + φl + φ 2 L 2 + φ 3 L φ j L j ) 43

53 Mostriamo perchè l osservazione 3 vale solo per processi stocastici stazionari: la 28 può essere espressa come (1 φl)y t = ω t (28) y t = (1 φl) 1 ω t = ω t + φω t 1 + φ 2 ω t (29) Se non ci limitassimo a considerare processi stocastici stazionari allora la 29 non sarebbe più una conseguenza necessaria della 28. Pensiamo infatti alla 29 riscritta come y t = a 0 φ t + ω t + φω t questa serie è consistente con la 28 per qualunque valore di a 0 : (1 φl)y t = (1 φl)a 0 φ t + (1 φl)(ω t + φω t ) 44

54 (1 φl)y t = a 0 φ t a 0 φ t + (1 φl)(1 φl) 1 (ω t ) (1 φl)y t = ω t

55 Equazioni alle differenze del secondo ordine Soluzione: Fattorizzazione. Per il sistema del secondo ordine: y t = φ 1 y t 1 + φ 2 y t 2 + w t (1 φ 1 L φ 2 L 2 )y t = w t la fattorizzazione del polinomio di secondo ordine nell operatore ritardo é: (1 φ 1 L φ 2 L 2 ) = (1 λ 1 L)(1 λ 2 L) = dove = (1 [λ 1 + λ 2 ]L + λ 1 λ 2 L 2 ) φ 1 = (λ 1 + λ 2 ) φ 2 = (λ 1 λ 2 ) 45

56 nel caso generale: (1 φ 1 z φ 2 z 2 ) = (1 λ 1 z)(1 λ 2 z) dividiamo entrambi i membri per z 2 : (z 2 φ 1 z 1 φ 2 ) = (z 1 λ 1 )(z 1 λ 2 ) e si definisca λ come la variabile z 1 : (λ 2 φ 1 λ φ 2 ) = (λ λ 1 )(λ λ 2 ) (30) la relazione precedente deve valere per tutti i valori di λ se i due membri della precedente rappresentano lo stesso polinomio. In particolare il RHS é nullo per λ = λ 1 e λ = λ 2 e questi stessi valori devono annullare il LHS:(λ 2 φ 1 λ φ 2 ) che peró é equivalente a determinare gli autovalori della matrice F. 46

57 Proposizione Fattorizzare il polinomio (1 φl φl 2 ) nella forma (1 φ 1 L φ 2 L 2 ) = (1 λ 1 L)(1 λ 2 L) é equivalente a calcolare gli autovalori della matrice F. Gli autovalori di F sono identici ai parametri λ 1 e λ 2 della espressione precedente. Poiché le radici della precedente sono: L = z = λ 1 1 L = z = λ 1 2 l equazione é stabile quando le radici della (1 φ 1 L φ 2 L 2 ) giacciono al di fuori del cerchio unitario (ovvero quando gli autovalori di F giacciono all interno del cerchio unitario). 47

58 Scomposizione di Wold Proposizione: Tutti i processi stazionari in covarianza a media zero possono essere scritti nella forma: y t = j=0 φ 2 j ǫ t j + k t con j=0 φ 2 j < e φ 0 = 1. ǫ t é l errore white noise che si commetterebbe nel prevedere y t in base ai valori ritardati di y: ǫ t = y t Ê[y t y t 1, y t 2,...] il valore di k t non é correlato con ǫ t j per ogni j, tuttavia k t puó essere predetto arbitrariamente bene in base ad una funzione lineare dei valori passati di y: k t = Ê[k t y t 1, y t 2,...] 48

59 Poiché si dispone di un numero finito di osservazioni sul processo si fanno ipotesi addizionali sulla natura dei parametri φ. In particolare Box e Jenkins (1976 Time Series Analysis Forecasting and Control) approssimano il polinomio φ(l) di ordine infinito con il rapporto tra due polinomi di ordine finito α(l) e β(l): φ(l) = j=0 φ j L j = β(l) α(l) = 1 + β 1L + β 2 L β q L q 1 α 1 L α 2 L α p L p il processo stazionario in covarianza y t ammette quindi la seguente rappresentazione: y t = φ(l)ǫ t k t = 0 y t = β(l) α(l) ǫ t 49

60 Modelli lineari di serie storiche p > 0, q = 0 α(l)y t = ǫ t AR(p) p = 0, q > 0 y t = β(l)ǫ t MA(q) p > 0, q > 0 α(l)y t = β(l)ǫ t ARMA(p, q) 50

61 y t I(d) d y t I(0) d y t ARIMA(p, d, q)

62 Processi autoregressivi Un processo autoregressivo di ordine p, AR(p), soddisfa l equazione: y t = µ + φ 1 y t 1 + φ 2 y t φ p y t p + ǫ t Se le radici dell equazione φ(l) = 1 φ 1 L φ 2 L 2 φ p L p sono al di fuori del cerchio unitario nel campo complesso, il processo é stazionario. La stazionarietá permette una rappresentazione MA( ) del processo: y t = φ(l) 1 µ + φ(l) 1 ǫ t y t = ν + j=0 α j ǫ t j 51

63 con α(l) = φ(l) 1 e j=0 α j < (31) La (31) è la condizione affinché un processo MA( ) generi un processo stazionario in covarianza.

64 Introdurre i 5 lucidi sulla condizione precedente, sulle equazioni di Yule-Walker e sulla autocorrelazione dei processi autoregressivi stazionari Fare anche esempio di un processo AR(1). appunto

65 Esempio: AR(1) y t = µ + φy t 1 + ǫ t con ǫ t IID(0, σ 2 ) procedendo per sostituzioni ricorsive: dove y t = µ + φµ + φ 2 µ + + ǫ t + φǫ t 1 + φ 2 ǫ t E[y t ] = µ + φµ + φ 2 µ + = µ 1 φ σ2 se φ < 1 var(y t ) = σ 2 (1 + φ 2 + φ ) = se φ < 1 1 φ2 E[(y t µ)(y t j µ)] = = E[(ǫ t + φǫ t 1 + φ 2 ǫ t 2 )(ǫ t j + φǫ t j 1 + φ 2 ǫ t j )] = = σ 2 φ j [ i=0 φ j φ 2i ] = σ 2 1 φ 2 se φ < 1 53

66 Le equazioni di Yule-Walker esprimono le funzioni di autocorrelazione di y t : in generale: ρ 1 = α 1 + α 2 ρ α p ρ 1 p ρ 2 = α 1 ρ 1 + α α p ρ 2 p... ρ p = α 1 ρ p 1 + α 2 ρ p ρ p ρ k = α 1 ρ k 1 + α 2 ρ k α p ρ k p k > p 54

67 Processi a media mobile Un processo a media mobile di ordine q, MA(q) é caratterizzato dall equazione: y t = µ + ǫ t + β 1 ǫ t 1 + β 2 ǫ t β q ǫ t q = µ + β(l)ǫ t dove ǫ t WN(0, σ 2 ) e β(l) = 1 + β 1 L + β 2 L β q L q. La condizione di invertibilitá: β(l) = 0 con radici in L di modulo superiore a 1 garantisce che vi sia una unica rappresentazione AR( ): β(l) 1 y t = β(1) 1 µ + ǫ t y t = ν + j=1 φ j y t j + ǫ t con β(l) 1 = 1 φ 1 L φ 2 L 2... e ν = β(1) 1 µ 55

68 Proprietà dei processi a media mobile Si consideri il processo MA(1): y t = µ + ǫ t + θǫ t 1 con ǫ t IID(0, σ 2 ) Il processo ha le seguenti proprietà: per le autocovarianze: E[y t ] = µ var(y t ) = E(ǫ t + θǫ t 1 ) 2 = = E[ǫ 2 t + θǫ 2 t 1 + 2θǫ tǫ t 1 ] = = (1 + θ 2 )σ 2 γ(1) = E[(y t µ)(y t 1 µ)] = θσ 2 γ(j) = 0 per j > 0 56

69 Processi misti autoregressivi e a media mobile Un processo ARM A(p, q) contiene sia termini autoregressivi che a media mobile: y t = ν + p j=1 α(l)y t = ν + β(l)ǫ t α j y t j + q i=1 β i ǫ t i + ǫ t dove ǫ t WN(0, σ 2 ), α(l) = 1 α 1 L α 1 L 2 α p L p e β(l) = 1 + β 1 L + β 2 L β q L q. 57

70 La stazionarietá, α(l) = 0, L > 1, garantisce una rappresentazione MA( ): y t = α(1) 1 ν + α(l) 1 β(l)ǫ t y t = µ + j=0 φ j ǫ t j Se il processo é invertibile, β(l) = 0, L > 1, si ha una rappresentazione AR( ): dove ν = β(1) 1 ν β(l) 1 α(l)y t = β(1) 1 ν + ǫ t y t = ν + j=1 φ j y t j + ǫ t 58

71 Approccio di Box e Jenkins per la previsione delle serie storiche (Box e Jenkins parlano di ARIMA(p, d, q)): 1. Trasformare i dati, se necessario, in modo da avere processi stazionari in covarianza 2. Fare un tentativo iniziale di specificazione con valori bassi di p e q per un modello ARMA(p, q) che spieghi le serie trasformate 3. Stimare i parametri in φ(l) e θ(l) 4. Analisi diagnostica sui residui per vedere se il modello è consistente con i dati. 59

72 1. La non Stazionarietà delle serie: Le serie economiche mostrano comportamenti di tipo evolutivo. Due modi per descrivere la presenza di trend: Modelli con trend deterministici. Esempio AR(1) stazionario e trend lineare y t = α + βt + φy t 1 + ǫ t con ǫ t IID(0, σ 2 ) con φ < 1. Le proprietà statistiche del modello sono: E[y t ] = µ + δt var(y t ) = σ2 1 φ 2 60

73 si vede infatti che: y t = φ t y 0 + α 1 1 φ + β 1 1 φl t φl ǫ t In un modello siffatto l effetto di shock casuali è temporaneo (modello keynesiano di Taylor (1980) con rigidità salariali)

74 Modelli con radice unitaria nella componente AR. Esempio: random walk with drift y t = µ + y t 1 + ǫ t con ǫ t IID(0, σ 2 ) Tramite sostituzioni ricorsive il processo precedente diventa: y t = µt + y 0 + Le proprietà statistiche del modello sono: E[y t ] = y 0 + µt var(y t ) = tσ 2 t ǫ t τ=1 In un modello siffatto l effetto di shock casuali è permanente. 61

75 Trasformazioni per indurre stazionarietà Modelli con radice unitaria nella componente AR In generale si supponga di avere: φ(l)y t = µ + θ(l)ǫ t con ǫ t IID(0, σ 2 ) (32) con una radice unitaria nel polinomio autoregressivo che riscriviamo: φ(l) = (1 L)φ (L) = φ (L) e φ (L) contiene tutte radici al di fuori del cerchio unitario nel campo complesso. La (32) diventa: il processo y t è stazionario. φ (L) y t = µ + θ(l)ǫ t 62

76 Trasformazioni per indurre stazionarietà Modelli con trend deterministici y t = α + βt + φy t 1 + ǫ t con ǫ t IID(0, σ 2 ) Se il processo è stazionario intorno ad un trend, il modo appropriato per renderlo stazionario è tramite la detrendizzazione: sottraggo ˆβt al processo per y t. 63

77 Questo procedimento non è pero sufficiente a rendere stazionarie serie con radici unitarie. Esempio del RWWD: y t = µt + y 0 + t ǫ t τ=1 In questo caso sottrarre dal processo µt serve ad eliminare la dipendenza dal tempo della media ma non quella della varianza che rimane var(y t ) = tσ 2. Il modo corretto per un processo a radice unitaria rimane quindi la differenziazione della serie. Si osservi che se si differenzia un processo stazionario intorno ad un trend come: y t = α + βt + φy t 1 + ǫ t 64

78 esso diventa: y t = (α + βt) + φ y t 1 + ǫ t in questo modo si elimina il trend ma si introduce una radice unitaria nella parte a media mobile.

79 Test di integrazione: Test di Dickey-Fuller (1979,1981) Box e Jenkins parlano solamente di stazionarietà dovuta alla presenza di radici unitarie nella componente autoregressiva y t = φy t 1 + ǫ t H 0 = φ = 1 H 1 = φ < 1 Nel caso però di non stazionarietà dovuta ad un trend deterministico è necessario formulare un ipotesi alternativa (H 1 ) plausibile. In questo caso il modello è: y t = φy t 1 + α + βt + ǫ t H 0 = φ = 1 β = 0 H 1 = φ < 1 65

80 Test Augmented Dickey-Fuller Per tener conto di dinamiche di ordine superiore si utilizza il test ADF: y t = φ 1 y t 1 + φ 2 y t φ p 1 y t p+1 + ρy t 1 + ǫ t H 0 = ρ = 0 H 1 = ρ < 0 66

81 2. Identificazione dei modelli Scelta del tipo di processo: scelta degli ordini p e q delle componenti AR e MA. B e J suggeriscono una scelta guidata dall analisi delle autocorrelazioni totali (ACF) e parziali (PACF) autocorrelazioni totali (ACF) ρ t (h) = γ t (h) γ t (0)γ t h (0) (33) 67

82 autocorrelazioni parziali (PACF) L autocorrelazione parziale tra y t e y t j è data dal legame correlativo tra y t e y t j al netto dell influenza esercitata dai termini intermedi: y t 1,..., y t j+1. La stima della j esima autocorrelazione parziale tra y t e y t j è la stima OLS di ˆφ j nella regressione: y t = α + φ 1 y t 1 + φ 2 y t φ j y t j + ǫ t (34) 68

83 3. Stima dei modelli La stima dei modelli AR e MA viene trattata con il metodo della massima verosimiglianza Stima di massima verosimiglianza di un processo AR(1) dove con Hp: ǫ t IIDN(0, σ 2 ): y t = µ + φy t 1 + ǫ t E[y t ] = µ 1 φ var(y t ) = σ φ 2 f(ǫ t ) = 1 2πσ 2 exp{ 1 2 (ǫ t E[ǫ t ] ) 2 } σ 69

84 Partiamo dalla prima osservazione y 1 = µ + φy 0 + ǫ 1 Poichè ǫ t è normale anche y 1 è normale. La densità della prima osservazion y 1 è quindi data da: f(y 1 ) = 1 exp{ 1 2πσ 2 /(1 φ 2 ) 2 (y 1 [µ/(1 φ 2 )] σ/(1 φ 2 ) 2 } ) consideriamo poi la distribuzione condizionale della seconda osservazione y 2 alla prima osservazione y 1 : da cui deriva y 2 = µ + φy 1 + ǫ 2 y 2 y 1 N(µ + φy 1, σ 2 ) 70

85 e quindi f(y 2 y 1 ) = 1 2πσ 2 exp{ 1 2 (y 2 µ φy 1 ) 2 } σ la densità congiunta delle prime due osservazioni è data da: f(y 2, y 1 ) = f(y 2 y 1 )f(y 1 ) e, analogamente per la terza osservazione: f(y 3, y 2, y 1 ) = f(y 3 y 2, y 1 )f(y 2, y 1 ) = f(y 3 y 2, y 1 )f(y 2 y 1 )f(y 1 ) Poichè il processo è un AR(1) si vede che, in generale: f(y t, y t 1, y t 2, y t 3,...) = f(y t y t 1 )

86 la verosimiglianza dell intero campione è quindi data da: f(y t, y t 1, y t 2,..., y 1 ) = f(y 1 ) T t=2 f(y t y t 1 )

87 Passando alla funzione di logverosimiglianza si ha: L = 1 2 log(2π) 1 2 log(σ2 /(1 φ 2 )) y 1 [µ/(1 φ 2 )] 2σ 2 /(1 φ 2 ) ((T 1)/2)log(2π) ((T 1)/2)log(σ 2 ) T t=2 (y t µ φy t 1 ) 2 2σ 2 L la stima di massima verosimiglianza si ottiene massimizzando la funzione precedente. La massimizzazione precedente conduce però ad un sistema di equazioni non lineari nei parametri da stimare. Si preferisce quindi utilizzare invece delle stime esatte di massima verosimiglianza le stime condizionate. 71

88 Stime condizionate di massima verosimiglianza Invece della massimizzazione numerica della funzione verosimiglianza esatta si può procedere considerando la prima osservazione del campione come una variabile deterministica e massimizzare la verosimiglianza condizionata alla prima osservazione: f(y t, y t 1, y t 2,..., y 2 y 1 ) = T t=2 f(y t y t 1 ) la funzione di logverosimiglianza da massimizzare diventa quindi L = ((T 1)/2)log(2π) ((T 1)/2)log(σ 2 ) T t=2 (y t µ φy t 1 ) 2 2σ 2 massimizzare l espressione precedente rispetto a µ e φ è equivalente 72

89 a massimizzare T t=2 (y t µ φy t 1 ) 2 la stima di massima verosimiglianza condizionata della varianza si ottiene dalla soluzione della ovvero (T 1) 2σ 2 + ˆσ 2 = T t=2 T t=2 (y t µ φy t 1 ) 2 2σ 4 = 0 (y t ˆµ ˆφy t 1 ) 2 T 1

90 Stima di massima verosimiglianza di un processo MA(1) y t = µ + ǫ t + θǫ t 1 con ǫ t IID(0, σ 2 ) Come per il processo AR(1) ricaviamo la funzione di verosimiglianza condizionata al primo valore della variabile ǫ osservata: ǫ 0 = 0: e quindi possiamo scrivere: (y 1 ǫ 0 = 0) N(µ, σ 2 ) f(y 1 ) = 1 2πσ 2 exp (y 1 µ) 2 2σ 2 Inoltre data l osservazione y 1 anche il valore di ǫ 1 è noto con certezza: per cui: ǫ 1 = y 1 µ y 2 = µ + ǫ 2 + θǫ 1 73

91 e quindi la densità condizionale di y 2 rispetto a y 1 è data da: f(y 2 y 1, ǫ 0 ) = 1 2πσ 2 exp (y 2 µ θǫ 1 ) 2 2σ 2 Analogamente, data l osservazione di y 2 e poichè ǫ 1 è noto con certezza anche ǫ 2 può essere calcolato per cui nello stesso modo possiamo calcolare f(y 3 y 2, y 1, ǫ 0 ) = 1 2πσ 2 exp (y 3 µ θǫ 2 ) 2 2σ 2

92 In generale la densità condizionata della t esima osservazione può essere calcolata in base alla f(y t y t 1, y t 2,..., y 1, ǫ 0 ) = f(y t ǫ t 1 ) = 1 2πσ 2 exp ǫ2 t 2σ 2 Analogamente al caso del processo AR(1) la verosimiglianza del campione risulta essere: f(y t, y t 1, y t 2,..., y 1 ) = f(y 1 ǫ 0 = 0) T t=2 e la funzione di log verosimiglianza risulta data da: f(y t ǫ t 1 ) L = T 2 log(2π) T 2 log(σ2 ) T t=1 ǫ 2 t 2σ 2 74

93 4. Controllo diagnostico testare la significatività dei coefficienti verificare se il modello è sottoparametrizzato testare la presenza di autocorrelazione nei residui del modello 75

94 Esempio: Il modello vero è AR(2) mentre è stato stimato un modello AR(1): y t = ˆφy t 1 + ˆǫ t conduco test su ˆǫ t per verificare la presenza di autocorrelazione. Se il test mi segnala la presenza di correlazione seriale elevo la dinamica del modello. I test più diffusi sono il test Box-Pierce e il test di Ljung-Box. Sotto H 0 : ρ(h) = 0) T ˆ ρ(h) d N(0,1) Box-Pierce T h=1 H ˆ ρ(h) 2 d χ 2 H 76

95 Ljung-Box T(T + 2) h=1 H ρ(h) ˆ 2 T + h d χ 2 H

96 La previsione basata sulle aspettative condizionate Supponiamo di voler prevedere al tempo t la variabile y t+1 sulla base di un insieme di variabili x t osservate al tempo t. Per valutare la previsione y t+1 t assumiamo una funzione di perdita quadratica: E[y t+1 y t+1 t ]2 EQM si dimostra che la previsione che minimizza l EQM è il valore atteso condizionato y t+1 t = E[y t+1 x t ]: 77

97 Dimostrazione Hp: g(x t ) che minimizza l EQM. L EQM associato a questa regola di previsione è: E[y t+1 g(x t )] 2 = E[y t+1 E[y t+1 x t ] + E[y t+1 x t ] g(x t )] 2 = = E[y t+1 E[y t+1 x t ]] E{[y t+1 E[y t+1 x t ]]E[y t+1 x t ] g(x t )]} 2 + +E{[E[y t+1 x t ] g(x t )] 2 } si vede facilmente che il termine mediano a destra del segno di uguaglianza è nullo. L equazione precedente si semplifica in E[y t+1 g(x t )] 2 = E[y t+1 E[y t+1 x t ]] 2 + E{[E[y t+1 x t ] g(x t )] 2 } 78

98 la funzione g(x t ) che minimizza l EQM è la funzione che annulla il secondo termine della equazione precedente: g(x t ) = E[y t+1 x t ]

99 Proiezione lineare Restringiamo l analisi ai previsori lineari di x t : y t+1 t = α x t Definizione: la proiezione lineare di y t+1 su x t è definita come la previsione lineare di y t+1 tale che l errore di previsione non sia correlato con x t : E[(y t+1 α x t )x t ] = 0 la proiezione lineare dà luogo al più piccolo errore quadratico medio nella classe delle regole lineari di previsione. 79

100 Dimostrazione Hp: g x t che minimizza l EQM. L EQM associato a questa regola di previsione è: E[y t+1 g x t ] 2 = E[y t+1 α x t + α x t g x t ] 2 = = E[y t+1 α x t ] 2 + 2E{[y t+1 α x t ][α x t g x t ]} + +E[α x t g x t ] 2 soffermiamoci sul termine mediano a destra del segno di eguaglianza. Poichè y t+1 α x t è uno scalare possiamo riscrivere l espressione come: 2E{[y t+1 α x t ][α x t g x t ]} = = 2E{[y t+1 α x t ]x t (α g)} = 0 l errore quadratico medio rispetto a g x t si riduce quindi a E[y t+1 g x t ] 2 = E[y t+1 α x t ] 2 + E[α x t g x t ] 2 (35) il valore di g x t che minimizza la (35) è α x t. 80

101 Proprietà delle proiezioni lineari calcolo dei coefficienti α E[(y t+1 x t )] = α E[(x t x t )] = 0 e quindi α = E[(y t+1 x t )][E(x tx t )] 1 la proiezione della combinazione lineare (ay t+1 + b) su x t è pari a: P[(ay t+1 + b) x t ] = a P[y t+1 x t ] + b 81

102 Previsione di un processo MA Consideriamo un processo che ammette una rappresentazione MA( ): y t = µ + ψ(l)ǫ t ψ(l) = j=0 j=0 ψ j L j ψ 0 = 1 ψ j < supponiamo di disporre di un numero infinito di osservazioni di ǫ a partire dalla data t, {ǫ t, ǫ t 1, ǫ t 2,... } e di conoscere i valori di µ e di ψ(l). Vogliamo prevedere y t+s : y t+s = µ + ǫ t+s + ψ 1 ǫ t+s ψ s 1 ǫ t+1 + ψ s ǫ t + ψ s+1 ǫ t Proposizione: la previsione lineare ottima è: E[y t+s ǫ t, ǫ t 1,...] = µ + ψ s ǫ t + ψ s+1 ǫ t (36) 82

103 e quindi i valori futuri incogniti di ǫ sono posti pari al loro valore atteso: E[ǫ t+s ǫ t,...] = E[ǫ t+s 1 ǫ t,...] = = E[ǫ t+1 ǫ t,...] = 0 l errore di previsione è dato da: y t+s E[y t+s ǫ t, ǫ t 1,...] = ǫ t+s + ψ 1 ǫ t+s ψ s 1 ǫ t+1

104 Dimostrazione affinché la (36) rappresenti la previsione lineare ottima devono essere rispettate le condizioni: 1. E[(ǫ t+s + ψ 1 ǫ t+s ψ s 1 ǫ t+1 )(ǫ t ǫ t 1...) ] = 0 2. E[(ǫ t+s + ψ 1 ǫ t+s ψ s 1 ǫ t+1 )] = 0 entrambe le condizioni sono rispettate in quanto ǫ t è un W.N. 83

105 Previsione di un processo MA(1) y t = µ + ǫ t + φ 1 ǫ t 1 vogliamo previsione di y t+1 condizionato all informazione disponibile al tempo t: y t+1 = µ + ǫ t+1 + φ 1 ǫ t E[y t+1 y t ] = µ + φ 1 ǫ t se l orizzonte previsivo è di due periodi: E[y t+2 y t ] = µ e, analogamente si dimostra che E[y t+s y t ] = µ. 84

106 In generale si dimostra che per un processo MA(q): y t = µ + ǫ t + φ 1 ǫ t 1 + φ 2 ǫ t φ q ǫ t q la previsione lineare ottima è data da: Ê[y t+s ǫ t, ǫ t 1,...] = µ + φ s ǫ t + φ s+1 ǫ t φ q ǫ t q+s s = 1,2,..., q = µ s = q + 1, q + 2,... L errore quadratico medio è dato da: σ 2 s = 1 (1 + φ φ φ2 s 1 )σ2 s = 2,3,..., q (1 + φ φ φ2 q )σ2 s = q + 1, q + 2,... 85

107 Previsione di un processo AR(1) y t = µ + φ 1 y t 1 + ǫ t vogliamo prevedere y t+1 condizionato all informazione al tempo t: y t+1 = µ + φ 1 y t + ǫ t+1 E[y t+1 y t ] = µ + φ 1 y t se l orizzonte previsivo è di due periodi: y t+2 = µ + φ 1 y t+1 + ǫ t+2 E[y t+2 y t ] = µ + φ 1 E[y t+1 y t ] da cui deriva che: E[y t+2 y t ] = µ + φ 1 [µ + φ 1 y t ] = µ + φ 1 µ + φ 2 1 y t 86

108 nell esempio precedente abbiamo applicato la legge delle proiezioni iterate: E[y t+2 y t ] = E[E[y t+2 y t+1 ] y t ] infatti: E[y t+2 y t+1 ] = µ + φ 1 y t+1 E[E[y t+2 y t+1 ] y t ] = µ + φ 1 E[y t+1 y t ] = = µ + φ 1 [µ + φ 1 y t ] = = µ + φ 1 µ + φ 2 1 y t cvd 87

Proprietà asintotiche dello stimatore OLS

Proprietà asintotiche dello stimatore OLS Università di Pavia Proprietà asintotiche dello stimatore OLS Eduardo Rossi Sequenze Consideriamo un infinita sequenza di variabili indicizzate con i numeri naturali: X 1, X 2, X 3,...,X N,... = {X N }

Dettagli

ECONOMETRIA APPLICATA PER L IMPRESA. Test di Radici Unitarie - Esercizio 5

ECONOMETRIA APPLICATA PER L IMPRESA. Test di Radici Unitarie - Esercizio 5 Modelli Dinamici - Esercizio 5 1 ECONOMETRIA APPLICATA PER L IMPRESA Test di Radici Unitarie - Esercizio 5 Davide Raggi davide.raggi@unibo.it 16 marzo 2010 Modelli Dinamici - Esercizio 5 2 Introduzione

Dettagli

Statistica Applicata all edilizia Lezione: approccio stocastico all analisi delle serie storiche

Statistica Applicata all edilizia Lezione: approccio stocastico all analisi delle serie storiche Lezione: approccio stocastico all analisi delle serie storiche E-mail: orietta.nicolis@unibg.it 13 aprile 211 Programma 1 Approccio stocastico all analisi delle serie storiche Programma 1 Approccio stocastico

Dettagli

Maria Prandini Dipartimento di Elettronica e Informazione Politecnico di Milano

Maria Prandini Dipartimento di Elettronica e Informazione Politecnico di Milano Note relative a test di bianchezza rimozione delle componenti deterministiche da una serie temporale a supporto del Progetto di Identificazione dei Modelli e Analisi dei Dati Maria Prandini Dipartimento

Dettagli

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche

Dettagli

ANALISI DELLE SERIE STORICHE

ANALISI DELLE SERIE STORICHE ANALISI DELLE SERIE STORICHE De Iaco S. s.deiaco@economia.unile.it UNIVERSITÀ del SALENTO DIP.TO DI SCIENZE ECONOMICHE E MATEMATICO-STATISTICHE FACOLTÀ DI ECONOMIA 24 settembre 2012 Indice 1 Funzione di

Dettagli

1 Serie temporali. 1.1 Processi MA

1 Serie temporali. 1.1 Processi MA 1 Serie temporali Un processo stocastico 1 {X t, t T }, dove T = N o T = Z, si dice stazionario se (X 1,..., X n ) e (X k+1,...,x k+n ) hanno la stessa distribuzione per ogni n 1 e per ogni k T. Un processo

Dettagli

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A Alberto Perotti, Roberto Garello

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A Alberto Perotti, Roberto Garello Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A. 2006-07 Alberto Perotti, Roberto Garello DELEN-DAUIN Processi casuali Sono modelli probabilistici

Dettagli

Statistica Applicata all edilizia Lezione: approccio stocastico all analisi delle serie storiche

Statistica Applicata all edilizia Lezione: approccio stocastico all analisi delle serie storiche Lezione: approccio stocastico all analisi delle serie storiche E-mail: orietta.nicolis@unibg.it 3 maggio 2011 Programma 1 Approccio stocastico all analisi delle serie storiche Programma Approccio stocastico

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Statistica Applicata all edilizia: il modello di regressione

Statistica Applicata all edilizia: il modello di regressione Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione

Dettagli

Analisi della disponibilità d acqua. Valutazione dell impianto attraverso il calcolo di un indice economico (criterio)

Analisi della disponibilità d acqua. Valutazione dell impianto attraverso il calcolo di un indice economico (criterio) Analisi della disponibilità d acqua Valutazione dell impianto attraverso il calcolo di un indice economico (criterio) Approccio diverso a seconda del criterio di valutazione Nel caso di criterio statistico

Dettagli

Tipi di Processi Stocastici

Tipi di Processi Stocastici Processi Stocastici Definizione intuitiva: un processo stocastico è un insieme ordinato di variabili casuali, indicizzate dal parametro t, spesso detto tempo. Definizione rigorosa: dati uno spazio di probabilità

Dettagli

Calcolo delle Probabilità 2

Calcolo delle Probabilità 2 Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale

Dettagli

MODELLO DI REGRESSIONE LINEARE. le ipotesi del modello di regressione classico, stima con i metodi dei minimi quadrati e di massima verosimiglianza,

MODELLO DI REGRESSIONE LINEARE. le ipotesi del modello di regressione classico, stima con i metodi dei minimi quadrati e di massima verosimiglianza, MODELLO DI REGRESSIONE LINEARE le ipotesi del modello di regressione classico, stima con i metodi dei minimi quadrati e di massima verosimiglianza, teorema di Gauss-Markov, verifica di ipotesi e test di

Dettagli

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016 Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo

Dettagli

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza Test 1: Concetti base di inferenza 1. Se uno stimatore T n è non distorto per il parametro θ, allora A T n è anche consistente B lim Var[T n] = 0 n C E[T n ] = θ, per ogni θ 2. Se T n è uno stimatore con

Dettagli

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale

Dettagli

Di seguito le componenti stocastiche e(t), t = 1, 2,..., T sono v.c. di Gauss con Valore atteso nullo e varianza σ 2 e stocasticamente indipendenti

Di seguito le componenti stocastiche e(t), t = 1, 2,..., T sono v.c. di Gauss con Valore atteso nullo e varianza σ 2 e stocasticamente indipendenti I BISNONNI Di seguito le componenti stocastiche e(t), t = 1, 2,..., T sono v.c. di Gauss con Valore atteso nullo e varianza σ 2 e stocasticamente indipendenti MODELLO DI MISURA (LA BISNONNA) MA(0) y(t)

Dettagli

Statistica Applicata all edilizia: Stime e stimatori

Statistica Applicata all edilizia: Stime e stimatori Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica

Dettagli

Analisi delle componenti principali

Analisi delle componenti principali Analisi delle componenti principali Serve a rappresentare un fenomeno k-dimensionale tramite un numero inferiore o uguale a k di variabili incorrelate, ottenute trasformando le variabili osservate Consiste

Dettagli

04 - Numeri Complessi

04 - Numeri Complessi Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 04 - Numeri Complessi Anno Accademico 2013/2014 M. Tumminello, V. Lacagnina e

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Metodi di Iterazione Funzionale

Metodi di Iterazione Funzionale Appunti di Matematica Computazionale Lezione Metodi di Iterazione Funzionale Il problema di calcolare il valore per cui F() = si può sempre trasformare in quello di trovare il punto fisso di una funzione

Dettagli

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Lezione 1 - Mercoledì 28 Settembre 2016 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Università di Pavia Econometria. Richiami di teoria delle distribuzioni statistiche. Eduardo Rossi

Università di Pavia Econometria. Richiami di teoria delle distribuzioni statistiche. Eduardo Rossi Università di Pavia Econometria Richiami di teoria delle distribuzioni statistiche Eduardo Rossi Università di Pavia Distribuzione di Bernoulli La variabile casuale discreta Y f Y (y; θ) = 0 θ 1, dove

Dettagli

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Lezione 1 - Martedì 23 Settembre 2014 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Esercitazioni di Statistica

Esercitazioni di Statistica Esercitazioni di Statistica Stima Puntuale Prof. Livia De Giovanni statistica@dis.uniroma.it Esercizio In ciascuno dei casi seguenti determinare quale tra i due stimatori S e T per il parametro θ è distorto

Dettagli

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di

Dettagli

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Lezione 1 - Mercoledì 27 Settembre 2017 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

STATISTICA A K (60 ore)

STATISTICA A K (60 ore) STATISTICA A K (60 ore) Marco Riani mriani@unipr.it http://www.riani.it Richiami sulla regressione Marco Riani, Univ. di Parma 1 MODELLO DI REGRESSIONE y i = a + bx i + e i dove: i = 1,, n a + bx i rappresenta

Dettagli

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea) 10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo

Dettagli

Tecniche di sondaggio

Tecniche di sondaggio SMID a.a. 2005/2006 Corso di Statistica per la Ricerca Sperimentale Tecniche di sondaggio 24/1/2006 Nomenclatura Indicheremo con P una popolazione, con N la sua numerosità, con k la sua etichetta e con

Dettagli

Modelli lineari generalizzati

Modelli lineari generalizzati Modelli lineari generalizzati Estensione del modello lineare generale Servono allo studio della dipendenza in media di una variabile risposta da una o più variabili antecedenti Vengono attenuate alcune

Dettagli

Richiami di probabilità e statistica

Richiami di probabilità e statistica Richiami di probabilità e statistica Una variabile casuale (o aleatoria) X codifica gli eventi con entità numeriche x ed è caratterizzata dalla funzione di distribuzione di probabilità P(x) : P(x)=Pr ob[x

Dettagli

! X (92) X n. P ( X n X ) =0 (94)

! X (92) X n. P ( X n X ) =0 (94) Convergenza in robabilità Definizione 2 Data una successione X 1,X 2,...,X n,... di numeri aleatori e un numero aleatorio X diremo che X n tende in probabilità a X escriveremo X n! X (92) se fissati comunque

Dettagli

I teoremi della funzione inversa e della funzione implicita

I teoremi della funzione inversa e della funzione implicita I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1

Dettagli

Ripasso segnali e processi casuali. Trasmissione dell Informazione

Ripasso segnali e processi casuali. Trasmissione dell Informazione Ripasso segnali e processi casuali 1 Breve ripasso di segnali e trasformate Dato un segnale s(t), la sua densità spettrale si calcola come dove S(f) è la trasformata di Fourier. L energia di un segnale

Dettagli

Segnali (processi) aleatori (casuali)

Segnali (processi) aleatori (casuali) Segnali (processi) aleatori (casuali) Definizione di processo aleatorio Descrizione statistica di un processo aleatorio Media, potenza, varianza Autocorrelazione e autocovarianza Filtraggio di un processo

Dettagli

Presentazione dell edizione italiana

Presentazione dell edizione italiana 1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli

Dettagli

Il modello di regressione lineare multipla con regressori stocastici

Il modello di regressione lineare multipla con regressori stocastici Università di Pavia Il modello di regressione lineare multipla con regressori stocastici Eduardo Rossi Il valore atteso condizionale Modellare l esperimento casuale bivariato nel quale le variabili casuali

Dettagli

Probabilità e Statistica

Probabilità e Statistica Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2014/2015 www.mat.uniroma2.it/~caramell/did 1415/ps.htm 02/03/2015 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici

Dettagli

Università di Pavia Econometria Esercizi 4 Soluzioni

Università di Pavia Econometria Esercizi 4 Soluzioni Università di Pavia Econometria 2008-2009 Esercizi 4 Soluzioni Maggio, 2009 Istruzioni: I commenti devono essere concisi! 1. Dato il modello di regressione lineare, con K regressori con E(ɛ) = 0 e E(ɛɛ

Dettagli

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla Introduzione E la generalizzazione del modello di regressione lineare semplice: per spiegare il fenomeno d interesse Y vengono introdotte p, con p > 1, variabili esplicative. Tale generalizzazione diventa

Dettagli

Esercitazione del

Esercitazione del Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36

Dettagli

Corso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti

Corso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti Corso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti Professor Paolo Vitale Anno Accademico 2017-8 UdA, Scuola d Economia Domanda 1 [6 punti]. (a) La multi-collineartità

Dettagli

Elementi di Algebra Lineare

Elementi di Algebra Lineare Elementi di Algebra Lineare Corso di Calcolo Numerico, a.a. 2009/2010 Francesca Mazzia Dipartimento di Matematica Università di Bari 13 Marzo 2006 Francesca Mazzia (Univ. Bari) Elementi di Algebra Lineare

Dettagli

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE S.S.I.S TOSCANA F.I.M. -II anno STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE PROBLEMA 1 Vogliamo valutare la percentuale p di donne fumatrici tra le donne in età fertile. Procediamo all estrazione

Dettagli

Punti di massimo o di minimo per funzioni di n variabili reali

Punti di massimo o di minimo per funzioni di n variabili reali Punti di massimo o di minimo per funzioni di n variabili reali Dati f : A R n R ed X 0 A, X 0 si dice : punto di minimo assoluto se X A, f ( x ) f ( X 0 ) punto di massimo assoluto se X A, f ( x ) f (

Dettagli

I VETTORI GAUSSIANI E. DI NARDO

I VETTORI GAUSSIANI E. DI NARDO I VETTOI GAUSSIANI E. DI NADO. L importanza della distribuzione gaussiana I vettori di v.a. gaussiane sono senza dubbio uno degli strumenti più utili in statistica. Nell analisi multivariata, per esempio,

Dettagli

R - Esercitazione 6. Andrea Fasulo Venerdì 22 Dicembre Università Roma Tre

R - Esercitazione 6. Andrea Fasulo Venerdì 22 Dicembre Università Roma Tre R - Esercitazione 6 Andrea Fasulo fasulo.andrea@yahoo.it Università Roma Tre Venerdì 22 Dicembre 2017 Il modello di regressione lineare semplice (I) Esempi tratti da: Stock, Watson Introduzione all econometria

Dettagli

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0. Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive

Dettagli

Regressione lineare. Lucio Demeio Dipartimento di Ingegneria Industriale e Scienze Matematiche Università Politecnica delle Marche.

Regressione lineare. Lucio Demeio Dipartimento di Ingegneria Industriale e Scienze Matematiche Università Politecnica delle Marche. Regressione lineare Lucio Demeio Dipartimento di Ingegneria Industriale e Scienze Matematiche Università Politecnica delle Marche Siano x ed y due variabili legate tra loro da una forma funzionale del

Dettagli

Statistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo

Statistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo Statistica 2 Esercitazioni Dott. L 1 1 Dipartimento di Scienze Statistiche e Matematiche S. Vianelli, Università di Palermo ricevimento: lunedì ore 15-17 mercoledì ore 15-17 e-mail: luigi.augugliaro@unipa.it

Dettagli

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza

Dettagli

Previsioni Statistiche

Previsioni Statistiche Previsioni Statistiche Matteo Pelagatti Questa versione: 21 novembre 2011 1 Il problema della previsione Da un punto di vista statistico prevedere significa determinare con il minore errore possibile la

Dettagli

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014. I Esonero - 29 Ottobre Tot.

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014. I Esonero - 29 Ottobre Tot. UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014 I Esonero - 29 Ottobre 2013 1 2 3 4 5 6 7 8 Tot. Avvertenza: Svolgere ogni esercizio nello spazio assegnato,

Dettagli

con distribuzione gaussiana standard e si ponga

con distribuzione gaussiana standard e si ponga Laurea Triennale in Matematica, Università La Sapienza Corso di Probabilità, AA 6/7 Prova di Esonero Maggio 7 Testi e soluzioni degli esercizi proposti Siano Z, Z, Z variabili aleatorie indipendenti e

Dettagli

Funzioni di n variabili a valori vettoriali

Funzioni di n variabili a valori vettoriali Funzioni di n variabili a valori vettoriali Ultimo aggiornamento: 22 maggio 2018 1 Differenziale per funzioni da R n in R k Una funzione F : A R n R k può essere vista come una k-upla di funzioni scalari

Dettagli

1 Processi stocastici e campi random

1 Processi stocastici e campi random Corso di Termodinamica e Meccanica Statistica Anno Accademico 211/212 1 Processi stocastici e campi random Vogliamo estendere le metodologie del calcolo delle probabilità e della statistica, in modo da

Dettagli

Corso di Controllo Digitale Equazioni alle Differenze e Z-trasformate a

Corso di Controllo Digitale Equazioni alle Differenze e Z-trasformate a Corso di Controllo Digitale Equazioni alle Differenze e Z-trasformate a Università degli Studi della Calabria Corso di Laurea in Ingegneria Elettronica. Ing. Domenico Famularo a Proprietà Letteraria Riservata

Dettagli

Soluzione esercizi 28 ottobre 2011

Soluzione esercizi 28 ottobre 2011 ANALISI Soluzione esercizi 8 ottobre 0 4.. Esercizio. Siano α e β due numeri reali tali che la loro somma e la loro differenza siano razionali: provare che allora essi sono entrambi razionali. Il teorema

Dettagli

CP410: Esame 2, 3 febbraio 2015

CP410: Esame 2, 3 febbraio 2015 Dipartimento di Matematica, Roma Tre Pietro Caputo 2014-15, I semestre 3 febbraio, 2015 CP410: Esame 2, 3 febbraio 2015 Cognome Nome Matricola Firma 1. Sia (Ω, F, P) lo spazio di probabilità definito da

Dettagli

AM2: Tracce delle lezioni- IX Settimana INSIEMI DI LIVELLO, MINIMI VINCOLATI PRINCIPIO DEI MOLTIPLICATORI DI LAGRANGE

AM2: Tracce delle lezioni- IX Settimana INSIEMI DI LIVELLO, MINIMI VINCOLATI PRINCIPIO DEI MOLTIPLICATORI DI LAGRANGE AM2: Tracce delle lezioni- IX Settimana INSIEMI DI LIVELLO, MINIMI VINCOLATI PRINCIPIO DEI MOLTIPLICATORI DI LAGRANGE Sia g C 1 R 2 ), c R. L insieme γ = γ c := {x, y) R 2 : gx, y) = c} si chiama insieme

Dettagli

5. Analisi dei dati di input

5. Analisi dei dati di input Anno accademico 2007/08 Analisi e scelta dei dati di input Per l esecuzione di una simulazione è necessario disporre di dati di input che siano una adeguata rappresentazione di ciò che accadrà in realtà

Dettagli

Teorema delle Funzioni Implicite

Teorema delle Funzioni Implicite Teorema delle Funzioni Implicite Sia F una funzione di due variabili definita in un opportuno dominio D di R 2. Consideriamo l equazione F (x, y) = 0, questa avrà come soluzioni coppie di valori (x, y)

Dettagli

Stima dei sistemi di equazioni simultanee

Stima dei sistemi di equazioni simultanee Università di Pavia Stima dei sistemi di equazioni simultanee Eduardo Rossi University of Pavia Stima dei SES Limited Information OLS 2STLS K CLASS H CLASS Full Information FIMLE 3STLS FIIV Eduardo Rossi

Dettagli

Programmazione Non Lineare

Programmazione Non Lineare Capitolo 1 Programmazione Non Lineare 1.1 Introduzione Un problema di ottimizzazione viene definito come la minimizzazione o la massimizzazione di una funzione a valori reali su un insieme specificato.

Dettagli

Trasformazione di Problemi Non Lineari

Trasformazione di Problemi Non Lineari Capitolo 2 Trasformazione di Problemi Non Lineari 2.1 Trasformazione in problema di PL In questa sezione, verranno presentati tre classi di problemi di programmazione non lineare che, attraverso l uso

Dettagli

Laurea Magistrale in Scienze Statistiche Finanziarie e Attuariali Econometria Finanziaria c.a. A.A. 2016/2017 Appello 15 Settembre 2017

Laurea Magistrale in Scienze Statistiche Finanziarie e Attuariali Econometria Finanziaria c.a. A.A. 2016/2017 Appello 15 Settembre 2017 Laurea Magistrale in Scienze Statistiche Finanziarie e Attuariali Econometria Finanziaria c.a. A.A. 206/207 Appello 5 Settembre 207. Sia r t il log-return di un asset e r m t il log-retun del mercato.

Dettagli

Distribuzione normale multidimensionale

Distribuzione normale multidimensionale Capitolo 2 Distribuzione normale multidimensionale La funzione di densità normale undimensionale ha la forma seguente Anderson, 1984 fx ce 1 2 Ax b2 ce 1 2 x bax b La costante di normalizzazione c è data

Dettagli

CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno Motivare dettagliatamente le risposte su fogli allegati

CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno Motivare dettagliatamente le risposte su fogli allegati CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno 2006 Motivare dettagliatamente le risposte su fogli allegati 1.- Sia X un numero aleatorio a valori { α, 0, α}, con α > 0 e P (X = α) = P (X

Dettagli

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione.

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione. Coppie o vettori di dati Spesso i dati osservati sono di tipo vettoriale. Ad esempio studiamo 222 osservazioni relative alle eruzioni del geyser Old Faithful. Old Faithful, Yellowstone Park. Old Faithful

Dettagli

IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 20: Stima puntuale. Stimatore lineare a MEQM. Esempi. Motivazioni

IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 20: Stima puntuale. Stimatore lineare a MEQM. Esempi. Motivazioni IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI Lezione 20: Stima puntuale Motivazioni Stima puntuale Indice di qualitá della stima Stimatore a MEQM Stimatore lineare a MEQM Il caso gaussiano Esempi 20-1

Dettagli

Stima del valore di una costante in presenza di rumore esponenzialmente correlato. Carlo Fisicaro

Stima del valore di una costante in presenza di rumore esponenzialmente correlato. Carlo Fisicaro Stima del valore di una costante in presenza di rumore esponenzialmente correlato Carlo Fisicaro OBIETTIVO Stimare il valore della costante β adimensionale per mezzo di misurazioni soggette a rumore stocastico

Dettagli

Elaborazione statistica di dati

Elaborazione statistica di dati Elaborazione statistica di dati CONCETTI DI BASE DI STATISTICA ELEMENTARE Taratura strumenti di misura IPOTESI: grandezza da misurare identica da misura a misura Collaudo sistemi di produzione IPOTESI:

Dettagli

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 7: Basi di statistica

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 7: Basi di statistica Costruzione di macchine Modulo di: Progettazione probabilistica e affidabilità Marco Beghini Lezione 7: Basi di statistica Campione e Popolazione Estrazione da una popolazione (virtualmente infinita) di

Dettagli

Teoria dei Segnali Trasmissione binaria casuale; somma di processi stocastici

Teoria dei Segnali Trasmissione binaria casuale; somma di processi stocastici eoria dei Segnali rasmissione binaria casuale; somma di processi stocastici Valentino Liberali Dipartimento di Fisica Università degli Studi di Milano valentino.liberali@unimi.it eoria dei Segnali rasmissione

Dettagli

Analisi delle serie storiche parte V Modelli autoregressivi

Analisi delle serie storiche parte V Modelli autoregressivi Analisi delle serie storiche parte V Modelli autoregressivi a.a. 2016/2017 Economiche Internazionali 1 Definizioni introduttive Autoregressione: modello di regressione che spiega una serie temporale con

Dettagli

Brevi richiami su variabili aleatorie e processi stocastici

Brevi richiami su variabili aleatorie e processi stocastici Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei

Dettagli

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07 PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 006/07 Esercizio 1 Prova scritta del 16/1/006 In un ufficio postale lavorano due impiegati che svolgono lo stesso compito in maniera indipendente, sbrigando

Dettagli

Calcolo Numerico. Corso di Laurea in Ingegneria Elettronica Appello del 17 gennaio A(x) =

Calcolo Numerico. Corso di Laurea in Ingegneria Elettronica Appello del 17 gennaio A(x) = Calcolo Numerico Corso di Laurea in Ingegneria Elettronica Appello del 7 gennaio 204 Sia M = F (2, 3). Dopo aver mostrato che 20 M, determinare tutti gli elementi ξ M tali che: ξ > 20 Per ogni x R, sia:

Dettagli

lezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1

lezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1 lezione n. 6 (a cura di Gaia Montanucci) METODO MASSIMA VEROSIMIGLIANZA PER STIMARE β 0 E β 1 Distribuzione sui termini di errore ε i ε i ~ N (0, σ 2 ) ne consegue : ogni y i ha ancora distribuzione normale,

Dettagli

I Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 2014/15 Nome: 23 Giugno

I Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 2014/15 Nome: 23 Giugno I Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 014/15 Nome: 3 Giugno 015 Email: Quando non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile

Dettagli

INTRODUZIONE ALLA STATISTICA PER LA RICERCA IN SANITA

INTRODUZIONE ALLA STATISTICA PER LA RICERCA IN SANITA INTRODUZIONE ALLA STATISTICA PER LA RICERCA IN SANITA IRCBG 19027 Modulo Dal campione alla popolazione: l'inferenza e l'intervallo di confidenza IRCCS Burlo Garofolo Formazione, Aula A via dell Istria

Dettagli

CP410: Esame 2, 30 gennaio Testo e soluzione

CP410: Esame 2, 30 gennaio Testo e soluzione Dipartimento di Matematica, Roma Tre Pietro Caputo 23-4, I semestre 3 gennaio, 24 CP4: Esame 2, 3 gennaio 24 Testo e soluzione Cognome Nome Matricola Firma . Per ogni n N, sia X n la variabile aleatoria

Dettagli

Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta

Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta 1. (1/10 Lu.) Generalità sugli insiemi, operazioni di unione, intersezione e prodotto cartesiano. Insiemi numerici: naturali,

Dettagli

Appendice B ANALISI FUNZIONALE. 1 Spazi di Banach

Appendice B ANALISI FUNZIONALE. 1 Spazi di Banach Appendice B ANALISI FUNZIONALE In questo capitolo si introducono gli spazi di Banach e di Hilbert, gli operatori lineari e loro spettro. Inoltre si discutono gli operatori compatti su uno spazio di Hilbert.

Dettagli

Analisi della correlazione canonica

Analisi della correlazione canonica Analisi della correlazione canonica Su un collettivo di unità statistiche si osservano due gruppi di k ed m variabili L analisi della correlazione canonica ha per obiettivo lo studio delle relazioni di

Dettagli

RICHIAMI DI CALCOLO DELLE PROBABILITÀ

RICHIAMI DI CALCOLO DELLE PROBABILITÀ UNIVERSITA DEL SALENTO INGEGNERIA CIVILE RICHIAMI DI CALCOLO DELLE PROBABILITÀ ing. Marianovella LEONE INTRODUZIONE Per misurare la sicurezza di una struttura, ovvero la sua affidabilità, esistono due

Dettagli

I modelli probabilistici

I modelli probabilistici e I modelli probabilistici Finora abbiamo visto che esistono modelli probabilistici che possiamo utilizzare per prevedere gli esiti di esperimenti aleatori. Naturalmente la previsione è di tipo probabilistico:

Dettagli

LA DISTRIBUZIONE NORMALE o DI GAUSS

LA DISTRIBUZIONE NORMALE o DI GAUSS p. 1/2 LA DISTRIBUZIONE NORMALE o DI GAUSS Osservando gli istogrammi delle misure e degli scarti, nel caso di osservazioni ripetute in identiche condizioni Gli istogrammi sono campanulari e simmetrici,

Dettagli

Elementi di statistica per l econometria

Elementi di statistica per l econometria Indice Prefazione i 1 Teoria della probabilità 1 1.1 Definizioni di base............................. 2 1.2 Probabilità................................. 7 1.2.1 Teoria classica...........................

Dettagli

Equazione di Laplace

Equazione di Laplace Equazione di Laplace. La funzione di Green Sia, indicati con x e y due punti di R 3 E(x, y) = x y Consideriamo la rappresentazione integrale di u(x) C 2 (), anche rinunciando all ipotesi che sia armonica

Dettagli

Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche

Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche Ludovico Biagi Politecnico di Milano, DIIAR ludovico.biagi@polimi.it (materiale didattico preparato in

Dettagli

Analisi nel dominio del tempo delle rappresentazioni in variabili di stato

Analisi nel dominio del tempo delle rappresentazioni in variabili di stato 4 Analisi nel dominio del tempo delle rappresentazioni in variabili di stato Versione del 21 marzo 2019 In questo capitolo 1 si affronta lo studio, nel dominio del tempo, dei modelli di sistemi lineari,

Dettagli

Laboratorio di Chimica Fisica. Analisi Statistica

Laboratorio di Chimica Fisica. Analisi Statistica Università degli Studi di Bari Dipartimento di Chimica 9 giugno F.Mavelli- Laboratorio Chimica Fisica - a.a. 3-4 F.Mavelli Laboratorio di Chimica Fisica a.a. 3-4 Analisi Statistica dei Dati Analisi Statistica

Dettagli

SERIE STORICHE - AA Alessandra Luati

SERIE STORICHE - AA Alessandra Luati SERIE STORICHE - AA2004-2005 Alessandra Luati Programma dettagliato del corso di Analisi delle serie storiche, Laurea triennale in Finanza e assicurazioni, sede di Rimini, I ciclo, periodi 1,2: 27/09/04-29/10/04,

Dettagli