Macroeconometria. Introduzione alle Serie Storiche. Carolina Castagnetti Universitá di Pavia
|
|
- Cristiano Romagnoli
- 5 anni fa
- Visualizzazioni
Transcript
1 Macroeconometria Introduzione alle Serie Storiche Carolina Castagnetti Universitá di Pavia
2 Definizione:Convergenza in Probabilitá Il vettore di vc x n converge in probabilitá alla costante c se: lim n Prob( x n c > ǫ) = 0 ǫ > 0 e si indica con plimx n = c o x n p c Definizione:Consistenza di uno stimatore (debole) Uno stimatore ˆβ n di un vettore di parametri β é uno stimatore consistente di β se e solo se plimˆβ n = β cioé se converge al suo valore vero quando n. (trattiamo lo stimatore come una sequenza di variabili casuali) 1
3 Teorema:Convergenza in media quadratica Se x n ha media µ n e varianza σ n tali che lim n µ n = c e lim n σ n = 0 allora x n converge in media quadratica a c: plimx n = c Definizione:Convergenza in modo quasi certo Il vettore di variabili casuali x n converge in modo quasi certo a c se Prob[ lim n x n c < ǫ] = 1 ǫ > 0 x n q.c c Prima abbiamo parlato di consistenza in senso debole. Si parla invece di consistenza in senso forte quando facciamo riferimento alla convergenza in modo quasi certo. La convergenza in modo quasi certo convergenza in probabilitá. 2
4 Definizione:Convergenza in distribuzione Il vettore di variabili casuali x n converge in distribuzione al vettore di variabili casuali x, avente funzione di densitá cumulata F(x) se: ovvero lim n F x n (x) = F x (x) lim n Pr(x n b) = Pr(x b) per tutti i vettori b per cui la distribuzione limite é continua. La convergenza in distribuzione si indica con: x n d x 3
5 Regole per i limiti in probabilitá Se x n e y n sono variabili casuali con plimx n = c e plimy n = d allora: plim(x n + y n ) = c + d plim x n y n = c d plim(x n y n ) = cd se d 0 Se X n é una matrice di variabili casuali e plimx n = W allora plimx 1 n = W 1 Se X n e Y n sono matrici di variabili casuali con plimx n = A e plimy n = B allora: plimx n Y n = AB 4
6 Cramér-Slutsky Se x n d x e yn p c dove x é una variabile casuale e c é una costante deterministica, allora: x n y n d cx x n + y n d x + c x n y n d x c x n d x y n c se c 0 5
7 Legge debole dei grandi numeri Sia x n un vettore di variabili casuali I.I.D. con E[x n ] = µ, costante finita. Allora: 1 N N n=1 x n p µ Teorema del Limite Centrale di Lindberg-Levy Sia x n un vettore di variabili casuali I.I.D. con E[x n ] = µ e matrice di varianza e covarianza definita positiva Σ allora: N( xn µ) d N(0,Σ) 6
8 Questo teorema del Limite Centrale assume che i vettori di variabili casuali abbiano la stessa distribuzione. Esiste una variante del teorema (versione di Lindberg-Feller) secondo cui non é necessario che le variabili casuali abbiano la stessa distribuzione ma possono avere distribuzioni diverse e quindi medie e varianze diverse.
9 Definizione Processo stocastico: Un processo stocastico è costituito da una sequenza di variabili casuali {y t } indicizzate dal parametro t mathcal(t) e definite su uno stesso spazio di probabilità {Ω, G, P }. Il processo stocastico è tale che per ogni t (T), y t (ω) é una variabile casuale nello spazio campionario Ω, e per ogni ω Ω, y t (ω) é una realizzazione del processo stocastico sull insieme (T). Definizione Serie storica: Una serie storica é (la parte finita di) una particolare realizzazione {y t } t= di un processo stocastico. 7
10 Definizione Funzione di Autocovarianza: La distribuzione congiunta di (y t, y t 1,..., y t h ) di solito é caratterizzata dalla funzione di autocovarianza: γ t (h) = Cov(y t, y t h ) = E[(y t µ t )(y t h µ t h )] =... (y t µ t )(y t h µ t h )f(y t,..., y t h )dy t... dy t h (1) 8
11 Definizione La media non condizionale µ t = E[y t ] = Definizione La media condizionale E[y t x t ] = y t f(y t )dy t (2) y t f(y t x t )dy t (3) dove f(y t x t ) = f(x t,y t ) f(x t ) x t. è la distribuzione condizionale di y t rispetto a 9
12 Definizione La funzione di autocorrelazione ρ t (h) = γ t (h) γ t (0)γ t h (0) (4) 10
13 Stazionarietá Definizione Stazionarietá debole (o in covarianza): Il processo y t si dice stazionario in senso debole o stazionario in covarianza se la media e i momenti secondi del processo sono indipendenti dal tempo: E[y t ] = µ t (5) E[(y t µ)(y t h µ)] = γ(h) t, h (6) Se un processo é stazionario in covarianza, la covarianza tra y t e y t h dipende solo da h, la durata dell intervallo di tempo che separa le osservazioni. Ne consegue che per un processo stazionario in covarianza γ t (h) = γ t ( h) = γ(h). 11
14 Definizione Stazionarietá in senso stretto Un processo si dice stazionario in senso stretto se, per ogni valore di h 1, h 2,..., h n, la distribuzione congiunta di (y t, y t+h1,..., y t+hn ) dipende solamente dall intervallo che separa le date (h 1, h 2,..., h n ) ma non dalla data stessa t: f(y t, y t+h1,..., y t+hn ) = f(y τ, y τ+h1,..., y τ+hn ) t, h (7) La stazionarietá in senso stretto implica che tutti i momenti esistenti sono indipendenti dal tempo e quindi un processo stazionario in senso stretto deve essere stazionario in covarianza. Non é vero il contrario. Definizione Processo gaussiano Il processo y t si dice Gaussiano se la densitá congiunta di (y t, y t+h1,..., y t+hn ), f(y t, y t+h1,..., y t+hn ), é Gaussiana per ogni h 1, h 2,..., h n. 12
15 Poiché la media e la varianza sono tutto ció che é richiesto per parametrizzare completamente una distribuzione gaussiana, un processo guassiano stazionario in covarianza é strettamente stazionario.
16 Ergodicitá Il concetto di ergodicitá riguarda quale tipo di informazione possiamo avere da una media temporale rispetto al concetto di media d insieme E[y t ] in ogni istante t. Non é possibile applicare la legge dei grandi numeri perché la serie storica osservata altro non é che una singola realizzazione di ampiezza T del processo. Definizione Ergodicitá rispetto alla media. Sia {y t (ω), ω Ω, t T } un processo stazionario in covarianza, tale che E[y t (ω)] = µ < e E[(y t (ω) µ) 2 ] = σ 2 < t. Sia y T = T 1 T t=1 y t la media temporale. Se y T converge in probabilitá a µ per T, y t si dice ergodico rispetto alla media. 13
17 Affinché un processo stocastico sia ergodico é necessario che le autocovarianze convergano a zero abbastanza in fretta al crescere della distanza tra osservazioni. Si puó mostrare che condizione sufficiente affinché un processo stazionario in covarianza sia ergodico rispetto alla media é che: h=0 γ(h) < Ergodicitá rispetto ai momenti secondi γ(h) = (T h) 1 T t=h+1 (y t µ)(y t h µ) P γ(h) 14
18 Il concetto di ergodicitá ha a che fare con l indipendenza asintotica, mentre il concetto di stazionarietá ha a che fare con l invarianza nel tempo del processo.
19 Esempio 1 Si consideri il processo stocastico {y t } definito da { u0 t = 0 con u y t = 0 N(0, σ 2 ) y t 1 t > 0 segue che {y t } é stazionario in senso stretto ma non ergodico. Dimostrazione Ovviamente abbiamo che y t = u 0 per ogni t 0. La stazionarietá deriva da: E[y t ] = E[u 0 ] = 0 E[y 2 t ] = E[u2 0 ] = σ2 E[y t y t 1 ] = E[u 2 0 ] = σ2 15
20 Quindi abbiamo che µ = 0, γ(h) = σ 2 ρ(h) = 1 sono indipendenti dal tempo. L ergodicitá per la media richiede che: y T = T T 1 1 t=0 converga a µ = 0 mentre invece é pari a u 0. Una possibile strada per mostrare l ergodicità è quella di utilizzare il teorema della convergenza in media quadratica: y t E[y t ] = E[ T T u 0] = E[u 0 ] = 0 var(y t ) = E[(y t E[y t ]) 2 ] = σ 2 in questo caso si vede come non sia possibile utilizzarla. 16
21 Esempio 2 Si consideri il processo stocastico {y t } definito da dove y t = µ + ǫ t ǫ t NID(0, σ 2 ) µ N(0, λ 2 ) e E[ǫ t µ] = 0 si vede che la serie è stazionaria in covarianza: E[y t ] = 0 var(y t ) = λ 2 + σ 2 γ t (j) = E[(µ + ǫ t )(µ + ǫ t+j )] = λ 2 j 17
22 la serie non è però ergodica. La condizione per l ergodicità è infatti violata: infatti si ha: j=0 γ t (j) 1 T T t=1 = 1 T T t=1 (ǫ t + µ) = µ + 1 T ǫ t µ
23 Esempio Il processo stocastico {y t } é detto random walk se y t = y 0 + t s=1 La media é indipendente dal tempo: µ = E[y t ] = E y 0 + t u s s=1 = y 0 + u s t > 0 (8) t s=1 E[u s ] = 0 se y 0 = 0. (9) 18
24 ma i momenti secondi divergono, cioé aumentano al crescere di t. La varianza é data da: 2 γ t (0) = E[yt 2 ] = E t y 0 + t = E = E = = t t s=1 k=1 t s=1 t s=1 E[u 2 s] + u s u k = E u s s=1 t t t s=1,s k k=1 u 2 s + 2 u s s=1 t t s=1 s=1,s k k=1 E[u s u k ] u s u k σ 2 = tσ 2. (10) 19
25 Le funzioni di autocovarianza sono: γ t (h) = E[y t y t h ] = E = E = = y 0 + t t h u s u k s=1 k=1 t h k=1 t h k=1 E[u 2 k ] t u s s=1 y 0 + t h u k k=1 σ 2 = (t h)σ 2 h > 0. (11) Infine, la funzione di autocorrelazione ρ t (h) per h > 0 é data da: ρ 2 t (h) = γt 2(h) γ t (0)γ t h (0) = [(t h)σ2 ] 2 [tσ 2 ][(t h)σ 2 ] = 1 h t h > 0 (12) 20
26 Processo White-Noise Un processo white-noise é un processo stazionario in senso debole che ha media zero ed é incorrelato nel tempo Quindi u t é un processo WN t T : E[u t ] = 0 u t WN(0, σ 2 ) (13) E[u 2 t ] = σ2 < E[u t u t h ] = 0 h 0, t h T (14) Quando viene rilassata l assunzione sulla varianza costante e viene sostituita con E[u 2 t ] <, u t é chiamato un processo WN debole. 21
27 Processo White-Noise Gaussiano Se il processo white-noise é distribuito secondo una normale, esso si chiama processo white-noise Gaussiano: u t NID(0, σ 2 ). (15) L ipotesi di normalitá implica stazionarietá forte e indipendenza seriale (unpredictability). Una generalizzazione del processo NID é il processo IID con momenti superiori costanti ma non specificati. 22
28 Martingala Il processo stocastico x t si chiama martingala rispetto all insieme informativo, I t 1, dei dati realizzati entro t 1 se E[ x t ] < E[x t I t 1 ] = x t 1 (16) Successione di differenze di martingale Il processo u t = x t x t 1 con E[ u t ] < e E[u t I t 1 ] = 0 per ogni t si dice una successione di differenze di martingale, MDS. 23
29 Mean Innovation il processo {u t } è un innovazione media rispetto all insieme informativo I t 1 se E[u t I t 1 ] = 0 24
30 Equazioni alle differenze del primo ordine y t = φy t 1 + w t Risoluzione per sostituzioni successive: y t = φ t+1 y 1 + φ t w 0 + φ t 1 w 1 + φ t 2 w φw t 1 + w t y t w 0 = φ t moltiplicatore dinamico in generale, se la sostituzione dinamica inizia al tempo t (per y t 1 dato) y t+j = φ j+1 y t 1 +φ j w t +φ j 1 w t+1 +φ j 2 w t+2 + +φw t+j 1 +w t+j y t+j w t = φ j 25
31 il moltiplicatore dinamico dipende solo da j: l intervallo di tempo che separa la variazione dell input e il valore dell output. Se 0 < φ < 1 il moltiplicatore y t+j verso lo zero w t decresce geometricamente Se 1 < φ < 0 il moltiplicatore y t+j w cambierá alternativamente di t segno decrescendo in valore assoluto Se φ > 0 il moltiplicatore dinamico y t+j aumenta esponenzialmente. w t
32 Se φ < 1 il sistema mostra oscillazione esplosive con segni alternati. Ricapitolando Se φ < 1 il sistema é stabile e gli effetti di una data variazione di w t alla fine si esauriscono. Se φ > 1 il sistema é esplosivo.
33 Caso intermedio: φ = 1: y t+j = y t 1 + w t + w t+1 + w t w t+j 1 + w t+j in questo caso un aumento unitario di w t causa un aumento permanente di una unitá di y t+j j = 0,1,... In generale, gli effetti di una variazione permanente della w (w t, w t+1,... aumentano tutti di una unitá) su y t+j sono dati da: y t+j w t + y t+j w t+1 + y t+j w t y t+j w t+j = φ j + φ j 1 + φ j 2 + +φ+1 per j e φ < 1 la successione a destra del segno di uguale converge a 1 φ 1 che é pari all effetto cumulato sulla y di una variazione transitoria della w: y t+j = 1 w t 1 φ j=0 26
34 Caso generale: equazioni alle differenze di ordine p Il valore di y al tempo t dipende dai suoi valori ritardati fino a p e dal valore corrente di (w t ): y t = φ 1 y t φ p y t p + w t (17) Companion Form ξ t = y t. y t p+1 (p 1) ξ t 1 = y t 1. y t p (p 1) 27
35 F = φ 1 φ 2... φ p 1 φ p v t = w t
36 Equazione alle differenze del primo ordine Questo é un sistema di p equazioni ξ t = Fξ t 1 + v t (18) y t = φ 1 y t φ p y t p + w t y t 1 = y t 1. =. y t p+1 = y t p+1 (19) ξ 0 = Fξ 1 + v 0 ξ 1 = Fξ 0 + v 1 = F(Fξ 1 + v 0 ) + v 1 = F 2 ξ 1 + Fv 0 + v 1 29
37 Ricorsivamente, ξ t = F t+1 ξ 1 + F t v Fv t 1 + v t (20) y t y t 1. y t p+1 = F t+1 y 1 y 2. y p +F t w F w t w t 0. 0 (21) 30
38 La prima equazione é y t = f (t+1) 11 y 1 +f (t+1) 12 y f (t+1) 1p y p +f (t) 11 w f 11 w t 1 +w t dove f (t+1) 11 indica l elemento (1,1) di F t+1, f (t+1) 12 indica l elemento (1,2) di F t+1, etc. In questo modo il valore di y t é descritto come funzione lineare di p valori iniziali di y, (y 1, y 2,..., y p ) e la storia della variabile input w dal tempo 0, (w 0, w 1,..., w t ). Per l istante t+j, ξ t+j = F j+1 ξ t 1 + F j v t Fv t+j 1 + v t+j y t+j = f (j+1) 11 y t 1 + f (j+1) 12 y t f (j+1) 1p y t p +f (j) 11 w t + f (j 1) 11 w t f 11 w t+1 + w t+j 31
39 Il moltiplicatore dinamico y t+j w t = f (j) 11 (22) quando j = 1, f (j) 11 = φ 1. Per ogni sistema di ordine p-esimo, l effetto su y t+1 di un aumento di una unitá di w t é dato dal coefficiente che lega y t a y t 1 yt+1 w t = φ 1 y t+2 w t = φ φ 2 = f (2) 11 Per valori di j piú grandi un modo per ottenere il valore numerico del moltiplicatore dinamico é quello di simulare numericamente il sistema. 32
40 Alternativamente, si puó avere una caratterizzazione analitica di y t+j w t tramite gli autovalori della matrice F. Gli autovalori sono F λi p = 0 (23) Il determinante é un polinomio di ordine p-esimo in λ le cui p soluzioni caratterizzano i p autovalori di F. Proposizione Gli autovalori di F sono i valori di λ che soddisfano λ p φ 1 λ p 1 φ 2 λ p 2... φ p 1 λ φ p = 0 (24) una volta che conosciamo gli autovalori, é immediato caratterizzare il comportamento dinamico del sistema.
41 Soluzione generale di una equazione alle differenze di ordine p con autovalori distinti Quando tutti gli autovalori sono minori di 1 in valore assoluto, il sistema é stabile e la sua dinamica puó essere rappresentata a mezzo di una media mobile di funzioni esponenziali decrescenti oppure di esponenziali sempre decrescenti ma di segno alternato. Quando gli autovalori sono reali ma almeno uno é maggiore in valore assoluto di 1, il sistema é esplosivo. 33
42 Se qualcuno degli autovalori é complesso avremo dinamiche interessanti. Quando gli autovalori sono complessi, sono sempre complessi coniugati. Ad esempio, λ 1 = a + ib, e la sua coniugata λ 2 = a ib dove i = 1 e a e b sono numeri reali, con modulo R = λ 1 λ 2 = a 2 + b 2. Il modulo R é un numero reale da interpretarsi come la distanza radiale di z dall origine nel piano complesso, dove a e b sono misurati sulle assi delle coordinate. 34
43 Se 1. R = 1, cioé gli autovalori complessi hanno modulo unitario, i moltiplicatori sono funzioni periodiche di seno e coseno di j. Un dato aumento di w t fa aumentare y t+j per certi intervalli di j e lo riduce per altri intervalli, con l impulso che non si esaurisce per j. 2. R < 1. L impulso segue un sentiero sinusoidale con un ampiezza che si smorza al tasso R j. 3. R > 1. L ampiezza della sinusoide esplode al tasso R j. 35
44 Operatore ritardo Supponiamo che y t sia un processo stocastico. Definiamo L come Ly t = y t 1 L j y t = y t j j N L(β x t ) = β Lx t Proprietá distributiva rispetto all addizione L(y t + x t ) = y t 1 + x t 1 (25) L operatore L segue esattamente le stesse regole algebriche dell operatore moltiplicazione: gode della proprietá commutativa e della proprietá distributiva rispetto all addizione. 36
45 Polinomio in L (al + bl 2 ) (26) questa espressione é algebricamente simile ad un polinomio semplice (az+bz 2 ) dove z é uno scalare. La differenza é che mentre il polinomio semplice definisce un numero particolare, il polinomio nell operatore ritardo di per sé non ha senso ma é un operatore e deve essere applicato ad una serie temporale per assumere significato.
46 L operatore differenza: = 1 L y t = (1 L)y t = y t y t 1 L operatore differenza su n-periodi n = 1 L n. n y t = (1 L n )y t = y t y t n. L operatore differenza di ordine n n = (1 L) n n y t = (1 L) n y t. 37
47 L é un operatore e non una variabile. L operatore ritardo permette un gran risparmio di notazione quando lavoriamo con i modelli dinamici delle serie storiche. Quando consideriamo le proprietá dei polinomi nell operatore ritardo spesso si preferisce descrivere le proprietá dei polinomi rispetto alla variabile complessa z, che ha la forma seguente z = a + ib. le proprietá che deriviamo per il polinomio in z possono essere usate direttamente per interpretare gli effetti dell operatore ritardo. 38
48 Esempio 1 (1 + α 1 z) α 1 R Assumiamo l esistenza di (1 + α 1 z) 1 : δ(z) = (1 + α 1 z) 1, i.e. δ(z)(1 + α 1 z) = 1 Assumiamo che δ(z) sia un polinomio di ordine indeterminato δ(z) = δ 0 + δ 1 z + δ 2 z δ i, i = 1,2,... sono costanti da determinare δ(z)(1 + α 1 z) = (δ 0 + δ 1 z + δ 2 z )(1 + α 1 z) = δ 0 + (δ 1 + δ 0 α 1 )z + (δ 2 + δ 1 α 1 )z per soddisfare l identitá δ(z)(1 + α 1 z) = 1 é necessario che δ 0 = 1 e δ j = δ j 1 α 1 39
49 L esistenza dell inversa dipende da α 1 : Se α 1 < 1 i termini in δ(z) formano una somma di vc convergente, δ(z) = 1 α 1 z + α 2 1 z2 α 3 1 z questa serie é convergente (la somma dei termini é cioé finita) per ogni z nel cerchio di raggio unitario ( z 1) Se α 1 1 la serie 1 α 1 z+α 2 1 z2 α 3 1 z é infinita per almeno qualche punto. 40
50 La radice unitaria di questo polinomio é α 1 1 : 1 + α 1 z = 0 z = 1 α 1. La condizione z > 1, equivale a α 1 < 1, ed é chiamata condizione di invertibilitá per il polinomio. la funzione inversa é finita per tutti i valori z < α
51 Osservazione 1 Consideriamo un equazione alle differenze del primo ordine scritta in termini dell operatore ritardo: y t = φy t 1 + ω t (1 φl)y t = ω t (27) moltiplichiamo entrambi i membri della precedente per: la (28) diventa: (1 + φl + φ 2 L 2 + φ 3 L φ t L t ) (1 + φl + φ 2 L 2 + φ 3 L φ t L t )(1 φl)y t = (1 + φl + φ 2 L 2 + φ 3 L φ t L t )ω t y t = φ t+1 y 1 + ω t + φω t 1 + φ 2 ω t φ t ω 0 Applicare l operatore (1 + φl + φ 2 L 2 + φ 3 L φ t L t ) significa eseguire le stesse sostituzioni ricorsive viste per risolvere l equazione alle differenze. 42
52 Osservazione 2 Si osservi che per φ < 1 e t elevato: (1 + φl + φ 2 L 2 + φ 3 L φ t L t )(1 φl)y t y t poiché (1 + φl + φ 2 L 2 + φ 3 L φ t L t )(1 φl) = 1 φ t+1 L t+1 Osservazione 3 Dalla relazione precedente, discende che quando φ < 1 e stiamo pensando di applicare un operatore ritardo ad una sequenza limitata (o ad un processo stocastico stazionario) possiamo considerare: (1 φl) 1 = lim j (1 + φl + φ 2 L 2 + φ 3 L φ j L j ) 43
53 Mostriamo perchè l osservazione 3 vale solo per processi stocastici stazionari: la 28 può essere espressa come (1 φl)y t = ω t (28) y t = (1 φl) 1 ω t = ω t + φω t 1 + φ 2 ω t (29) Se non ci limitassimo a considerare processi stocastici stazionari allora la 29 non sarebbe più una conseguenza necessaria della 28. Pensiamo infatti alla 29 riscritta come y t = a 0 φ t + ω t + φω t questa serie è consistente con la 28 per qualunque valore di a 0 : (1 φl)y t = (1 φl)a 0 φ t + (1 φl)(ω t + φω t ) 44
54 (1 φl)y t = a 0 φ t a 0 φ t + (1 φl)(1 φl) 1 (ω t ) (1 φl)y t = ω t
55 Equazioni alle differenze del secondo ordine Soluzione: Fattorizzazione. Per il sistema del secondo ordine: y t = φ 1 y t 1 + φ 2 y t 2 + w t (1 φ 1 L φ 2 L 2 )y t = w t la fattorizzazione del polinomio di secondo ordine nell operatore ritardo é: (1 φ 1 L φ 2 L 2 ) = (1 λ 1 L)(1 λ 2 L) = dove = (1 [λ 1 + λ 2 ]L + λ 1 λ 2 L 2 ) φ 1 = (λ 1 + λ 2 ) φ 2 = (λ 1 λ 2 ) 45
56 nel caso generale: (1 φ 1 z φ 2 z 2 ) = (1 λ 1 z)(1 λ 2 z) dividiamo entrambi i membri per z 2 : (z 2 φ 1 z 1 φ 2 ) = (z 1 λ 1 )(z 1 λ 2 ) e si definisca λ come la variabile z 1 : (λ 2 φ 1 λ φ 2 ) = (λ λ 1 )(λ λ 2 ) (30) la relazione precedente deve valere per tutti i valori di λ se i due membri della precedente rappresentano lo stesso polinomio. In particolare il RHS é nullo per λ = λ 1 e λ = λ 2 e questi stessi valori devono annullare il LHS:(λ 2 φ 1 λ φ 2 ) che peró é equivalente a determinare gli autovalori della matrice F. 46
57 Proposizione Fattorizzare il polinomio (1 φl φl 2 ) nella forma (1 φ 1 L φ 2 L 2 ) = (1 λ 1 L)(1 λ 2 L) é equivalente a calcolare gli autovalori della matrice F. Gli autovalori di F sono identici ai parametri λ 1 e λ 2 della espressione precedente. Poiché le radici della precedente sono: L = z = λ 1 1 L = z = λ 1 2 l equazione é stabile quando le radici della (1 φ 1 L φ 2 L 2 ) giacciono al di fuori del cerchio unitario (ovvero quando gli autovalori di F giacciono all interno del cerchio unitario). 47
58 Scomposizione di Wold Proposizione: Tutti i processi stazionari in covarianza a media zero possono essere scritti nella forma: y t = j=0 φ 2 j ǫ t j + k t con j=0 φ 2 j < e φ 0 = 1. ǫ t é l errore white noise che si commetterebbe nel prevedere y t in base ai valori ritardati di y: ǫ t = y t Ê[y t y t 1, y t 2,...] il valore di k t non é correlato con ǫ t j per ogni j, tuttavia k t puó essere predetto arbitrariamente bene in base ad una funzione lineare dei valori passati di y: k t = Ê[k t y t 1, y t 2,...] 48
59 Poiché si dispone di un numero finito di osservazioni sul processo si fanno ipotesi addizionali sulla natura dei parametri φ. In particolare Box e Jenkins (1976 Time Series Analysis Forecasting and Control) approssimano il polinomio φ(l) di ordine infinito con il rapporto tra due polinomi di ordine finito α(l) e β(l): φ(l) = j=0 φ j L j = β(l) α(l) = 1 + β 1L + β 2 L β q L q 1 α 1 L α 2 L α p L p il processo stazionario in covarianza y t ammette quindi la seguente rappresentazione: y t = φ(l)ǫ t k t = 0 y t = β(l) α(l) ǫ t 49
60 Modelli lineari di serie storiche p > 0, q = 0 α(l)y t = ǫ t AR(p) p = 0, q > 0 y t = β(l)ǫ t MA(q) p > 0, q > 0 α(l)y t = β(l)ǫ t ARMA(p, q) 50
61 y t I(d) d y t I(0) d y t ARIMA(p, d, q)
62 Processi autoregressivi Un processo autoregressivo di ordine p, AR(p), soddisfa l equazione: y t = µ + φ 1 y t 1 + φ 2 y t φ p y t p + ǫ t Se le radici dell equazione φ(l) = 1 φ 1 L φ 2 L 2 φ p L p sono al di fuori del cerchio unitario nel campo complesso, il processo é stazionario. La stazionarietá permette una rappresentazione MA( ) del processo: y t = φ(l) 1 µ + φ(l) 1 ǫ t y t = ν + j=0 α j ǫ t j 51
63 con α(l) = φ(l) 1 e j=0 α j < (31) La (31) è la condizione affinché un processo MA( ) generi un processo stazionario in covarianza.
64 Introdurre i 5 lucidi sulla condizione precedente, sulle equazioni di Yule-Walker e sulla autocorrelazione dei processi autoregressivi stazionari Fare anche esempio di un processo AR(1). appunto
65 Esempio: AR(1) y t = µ + φy t 1 + ǫ t con ǫ t IID(0, σ 2 ) procedendo per sostituzioni ricorsive: dove y t = µ + φµ + φ 2 µ + + ǫ t + φǫ t 1 + φ 2 ǫ t E[y t ] = µ + φµ + φ 2 µ + = µ 1 φ σ2 se φ < 1 var(y t ) = σ 2 (1 + φ 2 + φ ) = se φ < 1 1 φ2 E[(y t µ)(y t j µ)] = = E[(ǫ t + φǫ t 1 + φ 2 ǫ t 2 )(ǫ t j + φǫ t j 1 + φ 2 ǫ t j )] = = σ 2 φ j [ i=0 φ j φ 2i ] = σ 2 1 φ 2 se φ < 1 53
66 Le equazioni di Yule-Walker esprimono le funzioni di autocorrelazione di y t : in generale: ρ 1 = α 1 + α 2 ρ α p ρ 1 p ρ 2 = α 1 ρ 1 + α α p ρ 2 p... ρ p = α 1 ρ p 1 + α 2 ρ p ρ p ρ k = α 1 ρ k 1 + α 2 ρ k α p ρ k p k > p 54
67 Processi a media mobile Un processo a media mobile di ordine q, MA(q) é caratterizzato dall equazione: y t = µ + ǫ t + β 1 ǫ t 1 + β 2 ǫ t β q ǫ t q = µ + β(l)ǫ t dove ǫ t WN(0, σ 2 ) e β(l) = 1 + β 1 L + β 2 L β q L q. La condizione di invertibilitá: β(l) = 0 con radici in L di modulo superiore a 1 garantisce che vi sia una unica rappresentazione AR( ): β(l) 1 y t = β(1) 1 µ + ǫ t y t = ν + j=1 φ j y t j + ǫ t con β(l) 1 = 1 φ 1 L φ 2 L 2... e ν = β(1) 1 µ 55
68 Proprietà dei processi a media mobile Si consideri il processo MA(1): y t = µ + ǫ t + θǫ t 1 con ǫ t IID(0, σ 2 ) Il processo ha le seguenti proprietà: per le autocovarianze: E[y t ] = µ var(y t ) = E(ǫ t + θǫ t 1 ) 2 = = E[ǫ 2 t + θǫ 2 t 1 + 2θǫ tǫ t 1 ] = = (1 + θ 2 )σ 2 γ(1) = E[(y t µ)(y t 1 µ)] = θσ 2 γ(j) = 0 per j > 0 56
69 Processi misti autoregressivi e a media mobile Un processo ARM A(p, q) contiene sia termini autoregressivi che a media mobile: y t = ν + p j=1 α(l)y t = ν + β(l)ǫ t α j y t j + q i=1 β i ǫ t i + ǫ t dove ǫ t WN(0, σ 2 ), α(l) = 1 α 1 L α 1 L 2 α p L p e β(l) = 1 + β 1 L + β 2 L β q L q. 57
70 La stazionarietá, α(l) = 0, L > 1, garantisce una rappresentazione MA( ): y t = α(1) 1 ν + α(l) 1 β(l)ǫ t y t = µ + j=0 φ j ǫ t j Se il processo é invertibile, β(l) = 0, L > 1, si ha una rappresentazione AR( ): dove ν = β(1) 1 ν β(l) 1 α(l)y t = β(1) 1 ν + ǫ t y t = ν + j=1 φ j y t j + ǫ t 58
71 Approccio di Box e Jenkins per la previsione delle serie storiche (Box e Jenkins parlano di ARIMA(p, d, q)): 1. Trasformare i dati, se necessario, in modo da avere processi stazionari in covarianza 2. Fare un tentativo iniziale di specificazione con valori bassi di p e q per un modello ARMA(p, q) che spieghi le serie trasformate 3. Stimare i parametri in φ(l) e θ(l) 4. Analisi diagnostica sui residui per vedere se il modello è consistente con i dati. 59
72 1. La non Stazionarietà delle serie: Le serie economiche mostrano comportamenti di tipo evolutivo. Due modi per descrivere la presenza di trend: Modelli con trend deterministici. Esempio AR(1) stazionario e trend lineare y t = α + βt + φy t 1 + ǫ t con ǫ t IID(0, σ 2 ) con φ < 1. Le proprietà statistiche del modello sono: E[y t ] = µ + δt var(y t ) = σ2 1 φ 2 60
73 si vede infatti che: y t = φ t y 0 + α 1 1 φ + β 1 1 φl t φl ǫ t In un modello siffatto l effetto di shock casuali è temporaneo (modello keynesiano di Taylor (1980) con rigidità salariali)
74 Modelli con radice unitaria nella componente AR. Esempio: random walk with drift y t = µ + y t 1 + ǫ t con ǫ t IID(0, σ 2 ) Tramite sostituzioni ricorsive il processo precedente diventa: y t = µt + y 0 + Le proprietà statistiche del modello sono: E[y t ] = y 0 + µt var(y t ) = tσ 2 t ǫ t τ=1 In un modello siffatto l effetto di shock casuali è permanente. 61
75 Trasformazioni per indurre stazionarietà Modelli con radice unitaria nella componente AR In generale si supponga di avere: φ(l)y t = µ + θ(l)ǫ t con ǫ t IID(0, σ 2 ) (32) con una radice unitaria nel polinomio autoregressivo che riscriviamo: φ(l) = (1 L)φ (L) = φ (L) e φ (L) contiene tutte radici al di fuori del cerchio unitario nel campo complesso. La (32) diventa: il processo y t è stazionario. φ (L) y t = µ + θ(l)ǫ t 62
76 Trasformazioni per indurre stazionarietà Modelli con trend deterministici y t = α + βt + φy t 1 + ǫ t con ǫ t IID(0, σ 2 ) Se il processo è stazionario intorno ad un trend, il modo appropriato per renderlo stazionario è tramite la detrendizzazione: sottraggo ˆβt al processo per y t. 63
77 Questo procedimento non è pero sufficiente a rendere stazionarie serie con radici unitarie. Esempio del RWWD: y t = µt + y 0 + t ǫ t τ=1 In questo caso sottrarre dal processo µt serve ad eliminare la dipendenza dal tempo della media ma non quella della varianza che rimane var(y t ) = tσ 2. Il modo corretto per un processo a radice unitaria rimane quindi la differenziazione della serie. Si osservi che se si differenzia un processo stazionario intorno ad un trend come: y t = α + βt + φy t 1 + ǫ t 64
78 esso diventa: y t = (α + βt) + φ y t 1 + ǫ t in questo modo si elimina il trend ma si introduce una radice unitaria nella parte a media mobile.
79 Test di integrazione: Test di Dickey-Fuller (1979,1981) Box e Jenkins parlano solamente di stazionarietà dovuta alla presenza di radici unitarie nella componente autoregressiva y t = φy t 1 + ǫ t H 0 = φ = 1 H 1 = φ < 1 Nel caso però di non stazionarietà dovuta ad un trend deterministico è necessario formulare un ipotesi alternativa (H 1 ) plausibile. In questo caso il modello è: y t = φy t 1 + α + βt + ǫ t H 0 = φ = 1 β = 0 H 1 = φ < 1 65
80 Test Augmented Dickey-Fuller Per tener conto di dinamiche di ordine superiore si utilizza il test ADF: y t = φ 1 y t 1 + φ 2 y t φ p 1 y t p+1 + ρy t 1 + ǫ t H 0 = ρ = 0 H 1 = ρ < 0 66
81 2. Identificazione dei modelli Scelta del tipo di processo: scelta degli ordini p e q delle componenti AR e MA. B e J suggeriscono una scelta guidata dall analisi delle autocorrelazioni totali (ACF) e parziali (PACF) autocorrelazioni totali (ACF) ρ t (h) = γ t (h) γ t (0)γ t h (0) (33) 67
82 autocorrelazioni parziali (PACF) L autocorrelazione parziale tra y t e y t j è data dal legame correlativo tra y t e y t j al netto dell influenza esercitata dai termini intermedi: y t 1,..., y t j+1. La stima della j esima autocorrelazione parziale tra y t e y t j è la stima OLS di ˆφ j nella regressione: y t = α + φ 1 y t 1 + φ 2 y t φ j y t j + ǫ t (34) 68
83 3. Stima dei modelli La stima dei modelli AR e MA viene trattata con il metodo della massima verosimiglianza Stima di massima verosimiglianza di un processo AR(1) dove con Hp: ǫ t IIDN(0, σ 2 ): y t = µ + φy t 1 + ǫ t E[y t ] = µ 1 φ var(y t ) = σ φ 2 f(ǫ t ) = 1 2πσ 2 exp{ 1 2 (ǫ t E[ǫ t ] ) 2 } σ 69
84 Partiamo dalla prima osservazione y 1 = µ + φy 0 + ǫ 1 Poichè ǫ t è normale anche y 1 è normale. La densità della prima osservazion y 1 è quindi data da: f(y 1 ) = 1 exp{ 1 2πσ 2 /(1 φ 2 ) 2 (y 1 [µ/(1 φ 2 )] σ/(1 φ 2 ) 2 } ) consideriamo poi la distribuzione condizionale della seconda osservazione y 2 alla prima osservazione y 1 : da cui deriva y 2 = µ + φy 1 + ǫ 2 y 2 y 1 N(µ + φy 1, σ 2 ) 70
85 e quindi f(y 2 y 1 ) = 1 2πσ 2 exp{ 1 2 (y 2 µ φy 1 ) 2 } σ la densità congiunta delle prime due osservazioni è data da: f(y 2, y 1 ) = f(y 2 y 1 )f(y 1 ) e, analogamente per la terza osservazione: f(y 3, y 2, y 1 ) = f(y 3 y 2, y 1 )f(y 2, y 1 ) = f(y 3 y 2, y 1 )f(y 2 y 1 )f(y 1 ) Poichè il processo è un AR(1) si vede che, in generale: f(y t, y t 1, y t 2, y t 3,...) = f(y t y t 1 )
86 la verosimiglianza dell intero campione è quindi data da: f(y t, y t 1, y t 2,..., y 1 ) = f(y 1 ) T t=2 f(y t y t 1 )
87 Passando alla funzione di logverosimiglianza si ha: L = 1 2 log(2π) 1 2 log(σ2 /(1 φ 2 )) y 1 [µ/(1 φ 2 )] 2σ 2 /(1 φ 2 ) ((T 1)/2)log(2π) ((T 1)/2)log(σ 2 ) T t=2 (y t µ φy t 1 ) 2 2σ 2 L la stima di massima verosimiglianza si ottiene massimizzando la funzione precedente. La massimizzazione precedente conduce però ad un sistema di equazioni non lineari nei parametri da stimare. Si preferisce quindi utilizzare invece delle stime esatte di massima verosimiglianza le stime condizionate. 71
88 Stime condizionate di massima verosimiglianza Invece della massimizzazione numerica della funzione verosimiglianza esatta si può procedere considerando la prima osservazione del campione come una variabile deterministica e massimizzare la verosimiglianza condizionata alla prima osservazione: f(y t, y t 1, y t 2,..., y 2 y 1 ) = T t=2 f(y t y t 1 ) la funzione di logverosimiglianza da massimizzare diventa quindi L = ((T 1)/2)log(2π) ((T 1)/2)log(σ 2 ) T t=2 (y t µ φy t 1 ) 2 2σ 2 massimizzare l espressione precedente rispetto a µ e φ è equivalente 72
89 a massimizzare T t=2 (y t µ φy t 1 ) 2 la stima di massima verosimiglianza condizionata della varianza si ottiene dalla soluzione della ovvero (T 1) 2σ 2 + ˆσ 2 = T t=2 T t=2 (y t µ φy t 1 ) 2 2σ 4 = 0 (y t ˆµ ˆφy t 1 ) 2 T 1
90 Stima di massima verosimiglianza di un processo MA(1) y t = µ + ǫ t + θǫ t 1 con ǫ t IID(0, σ 2 ) Come per il processo AR(1) ricaviamo la funzione di verosimiglianza condizionata al primo valore della variabile ǫ osservata: ǫ 0 = 0: e quindi possiamo scrivere: (y 1 ǫ 0 = 0) N(µ, σ 2 ) f(y 1 ) = 1 2πσ 2 exp (y 1 µ) 2 2σ 2 Inoltre data l osservazione y 1 anche il valore di ǫ 1 è noto con certezza: per cui: ǫ 1 = y 1 µ y 2 = µ + ǫ 2 + θǫ 1 73
91 e quindi la densità condizionale di y 2 rispetto a y 1 è data da: f(y 2 y 1, ǫ 0 ) = 1 2πσ 2 exp (y 2 µ θǫ 1 ) 2 2σ 2 Analogamente, data l osservazione di y 2 e poichè ǫ 1 è noto con certezza anche ǫ 2 può essere calcolato per cui nello stesso modo possiamo calcolare f(y 3 y 2, y 1, ǫ 0 ) = 1 2πσ 2 exp (y 3 µ θǫ 2 ) 2 2σ 2
92 In generale la densità condizionata della t esima osservazione può essere calcolata in base alla f(y t y t 1, y t 2,..., y 1, ǫ 0 ) = f(y t ǫ t 1 ) = 1 2πσ 2 exp ǫ2 t 2σ 2 Analogamente al caso del processo AR(1) la verosimiglianza del campione risulta essere: f(y t, y t 1, y t 2,..., y 1 ) = f(y 1 ǫ 0 = 0) T t=2 e la funzione di log verosimiglianza risulta data da: f(y t ǫ t 1 ) L = T 2 log(2π) T 2 log(σ2 ) T t=1 ǫ 2 t 2σ 2 74
93 4. Controllo diagnostico testare la significatività dei coefficienti verificare se il modello è sottoparametrizzato testare la presenza di autocorrelazione nei residui del modello 75
94 Esempio: Il modello vero è AR(2) mentre è stato stimato un modello AR(1): y t = ˆφy t 1 + ˆǫ t conduco test su ˆǫ t per verificare la presenza di autocorrelazione. Se il test mi segnala la presenza di correlazione seriale elevo la dinamica del modello. I test più diffusi sono il test Box-Pierce e il test di Ljung-Box. Sotto H 0 : ρ(h) = 0) T ˆ ρ(h) d N(0,1) Box-Pierce T h=1 H ˆ ρ(h) 2 d χ 2 H 76
95 Ljung-Box T(T + 2) h=1 H ρ(h) ˆ 2 T + h d χ 2 H
96 La previsione basata sulle aspettative condizionate Supponiamo di voler prevedere al tempo t la variabile y t+1 sulla base di un insieme di variabili x t osservate al tempo t. Per valutare la previsione y t+1 t assumiamo una funzione di perdita quadratica: E[y t+1 y t+1 t ]2 EQM si dimostra che la previsione che minimizza l EQM è il valore atteso condizionato y t+1 t = E[y t+1 x t ]: 77
97 Dimostrazione Hp: g(x t ) che minimizza l EQM. L EQM associato a questa regola di previsione è: E[y t+1 g(x t )] 2 = E[y t+1 E[y t+1 x t ] + E[y t+1 x t ] g(x t )] 2 = = E[y t+1 E[y t+1 x t ]] E{[y t+1 E[y t+1 x t ]]E[y t+1 x t ] g(x t )]} 2 + +E{[E[y t+1 x t ] g(x t )] 2 } si vede facilmente che il termine mediano a destra del segno di uguaglianza è nullo. L equazione precedente si semplifica in E[y t+1 g(x t )] 2 = E[y t+1 E[y t+1 x t ]] 2 + E{[E[y t+1 x t ] g(x t )] 2 } 78
98 la funzione g(x t ) che minimizza l EQM è la funzione che annulla il secondo termine della equazione precedente: g(x t ) = E[y t+1 x t ]
99 Proiezione lineare Restringiamo l analisi ai previsori lineari di x t : y t+1 t = α x t Definizione: la proiezione lineare di y t+1 su x t è definita come la previsione lineare di y t+1 tale che l errore di previsione non sia correlato con x t : E[(y t+1 α x t )x t ] = 0 la proiezione lineare dà luogo al più piccolo errore quadratico medio nella classe delle regole lineari di previsione. 79
100 Dimostrazione Hp: g x t che minimizza l EQM. L EQM associato a questa regola di previsione è: E[y t+1 g x t ] 2 = E[y t+1 α x t + α x t g x t ] 2 = = E[y t+1 α x t ] 2 + 2E{[y t+1 α x t ][α x t g x t ]} + +E[α x t g x t ] 2 soffermiamoci sul termine mediano a destra del segno di eguaglianza. Poichè y t+1 α x t è uno scalare possiamo riscrivere l espressione come: 2E{[y t+1 α x t ][α x t g x t ]} = = 2E{[y t+1 α x t ]x t (α g)} = 0 l errore quadratico medio rispetto a g x t si riduce quindi a E[y t+1 g x t ] 2 = E[y t+1 α x t ] 2 + E[α x t g x t ] 2 (35) il valore di g x t che minimizza la (35) è α x t. 80
101 Proprietà delle proiezioni lineari calcolo dei coefficienti α E[(y t+1 x t )] = α E[(x t x t )] = 0 e quindi α = E[(y t+1 x t )][E(x tx t )] 1 la proiezione della combinazione lineare (ay t+1 + b) su x t è pari a: P[(ay t+1 + b) x t ] = a P[y t+1 x t ] + b 81
102 Previsione di un processo MA Consideriamo un processo che ammette una rappresentazione MA( ): y t = µ + ψ(l)ǫ t ψ(l) = j=0 j=0 ψ j L j ψ 0 = 1 ψ j < supponiamo di disporre di un numero infinito di osservazioni di ǫ a partire dalla data t, {ǫ t, ǫ t 1, ǫ t 2,... } e di conoscere i valori di µ e di ψ(l). Vogliamo prevedere y t+s : y t+s = µ + ǫ t+s + ψ 1 ǫ t+s ψ s 1 ǫ t+1 + ψ s ǫ t + ψ s+1 ǫ t Proposizione: la previsione lineare ottima è: E[y t+s ǫ t, ǫ t 1,...] = µ + ψ s ǫ t + ψ s+1 ǫ t (36) 82
103 e quindi i valori futuri incogniti di ǫ sono posti pari al loro valore atteso: E[ǫ t+s ǫ t,...] = E[ǫ t+s 1 ǫ t,...] = = E[ǫ t+1 ǫ t,...] = 0 l errore di previsione è dato da: y t+s E[y t+s ǫ t, ǫ t 1,...] = ǫ t+s + ψ 1 ǫ t+s ψ s 1 ǫ t+1
104 Dimostrazione affinché la (36) rappresenti la previsione lineare ottima devono essere rispettate le condizioni: 1. E[(ǫ t+s + ψ 1 ǫ t+s ψ s 1 ǫ t+1 )(ǫ t ǫ t 1...) ] = 0 2. E[(ǫ t+s + ψ 1 ǫ t+s ψ s 1 ǫ t+1 )] = 0 entrambe le condizioni sono rispettate in quanto ǫ t è un W.N. 83
105 Previsione di un processo MA(1) y t = µ + ǫ t + φ 1 ǫ t 1 vogliamo previsione di y t+1 condizionato all informazione disponibile al tempo t: y t+1 = µ + ǫ t+1 + φ 1 ǫ t E[y t+1 y t ] = µ + φ 1 ǫ t se l orizzonte previsivo è di due periodi: E[y t+2 y t ] = µ e, analogamente si dimostra che E[y t+s y t ] = µ. 84
106 In generale si dimostra che per un processo MA(q): y t = µ + ǫ t + φ 1 ǫ t 1 + φ 2 ǫ t φ q ǫ t q la previsione lineare ottima è data da: Ê[y t+s ǫ t, ǫ t 1,...] = µ + φ s ǫ t + φ s+1 ǫ t φ q ǫ t q+s s = 1,2,..., q = µ s = q + 1, q + 2,... L errore quadratico medio è dato da: σ 2 s = 1 (1 + φ φ φ2 s 1 )σ2 s = 2,3,..., q (1 + φ φ φ2 q )σ2 s = q + 1, q + 2,... 85
107 Previsione di un processo AR(1) y t = µ + φ 1 y t 1 + ǫ t vogliamo prevedere y t+1 condizionato all informazione al tempo t: y t+1 = µ + φ 1 y t + ǫ t+1 E[y t+1 y t ] = µ + φ 1 y t se l orizzonte previsivo è di due periodi: y t+2 = µ + φ 1 y t+1 + ǫ t+2 E[y t+2 y t ] = µ + φ 1 E[y t+1 y t ] da cui deriva che: E[y t+2 y t ] = µ + φ 1 [µ + φ 1 y t ] = µ + φ 1 µ + φ 2 1 y t 86
108 nell esempio precedente abbiamo applicato la legge delle proiezioni iterate: E[y t+2 y t ] = E[E[y t+2 y t+1 ] y t ] infatti: E[y t+2 y t+1 ] = µ + φ 1 y t+1 E[E[y t+2 y t+1 ] y t ] = µ + φ 1 E[y t+1 y t ] = = µ + φ 1 [µ + φ 1 y t ] = = µ + φ 1 µ + φ 2 1 y t cvd 87
Proprietà asintotiche dello stimatore OLS
Università di Pavia Proprietà asintotiche dello stimatore OLS Eduardo Rossi Sequenze Consideriamo un infinita sequenza di variabili indicizzate con i numeri naturali: X 1, X 2, X 3,...,X N,... = {X N }
DettagliECONOMETRIA APPLICATA PER L IMPRESA. Test di Radici Unitarie - Esercizio 5
Modelli Dinamici - Esercizio 5 1 ECONOMETRIA APPLICATA PER L IMPRESA Test di Radici Unitarie - Esercizio 5 Davide Raggi davide.raggi@unibo.it 16 marzo 2010 Modelli Dinamici - Esercizio 5 2 Introduzione
DettagliStatistica Applicata all edilizia Lezione: approccio stocastico all analisi delle serie storiche
Lezione: approccio stocastico all analisi delle serie storiche E-mail: orietta.nicolis@unibg.it 13 aprile 211 Programma 1 Approccio stocastico all analisi delle serie storiche Programma 1 Approccio stocastico
DettagliMaria Prandini Dipartimento di Elettronica e Informazione Politecnico di Milano
Note relative a test di bianchezza rimozione delle componenti deterministiche da una serie temporale a supporto del Progetto di Identificazione dei Modelli e Analisi dei Dati Maria Prandini Dipartimento
DettagliAnalisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate
Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche
DettagliANALISI DELLE SERIE STORICHE
ANALISI DELLE SERIE STORICHE De Iaco S. s.deiaco@economia.unile.it UNIVERSITÀ del SALENTO DIP.TO DI SCIENZE ECONOMICHE E MATEMATICO-STATISTICHE FACOLTÀ DI ECONOMIA 24 settembre 2012 Indice 1 Funzione di
Dettagli1 Serie temporali. 1.1 Processi MA
1 Serie temporali Un processo stocastico 1 {X t, t T }, dove T = N o T = Z, si dice stazionario se (X 1,..., X n ) e (X k+1,...,x k+n ) hanno la stessa distribuzione per ogni n 1 e per ogni k T. Un processo
DettagliCorso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A Alberto Perotti, Roberto Garello
Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A. 2006-07 Alberto Perotti, Roberto Garello DELEN-DAUIN Processi casuali Sono modelli probabilistici
DettagliStatistica Applicata all edilizia Lezione: approccio stocastico all analisi delle serie storiche
Lezione: approccio stocastico all analisi delle serie storiche E-mail: orietta.nicolis@unibg.it 3 maggio 2011 Programma 1 Approccio stocastico all analisi delle serie storiche Programma Approccio stocastico
DettagliUniversità di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A
Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime
DettagliStatistica Applicata all edilizia: il modello di regressione
Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione
DettagliAnalisi della disponibilità d acqua. Valutazione dell impianto attraverso il calcolo di un indice economico (criterio)
Analisi della disponibilità d acqua Valutazione dell impianto attraverso il calcolo di un indice economico (criterio) Approccio diverso a seconda del criterio di valutazione Nel caso di criterio statistico
DettagliTipi di Processi Stocastici
Processi Stocastici Definizione intuitiva: un processo stocastico è un insieme ordinato di variabili casuali, indicizzate dal parametro t, spesso detto tempo. Definizione rigorosa: dati uno spazio di probabilità
DettagliCalcolo delle Probabilità 2
Prova d esame di Calcolo delle Probabilità 2 Maggio 2006 Sia X una variabile aleatoria distribuita secondo la densità seguente ke x 1 x < 0 f X (x) = 1/2 0 x 1. 1. Determinare il valore del parametro reale
DettagliMODELLO DI REGRESSIONE LINEARE. le ipotesi del modello di regressione classico, stima con i metodi dei minimi quadrati e di massima verosimiglianza,
MODELLO DI REGRESSIONE LINEARE le ipotesi del modello di regressione classico, stima con i metodi dei minimi quadrati e di massima verosimiglianza, teorema di Gauss-Markov, verifica di ipotesi e test di
DettagliProva scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016
Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 205/206 20 Settembre 206 Esercizio. Un dado equilibrato viene lanciato ripetutamente. Indichiamo con X n il risultato dell n-esimo
DettagliStatistica Metodologica Avanzato Test 1: Concetti base di inferenza
Test 1: Concetti base di inferenza 1. Se uno stimatore T n è non distorto per il parametro θ, allora A T n è anche consistente B lim Var[T n] = 0 n C E[T n ] = θ, per ogni θ 2. Se T n è uno stimatore con
DettagliIL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA
Metodi per l Analisi dei Dati Sperimentali AA009/010 IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA Sommario Massima Verosimiglianza Introduzione La Massima Verosimiglianza Esempio 1: una sola misura sperimentale
DettagliDi seguito le componenti stocastiche e(t), t = 1, 2,..., T sono v.c. di Gauss con Valore atteso nullo e varianza σ 2 e stocasticamente indipendenti
I BISNONNI Di seguito le componenti stocastiche e(t), t = 1, 2,..., T sono v.c. di Gauss con Valore atteso nullo e varianza σ 2 e stocasticamente indipendenti MODELLO DI MISURA (LA BISNONNA) MA(0) y(t)
DettagliStatistica Applicata all edilizia: Stime e stimatori
Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica
DettagliAnalisi delle componenti principali
Analisi delle componenti principali Serve a rappresentare un fenomeno k-dimensionale tramite un numero inferiore o uguale a k di variabili incorrelate, ottenute trasformando le variabili osservate Consiste
Dettagli04 - Numeri Complessi
Università degli Studi di Palermo Facoltà di Economia CdS Statistica per l Analisi dei Dati Appunti del corso di Matematica 04 - Numeri Complessi Anno Accademico 2013/2014 M. Tumminello, V. Lacagnina e
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliMetodi di Iterazione Funzionale
Appunti di Matematica Computazionale Lezione Metodi di Iterazione Funzionale Il problema di calcolare il valore per cui F() = si può sempre trasformare in quello di trovare il punto fisso di una funzione
DettagliUniversità degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Lezione 1 - Mercoledì 28 Settembre 2016 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
DettagliUniversità di Pavia Econometria. Richiami di teoria delle distribuzioni statistiche. Eduardo Rossi
Università di Pavia Econometria Richiami di teoria delle distribuzioni statistiche Eduardo Rossi Università di Pavia Distribuzione di Bernoulli La variabile casuale discreta Y f Y (y; θ) = 0 θ 1, dove
DettagliUniversità degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Lezione 1 - Martedì 23 Settembre 2014 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
DettagliEsercitazioni di Statistica
Esercitazioni di Statistica Stima Puntuale Prof. Livia De Giovanni statistica@dis.uniroma.it Esercizio In ciascuno dei casi seguenti determinare quale tra i due stimatori S e T per il parametro θ è distorto
DettagliUniversità di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti
Università di Siena Corso di STATISTICA Parte seconda: Teoria della stima Andrea Garulli, Antonello Giannitrapani, Simone Paoletti Master E 2 C Centro per lo Studio dei Sistemi Complessi Università di
DettagliUniversità degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1
Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Lezione 1 - Mercoledì 27 Settembre 2017 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,
DettagliSTATISTICA A K (60 ore)
STATISTICA A K (60 ore) Marco Riani mriani@unipr.it http://www.riani.it Richiami sulla regressione Marco Riani, Univ. di Parma 1 MODELLO DI REGRESSIONE y i = a + bx i + e i dove: i = 1,, n a + bx i rappresenta
DettagliP ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)
10.4 Convergenze 166 10.4.3. Convergenza in Probabilità. Definizione 10.2. Data una successione X 1, X 2,...,,... di vettori aleatori e un vettore aleatorio X aventi tutti la stessa dimensione k diremo
DettagliTecniche di sondaggio
SMID a.a. 2005/2006 Corso di Statistica per la Ricerca Sperimentale Tecniche di sondaggio 24/1/2006 Nomenclatura Indicheremo con P una popolazione, con N la sua numerosità, con k la sua etichetta e con
DettagliModelli lineari generalizzati
Modelli lineari generalizzati Estensione del modello lineare generale Servono allo studio della dipendenza in media di una variabile risposta da una o più variabili antecedenti Vengono attenuate alcune
DettagliRichiami di probabilità e statistica
Richiami di probabilità e statistica Una variabile casuale (o aleatoria) X codifica gli eventi con entità numeriche x ed è caratterizzata dalla funzione di distribuzione di probabilità P(x) : P(x)=Pr ob[x
Dettagli! X (92) X n. P ( X n X ) =0 (94)
Convergenza in robabilità Definizione 2 Data una successione X 1,X 2,...,X n,... di numeri aleatori e un numero aleatorio X diremo che X n tende in probabilità a X escriveremo X n! X (92) se fissati comunque
DettagliI teoremi della funzione inversa e della funzione implicita
I teoremi della funzione inversa e della funzione implicita Appunti per il corso di Analisi Matematica 4 G. Mauceri Indice 1 Il teorema della funzione inversa 1 Il teorema della funzione implicita 3 1
DettagliRipasso segnali e processi casuali. Trasmissione dell Informazione
Ripasso segnali e processi casuali 1 Breve ripasso di segnali e trasformate Dato un segnale s(t), la sua densità spettrale si calcola come dove S(f) è la trasformata di Fourier. L energia di un segnale
DettagliSegnali (processi) aleatori (casuali)
Segnali (processi) aleatori (casuali) Definizione di processo aleatorio Descrizione statistica di un processo aleatorio Media, potenza, varianza Autocorrelazione e autocovarianza Filtraggio di un processo
DettagliPresentazione dell edizione italiana
1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli
DettagliIl modello di regressione lineare multipla con regressori stocastici
Università di Pavia Il modello di regressione lineare multipla con regressori stocastici Eduardo Rossi Il valore atteso condizionale Modellare l esperimento casuale bivariato nel quale le variabili casuali
DettagliProbabilità e Statistica
Diario delle lezioni e del tutorato di Probabilità e Statistica a.a. 2014/2015 www.mat.uniroma2.it/~caramell/did 1415/ps.htm 02/03/2015 - Lezioni 1, 2 Breve introduzione al corso. Fenomeni deterministici
DettagliUniversità di Pavia Econometria Esercizi 4 Soluzioni
Università di Pavia Econometria 2008-2009 Esercizi 4 Soluzioni Maggio, 2009 Istruzioni: I commenti devono essere concisi! 1. Dato il modello di regressione lineare, con K regressori con E(ɛ) = 0 e E(ɛɛ
DettagliIl modello di regressione lineare multipla. Il modello di regressione lineare multipla
Introduzione E la generalizzazione del modello di regressione lineare semplice: per spiegare il fenomeno d interesse Y vengono introdotte p, con p > 1, variabili esplicative. Tale generalizzazione diventa
DettagliEsercitazione del
Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36
DettagliCorso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti
Corso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti Professor Paolo Vitale Anno Accademico 2017-8 UdA, Scuola d Economia Domanda 1 [6 punti]. (a) La multi-collineartità
DettagliElementi di Algebra Lineare
Elementi di Algebra Lineare Corso di Calcolo Numerico, a.a. 2009/2010 Francesca Mazzia Dipartimento di Matematica Università di Bari 13 Marzo 2006 Francesca Mazzia (Univ. Bari) Elementi di Algebra Lineare
DettagliSTATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE
S.S.I.S TOSCANA F.I.M. -II anno STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE PROBLEMA 1 Vogliamo valutare la percentuale p di donne fumatrici tra le donne in età fertile. Procediamo all estrazione
DettagliPunti di massimo o di minimo per funzioni di n variabili reali
Punti di massimo o di minimo per funzioni di n variabili reali Dati f : A R n R ed X 0 A, X 0 si dice : punto di minimo assoluto se X A, f ( x ) f ( X 0 ) punto di massimo assoluto se X A, f ( x ) f (
DettagliI VETTORI GAUSSIANI E. DI NARDO
I VETTOI GAUSSIANI E. DI NADO. L importanza della distribuzione gaussiana I vettori di v.a. gaussiane sono senza dubbio uno degli strumenti più utili in statistica. Nell analisi multivariata, per esempio,
DettagliR - Esercitazione 6. Andrea Fasulo Venerdì 22 Dicembre Università Roma Tre
R - Esercitazione 6 Andrea Fasulo fasulo.andrea@yahoo.it Università Roma Tre Venerdì 22 Dicembre 2017 Il modello di regressione lineare semplice (I) Esempi tratti da: Stock, Watson Introduzione all econometria
DettagliNel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.
Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive
DettagliRegressione lineare. Lucio Demeio Dipartimento di Ingegneria Industriale e Scienze Matematiche Università Politecnica delle Marche.
Regressione lineare Lucio Demeio Dipartimento di Ingegneria Industriale e Scienze Matematiche Università Politecnica delle Marche Siano x ed y due variabili legate tra loro da una forma funzionale del
DettagliStatistica 2. Esercitazioni. Dott. Luigi Augugliaro 1. Università di Palermo
Statistica 2 Esercitazioni Dott. L 1 1 Dipartimento di Scienze Statistiche e Matematiche S. Vianelli, Università di Palermo ricevimento: lunedì ore 15-17 mercoledì ore 15-17 e-mail: luigi.augugliaro@unipa.it
DettagliSequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:
Teoria dei Fenomeni Aleatori AA 01/13 Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di: N-pla o Sequenza
DettagliPrevisioni Statistiche
Previsioni Statistiche Matteo Pelagatti Questa versione: 21 novembre 2011 1 Il problema della previsione Da un punto di vista statistico prevedere significa determinare con il minore errore possibile la
DettagliUNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014. I Esonero - 29 Ottobre Tot.
UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2013/2014 I Esonero - 29 Ottobre 2013 1 2 3 4 5 6 7 8 Tot. Avvertenza: Svolgere ogni esercizio nello spazio assegnato,
Dettaglicon distribuzione gaussiana standard e si ponga
Laurea Triennale in Matematica, Università La Sapienza Corso di Probabilità, AA 6/7 Prova di Esonero Maggio 7 Testi e soluzioni degli esercizi proposti Siano Z, Z, Z variabili aleatorie indipendenti e
DettagliFunzioni di n variabili a valori vettoriali
Funzioni di n variabili a valori vettoriali Ultimo aggiornamento: 22 maggio 2018 1 Differenziale per funzioni da R n in R k Una funzione F : A R n R k può essere vista come una k-upla di funzioni scalari
Dettagli1 Processi stocastici e campi random
Corso di Termodinamica e Meccanica Statistica Anno Accademico 211/212 1 Processi stocastici e campi random Vogliamo estendere le metodologie del calcolo delle probabilità e della statistica, in modo da
DettagliCorso di Controllo Digitale Equazioni alle Differenze e Z-trasformate a
Corso di Controllo Digitale Equazioni alle Differenze e Z-trasformate a Università degli Studi della Calabria Corso di Laurea in Ingegneria Elettronica. Ing. Domenico Famularo a Proprietà Letteraria Riservata
DettagliSoluzione esercizi 28 ottobre 2011
ANALISI Soluzione esercizi 8 ottobre 0 4.. Esercizio. Siano α e β due numeri reali tali che la loro somma e la loro differenza siano razionali: provare che allora essi sono entrambi razionali. Il teorema
DettagliCP410: Esame 2, 3 febbraio 2015
Dipartimento di Matematica, Roma Tre Pietro Caputo 2014-15, I semestre 3 febbraio, 2015 CP410: Esame 2, 3 febbraio 2015 Cognome Nome Matricola Firma 1. Sia (Ω, F, P) lo spazio di probabilità definito da
DettagliAM2: Tracce delle lezioni- IX Settimana INSIEMI DI LIVELLO, MINIMI VINCOLATI PRINCIPIO DEI MOLTIPLICATORI DI LAGRANGE
AM2: Tracce delle lezioni- IX Settimana INSIEMI DI LIVELLO, MINIMI VINCOLATI PRINCIPIO DEI MOLTIPLICATORI DI LAGRANGE Sia g C 1 R 2 ), c R. L insieme γ = γ c := {x, y) R 2 : gx, y) = c} si chiama insieme
Dettagli5. Analisi dei dati di input
Anno accademico 2007/08 Analisi e scelta dei dati di input Per l esecuzione di una simulazione è necessario disporre di dati di input che siano una adeguata rappresentazione di ciò che accadrà in realtà
DettagliTeorema delle Funzioni Implicite
Teorema delle Funzioni Implicite Sia F una funzione di due variabili definita in un opportuno dominio D di R 2. Consideriamo l equazione F (x, y) = 0, questa avrà come soluzioni coppie di valori (x, y)
DettagliStima dei sistemi di equazioni simultanee
Università di Pavia Stima dei sistemi di equazioni simultanee Eduardo Rossi University of Pavia Stima dei SES Limited Information OLS 2STLS K CLASS H CLASS Full Information FIMLE 3STLS FIIV Eduardo Rossi
DettagliProgrammazione Non Lineare
Capitolo 1 Programmazione Non Lineare 1.1 Introduzione Un problema di ottimizzazione viene definito come la minimizzazione o la massimizzazione di una funzione a valori reali su un insieme specificato.
DettagliTrasformazione di Problemi Non Lineari
Capitolo 2 Trasformazione di Problemi Non Lineari 2.1 Trasformazione in problema di PL In questa sezione, verranno presentati tre classi di problemi di programmazione non lineare che, attraverso l uso
DettagliLaurea Magistrale in Scienze Statistiche Finanziarie e Attuariali Econometria Finanziaria c.a. A.A. 2016/2017 Appello 15 Settembre 2017
Laurea Magistrale in Scienze Statistiche Finanziarie e Attuariali Econometria Finanziaria c.a. A.A. 206/207 Appello 5 Settembre 207. Sia r t il log-return di un asset e r m t il log-retun del mercato.
DettagliDistribuzione normale multidimensionale
Capitolo 2 Distribuzione normale multidimensionale La funzione di densità normale undimensionale ha la forma seguente Anderson, 1984 fx ce 1 2 Ax b2 ce 1 2 x bax b La costante di normalizzazione c è data
DettagliCALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno Motivare dettagliatamente le risposte su fogli allegati
CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno 2006 Motivare dettagliatamente le risposte su fogli allegati 1.- Sia X un numero aleatorio a valori { α, 0, α}, con α > 0 e P (X = α) = P (X
DettagliOld Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione.
Coppie o vettori di dati Spesso i dati osservati sono di tipo vettoriale. Ad esempio studiamo 222 osservazioni relative alle eruzioni del geyser Old Faithful. Old Faithful, Yellowstone Park. Old Faithful
DettagliIDENTIFICAZIONE dei MODELLI e ANALISI dei DATI. Lezione 20: Stima puntuale. Stimatore lineare a MEQM. Esempi. Motivazioni
IDENTIFICAZIONE dei MODELLI e ANALISI dei DATI Lezione 20: Stima puntuale Motivazioni Stima puntuale Indice di qualitá della stima Stimatore a MEQM Stimatore lineare a MEQM Il caso gaussiano Esempi 20-1
DettagliStima del valore di una costante in presenza di rumore esponenzialmente correlato. Carlo Fisicaro
Stima del valore di una costante in presenza di rumore esponenzialmente correlato Carlo Fisicaro OBIETTIVO Stimare il valore della costante β adimensionale per mezzo di misurazioni soggette a rumore stocastico
DettagliElaborazione statistica di dati
Elaborazione statistica di dati CONCETTI DI BASE DI STATISTICA ELEMENTARE Taratura strumenti di misura IPOTESI: grandezza da misurare identica da misura a misura Collaudo sistemi di produzione IPOTESI:
DettagliCostruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 7: Basi di statistica
Costruzione di macchine Modulo di: Progettazione probabilistica e affidabilità Marco Beghini Lezione 7: Basi di statistica Campione e Popolazione Estrazione da una popolazione (virtualmente infinita) di
DettagliTeoria dei Segnali Trasmissione binaria casuale; somma di processi stocastici
eoria dei Segnali rasmissione binaria casuale; somma di processi stocastici Valentino Liberali Dipartimento di Fisica Università degli Studi di Milano valentino.liberali@unimi.it eoria dei Segnali rasmissione
DettagliAnalisi delle serie storiche parte V Modelli autoregressivi
Analisi delle serie storiche parte V Modelli autoregressivi a.a. 2016/2017 Economiche Internazionali 1 Definizioni introduttive Autoregressione: modello di regressione che spiega una serie temporale con
DettagliBrevi richiami su variabili aleatorie e processi stocastici
Appendice Parte 9, 1 Brevi richiami su variabili aleatorie e processi stocastici Richiami di teoria della probabilita` Appendice Parte 9, 2 Esperimento casuale: analisi degli elementi caratteristici dei
DettagliPROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07
PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 006/07 Esercizio 1 Prova scritta del 16/1/006 In un ufficio postale lavorano due impiegati che svolgono lo stesso compito in maniera indipendente, sbrigando
DettagliCalcolo Numerico. Corso di Laurea in Ingegneria Elettronica Appello del 17 gennaio A(x) =
Calcolo Numerico Corso di Laurea in Ingegneria Elettronica Appello del 7 gennaio 204 Sia M = F (2, 3). Dopo aver mostrato che 20 M, determinare tutti gli elementi ξ M tali che: ξ > 20 Per ogni x R, sia:
Dettaglilezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1
lezione n. 6 (a cura di Gaia Montanucci) METODO MASSIMA VEROSIMIGLIANZA PER STIMARE β 0 E β 1 Distribuzione sui termini di errore ε i ε i ~ N (0, σ 2 ) ne consegue : ogni y i ha ancora distribuzione normale,
DettagliI Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 2014/15 Nome: 23 Giugno
I Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 014/15 Nome: 3 Giugno 015 Email: Quando non è espressamente indicato il contrario, per la soluzione degli esercizi è possibile
DettagliINTRODUZIONE ALLA STATISTICA PER LA RICERCA IN SANITA
INTRODUZIONE ALLA STATISTICA PER LA RICERCA IN SANITA IRCBG 19027 Modulo Dal campione alla popolazione: l'inferenza e l'intervallo di confidenza IRCCS Burlo Garofolo Formazione, Aula A via dell Istria
DettagliCP410: Esame 2, 30 gennaio Testo e soluzione
Dipartimento di Matematica, Roma Tre Pietro Caputo 23-4, I semestre 3 gennaio, 24 CP4: Esame 2, 3 gennaio 24 Testo e soluzione Cognome Nome Matricola Firma . Per ogni n N, sia X n la variabile aleatoria
DettagliDiario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta
Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta 1. (1/10 Lu.) Generalità sugli insiemi, operazioni di unione, intersezione e prodotto cartesiano. Insiemi numerici: naturali,
DettagliAppendice B ANALISI FUNZIONALE. 1 Spazi di Banach
Appendice B ANALISI FUNZIONALE In questo capitolo si introducono gli spazi di Banach e di Hilbert, gli operatori lineari e loro spettro. Inoltre si discutono gli operatori compatti su uno spazio di Hilbert.
DettagliAnalisi della correlazione canonica
Analisi della correlazione canonica Su un collettivo di unità statistiche si osservano due gruppi di k ed m variabili L analisi della correlazione canonica ha per obiettivo lo studio delle relazioni di
DettagliRICHIAMI DI CALCOLO DELLE PROBABILITÀ
UNIVERSITA DEL SALENTO INGEGNERIA CIVILE RICHIAMI DI CALCOLO DELLE PROBABILITÀ ing. Marianovella LEONE INTRODUZIONE Per misurare la sicurezza di una struttura, ovvero la sua affidabilità, esistono due
DettagliI modelli probabilistici
e I modelli probabilistici Finora abbiamo visto che esistono modelli probabilistici che possiamo utilizzare per prevedere gli esiti di esperimenti aleatori. Naturalmente la previsione è di tipo probabilistico:
DettagliLA DISTRIBUZIONE NORMALE o DI GAUSS
p. 1/2 LA DISTRIBUZIONE NORMALE o DI GAUSS Osservando gli istogrammi delle misure e degli scarti, nel caso di osservazioni ripetute in identiche condizioni Gli istogrammi sono campanulari e simmetrici,
DettagliElementi di statistica per l econometria
Indice Prefazione i 1 Teoria della probabilità 1 1.1 Definizioni di base............................. 2 1.2 Probabilità................................. 7 1.2.1 Teoria classica...........................
DettagliEquazione di Laplace
Equazione di Laplace. La funzione di Green Sia, indicati con x e y due punti di R 3 E(x, y) = x y Consideriamo la rappresentazione integrale di u(x) C 2 (), anche rinunciando all ipotesi che sia armonica
DettagliRichiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche
Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche Ludovico Biagi Politecnico di Milano, DIIAR ludovico.biagi@polimi.it (materiale didattico preparato in
DettagliAnalisi nel dominio del tempo delle rappresentazioni in variabili di stato
4 Analisi nel dominio del tempo delle rappresentazioni in variabili di stato Versione del 21 marzo 2019 In questo capitolo 1 si affronta lo studio, nel dominio del tempo, dei modelli di sistemi lineari,
DettagliLaboratorio di Chimica Fisica. Analisi Statistica
Università degli Studi di Bari Dipartimento di Chimica 9 giugno F.Mavelli- Laboratorio Chimica Fisica - a.a. 3-4 F.Mavelli Laboratorio di Chimica Fisica a.a. 3-4 Analisi Statistica dei Dati Analisi Statistica
DettagliSERIE STORICHE - AA Alessandra Luati
SERIE STORICHE - AA2004-2005 Alessandra Luati Programma dettagliato del corso di Analisi delle serie storiche, Laurea triennale in Finanza e assicurazioni, sede di Rimini, I ciclo, periodi 1,2: 27/09/04-29/10/04,
Dettagli