S. Leorato. Anno

Dimensione: px
Iniziare la visualizzazioe della pagina:

Download "S. Leorato. Anno"

Transcript

1 S. Leorato Università di Roma Tor Vergata Anno

2 Outline 1 Capitolo 1 - Introduzione al corso e Tipi di Dati 2 Capitolo 2 e 3 - Richiami di Probabilità e Statistica 3 Capitoli 4 e 5 4 Capitoli 6 e 7 5 Capitolo 8 6 Capitolo 9 7 Capitolo 10 8 Capitolo 11 9 Capitolo 12

3 Capitolo 1 - Introduzione al corso e Tipi di Dati Capitolo 1 Introduzione al corso e Tipi di Dati

4 Capitolo 1 - Introduzione al corso e Tipi di Dati Durata e organizzazione Durata: 6 settimane: dal 19/02 al 28/03. Organizzazione: 3 lezioni a settimana. Esercitazioni svolte durante le lezioni. Lezioni: Lun ore 17-19, aula P11 Mar ore aula P11,Mer ore 9-11 aula P9.

5 Capitolo 1 - Introduzione al corso e Tipi di Dati Ricevimento e recapiti Ricevimento (durante le settimane di corso):martedì ore 17-18:30 Recapiti samantha.leorato@uniroma2.it, Dipartimento di Economia e Finanza (DEF), Stanza 1B2 4 (ed. B, I piano)

6 Capitolo 1 - Introduzione al corso e Tipi di Dati Programma del corso Argomenti principali: Richiami di statistica, regressione semplice e multipla, regressione nonlineare, variabili strumentali, dati panel Prerequisiti: Matematica e Statistica Libro di testo: Stock J.H., Watson M.W. - Introduzione all econometria, 3a Edizione Questi lucidi ed altri materiali aggiuntivi sul sito web del corso. Per il download è richiesta l iscrizione alla newsletter del corso. Software: Gretl - Gnu Regression, Econometrics and Time-series Library,

7 Capitolo 1 - Introduzione al corso e Tipi di Dati Valutazione e prova d esame La prova d esame è costituita da un progetto (obbligatorio) e una prova scritta. Progetto: 33,3% (10 punti) Prova scritta e colloquio: 66,7% (20 punti) Date appelli pubblicate online: 19 giugno, 3 luglio, 11 settembre. Durante il corso saranno assegnati dei problem set. La consegna dei problem set svolti darà diritto a un bonus di 3 punti valido soltanto per la sessione estiva.

8 Capitolo 1 - Introduzione al corso e Tipi di Dati Progetto Il progetto consiste in un lavoro empirico che può essere su un argomento a piacere o la replica dei risultati di un lavoro pubblicato (purché sia possibile reperire i dati). Gli studenti formeranno gruppi (max 3 persone) e decideranno l argomento del progetto. Entro venerdì 30 marzo, invio del titolo del progetto per ciascun gruppo. Consegna del progetto entro il 02/06/2018. La consegna deve avvenire via ed esclusivamente in formato pdf. Il voto conseguito nel progetto vale fino alla fine dell a.a. (ultimo appello utile gennaio-febbraio 2019). Maggiori dettagli ed indicazioni sul progetto seguiranno durante il corso.

9 Capitolo 1 - Introduzione al corso e Tipi di Dati Prova scritta Esame tradizionale, su tutto il programma, domande teoriche ed esercizi.

10 Capitolo 1 - Introduzione al corso e Tipi di Dati Obiettivi del corso Apprendere metodi econometrici più adatti per rispondere a domande economiche di varia natura: Effetti causali: La dimensione delle classi incide sul livello di istruzione? (enfasi soprattutto su questo problema) Previsioni: Quale sarà il tasso di inflazione del prossimo anno? Conoscere ed affrontare le difficoltà derivanti dall uso di dati non ideali per stimare effetti causali: effetti perturbativi (fattori omessi); la correlazione non implica causalità ; causalità simultanea. Valutare l analisi di regressione, anche quella effettuata da altri (leggere e comprendere articoli economici di carattere empirico)

11 Capitolo 1 - Introduzione al corso e Tipi di Dati Rispondere a domande economiche. Gli effetti causali Es.: La dimensione delle classi incide sul livello di istruzione? Idealmente, vorremmo un esperimento controllato casualizzato Esperimento, perchè (teoricamente) riproducibile; Controllato, perchè i soggetti sono divisi in un gruppo di trattamento e un gruppo di controllo; Casualizzato, perchè il processo di assegnazione di un individuo al gruppo deve essere casuale. Ciò richiederebbe: numerose classi che differiscono solo per numero di studenti (stesso insegnante, stesso programma, stesso orario...) I diversi rendimenti a fine anno sono l effetto causale della dimensioni delle classi. Nella realtà: esperimenti costosi, non etici, impossibili. Si usano dati osservazionali (non sperimentali).

12 Capitolo 1 - Introduzione al corso e Tipi di Dati Rispondere a domande economiche. La previsione Es.: Quale sarà il tasso di inflazione il prossimo anno? Idealmente, conoscere il modello di determinazione dell inflazione La teoria economica aiuta (es. curva di Phillips), ma non è sufficiente; L analisi di regressione multipla quantifica il modello economico, verifica se è stabile nel tempo, produce previsione e ne valuta l accuratezza

13 Capitolo 1 - Introduzione al corso e Tipi di Dati Tipi di dati. Sezionali, Temporali, Panel Sezionali (cross-section): n > 1 unità, T = 1 (osservate in un solo periodo). Sfruttando le differenze tra le unità (persone, imprese, regioni, scuole, ecc...) consentono lo studio delle relazioni tra variabili e (talvolta) degli effetti causali Temporali (time series): n = 1 unità, T > 1 periodi. Seguendo nel tempo una unità (persona, impresa, regione, scuola, ecc...), consentono lo studio dell evoluzione di un fenomeno nel tempo, anche al fine di prevederne l andamento futuro; Panel (o dati longitudinali): n > 1 unità, T > 1 periodi. Seguendo nel tempo lo stesso gruppo di entità, consentono lo studio delle relazioni tra variabili e la loro eventuale evoluzione temporale.

14 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Capitolo 2 e 3 Richiami di Probabilità e Statistica

15 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità Richiami di Probabilità 1 Variabile casuale 2 Spazio campionario ed eventi 3 Probabilità 4 Variabili casuali Distribuzione di probabilità, Funzione di densità e Funzione di ripartizione Variabili discrete: Bernoulli, Binomiale Variabili continue: Normale, Chi-quadrato, F, t-student 5 Momenti della distribuzione 6 Variabili doppie 7 Covarianza, Correlazione, Indipendenza

16 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 1. Variabile casuale Rappresentazione numerica di un risultato casuale es. numero di figli in una famiglia es. reddito della famiglia es. fumatore o non fumatore

17 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 2. Spazio campionario ed eventi Spazio campionario: insieme di tutti i possibili risultati Es. numero di figli: 0, 1, 2, 3, 4,... Es. Reddito: sempre compreso nell intervallo [0, ) Es. variabile Fumatore : 0 (= non fumatore), 1 (=fumatore) Eventi: sottoinsiemi dello spazio campionario Es. la famiglia ha 2 figli, la famiglia ha meno di 3 figli, la famiglia ha più di 2 figli... Es. Il reddito della famiglia è sotto la soglia di povertà, Il reddito medio è superiore ai E...

18 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 3. Probabilità Probabilità: Proporzione di volte in cui si verifica un evento (def. freq.). Es. La probabilità che una famiglia abbia almeno 2 figli è 0.3 (sempre compresa tra 0 e 1) La probabilità che una famiglia abbia 0 o più figli è 1 (evento certo)

19 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 4. Variabili Casuali Variabile casuale discreta: lo spazio campionario è discreto (finito o al più numerabile) Es. Numero di figli: Y = 0, 1, 2,... Es. Fumatore: Y = 0, 1 Variabile casuale continua: lo spazio campionario è infinito (R, [0, )...). Es. (con una certa approssimazione): Il reddito.

20 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 4. Variabili Casuali V.c. Discreta V.c. Continua FdR: ad es. Y {1, 2,..., K} ad es. Y (, ) F (k) = P (Y k) = P (Y = 1) + P (Y = 2) P (Y = k) F (y) = P (Y y) FdM f(k) = P (Y = k) FdD f(y) P (Y = y)dy più prec., f(y) = F (y)

21 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 4. Variabili Casuali Variabili casuali discrete: Bernoulli, Y Bernoulli(p). F (1) = p F (0) = 1 p; Binomiale, Y bin(n, p). f(k) = ( ) n k p k (1 p) n k Poisson, Y P oisson(λ)... Variabili casuali continue: Gaussiana, o normale, Y N(µ, σ). f(y) = 1 σ 2π e (y µ)2 /2σ 2 ; Chi-quadrato, Y χ 2 k. Se Y N(0, 1), Y 2 χ 2 1 t di Student, Y T k. SeY N(0, 1), X χ 2 k, allora Z = Y/ X T k F di Fisher, Y F m,k...

22 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 5. Momenti I momenti costituiscono un modo per sintetizzare alcune caratteristiche rilevanti della intera distribuzione di probabilità attraverso un unico numero Momenti di una distribuzione più importanti: media, varianza, deviazione standard, skewness (asimmetria), curtosi... Momento primo, o Media: µ Y = EY = K j=1 jf(j), (oppure µ Y = EY = yf(y)dy). è un parametro di locazione: localizza il baricentro della distribuzione Momento secondo: EY 2.

23 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 5. Momenti Momento secondo centrato, o Varianza: E(Y EY ) 2 = Var(Y ) = σy 2. È un parametro che indica la dispersione della variabile Y : è minima (Var(Y ) = 0) se Y = EY con certezza Non c è dispersione. Deviazione standard= radice quadrata della varianza, σ Y. Momento terzo centrato, o asimmetria. E(Y EY ) 3. Se = 0 la distribuzione è simmetrica; Se > (<)0: la distribuzione ha la coda destra (sinistra) più lunga; Momento quarto centrato, o curtosi. Misura la massa (di prob.) nelle code, ossia la prob. di valori estremi. Se = 3: come la distribuzione normale Se > 3: code pesanti (leptocurtica) Se < 3: code leggere (platicurtica)

24 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 5. Momenti

25 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 6. Variabili casuali doppie Distribuzione congiunta: P (X = x, Y = y) Distribuzione marginale, è la distribuzione di una variabile casuale, ottenibile eliminando la seconda variabile: P (Y ) = x P (X = x, Y = y); Distribuzione condizionata: P (X=x,Y =y) P (Y = y X = x) = P (X=x) Media condizionata: E(Y X = x) = y yp (Y = y X = x). È un termine nuovo per indicare un concetto familiare, ovvero la media di gruppo: Es. Salario delle lavoratrici vs lavoratori: Y = reddito, X = 1 se lavoratore è donna: = E(Y X = 1) E(Y X = 0) Es: Esiti esami per pazienti che ricevono una cura sperimentale (Y = positivi/negativi; X = trattato/non trattato)

26 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 6. Variabili casuali doppie Legge delle medie (o aspettative) iterate: EY = E X E(Y X) = E(Y X = x)f(x) x = yp (Y = y X = x)f(x) x y Se E(Y X) = 0 EY = 0. Varianza condizionata: Var(Y X = x) = E ( ) (Y E(Y X = x)) 2 X = x

27 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 7. Covarianza, correlazione, indipendenza Covarianza Cov(X, Y ) = σ XY = E[(X µ X )(Y µ Y )] = (x µ X )(y µ Y )P (X = x, Y = y) x y misura l intensità con cui X ed Y co-muovono linearmente Se > 0 (< 0) relazione positiva (negativa) Unità di misura : unità di X unità di Y La covarianza di una variabile casuale con se stessa è la sua varianza: Cov(X, X) = σ 2 X

28 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 7. Covarianza, correlazione, indipendenza Correlazione Corr(X, Y ) = ρ XY = σ XY σ X σ Y misura alternativa alla covarianza Senza unità di misura : 0 ρ 2 XY 1 Se ρ XY = 0 allora X, Y sono incorrelate Se > 0 (< 0) relazione positiva (negativa) Se = 1 (= 1) associazione lineare positiva (negativa) perfetta Se E(Y X) = 0 allora Cov(X, Y ) = 0 e ρ XY = 0, ma il viceversa non vale.

29 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 7. Covarianza, correlazione, indipendenza

30 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 7. Covarianza, correlazione, indipendenza Es. Punteggio e rapporto studenti/insegnanti Figura 4.2. Diagramma a nuvola del punteggio nei test e del rapporto studenti/insegnanti (dati relativi ai distretti scolastici della California) Dati per i 420 distretti scolastici della California. Cè una debole relazione negativa tra il rapporto S/I e il punteggio nei test. La correlazione campionaria è pari a 0.23

31 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Probabilità 7. Covarianza, correlazione, indipendenza Indipendenza: Conoscere il valore di X non da ulteriori informazioni su Y. P (Y = y, X = x) = P (Y = y)p (X = x) ovvero P (Y X) = P (Y ) Se X e Y sono indipendenti allora Cov(X, Y ) = 0 e ρ XY = 0, ma non il viceversa!!!. Se X e Y sono indipendenti allora E(Y X) = E(Y ), ma non il viceversa!!! Se X e Y sono indipendenti e hanno la stessa distribuzione di probabilità, iid (indipendenti e identicamente distribuiti)

32 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica Richiami di Statistica 8 Campionamento e distribuzioni campionarie 9 Stima puntuale 10 Intervalli di confidenza 11 Verifica di Ipotesi

33 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 8. Campionamento e distribuzioni campionarie Campionamento casuale semplice: Scegliere a caso n individui (distretti, entità) dalla popolazione (ipotetica popolazione infinita) Ogni individuo ha la stessa probabilità di essere estratto; Osservare il valore della variabile di interesse Y Dataset finale (Y 1, Y 2,..., Y n ) = {Y i, i = 1,..., n} Y i provengono dalla stessa popolazione, per cui sono identicamente distribuiti Il valore di Y i non contiene informazioni su Y j (j i), per cui sono indipendenti {Y i, i = 1,..., n} sono iid

34 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 8. Campionamento e distribuzioni campionarie Media campionaria: un esempio. Sia Y Bernoulli(0.78). I momenti della distribuzione di ciascun Y i : EY = p + (1 p) 0 = p = 0.78 Var(Y ) = E(Y E(Y )) 2 = p(1 p) = = 0.17 La distribuzione campionaria della media campionaria Ȳ dipende da n. Ad esempio, se n = 2 P (Ȳ = 0) = P (Y 1 = 0, Y 2 = 0) = = 0.05 P (Ȳ = 1/2) = P (Y 1 = 1, Y 2 = 0) + P (Y 1 = 0, Y 2 = 1) = = 0.34 P (Ȳ = 1) = P (Y 1 = 1, Y 2 = 1) = = 0.61

35 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 9. Stima puntuale Stimatore: Funzione di un campione generico. Ad esempio Ȳ = n 1 Y i, o Med(Y 1,..., Y n )... Stima: Valore numerico dello stimatore in corrispondenza di uno specifico campione. Ȳ = 200 i=1 Y i/200 = è la retribuzione media oraria... In corrispondenza di campioni diversi, lo stimatore assume valore numerico differente. Poiché i campioni sono il frutto di un estrazione casuale, lo stimatore è una variabile casuale

36 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 9. Stima puntuale Proprietà degli stimatori: Correttezza (non distorsione): Lo stimatore T di θ è non distorto se E(T ) = θ Efficienza: Lo stimatore T 1 è più efficiente di T 2 se MSE(T 1 ) < MSE(T 2 ), ossia se E(T 1 θ) 2 < E(T 2 θ) 2 Se T 1 e T 2 sono non distorti, equivale a un confronto tra le varianze. Consistenza: T θ, ovvero, aumentando la dimensione del campione, lo stimatore diventa sempre più preciso

37 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 9. Stima puntuale Proprietà di Ȳ : Ȳ = 1 n n i=1 Correttezza (non distorsione): E(Ȳ ) = µ Y Varianza: Var(Ȳ ) = σ2 Y /n, inversamente proporzionale a n (caso iid) Minimi quadrati: Minimizza la somma degli scarti al quadrato, cioè min (Y i c) 2 = (Y i Ȳ )2 c i i Efficienza: Stimatore più efficiente di µ Y tra tutti gli stimatori non distorti ottenuti come medie ponderate di Y i Y i

38 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 9. Stima puntuale Proprietà asintotiche: proprietà valide per n grande Consistenza: Ȳ è uno stimatore consistente di µ Y se {Y i } iid e 0 < σ 2 Y < Ȳ µ Y per la legge dei grandi numeri; Normalità asintotica: la distribuzione della media campionaria standardizzata converge (quindi è ben approssimata, se n è grande) ad una normale standard: se {Y i } iid e µ Y <, 0 < σ 2 Y < (per il TLC) Ȳ µ Y σ 2Y /n N(0, 1)

39 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 9. Stima puntuale

40 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 9. Stima puntuale

41 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 9. Stima puntuale Varianza campionaria: è lo stimatore s 2 Y = 1 n 1 n (Y i Ȳ )2 i=1 Correttezza: SY 2 è uno stimatore non distorto per σ2 Y (dal corso di statistica) Consistenza: se {Y i } iid e E(Y 4 i ) <, allora S2 Y è consistente, S 2 Y p σ 2 Y S Y è la deviazione standard campionaria S Y / n è la stima dell errore standard di Ȳ (SE(Ȳ ) = σ/ n)

42 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 10. Intervalli di confidenza Intervallo di confidenza per µ Y : intervallo che, con una probabilità prefissata (detto livello di confidenza, 1 α), contiene il parametro incognito µ Y. Varianza nota: [ Ȳ ± z 1 α/2 SE(Ȳ )] = [ Ȳ ± z 1 α/2 σ/ n ] Varianza non nota: ] [Ȳ ± tn 1,1 α/2se( ˆ Ȳ ) = [ Ȳ ± t n 1,1 α/2 S Y / n ] ES. n = 200, Ȳ = 22.64$, S Y = 18.14, t 199, , IC = [20.13; 25.15]

43 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 11. Verifica di ipotesi Obiettivo: decidere se una determinata ipotesi (il valore di un parametro, presenza o meno di effetti causali significativi o di correlazione, cambiamento strutturale, validazione di un ipotesi derivante dalla teoria economica...) è vera o meno sulla base dell evidenza empirica Paradigma: H 0 {}}{ Ipotesi nulla (vera fino a prova contraria) VS. H 1 {}}{ Ipotesi alternativa

44 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 11. Verifica di ipotesi Stati del mondo Decisione H 0 H 1 Accetto H 0 1 α β Confidenza Pr. Errore II tipo Rifiuto H 0 α 1 β Pr. Errore di I tipo Potenza del test Significatività

45 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 11. Verifica di ipotesi Varianza non nota H 0 : µ Y = µ 0 Regole di decisione (Z = (Ȳ µ 0)/ s 2 /n) H 1 Rifiuto se Rifiuto se Rifiuto se [ ] µ Y µ 0 Ȳ µ s Y > z 1 α/2 n ] µ Y > µ 0 [Ȳ > s µy + z 1 α n ] µ Y < µ 0 [Ȳ < s µy z 1 α n Z > z 1 α/2 Z > z 1 α Z < z 1 α α > 2(1 Φ(Z)) α > 1 Φ(Z) α > Φ(Z) Es. H 0 : µ = 20, H 1 : µ < 20, Z t = p val = Es. H 0 : µ = 20, H 1 : µ 20, Z t = p val =

46 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 11. Verifica di ipotesi

47 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 11. Verifica di ipotesi Differenza tra due medie Lo stimatore è Ȳ1 Ȳ0 (es. reddito medio degli uomini - reddito medio delle donne), n 1 uomini, n 0 donne, in un campione di n = n 0 + n 1 unità. IC: [ ] (Ȳ1 Ȳ0) ± z ˆ 1 α 2 SE(Ȳ1 Ȳ0) = (Ȳ1 Ȳ0) ± z 1 α 2 s s2 0 n 1 n 0 Test: H 0 : µ 1 µ 0 = 0 (no discriminazione) vs H 0 : µ 1 µ 0 0 t = Ȳ1 Ȳ0 s 2 1 n 1 + s2 0 n 0

48 Capitolo 2 e 3 - Richiami di Probabilità e Statistica Richiami di Statistica 11. Verifica di ipotesi Es. H 0 : µ 1 µ 0 = 0 t = = 8.44

49 Capitoli 4 e 5 Capitoli 4 e 5 Regressione lineare con un solo regressore

50 Capitoli 4 e 5 Outline (1) Il modello di regressione lineare (2) Lo stimatore dei minimi quadrati ordinari (OLS) e la retta di regressione (3) Le assunzioni dei minimi quadrati (4) La distribuzione campionaria dello stimatore OLS (5) Proprietà BLUE (6) Intervalli di confidenza (7) Verifica di ipotesi (8) Misure di bontà della regressione

51 Capitoli 4 e 5 Il modello di regressione lineare Y i = β 0 + β 1 X i + u i, i = 1,..., n n osservazioni Y = variabile dipendente X = variabile indipendente o regressore β 0 = intercetta β 1 = pendenza (coefficiente angolare) Y i = β 0 + β 1 X i è la retta di regressione u i = errore di regressione (fattori omessi) I valori di β 0 e β 1 non sono noti vanno stimati Chiameremo ˆβ 0 e ˆβ 1 i relativi stimatori

52 Capitoli 4 e 5 Il modello di regressione lineare

53 Capitoli 4 e 5 Stimatore OLS (Ordinary Least Squares) In analogia con la media campionaria, che minimizza la somma dei quadrati degli scarti, minimizziamo la somma dei quadrati dei residui: min b 0,b 1 n (Y i (b 0 + b 1 X i )) 2 i=1 ˆβ 1 = 1 n n i=1 X iy i XȲ n i=1 X2 i X 2 1 n ˆβ 0 = Ȳ ˆβ 1 X = S XY S 2 X

54 Capitoli 4 e 5 Stima puntuale: metodo dei minimi quadrati Sia G(β 0, β 1 ) = n (Y i β 0 β 1 X i ) 2 i=1 Per trovare il minimo di G rispetto a β 0 e β 1 occorre calcolare le derivate parziali rispetto a β 0, β 1 e porle uguali a 0 (condizioni del primo ordine) Si ottiene un sistema lineare di equazioni, chiamate equazioni normali: G(β 0, β 1 ) β 0 G(β 0, β 1 ) β 1 = 2 = 2 n (Y i β 0 β 1 X i ) = 0 i=1 n (Y i β 0 β 1 X i )X i = 0 i=1

55 Capitoli 4 e 5 Il modello di regressione lineare

56 Capitoli 4 e 5 Es: Punteggio dei test e dimensione delle classi in California T estscore = β 0 + β 1 ST R + u i β 0 =??, β 1 =??

57 Capitoli 4 e 5 Regressione OLS: output di Gretl

58 Capitoli 4 e 5 Es: Punteggio dei test e dimensione delle classi in California T estscore = ST R

59 Capitoli 4 e 5 Interpretazione T estscore = ST R I distretti con classi maggiori ottengono in media punteggi inferiori. Più precisamente: 1 studente in più per insegnante implica la diminuzione del punteggio medio di 2.28 punti; 2 studenti in più per insegnante implicano la diminuzione del punteggio medio di = 4.45 punti;... Ma è tanto o poco? Intercetta? Previsione e residui Il distretto Antelope (CA, abbreviato ant) ha ST R = e T Score = 657.8: T estscore ant = = û ant = T esscore ant T estscore ant = = 3.0

60 Capitoli 4 e 5 Un caso particolare: X binaria Y i = β 0 + β 1 D i + u i, D i = {0, 1}, i = 1,..., n Ad esempio: D i = classi piccole (ST R < 20), cioè: { 0 ST R 20 D i = 1 ST R < 20 β 1 cattura la differenza tra le due medie (gruppo classi piccole e gruppo classi grandi ). Infatti (se E(u i ) = 0): E(Y i D i = 0) = β 0 E(Y i D i = 1) = β 0 + β 1

61 Capitoli 4 e 5 X binaria: output di Gretl Se ST R 20 (D i = 0) punteggio medio= Se ST R < 20 (D i = 1) punteggio medio= =

62 Capitoli 4 e 5 X binaria: la differenza tra le medie Regressione Stimata: Tabulazione delle medie: Ŷ i = D i (1.32) (1.82) Dimensione classe Punteggio medio Dev. St. (S Y ) n Piccola (ST R < 20 D i = 1) Grande (ST R 20 D i = 0) Differenza tra medie: = 7.37 Ss Errore standard: SE = 2 n s + S2 l 19.4 n l = = 1.82

63 Capitoli 4 e 5 Assunzioni dei minimi quadrati Assunzione (1) (X i, Y i ), i = 1,..., n sono iid Sempre vero con campionamento casuale semplice: Le unità vengono dalla stessa popolazione (X i, Y i ) sono identicamente distribuite per ogni i Le unità sono scelte a caso i valori di (X i, Y i ) per unità diverse sono indipendenti I campionamenti non iid si incontrano ad esempio quando si osserva nel tempo la stessa entità (dati panel o serie storiche)

64 Capitoli 4 e 5 Assunzioni dei minimi quadrati Assunzione (2) E(u i X i ) = 0, i = 1,..., n Intuizione: in un ideale esperimento controllato casualizzato X è assegnato casualmente, quindi tutte le altre caratteristiche individuali (fattori omessi che entrano in u) sono distribuite indipendentemente da X, quindi u e X sono indipendenti In realtà, occorre riflettere sempre sulla plausibilità di questa assunzione E(u i X i ) = 0 E(Y i X i ) = β 0 + β 1 X i

65 Capitoli 4 e 5 Assunzioni dei minimi quadrati Assunzione (2) E(u i X i ) = 0, i = 1,..., n

66 Capitoli 4 e 5 Assunzioni dei minimi quadrati Assunzione (3) 0 < E(X 4 i ) < e 0 < E(Y 4 i ) < Assunzione richiesta per l approssimazione delle statistiche test È realistica? Se X e Y sono limitate, allora hanno sempre momenti quarti finiti (es. punteggi nei test, STR, reddito...) In pratica, assume che gli outlier siano rari Esaminate i dati! Se avete un outlier, si tratta di un refuso? Non appartiene al dataset? Perchè è un outlier?

67 Capitoli 4 e 5 Assunzioni dei minimi quadrati Assunzione (3) 0 < E(X 4 i ) < e 0 < E(Y 4 i ) <

68 Capitoli 4 e 5 La varianza degli errori è costante, gli errori sono omoschedastici Assunzioni dei minimi quadrati Assunzione (4) Var(u i X i ) = σ 2 u

69 Capitoli 4 e 5 Assunzioni dei minimi quadrati Quando l assunzione 4 è violata. La varianza degli errori non è costante, gli errori sono eteroschedastici

70 Capitoli 4 e 5 Distribuzione campionaria degli stimatori OLS Abbiamo la stima puntuale dei parametri, ˆβ 0, ˆβ 1. Ma, se vogliamo: Quantificare l incertezza associata alle stime Var( ˆβ 0 ) e Var( ˆβ 1 ) costruire un intervallo di confidenza per β 0 o β 1 verificare ipotesi (ad es. β 1 = 0 vs β 1 0)... dobbiamo determinare la distribuzione campionaria degli stimatori OLS ˆβ 0 e ˆβ 1 sono medie campionarie, quindi possiamo usare il TLC per n (n 100), ˆβ0, ˆβ 1 N

71 Capitoli 4 e 5 Distribuzione campionaria degli stimatori OLS E( ˆβ 1 ) =?? Sostituendo Y i = β 1 X i + u i in ˆβ 1, ottteniamo ˆβ 1 = n i=1 (X i X)Y i n i=1 (X i X) 2 = β 1 + n i=1 (X i X)u i n i=1 (X i X) 2 Applicando il valore atteso e la legge delle medie iterate, si ha: ( n E( ˆβ i=1 1 ) = β 1 + E (X i X)u ) i n i=1 (X i X) 2 = β 1 perchè E(u i X i ) = 0.

72 Capitoli 4 e 5 Distribuzione campionaria degli stimatori OLS E( ˆβ 0 ) =?? Da ˆβ 0 = Ȳ ˆβ 1 X e Ȳ = β 0 + β 1 X + ū, ottteniamo E( ˆβ 0 ) = E(β 0 + β 1 X + ū ˆβ1 X) = Eβ0 + E(β 1 ˆβ 1 ) X + Eū = β 0 dove E(β 1 ˆβ 1 ) = 0 dalla dimostrazione precedente e Eū = n 1 i E(u i) = n 1 i E(u i X i ) = 0 Riassumendo, E ˆβ 0 = β 0 e E ˆβ 1 = β 1, ˆβ 0 e ˆβ 1 sono stimatore non distorti di β 0 e β 1

73 Capitoli 4 e 5 Distribuzione campionaria degli stimatori OLS Var( ˆβ 0 ) =?? Var( ˆβ 1 ) =?? In generale (sotto (1) e (2)): Var( ˆβ 1 ) = 1 E((X i µ X )u i ) 2 n Var(X i ) 2 Var( ˆβ 0 ) = 1 Var(H i u i ) n, dove H E(Hi 2 i = 1 µ X )2 E(Xi 2)X i ˆβ 0 e ˆβ 1 sono stimatori consistenti perchè non distorti e Var n 0. Cosa accade quando vale l assunzione (4)?

74 Capitoli 4 e 5 Distribuzione campionaria degli stimatori OLS Var( ˆβ 1 ) inversamente proporzionale a Var(X i )... infatti, in questo esempio il num. di punti neri e grigi è lo stesso. da quale gruppo si ottiene una retta di regressione più accurata?

75 Capitoli 4 e 5 OLS è BLUE Teorema (Teorema di Gauss-Markov) nella classe degli stimatori lineari non distorti, gli stimatori OLS sono i più efficienti Ipotesi (i) E(u i X 1,..., X n ) = 0 (ii) Var(u i X 1,..., X n ) = σ 2 u < (iii) E(u i u j X 1,..., X n ) = 0, per ogni i j Tesi (a) Linear ˆβ 1 = n i=1 a iy i, ˆβ 0 = Ȳ n i=1 a iy i X dove a i = X i X i (X i X), 2 i a i = 0 e i a ix i = 1 (b) Unbiased già visto (c) Best Var( ˆβ 1 ) è la minima possibile (anche per ˆβ 0 )

76 Capitoli 4 e 5 Intervalli di confidenza per β 0 e β 1 Intervallo di valori che contiene con probabilità 1 α il vero valore del parametro/i [ ] [ ] ˆβ0 ± z 1 α/2se( ˆ ˆβ0 ) e ˆβ1 ± z 1 α/2se( ˆ ˆβ1 ) Es. Se α = 5% z 1 α/2 = 1.96 ˆβ 0 = , SE( ˆ ˆβ0 ) = = IC( ˆβ 0 ) = [678.63; ] ˆβ 1 = 2.28, SE( ˆ ˆβ1 ) = 0.52 = IC( ˆβ 0 ) = [ 3.30; 1.26] [ ] IC per effetti predetti di x: ˆβ1 x ± z 1 α/2se( ˆ ˆβ1 ) x Es. Riducendo di 4 studenti, il punteggio medio aumenta in media nell intervallo [5.04; 13.2] al livello del 95%

77 Capitoli 4 e 5 Verifica di ipotesi per β 1 H 0 : β 1 = b 1 Regole di decisione, t = ˆβ 1 b 1 SE( ˆ 1 ) H 1 Rifiuto se Rifiuto se ˆβ 1 > b 1 t > z 1 α α > 1 Φ(t) ˆβ 1 < b 1 t < z 1 α α > Φ(t) ˆβ 1 b 1 t > z 1 α/2 α > 2(1 Φ(t))

78 Capitoli 4 e 5 Verifica di ipotesi per β 0 H 0 : β 0 = b 0 Regole di decisione, t = ˆβ 0 b 0 SE( ˆ 0 ) H 1 Rifiuto se Rifiuto se ˆβ 0 > b 0 t > z 1 α α > 1 Φ(t) ˆβ 0 < b 0 t < z 1 α α > Φ(t) ˆβ 0 b 0 t > z 1 α/2 α > 2(1 Φ(t))

79 Capitoli 4 e 5 Verifica di ipotesi per β 0 e β 1 : esempi T estscore i = β 0 + β 1 ST R i + u i H 0 : ˆβ1 = 0, H 1 : ˆβ1 0 t = = 4.39 p val 0.00 T estscore i = β 0 + β 1 D i + u i H 0 : ˆβ1 = 0, H 1 : ˆβ1 0 t = = 4.04 p val 0.00

80 Capitoli 4 e 5 Valori predetti ed errori di regressione I punti Ŷi = ˆβ 0 + ˆβ 1 X i sulla retta di regressione stimata si chiamano valori predetti (o stimati o interpolati) La differenza tra i valori osservati Y i e i rispettivi valori predetti sono gli errori di regressione (o residui), û i La definizione dello stimatore MQO garantisce che la somma dei quadrati degli errori di regressione sia minima

81 Capitoli 4 e 5 Valori predetti ed errori di regressione La somma degli errori di regressione è pari a zero: i ûi = i Ŷi i Y i = 0 la media dei valori predetti e la media di Y coincidono: n 1 i Ŷi = Ȳ Gli errori di regressione e le X i sono incorrelati (ortogonali), ossia i X iû i = 0 i Ŷiû i = 0 perchè le Ŷi sono combinazioni lineari delle X i

82 Capitoli 4 e 5 Decomposizione della varianza totale Ŷ Y i Y Y i Ȳ Y i Ŷi Ŷ i Ŷ i Ȳ Ȳ X

83 Capitoli 4 e 5 Decomposizione della varianza totale i (Y i Ȳ )2 = i (Ŷi Ȳ )2 + i (Y i Ŷi) 2 Devianza della regressione Somma dei quadrati stimata Devianza totale Somma totale dei quadrati Devianza residua Somma dei quadrati degli errori

84 Capitoli 4 e 5 Decomposizione della varianza totale i (Y i Ȳ )2 = i (Ŷi Ȳ )2 + i û2 i Devianza della regressione Somma dei quadrati stimata Devianza totale Somma totale dei quadrati Devianza residua Somma dei quadrati degli errori

85 Capitoli 4 e 5 Decomposizione della varianza totale Dimostrazione. T SS = = = n n (Y i Ȳ )2 = (Y i Ŷi + Ŷi Ȳ )2 i=1 n (Y i Ŷi) 2 + i=1 n (Y i Ŷi) 2 + i=1 n (Ŷi Ȳ )2 + 2 i=1 i=1 i=1 n (Y i Ŷi)(Ŷi Ȳ ) i=1 n (Ŷi Ȳ )2 = RSS + ESS

86 Capitoli 4 e 5 Decomposizione della varianza totale RSS = 0 Tutte le osservazioni giacciono sulla retta di regressione, cioè tutti i valori stimati sono uguali ai valori osservati RSS = T SS Tutti i valori stimati/predetti sono uguali alla media campionaria

87 Capitoli 4 e 5 Bontà di adattamento: l R 2 di regressione Sfruttando la decomposizione della varianza totale, si può definire una misura della bontà dell adattamento della retta di regressione ai dati. R 2 = ESS T SS = i(ŷi Ȳ )2 i (Y i Ȳ )2 = 1 i û2 i i (Y i Ȳ )2 = 1 RSS T SS Si dimostra che il coefficiente di determinazione, o R 2 di regressione, è uguale al quadrato del coefficiente di correlazione lineare ( ) 2 R 2 = ρ 2 σxy XY =. σ X σ Y Pertanto, l R 2 può variare tra 0 e 1 R 2 = 1 se RSS = 0, cioè c è adattamento perfetto ai dati R 2 = 0 se RSS = T SS, ovvero se ρ XY = 0, cioè non c è correlazione tra X e Y.

88 Capitoli 4 e 5 Bontà di adattamento: l R 2 di regressione Come per la covarianza (infatti R 2 = ρ 2 ): R 2 = 0 non significa necessariamente che Y e X non siano legate da alcuna relazione funzionale

89 Capitoli 4 e 5 Misure di bontà di adattamento R 2 misura la frazione della varianza di Y spiegata da X 0 R 2 1 (privo di scala) Errore standard della regressione (SER) misura la dimensione di un tipico residuo di regressione (unità di misura di Y )

90 Capitoli 4 e 5 Misure di bontà di adattamento: SER IL SER mostra la dispersione della distribuzione dei residui û i. È (quasi) la deviazione standard campionaria dei residui: SER = 1 n (û i ū) n 2 2 = 1 n û 2 i n 2 i=1 i=1 La stima di β 0 e β 1 fa perdere 2 gradi di libertà 1 RMSE = n n i=1 û2 i è la radice dell errore quadratico medio (Root Mean Squared Error) N.B. û = 0 se c è l intercetta perchè: n i=1 ûi = i (Y i Ŷi) e Ŷ i = i i ( ˆβ 0 + ˆβ 1 X i ) = n(ȳ ˆβ 1 X) + ˆβ1 X i = nȳ i

91 Capitoli 4 e 5 Misure di bontà di adattamento: SER R 2 = 0.05 e SER = 18.6 ST R spiega soltanto una piccola quota della variazione nei punteggi dei test: altri fattori possono intervenire...

92 Capitoli 6 e 7 Capitoli 6 e 7 Regressione lineare Multipla

93 Capitoli 6 e 7 Outline (1) Distorsione da variabili omesse (2) Regressione multipla e OLS (3) Le assunzioni dei minimi quadrati (4) La distribuzione campionaria dello stimatore OLS (5) Intervalli di confidenza e test sui singoli ˆβ j (6) Test di ipotesi congiunte e regioni di confidenza (7) Misure di bontà della regressione (8) Variabili di interesse e di controllo

94 Capitoli 6 e 7 Distorsione da variabili omesse L errore u comprende tutti i fattori che influenzano Y ma non sono osservabili, o più in generale, non sono stati inclusi nella funzione di regressione Cose succede se il modello non include una variabile o più variabili importanti per la determinazione di Y? L omissione di queste variabili rende lo stimatore OLS distorto (e inconsistente, perchè tale distorsione non svanisce neanche con campioni di grandi dimensioni!)

95 Capitoli 6 e 7 Distorsione da variabili omesse Supponiamo Z sia una variabile omessa. La distorsione da variabile omessa si verifica quando valgono entrambe le seguenti condizioni: 1 Z è rilevante per Y 2 Z è correlata con il regressore X Infatti: Se vale la 1. Z finisce in u Se vale anche la 2. Corr(Z, X) 0 implica Corr(X, u) 0 violazione dell assunzione E(u i X i ) = 0

96 Capitoli 6 e 7 Distorsione da variabili omesse: esempi Esempio 1: ore del test Influisce sul risultato del test? SI Si Condizione 1. È correlata con la dimensione delle classi? NO No condizione 2. Se omettiamo questa informazione non cè distorsione da variabile omessa Esempio 1: area di parcheggio Influisce sul risultato del test? NO È correlata con la dimensione delle classi? SI (i distretti con area parcheggio hanno generalmente budget maggiori quindi classi più piccole) Se omettiamo questa informazione non c è distorsione da variabile omessa

97 Capitoli 6 e 7 Distorsione da variabili omesse: esempi Esempio 3: studenti non madrelingua Influisce sul risultato del test? SI Condizione 1. È correlata con la dimensione delle classi? SI (i distretti con alto numero di stranieri hanno generalmente budget inferiori quindi classi maggiori) Condizione 2. Se omettiamo questa informazione c è distorsione da variabile omessa

98 Capitoli 6 e 7 Distorsione da variabili omesse: formula Sappiamo che ˆβ 1 β 1 = i(x i X)u i i (X i X) 2 Cov(X i, u i ) = σ Xu Var(X i ) σx 2 Se σ Xu = 0 E( ˆβ 1 β 1 ) = 0 ˆβ 1 non distorto Se σ Xu 0 E( ˆβ 1 β 1 ) 0 ˆβ 1 distorto Di quanto? Dipende dalla correlazione tra u e X σ Xu = σ u σ Xu = σ u ρ Xu σ X σ X σ X Sσ u σ X σ X Che fare? Includiamo la variabile come regressore: la variabile omessa... non è più omessa!!!

99 Capitoli 6 e 7 Il modello di regressione multipla Modello con 2 regressori Y i = β 0 + β 1 X 1i + β 2 X 2i + u i i = 1,..., n Y =variabile dipendente X 1 e X 2 = variabili indipendenti, o regressori, o covariate β 0 = intercetta β 1 = effetto variazione di X 1 su Y, con X 2 costante β 2 = effetto variazione di X 2 su Y, con X 1 costante Y i = β 0 + β 1 X 1i + β 2 X 2i è la retta di regressione u i = errore di regressione (fattori omessi)

100 Capitoli 6 e 7 Il modello di regressione multipla: stima Stima OLS min β 0,β 1,β 2 n (Y i β 0 β 1 X 1i β 2 X 2i ) 2 i=1 Si ottengono le stime OLS, ˆβ 0, ˆβ 1, ˆβ 2

101 Capitoli 6 e 7 Il modello di regressione multipla: esempio Questo era il modello con un solo regressore: se e come è cambiato il coefficiente per ST R?

102 Capitoli 6 e 7 Il modello di regressione multipla Estensione a k regressori Y i = β 0 + β 1 X 1i + β 2 X 2i + + β k X ki + u i i = 1,..., n Y =variabile dipendente X j variabili indipendenti, o regressori, o covariate, j = 1,..., k β 0 = intercetta β j = effetto variazione di X j su Y, con X l costante, per ogni l j Y i = β 0 + β 1 X 1i + β 2 X 2i + + β k X ki è la retta di regressione u i = errore di regressione (fattori omessi)

103 Capitoli 6 e 7 Regressione multipla: esempio Y i = β 0 +β 1ST R i +β 2El P cti +β 3Meal P cti +β 4Calw P cti +u i i = 1,..., n Y = T estscore =esito test ST R = Student/Teacher Ratio El P ct = % studenti non madrelingua inglese Meal P ct = % studenti con agevolazione mensa calw pct = % studenti in programmi di assistenza pubblica

104 Capitoli 6 e 7 Regressione multipla Teorema di Frish-Waugh La stima di β 1 si ottiene anche con una sequenza di regressioni più brevi: (1) Si stima una regressione di Y su const, X 2,..., X k e si salvano i residui, Ỹ (2) Si stima una regressione di X 1 su const, X 2,..., X k e si salvano i residui, X1 (3) Si stima la regressione semplice Ỹ = β0 + β 1 X 1 + u i Il coefficiente di regressione multipla β 1 dà l effetto di X 1 su Y tenendo costanti le altre variabili

105 Capitoli 6 e 7 Teorema di Frish-Waugh: modello con 2 regressori (1) Si stima la regressione Y = δ 0 + δ 1 X 2. Otteniamo ˆδ 0 = Ȳ ˆδ i 1 X2 ˆδ1 = (X 2i X 2 )(Y i Ȳ ) i (X 2i X 2 ) 2 e si salvano i residui, Ỹi = Y i Ȳ ˆδ 1 (X 2i X 2 ) (2) Si stima la regressione X 1 = γ 0 + γ 1 X 2. Otteniamo i (X 2i X 2 )(X 1i X 1 ) ˆγ 0 = X 1 ˆγ 1 X2 ˆγ 1 = i (X 2i X 2 ) 2 e si salvano i residui, X1i = X 1i X 1 ˆγ 1 (X 2i X 2 ) (1) Si stima la regressione Ỹi = β 0 + β 1 X1. Otteniamo ˆβ 0 = Ỹ ˆβ 1 X1 = 0 ˆβ 1 = i X 1i Ỹ i i X 2 2i

106 Capitoli 6 e 7 Assunzioni dei minimi quadrati Assunzione (1) E(u i X i ) = E(u i X 1i,..., X ki ) = 0 Assunzione chiave per la non distorsione Assunzione (2) (X i, Y i ), i = 1,..., n sono iid dalla loro distribuzione congiunta F (X 1,..., X k, Y ) Vale quanto detto per la regressione semplice Assunzione (3) 0 < E(X 4 j ) < j = 1,..., k, 0 < E(Y 4 ) < Assunzione che limita le osservazioni anomale

107 Capitoli 6 e 7 Assunzioni dei minimi quadrati Assunzione (4) Non c è collinearità perfetta Che vuol dire? Se un regressore è una combinazione lineare di uno o più regressori inclusi nel modello, allora si dice che c è collinearità perfetta OLS non può essere stimato!!! Perchè? Intuizione: Supponiamo X 2 = 2X 1 (Allora anche X 1 = X 2 /2). Che cos è il coefficiente di X 2? Dovrebbe essere l effetto marginale di X 2, tendendo costante X 1, ma ciò è impossibile!!! Vediamo meglio: La retta di regressione diventa: Y i = β 0 +β 1 X 1 +β 2 X 2 +u i = β 0 +β 1 X 1 +2β 2 X 1 +u i = β 0 +(β 1 +2β 2 )X 1 +u i β 1 e β 2 non sono identificabili separatamente!

108 Capitoli 6 e 7 Collinearità perfetta Y i = β 0 + β 1 ST R i + β 2 El P ct + β 3 Meal P ct i + β 4 Calw P ct i + u i Esempi Frazione studenti non madrelingua inglese = El P ct/100 % di studenti DI madrelingua inglese = 100 El P ct Ma anche: Dummy classi troppo piccole: D i = 1 se ST R < 10, quando nel dataset il valore minimo di STR=14 Trappola delle variabili dummy dummies per G categorie mutualmente esclusive + costante

109 Capitoli 6 e 7 Collinearità perfetta Cosa accade? Il software si blocca o (pericoloso!) prende iniziative Soluzione Investigare il dataset e specificare meglio il modello Togliere una delle G categorie: i coefficienti delle restanti si interpretano rispetto alla categoria omessa; NB Collinearità imperfetta: due o più regressori sono altamente correlati Stime ancora non distorte ma meno precise

110 Capitoli 6 e 7 Assunzioni dei minimi quadrati Assunzione (5) Var(u i X i ) = σ 2 u L omoschedasticità degli errori garantisce l efficienza (nel senso di Gauss-Markov)

111 Capitoli 6 e 7 Distribuzione campionaria degli stimatori OLS Se valgono le assunzioni 1,2,4: E( ˆβ j ) = β j Se valgono le assunzioni 1 4: ˆβj p β j (consistenza) Se valgono le assunzioni 1 4: ˆβj hanno la struttura di medie campionarie ˆβ j N(β j, σ 2ˆβj ) Se valgono assunzioni 1 4: Var( ˆβ j ) inversamente proporzionale a n Se valgono 1 5 Proprietà BLUE. Gli OLS sono gli stimatori più efficienti tra gli stimatori non distorti e lineari

112 Capitoli 6 e 7 Intervalli di confidenza per singoli β j Intervallo di valori che contiene con probabilità 1 α il vero valore del parametro β j [ ˆβj ± z 1 α/2 ŜE( ˆβ j )] Esempi ST R β 1, ˆβ 1 = 1.01, ŜE( ˆβ 1 ) = 0.27 IC( ˆβ 1 ) = [ 1.54; 0.49] Meal β 3, ˆβ 3 = 0.53, ŜE( ˆβ 3 ) = 0.04 IC( ˆβ 3 ) = [ 0.61; 0.45] IC per effetti predetti di x [ ˆβj x ± z 1 α/2 ŜE( ˆβ j ) x] : Riducendo la classe di 4 studenti, il punteggio medio aumenta in media tra [1.94; 6.17] al livello del 95%

113 Capitoli 6 e 7 Verifica di ipotesi su singoli β j H 0 : β j = b j Regole di decisione, t = ˆβ j b j SE( ˆ j ) H 1 Rifiuto se Rifiuto se ˆβ j > b j t > z 1 α α > 1 Φ(t) ˆβ j < b j t < z 1 α α > Φ(t) ˆβ j b j t > z 1 α/2 α > 2(1 Φ(t))

114 Capitoli 6 e 7 Verifica di ipotesi su singoli β j H 0 : β 1 = 0, β 1 0 t = = 3.77 p val = H 0 : β 4 = 0, β 4 0 t = = 0.82 p val = 0.415

115 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Test di ipotesi congiunte H 0 : ˆβ1 = 0 e ˆβ 4 = 0 vs. H 1 : ˆβ1 0 oppure ˆβ 4 0 Possiamo verificare coefficiente per coefficiente? NO! Perchè? Se A = { ˆβ 1 = 0}, B = { ˆβ 4 = 0}, H 0 coincide con A B. Prendiamo α = 0.05 (5%), quindi, dalla normale, z 1 α/2 = 1.96 ˆβ 1 e ˆβ 4 sono indipendenti: P (A B) = P (A)P (B), quindi P ( t 1 < 1.96)P ( t 4 < 1.96) = Rifiuto H 0 con probabilità 1 P ( t 1 < 1.96)P ( t 4 < 1.96) = > 0.05!!! La probabilià di errore di prima specie è sottostimata ˆβ 1 e ˆβ 4 sono dipendenti... ancora peggio!!! 2 soluzioni: Metodo di Bonferroni e Statistica F

116 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Metodo di Bonferroni P (A B) P (A) + P (B). Quindi. P ({ t 1 > c} { t 4 > c}) P ( t 1 > c) + P ( t 4 > c) P (( t 1 > c) ( t 4 > c)) = P (Test coefficiente per coefficiente rifiuta H 0 H 0 ) P ( t 1 > c) + P ( t 4 > c) 2 P ( Z > c) Se c = z 1 (α/2)/2 = z 1 α/4, abbiamo P (Il test coefficiente per coefficiente rifiuta H 0 H 0 ) 2 α 2 = α

117 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Esempio: H 0 : ˆβ1 = 0 e ˆβ 4 = 0 c = z 1 α/4 = z = 2.24 P ({ t 1 > c} { t 4 > c}) = P (max{ t 1, t 4 } > 2.24) = P (max{0.82, 3.77} > 2.24) Rifiuto H 0 Con q ipotesi simultanee, si rifuta H 0 se almeno uno dei t j è in valore assoluto maggiore di z 1 α/(2 q).

118 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Statistica F (classica): Statistica test che verifica l ipotesi che il modello con le q restrizioni abbia un migliore adattamento F = = (RRSS URSS)/q URSS/(n k un 1) (R 2 U R2 R )/q (1 R 2 U )/(n k un 1) F q,n k 1

119 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Statistica F (classica): F = e F q,n k 1 = F 2,415 F 2, = 4.61 (per α = 1%) rifiuto H 0

120 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Statistica F (robusta): q = 2 Statistica F robusta all eteroschedasticità: H 0 : β 1 = 0 e β 4 = 0 F = 1 t 2 1 +t2 4 2ρt 1,t 4 t 1t ρ t1 F,t 2, 4

121 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Statistica F (robusta): q = 3 Statistica F robusta all eteroschedasticità. Già incorporata nei pacchetti statistici... molto comodo! H 0 : β 1 = 0 e β 2 = 0 e β 4 = 0

122 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Statistica F (robusta): casi particolari q = 1 (H 0 : β j = 0) F = t 2 j q = k (H 0 : β 1 = β 2 =... β k = 0) già fornito dall output di Gretl

123 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Restrizioni singole su coefficienti multipli Vogliamo verificare l ipotesi: Y i = β 0 + β 1 X 1i + β 2 X 2i + u i H 0 : β 1 = β 2 vs. H 1 : β 1 β 2 L ipotesi nulla impone una singola restrizione ma su coefficienti multipli. Diverso da ipotesi congiunte (β 1 = β 2 = 0) che imponevano 2 (in generale q > 1) restrizioni simultaneamente su più coefficienti

124 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Restrizioni singole su coefficienti multipli Due metodi per eseguire il test: 1. Usare Gretl (o software) Gretl consente di verificare generiche restrizioni (lineari!!!) su più coefficienti

125 Capitoli 6 e 7 Verifica di ipotesi su due o più β j 1. Riorganizzare la regresione Si può trasformare il modello in uno equivalente, in modo che la restrizione diventi una restrizione su un singolo coefficiente: Regressione originale (RO): Regressione equivalente (RE): Y i = β 0 + β 1 X 1i + β 2 X 2i + u i Y i = β 0 + γ 1 X 1i + β 2 W i + u i dove γ 1 = β 1 β 2, W = X 2 + X 1 Il test H 0 : β 1 = β 2 su RO equivale a H 0 : γ 1 = 0 su RE

126 Capitoli 6 e 7 Verifica di ipotesi su due o più β j 1. Riorganizzare la regressione: esempio RO e RE sono equivalenti!!!

127 Capitoli 6 e 7 Verifica di ipotesi su due o più β j Regione di confidenza per coefficienti multipli Insieme dei valori dei coefficienti non rifiutabili al livello di significatività α Per due coefficienti, le regioni sono ellittiche

128 Capitoli 6 e 7 Misure di bontà dell adattamento Errore standard della regressione (SER) Misura la dispersione della variabile Y attorno alla retta di regressione (unità di misura di Y ) 1 SER = û 2 i n k 1 i k = numero di regressori esclusa la costante k + 1 = numero di parametri da stimare (inclusa l intercetta)

129 Capitoli 6 e 7 Misure di bontà dell adattamento R 2 Misura la frazione di varianza di Y spiegata dai regressori R 2 = ESS T SS = 1 RSS T SS = 1 i û2 i T SS 0 R 2 1 (no unità di misura) Nella regressione multipla, aggiungendo un regressore aumenta sempre. Perchè? RSS = min β0,...,β k i (Y i β 0... β k X ki ) 2 decresce aumentando i regressori...ma non significa che l adattamento del modello sia migliore!!! Meglio usare una nuova misura, che tenga conto del numero di regressori

130 Capitoli 6 e 7 Misure di bontà dell adattamento R 2 corretto R 2 con una penalizzazione per il numero di regressori (o per il numero di gradi di libertà) R 2 = 1 n 1 RSS n k 1 T SS = 1 S2 û SY 2 n 1 n k 1 > 1 R2 R 2 n 1 Regressore in più, R 2 può essere negativo n k 1 n 1 n k 2 > mentre RSS.

131 Capitoli 6 e 7 Misure di bontà dell adattamento Esempio

132 Capitoli 6 e 7 Misure di bontà dell adattamento Avvertenze: Un elevato R 2 (o R 2 ) significa che i regressori spiegano gran parte della variazione in Y, MA... L obiettivo della regressione non è massimizzare R 2 ma trovare l effetto causale di X su Y Un elevato R 2 (o R 2 ) non esclude l omissione di variabili rilevanti Un elevato R 2 (o R 2 ) non significa che non ci sia distorsione nelle stime dei coefficienti β j Un elevato R 2 (o R 2 ) non significa che le variabili incluse siano necessariamente statisticamente significative (per questo servono i test!)

133 Capitoli 6 e 7 Specificazione del modello Uno degli aspetti più importanti di un analisi econometrica è la specificazione: Quali variabili sono di interesse per Y? Quali altre variabili vanno inserite? Qual è la forma funzionale che lega le variabili alla variabile dipendente? (lineare? nonlineare?) Sotto quale forma entrano nel modello i regressori? (lineare? logaritmica?...)

134 Capitoli 6 e 7 Specificazione del modello Uno degli aspetti più importanti di un analisi econometrica è la specificazione: Quali variabili inserire nel modello? Variabili di interesse: Variabile/i di cui vogliamo stimare l effetto causale (Dimensione della classe) Variabili di controllo: Variabili che controllano per i fattori omessi, a cui sono correlate. Se incluse nella regressione rendono gli errori non correlati alle variabili di interesse (E(u i X i ) = 0) i coefficienti per X sono non distorti. (es. opportunità di apprendimento extra-scolastico, competenze degli studenti, coinvolgimento dei genitori...)

135 Capitoli 6 e 7 Specificazione del modello: un esempio ST R: Variabile di interesse El P ct: variabile causale e di controllo Meal P ct: variabile causale e di controllo Calw P ct: variabile causale e di controllo

136 Capitoli 6 e 7 Specificazione del modello: i passi 1 Identificare le/le variabile/i di interesse 2 Ci sono effetti causali omessi? SI Esistono variabili adeguate che catturino direttamente tali fattori? SI Includerle nel modello NO Includere variabili di controllo correlate con tali fattori Modello di base o benchmark 3 Pensare a modelli alternativi plausibili con variabili aggiuntive o con forme funzionali diverse 4 Stimare specificazione di base e alternative: Se e come cambia il coefficiente di interesse? Le variabili di controllo sono significative?

137 Capitoli 6 e 7 Specificazione del modello nell esempio 1 Identificare le/le variabile/i di interesse ST R 2 Ci sono effetti causali omessi? Lingua madre, qualità insegnanti, opportunità di apprendimento extrascolastico, coinvolgimento genitori... Abbiamo: El P ct = lingua madre inglese Meal P ct e Calw P ct = misure del benessere del distretto (alternative/complementari) 3 Modelli alternativi plausibili con variabili aggiuntive (Es. Comp stu = nr. computer per studente)... (trasformazioni di uno o più regressori? Li vediamo più avanti) 4 Stimare specificazione base e alternative

138 Capitoli 6 e 7 Presentazione dei risultati Avendo numerose regressioni da presentare, è utile ricorrere al formato tabulare Per ciascun modello vogliamo presentare: coefficienti di regressione stimati errori standard misure di adattamento (R 2 corretto e non) statistica F numero di osservazioni La finestra icone di Gretl consente di farlo facilmente

139 Capitoli 6 e 7 Presentazione dei risultati

140 Capitoli 6 e 7 Interpretazione dei coefficienti nella regressione multipla Consideriamo per semplicità Y i = β 0 + β 1 X 1i + β 2 X 2i + u i i = 1..., n Facciamo variare X 1 X 1 + X 1, tenendo costante X 2. In corrispondenza di questa variazione anche Y subirà una variazione, passando da Y a Y + Y Retta di regressione prima della variazione: Y = β 0 + β 1 X 1 + β 2 X 2 Retta di regressione dopo la variazione: Y + Y = β 0 + β 1 (X 1 + X 1 ) + β 2 X 2 Differenza: Y = β 1 (X 1 + X 1 ) β 1 X 1

141 Capitoli 6 e 7 Interpretazione dei coefficienti nella regressione multipla Prima: Y = β 0 + β 1 X 1 + β 2 X 2 Dopo: Y + Y = β 0 + β 1 (X 1 + X 1 ) + β 2 X 2 Differenza: Y = β 1 X 1 β 1 = Y X 1 ( 0) β 1 = E(Y X 1,X 2 ) X 1 β 2 = Y X 2 ( 0) β 2 = E(Y X 1,X 2 ) X 2 β 0 = valore predetto di Y quando X 1 = X 2 = 0

142 Capitoli 6 e 7 Interpretazione dei coefficienti nella regressione multipla Prima: Y = (Ass.1) = E(Y X 1, X 2 ) Dopo: Y + Y = (Ass.1) = E(Y X 1 + X 1, X 2 ) Differenza: Y = β 1 X 1 = E(Y X 1 + X 1, X 2 ) E(Y X 1, X 2 ) β 1 = Y X 1 ( 0) β 1 = E(Y X 1,X 2 ) X 1 β 2 = Y X 2 ( 0) β 2 = E(Y X 1,X 2 ) X 2 β 0 = valore predetto di Y quando X 1 = X 2 = 0

143 Funzioni nonlineari Capitolo 8 Funzioni di regressione nonlineari

144 Funzioni nonlineari Outline Funzioni di regressione nonlineari (1) Note generali (2) Funzioni nonlineari a una variabile (3) Funzioni nonlineari a due variabili: interazioni (4) Applicazione al dataset di punteggi dei test

145 Funzioni nonlineari Note generali Non sempre l approssimazione lineare è la scelta migliore. Il modello di regressione multipla può gestire funzioni di regressione nonlineari in una o più X Se il modello resta lineare nei coefficienti (cioè i β), il metodo di stime e le proprietà degli stimatori restano gli stessi di un modello di regressione lineare in X

146 Funzioni nonlineari Note generali La relazione tra punteggio dei test e rapporto studenti/insegnanti sembra abbastanza ben catturata da una relazione lineare.

147 Funzioni nonlineari Note generali La relazione tra punteggio dei test e reddito distrettuale è lineare?

148 Funzioni nonlineari Regressione non lineare Se la relazione tra i regressori e Y è nonlineare, l effetto marginale di X su Y non è in generale costante, ma dipende anche dal livello di X In generale una regressione lineare è misspecificata: la forma funzionale è errata Ne segue che: lo stimatore dell effetto di X su Y è distorto È necessario applicare una funzione di regressione nonlineare (in X)

149 Funzioni nonlineari Funzioni nonlineari di un unica variabile indipendente Due approcci complementari: Funzione polinomiale in X: la funzione di regressione della popolazione è una funzione quadratica, o cubica o in generale polinomiale di X Trasformazioni logaritmiche: Le Y e/o le X sono trasformate prendendone il logaritmo. Utile in molte applicazioni.

150 Funzioni nonlineari Funzioni Polinomiali in X Approssimiamo la funzione di regressione con un polinomio. Assumiamo (per semplicità) un solo regressore: Y i = β 0 + β 1 X i + β 2 X 2 i β r X r i + u i È ancora un modello di regressore lineare (lineare nei β!!!) solo che i regressori sono potenze di X. La stima e le proprietà degli stimatori sono le stesse del modello di regressione lineare multipla con r regressori. Unica reale differenza: l interpretazione dei coefficienti!!! Più difficile

151 Funzioni nonlineari Esempio: la relazione tra punteggio del test e reddito distrettuale X i = Income i = reddito distrettuale medio nel distretto isimo (in migliaia di dollari pro-capite) Approssimazione quadratica: T estscore i = β 0 + β 1 Income i + β 2 (Income i ) 2 + u i Approssimazione cubica: T estscore i = β 0 +β 1 Income i +β 2 (Income i ) 2 +β 3 (Income i ) 3 +u i

152 Funzioni nonlineari Esempio: la relazione tra punteggio del test e reddito distrettuale ^testscr = *avginc *avgincsq (2.90)(0.268) ( ) n = 420, R-squared = (standard errors in parentheses)

153 Funzioni nonlineari Quali sono gli effetti di X? Non è possibile calcolare un effetto unico di una variazione di X, l effetto dipende dal livello di X T estscore = avginc avgincsq La variazione predetta del punteggio, corrispondente ad una variazione del reddito pro-capite da 5000$ a 6000$: T estscore = (6) (5) 2 = 3.38

154 Funzioni nonlineari Quali sono gli effetti di X? Se cambia il valore di X cambia l effetto di un aumento di 1000$: Variazione di reddito Effetto Da 5000 a Da a Da a L effetto di un cambiamento del reddito è maggiore per i redditi più bassi (forse un beneficio marginale decrescente con l aumento dei budget delle scuole?). Attenzione!!! Non estrapolate mai al di fuori dell intervallo dei dati!!!

155 Funzioni nonlineari Esempio: la relazione tra punteggio del test e reddito distrettuale Approssimazione cubica Model 2: OLS, using observations Dependent variable: testscr Heteroskedasticity-robust standard errors, variant HC1 coefficient std. error t-ratio p-value const *** avginc e-12 *** avgincsq *** avgincub ** Mean dependent var S.D. dependent var Sum squared resid S.E. of regression R-squared Adjusted R-squared F(3, 416) P-value(F) 2.81e-97 Log-likelihood Akaike criterion Schwarz criterion Hannan-Quinn

156 Funzioni nonlineari Test di nonlinearità Test di nonlinearià: test F sulle restrizioni β 2 = β 3 = 0: Restriction set 1: b[avgincsq] = 0 2: b[avgincub] = 0 Test statistic: Robust F(2, 416) = , with p-value = e-16 Restricted estimates: coefficient std. error t-ratio p-value const *** avginc e-66 *** avgincsq NA NA avgincub NA NA Standard error of the regression = Rifiutata l ipotesi di linearità

157 Funzioni nonlineari Funzioni logaritmiche di Y e/o di X ln(x) (o log(x)) è il logaritmo naturale di X. Le trasformazioni logaritmiche permettono di modellare trasformazioni in termini percentuali. Perchè? Approssimativamente, ( ) ( x + x ln(x + x) ln(x) = ln = ln 1 + x ) x x x x

158 Funzioni nonlineari Specificazioni della regressione logaritmica Caso Funz. di regressione I. lineare-log Y i = β 0 + β 1 ln(x i ) + u i II. log-lineare ln(y i ) = β 0 + β 1 X i + u i III. log-log ln(y i ) = β 0 + β 1 ln(x i ) + u i A ciascuna specificazione corrisponde una diversa interpretazione del parametro β 1.

159 Funzioni nonlineari Specificazioni della regressione logaritmica Caso Funz. di regressione I. lineare-log Y i = β 0 + β 1 ln(x i ) + u i A una variazione x = 1% (ossia, X/X = 0.01) corrisponde una variazione Y = 0.01β 1 II. log-lineare ln(y i ) = β 0 + β 1 X i + u i III. log-log ln(y i ) = β 0 + β 1 ln(x i ) + u i Si ha y x = β 1 x 100 dx dy = β x Quindi se x aumenta del 10% ( dx/x = 0.1), y aumenta di β

160 Funzioni nonlineari Specificazioni della regressione logaritmica Caso Funz. di regressione I. lineare-log Y i = β 0 + β 1 ln(x i ) + u i II. log-lineare ln(y i ) = β 0 + β 1 X i + u i A una variazione di x di una unità, x = 1 corrisponde una variazione di Y percentuale, Y = 100 β 1 % III. log-log ln(y i ) = β 0 + β 1 ln(x i ) + u i Si ha ln(y) x 100 y y = y/y x = β 1 = β dx Quindi se x aumenta di 2 unità ( dx = 2), dy/y aumenta di β 1 2, ovvero y aumenta in percentuale di (β )%

161 Funzioni nonlineari Specificazioni della regressione logaritmica Caso Funz. di regressione I. lineare-log Y i = β 0 + β 1 ln(x i ) + u i II. log-lineare ln(y i ) = β 0 + β 1 X i + u i III. log-log ln(y i ) = β 0 + β 1 ln(x i ) + u i A una variazione percentuale x = 1% corrisponde una variazione percentuale, Y = β 1 % β 1 ha l interpretazione di un coefficiente di elasticità Si ha ln(y) x 100 y y = y/y x = β 1/x = β x x Quindi se x aumenta del 5% (100 dx/x = 5), allora y aumenta del 5 β 1 %, (100 dy/y = 5β 1 )

162 Funzioni nonlineari Esempio: T estscore su ln(income) Usiamo il modello lineare-log T estscore i = β 0 + β 1 ln(income i ) + u i Il modello è lineare nella variabile ln(income). Model 3: OLS, using observations Dependent variable: testscr Heteroskedasticity-robust standard errors, variant HC1 coefficient std. error t-ratio p-value const *** loginc e-89 *** Mean dependent var S.D. dependent var Sum squared resid S.E. of regression R-squared Adjusted R-squared F(1, 418) P-value(F) 1.15e-89

163 Funzioni nonlineari Esempio: T estscore su ln(income) La specificazione logaritmica e cubica sono quasi identiche. Per scegliere quale delle due adottare si può usare R 2 (logaritmica ha un lieve vantaggio).

164 Funzioni nonlineari Interazioni tra regressori Ridurre la dimensione di una classe potrebbe essere più utile in alcune circostanze piuttosto che in altre? Ad esempio: le classi più piccole hanno un effetto maggiore su T estscore se ci sono molti studenti non madrelingua, che richiedono maggior attenzione? Cioè: l effetto di ST R su T estscore può dipendere da el P ct? Più in generale, l effetto di X 1 su Y, può dipendere da X 2?

165 Funzioni nonlineari Esempio, T estscore, ST R e allievi non madrelingua (dummy) Definiamo HiEl = 1 se El P ct 10 (0 altrimenti). Modello di regressione con interazione: T estscore = β 0 + β 1 ST R + β 2 HiEl + β 3 HiEl ST R + u i Se Hiel = 1 la retta di regressione diventa: T estscore = β 0 + (β 1 + β 3 )ST R + β 2 + u i Se Hiel = 0 la retta di regressione diventa: T estscore = β 0 + β 1 ST R + u i Il coefficiente di ST R cambia da β 1 a β 1 + β 3.

166 Funzioni nonlineari Esempio, T estscore, ST R e allievi non madrelingua (var. continua) Modello di regressione con interazione: T estscore = β 0 + β 1 ST R + β 2 El P ct + β 3 El P ct ST R + u i Model 4: OLS, using observations Dependent variable: testscr Heteroskedasticity-robust standard errors, variant HC1 coefficient std. error t-ratio p-value const e-202 *** str * el_pct * interact Mean dependent var S.D. dependent var Sum squared resid S.E. of regression

167 Funzioni nonlineari Esempio, T estscore, ST R e allievi non madrelingua (var. continua) L effetto stimato della riduzione della dimensione della classe non è lineare, perchè la dimensione dello stesso dipende dal valore di El P ct. Effetto di ST R su Y = El P ct. Verifica di ipotesi: R-squared Adjusted R-squared F(3, 416) P-value(F) 1.89e-67 L effetto di interazione non è significativo, non possiamo rifiutare l ipotesi che non ci sia differenza nell effetto al variare della percentuale di studenti non madrelingua inglese

168 Funzioni nonlineari Applicazione al dataset della california

169 Valutazione di modelli di regressione multipla Capitolo 9 Valutazione di studi basati sulla regressione multipla

170 Valutazione di modelli di regressione multipla Outline Valutazione di studi basati sulla regressione multipla (1) Validità interna ed esterna (2) Minacce alla validità interna Distorsione da variabili omesse Forma funzionale non corretta Errori nelle variabili Dati mancanti e selezione campionaria Causalità simultanea (3) Minacce alla validità esterna

171 Valutazione di modelli di regressione multipla Validità interna ed esterna Validità interna: L inferenza statistica e le conclusioni tratte sugli effetti causali sono valide per la popolazione studiata (la popolazione da cui è estratto il campione) Validità esterna: L inferenza statistica e le conclusioni tratte sugli effetti causali possono essere generalizzate ad altre popolazioni e altri contesti (altri ambiti legali, istituzionali, politici, fisici, sociali, economici...) Esempio Le evidenze sul rapporto studenti/insegnanti ed esiti dei test sono valide per ogni scuola di ordine e grado della California? E sono valide per altri stati?

172 Valutazione di modelli di regressione multipla Validità interna Si ha validità interna quando: Lo stimatore è non distorto e consistente Errori standard producono IC e test attendibili Possibili minacce al primo punto: Distorsione da variabile omessa Forma funzionale non corretta Errori nelle variabili Selezione campionaria Causalià simultanea Possibili minacce al secondo punto: Eteroscheasticità Autocorrelazione degli errori

173 Valutazione di modelli di regressione multipla Distorsione da variabile omessa Si ha distorsione da variabile omessa quando la variabile omessa è: Una determinante di Y Correlata con almeno una X Soluzioni a Se esistono variabili di controllo adeguate includerle b Se non esistono variabili di controllo adeguate Dati panel: ciascuna unità (individuo) è osservata in più istanti nel tempo. Se la variabile omessa non cambia troppo nel tempo si possono utilizzare osservazioni di date diverse; Variabili strumentali: si usa uno strumento, cioè una variabile non correlata con l errore ma correlata con X Esperimento controllato casualizzato

174 Valutazione di modelli di regressione multipla Forma funzionale non corretta Errata specificazione della retta di regressione rispetto alla reale relazione tra Y e X. Esempio Modello di regressione lineare quando in realtà la relazione è nonlineare Soluzioni Y continua: usare in X le specifiche nonlineari più appropriate (logaritmi, interazioni...) Y discreta: modelli nonlineari specifici per variabili dipendenti discrete (modello logit, probit...)

175 Valutazione di modelli di regressione multipla Errori nelle variabili Supponiamo che X sia misurata con qualche errore Esempi: errori di battitura nei dati amministrativi, underreporting o misreporting (intenzionale e non) nei dati di indagine... Gli errori di misura dipendono dalla natura dei dati: Dati amministrativi: insegnanti nei distretti residenti nei comuni, nati, residenti... in genere molto accurati Dati di sondaggio: specialmente su dati molto sensibili (quanto guadagna?) più soggetti ad errori

176 Valutazione di modelli di regressione multipla Errori nelle variabili: Conseguenze sulla regressione Osserviamo X i = X i + η i (η i errore di misura), ma il modello sulla popolazione è: Allora, il modello in X diventa: Y i = β 0 + β 1 X i + u i Y i = β 0 + β 1 Xi β 1 η i + u i = β 0 + β 1 Xi + ε i Se stimiamo β 1 usando X come regressore, l errore del modello (ε i ) è correlato con il regressore: E(ε i Xi ) = E((u i β 1 (X i X i )) X i ) 0 E(ε X) 0 Violata assunzione OLS. La stima OLS è distorta e inconsistente. La correlazione c è anche se η è incorrelato con X (cioè se l errata misurazione non dipende da X)

177 Valutazione di modelli di regressione multipla Errori nelle variabili: due casi speciali (A) Errore di misura classico: η i casuale, a media zero e Corr(η i, X i ) = Corr(η i, u i ) = 0 La correlazione c è anche se η è incorrelato con X: quindi β 1 è comunque distorto e inconsistente. La distorsione dipende dal segno di β 1. Notiamo che (se Cov(X, η) = 0 e Cov(η, u) = 0) Cov( X, Y ) = Cov(X + η, β 0 + β 1 X + u) = β 1 Var(X) Quindi Var( X) = Var(X) + Var(η) = σ 2 X + σ 2 η. ˆβ 1 Cov( X, Y ) Var( X) = β 1 σ 2 X σ 2 X + σ2 η = β 1 β 1 σ 2 η σ 2 X + σ2 η

178 Valutazione di modelli di regressione multipla Errori nelle variabili: due casi speciali (A) Errore di misura classico: La correlazione c è anche se η è incorrelato con X, quindi β 1 è comunque distorto e inconsistente. (B) Errore di misura migliore ipotesi : Xi è la migliore stima di X i, cioè Corr(η i, X i ) = 0 β 1 consistente, perché E(ε i Xi ) = E((u i β 1 (X i X i )) X i ) = E((u i β 1 η i ) X i ) = 0 ma ha varianza maggiore di quella che avrebbe senza errore di misura. Caso omoschedastico (più semplice). X è la migliore stima di X, quindi X = E(X informazione disponibile) che implica (Legge della varianza totale. ) Var(X) Var( X) e Var( ˆβ 1 ) = σ2 ε Var( X) β2 1 σ2 η + σ 2 u σ 2 X σ2 u σ 2 X

179 Valutazione di modelli di regressione multipla Errori nelle variabili: errore in Y Supponiamo sia Y ad avere errore di misura: Ỹ i = Y i + η i. In tal caso il modello della popolazione che possiamo stimare è: Ỹ i = β 0 + β 1 X i + u i + η i. Se l errore è casuale (E(η i X) = 0) allora ˆβ 1 è non distorto. Tuttavia, le stime avranno varianza maggiore di quelle che otterremmo senza errore di misura.

180 Valutazione di modelli di regressione multipla Errori nelle variabili: soluzioni 1. Ottenere dati migliori... in genere difficile!! 2. Sviluppare un modello specifico per gli errori di misura. Possibile, ma solo se si conosce bene la natura dell errore di misura. 3. Regressione con variabili strumentali 4. Esperimento controllato casualizzato (es: articolo Counting rotten apples: Student achievement and score manipulation in Italian elementary Schools )

181 Valutazione di modelli di regressione multipla Dati mancanti e selezione campionaria Mancano alcuni dati. Le conseguenze cambiano a seconda dei casi: 1. I dati mancano a caso 2. I dati mancano in base al valore di una o più X 3. I dati mancano in base al valore di Y Casi 1. e 2. ˆβ 1 è non distorto, ma gli errori standard sono maggiori di quelli che si avrebbero senza dati mancanti Caso 3. A causa della selezione campionaria, corr(u i X i ) 0 e ˆβ 1 è distorto

182 Valutazione di modelli di regressione multipla Dati mancanti e selezione campionaria Esempio 1: Statura degli studenti Qual è l altezza media degli studenti maschi? I dati vengono raccolti registrando la statura degli studenti che entrano nello spogliatoio della squadra di basket. Gli individui sono campionati in modo non indipendente dalla statura (la Y ) distorsione!!! Soluzione: Ottenere un campione davvero casuale degli studenti, per esempio scegliendo a caso tra gli iscritti che risultano dagli elenchi amministrativi

183 Valutazione di modelli di regressione multipla Dati mancanti e selezione campionaria Esempio 2: Rendimento dello studio (Returns to education) Quanto rende (in termini di reddito) un anno in più di studio? I dati vengono raccolti registrando reddito e anni di istruzione di un campione di impiegati individui campionati in modo NON indipendente dalla Y distorsione!!! Soluzione: Ottenere un campione davvero casuale di individui, a prescindere dal fatto che abbiano trovato impiego o meno (inclusi disoccupati)

184 Valutazione di modelli di regressione multipla Dati mancanti e selezione campionaria Esempio 3: Rendimento dei fondi comuni I fondi comuni gestiti attivamente hanno rendimenti migliori di quelli che seguono il mercato? Si osservano i rendimenti medi degli ultimi 10 anni dei fondi comuni esistenti (oggi) i fondi che osserviamo sono soltanto quelli che sono durati almeno 10 anni osserviamo soltanto fondi con rendimenti (Y ) maggiori distorsione! Soluzione: ottenere un vero campione casuale dei fondi osservando i fondi esistenti all inizio del periodo (inclusi quindi eventuali fondi estinti)

185 Valutazione di modelli di regressione multipla Causalità simultanea Ovvero Non soltanto X causa Y, ma anche Y causa X Esempio: Uno STR basso migliora i punteggi medi dei test. Ma se ai distretti con esisti peggiori vengono dati più soldi più docenti STR si abbassa! Questo implica che Cov(u i, X i ) 0 e quindi ˆβ 1 è distorto e inconsistente Soluzioni: Esperimento casualizzato controllato Stimare modello completo di entrambe le direzioni di casualità (difficile!) (es. R=C+I) Usare variabili strumentali

186 Valutazione di modelli di regressione multipla Simultaneità: esempio Modello a equazioni simultanee in forma strutturale: c t = β 1 + β 2 r t + ε t, ε t iid(0, σ 2 ) r t = c t + i t, E(i t ε t ) = 0 la prima è una funzione comportamentale di consumo, la seconda è un identità contabile. Gli investimenti i t sono esogeni e indipendenti dal disturbo ε t. I consumi c t e il reddito r t sono variabili endogene. Riscriviamo le due equazioni in forma ridotta: c t = r t = β i t + 1 ε t 1 β 2 1 β 2 1 β 2 β 1 + β 2 i t + 1 ε t 1 β 2 1 β 2 1 β 2

187 Valutazione di modelli di regressione multipla Simultaneità Pertanto E(r t ε t ) = σ 2 /(1 β 2 ) e lo stimatore MQO della funzione uniequazionale di consumo c t = β 1 + β 2 r t + ɛ t, è distorto e non consistente; in particolare: (1 β 2 ) 2 b 2 p β 2 + E(rtεt) = β Var(r 2 + σ2 t) (1 β 2 ) Var(i t)+σ 2 σ = β 2 + (1 β 2 ) 2 Var(i t)+σ 2 Soluzione: variabili strumentali (investimenti).

188 Valutazione di modelli di regressione multipla Eteroschedasticità e autocorrelazione dei residui Eteroschedasticità Come visto, errori eteroschedastici producono IC e test non attendibili. Soluzione: Stime robuste all eteroschedasticità, che vanno bene anche nei (rari) casi di omoschedasticità Autocorrelazione Errori autocorrelati producono IC e test non attendibili, perchè violano l assunzione OLS di osservazioni i.i.d. Esempi: Serie storiche, dati panel, dati stratificati Soluzione: Stime robuste sia all eteroschedasticità che all autocorrelazione. Nel caso serva, variabili strumentali per evitare Cov(u i, X i ) 0.

189 Valutazione di modelli di regressione multipla Validità esterna Si ha validità esterna quando i risultati ottenuti sono generalizzabili ad altre popolazioni e altri contesti. Possibili minacce alla validità esterna: 1 Differenze nelle popolazioni Esempio: gli esperimenti in laboratorio sui topi, i cui risultati sono solitamente estesi anche agli esseri umani 2 Differenze di contesto Esempio: campagne pubblicitariie contro l abuso di alcol in contesti con diverse caratteristiche istituzionali, legali, ambientali

190 Valutazione di modelli di regressione multipla Validità interna ed esterna nel nostro esempio Vogliamo valutare le minacce alla validità interna ed esterna nell analisi empirica dei dati sui punteggi nei test della California Validità interna Esaminare l elenco delle 5 potenziali minacce e... riflettere a lungo! Validità esterna Confrontare i risultati della California e del Massachussetts (altro dataset)... e riflettere a lungo!!!

191 Valutazione di modelli di regressione multipla Validità interna nel nostro esempio Distorsione da variabili omesse: Quali fattori possono mancare? Caratteristiche degli studenti (es. capacità innate) Caratteristiche dei distretti (es. qualità degli insegnanti) Le regressioni cercano di controllare per questi fattori, ad esempio usando frazione di studenti non madrelingua e usando dati demografici dei distretti (reddito, studenti con sussidio mensa) Le variabili di controllo sono efficaci? Il coefficiente di STR non cambia molto al cambiare della specificazione delle variabili Forma funzionale non corretta Errori nelle variabili Selezione campionaria Causalità simultanea

192 Valutazione di modelli di regressione multipla Validità interna nel nostro esempio Distorsione da variabili omesse MINACCIA ESCLUSA! Forma funzionale non corretta Analizzate diverse forme funzionali: effetti non lineari sono modesti Errori nelle variabili Selezione campionaria Causalità simultanea

193 Valutazione di modelli di regressione multipla Validità interna nel nostro esempio Distorsione da variabili omesse MINACCIA ESCLUSA! Forma funzionale non corretta MINACCIA ESCLUSA! Errori nelle variabili Dati (a livello di distretto) amministrativi. Errori (se presenti) marginali Selezione campionaria Causalità simultanea

194 Valutazione di modelli di regressione multipla Validità interna nel nostro esempio Distorsione da variabili omesse MINACCIA ESCLUSA! Forma funzionale non corretta MINACCIA ESCLUSA! Errori nelle variabili MINACCIA ESCLUSA! Selezione campionaria Non ci sono dati mancanti: il campione copre tutti i distretti scolastici elementari pubblici della California Causalità simultanea

195 Valutazione di modelli di regressione multipla Validità interna nel nostro esempio Distorsione da variabili omesse MINACCIA ESCLUSA! Forma funzionale non corretta MINACCIA ESCLUSA! Errori nelle variabili MINACCIA ESCLUSA! Selezione campionaria MINACCIA ESCLUSA! Causalità simultanea La distribuzione di finanziamenti aggiuntivi in base ai punteggi nei test potrebbe provocare causalità simultanea, ma questo non avveniva in California durante i campionamenti distorsione da causalità simultanea non appare verosimilmente importante

196 Valutazione di modelli di regressione multipla Validità interna nel nostro esempio Distorsione da variabili omesse MINACCIA ESCLUSA! Forma funzionale non corretta MINACCIA ESCLUSA! Errori nelle variabili MINACCIA ESCLUSA! Selezione campionaria MINACCIA ESCLUSA! Causalità simultanea MINACCIA ESCLUSA! la validità interna è verificata!

197 Valutazione di modelli di regressione multipla Validità esterna nel nostro esempio Obiettivo: valutare le minacce alla validità esterna dell analisi empirica dei dati sui punteggi nei test della California Metodo: confrontare i risultati con quelli di studi sullo stesso argomento se i risultati sono simili c è validità esterna Confronteremo con regressione su dati su 220 distretti del Massachusetts riferiti al 1998

198 Valutazione di modelli di regressione multipla Sintesi risultati California Il coefficiente di STR si riduce da a quando vengono inserite le variabili di controllo per le caratteristiche di studenti e distretti la stima iniziale presentava distorsione da variabili omesse. Nella specificazione completa, l effetto di STR (dimensioni delle classi) è statisticamente significativo al livello 1% Rilevanza della % di studenti non di madrelingua inglese su TestScore Qualche evidenza di non-linearità nella relazione tra TestScore e STR (cubica)

199 Valutazione di modelli di regressione multipla Sintesi risultati California

200 Valutazione di modelli di regressione multipla Sintesi risultati Massachusetts

201 Valutazione di modelli di regressione multipla Sintesi risultati Massachusetts Il coefficiente di STR si riduce da a quando vengono inserite le variabili di controllo per le caratteristiche di studenti e distretti la stima iniziale presentava distorsione da variabili omesse. Nella specificazione completa, l effetto di STR (dimensioni delle classi) è statisticamente significativo al livello 5% Nessuna evidenza statistica di rilevanza della % di studenti non di madrelingua inglese su TestScore Nessuna evidenza di non-linearità nella relazione tra TestScore e STR (cubica)

202 Valutazione di modelli di regressione multipla Confronto risultati L effetto di STR scende in entrambi i casi quando vengono aggiunte variabili di controllo per studenti e distretti OK! L effetto di STR statisticamente significativo in entrambi i casi OK! L effetto di STR quantitativamente simile per California e Massachusetts OK! L effetto stimato per l interazione con % di studenti non di madrelingua è presente (California) o assente (Massachusetts) OK! Esiste qualche evidenza di non linearità di STR in California ma non nel Massachusetts KO! la validità esterna è verificata!

203 Dati panel Capitolo 10 Regressione con dati panel

204 Dati panel Outline Regressione con dati panel (1) Dati panel: cosa e perché (2) Dati panel con 2 periodi temporali (3) Regressione con effetti fissi (4) Errori standard per regressione con effetti fissi (5) Guida in stato di ebbrezza e sicurezza stradale

205 Dati panel Dati panel: cosa e perché Un panel contiene osservazioni su più unità (individui, stati, imprese) in cui ogni entità è osservata in due o più istanti temporali diversi. Esempio: Dati su 420 distretti scolastici della California nel 1999 e ancora nel 2000, per 840 osservazioni in totale. I dati panel sono chiamati anche dati longitudinali Panel bilanciato: non ci sono osservazioni che mancano tutte le variabili sono osservate per tutte le unità (stati) e tutti i periodi temporali (anni)

206 Dati panel Dati panel: cosa e perché Un doppio pedice distingue unità (individui, stati, regioni, distretti...) e periodi temporali (anni, mesi...) i = unità = 1,..., n t = tempo = 1,..., T Supponiamo di avere 1 variabile dipendente, 1 regressore. I dati sono: (X it, Y it ), i = 1,..., n, t = 1,..., T Con k regressori: (X 1it, X 2it,..., X kit, Y it ), i = 1,..., n, t = 1,..., T

207 Dati panel Perché sono utili? Con i dati panel possiamo controllare per fattori che: Variano tra le unità ma non nel tempo Potrebbero causare distorsione da variabili omesse se fossero omessi Sono inosservati o non misurati, e perciò non possono essere inclusi in una regressione multipla Ecco l idea chiave: Se una variabile omessa non varia nel tempo, allora qualsiasi variazione in Y nel tempo non può essere causata dalla variabile omessa

208 Dati panel Esempio di dati panel Unità di osservazione: un anno in uno stato USA. n = 48 stati USA T = 7 anni (1982,83,...,88) Panel bilanciato: numero totale di osservazioni= 7 48 = 336 Variabili : Tasso di mortalità stradale (num. morti sulle strade nell anno t per residenti dello stato i imposta su una cassa di birra Altre (età minima guida, leggi sulla guida in stato di ebbrezza,...)

209 Dati panel Esempio di dati panel Imposte sugli alcolici più elevate e maggiore mortalità?

210 Dati panel Esempio di dati panel Perché una relazione positiva tra imposte sulle birre e morti sulle strade? Ci sono fattori omessi? Fattori che influenzano il tasso di mortalità sono: Qualità (età) delle automobili Qualità delle strade Cultura sul bere e guidare Densità di auto sulle strade Questi fattori omessi potrebbero causare distorsione da variabili omesse.

211 Dati panel Esempio di dati panel Ad esempio: densità del traffico. Supponiamo: Tanto traffico più morti sulle strade Gli stati con minore traffico (all ovest) hanno imposte sugli alcolici minori Allora le due condizioni per la distorsione da variabili omesse sono soddisfatte: variabile imposte elevate correlata con densità traffico omessa ( coefficiente OLS distorto positivamente - perché la correlazione è positiva) I dati panel ci consentono di eliminare la distorsione da variabili omesse quando le variabili omesse sono costanti nel tempo in un dato stato.

212 Dati panel Dati panel con 2 periodi temporali Definiamo il modello per dati panel: F atalityrate it = β 0 + β 1 Beertax it + β 2 Z i + u it Z i è un fattore che non cambia nel tempo, almeno negli anni osservati Ad esempio Z i = densità traffico. Supponiamo Z i non sia osservato. Allora la sua omissione può portare a distorsione da variabile omessa. l effetto di Z i può essere eliminato usando i dati ripetuti nel tempo

213 Dati panel Dati panel con 2 periodi temporali L idea chiave: Qualsiasi variazione nel tasso di mortalità dal 1982 al 1988 non può essere causata da Z i, perché Z i (per ipotesi) non varia tra il 1982 e il 1988 Consideriamo i tassi di mortalità nel 1988 e nel 1982: F atalityrate i,1988 = β 0 + β 1 Beertax i, β 2 Z i + u i,1988 F atalityrate i,1982 = β 0 + β 1 Beertax i, β 2 Z i + u i,1982 Supponiamo E(u it BeerT ax it, Z i ) = 0 Sottraendo (ovvero calcolando la variazione) si elimina l effetto di Z i

214 Dati panel Dati panel con 2 periodi temporali F atrate i,88 F atrate i,82 = β 1 Beertax i,88 β 1 Beertax i,82 + u i,88 u i,82 Il nuovo termine d errore, (u i1988 u i1982 ), non è correlato con BeerT ax i1988 o BeerT ax i1982. Questa equazione alle differenze può essere stimata con OLS, anche se Z i non è osservata. La variabile omessa Z i non cambia, quindi non può essere una determinante della variazione in Y Questa regressione alle differenze non ha un intercetta

215 Dati panel Esempio di dati panel L intercetta è quasi zero...

216 Dati panel Regressione con effetti fissi Se si hanno più di 2 periodi temporali? Il modello Y it = β 0 + β 1 X it + β 2 Z i + u it, i = 1..., n, t = 1..., T può essere riscritto in due modi utili: modello di regressione con n 1 regressori binari modello di regressione con effetti fissi

217 Dati panel Modello con effetti fissi Supponiamo di avere 3 soli stati (n = 3): California, Texas e Massachusetts. Regressione della California (i = 1): Y 1,t = β 0 + β 1 X 1t + β 2 Z 1 + u 1t = α 1 + β 1 X 1t + u 1t dove α 1 = β 0 + β 2Z 1 non cambia nel tempo. L intercetta è specifica per la California, la pendenza è la stessa in tutti gli stati (rette parallele) Regressione del Texas (i = 2): Y 2,t = β 0 + β 1 X 2t + β 2 Z 2 + u 2t = α 2 + β 1 X 2t + u 2t Regressione del Mass. (i = 3): Y 3,t = α 3 + β 1 X 3t + u 3t Mettendo insieme le rette dei tre stati Y i,t = α i + β 1 X it + u it I coefficienti α i sono gli effetti fissi degli stati.

218 Dati panel Modello con effetti fissi: forma con regressori binari Nella forma con regressori binari: Y it = β 0 + γ 1 D Ca,i + γ 2 D T X,i + β 1 X it + u it dove D CA,i = 1 se lo stato imo è la California, D T X,i = 1 se lo stato imo è il Texas. Si lascia fuori uno stato. Perché?

219 Dati panel Regressione con effetti fissi: stima Metodi di stima 1 Regressione OLS con n-1 regressori binari 2 Regressione OLS con unità in deviazioni dalle medie 3 Specificazione prima e dopo, senza un intercetta (solo per T = 2) Questi tre metodi producono stime identiche dei coefficienti di regressione e identici errori standard I metodi 1 e 2 funzionano per un arbitrario numero di periodi temporali T Il metodo 1 però non è praticabile quando n è troppo grande

220 Dati panel Regressione OLS con n-1 regressori binari Si includono nel modelli tante variabili binarie quanti sono gli stati (o le unità), meno 1. Si ottiene un modello di regressione lineare con nt osservazioni e k + n regressori (se i regressori inclusi nel modello lineare sono k) Il modello può essere stimato tramite OLS. Problema: se n è molto grande abbiamo un numero molto elevato di regressori (e quindi di parametro da stimare)!!! Dati panel micro (in cui le unità sono famiglie o individui) spesso hanno migliaia di osservazioni (n molto grande, T piccolo) Dati panel macro (in cui le unità sono stati o regioni) spesso hanno n dell ordine di decine o centinaia e T può essere dell ordine di centinaia (dati mensili o trimestrali) Dati panel finanziari: centinaia di titoli (n) osservati ogni giorno o anche con frequenze maggiori (T molto più grande di n)

221 Dati panel Regressione OLS con unità in deviazioni dalle medie Modello di regressione con effetti fissi Calcoliamo le medie delle unità: Ȳ i = T 1 T t=1 Allora le deviazioni dalle medie: Y it = α i + β 1 X it + u it (α i + β 1 X it + u it ) = α i + β 1 Xi + ū i Y it Ȳi = α i α i + β 1 (X it X i ) + (u it ū i ) o, scrivendo Ỹ, X e ũ per le deviazioni dalle medie, Ỹ it = β 1 Xit + ũ it

222 Dati panel Regressione OLS con unità in deviazioni dalle medie Si costruiscono le unità in deviazione dalle medie, Ỹ e X Si stima l equazione Ỹit = β 1 Xit + ũ it con la regressione OLS Simile all approccio prima e dopo, ma qui le unità sono deviazioni rispetto alla media e non differenze tra tempo 1 e tempo 2 Si può fare in un unico comando con Gretl Gli stimatori ottenuti si chiamano anche stimatori within (perché si usano le medie di ciascuna unità)

223 Dati panel Esempio: mortalità stradale e imposte sulla birra Per lavorare con i dati panel, bisogna indicare a Gretl che il dataset è un dataset longitudinale, indicando quale variabile rappresenta l unità e quale il tempo. setobs state year --panel-vars panel fatality const beertax --robust Gretl calcola anche un intercetta, che è una specie di media delle medie individuali. È arbitraria, mentre i singoli effetti stimati (ˆα i ) non sono riportati nell output di default

224 Dati panel Esempio: mortalità stradale e imposte sulla birra Model 7: Fixed-effects, using 336 observations Included 48 cross-sectional units Time-series length = 7 Dependent variable: fatality Robust (HAC) standard errors coefficient std. error t-ratio p-value const e-42 *** beertax ** Mean dependent var S.D. dependent var Sum squared resid S.E. of regression R-squared Adjusted R-squared

225 Dati panel Esempio: mortalità stradale e imposte sulla birra F(48, 287) P-value(F) 2.0e-120 Log-likelihood Akaike criterion Schwarz criterion Hannan-Quinn rho Durbin-Watson Test for differing group intercepts - Null hypothesis: The groups have a common intercept Test statistic: F(47, 287) = with p-value = P(F(47, 287) > ) = e-115

226 Dati panel Regressione con effetti temporali Una variabile omessa potrebbe variare nel tempo ma non tra gli stati: auto più sicure (air bag, ecc.); modifiche nelle leggi nazionali producono intercette che variano nel tempo Sia S t l effetto combinato di variabili che cambiano nel tempo ma non tra gli stati ( auto più sicure ). Il modello di regressione risultante è: Y it = β 0 + β 1 X it + β 3 S t + u it

227 Dati panel Regressione con effetti temporali Si può formulare come il modello con effetti fissi individuali, in due modi: Con T 1 regressori binari: Y it = β 0 + β 1 X it + δ 1 D 1t δ T 1 D T 1,t con effetti fissi temporali: Y it = λ t + β 1 X it + u it La stima nei due casi: Regressione OLS con T-1 regressori binari aggiunti (non conviene se T è grande) Regressione OLS in deviazione dalla media (temporale stavolta), o stima within

228 Dati panel Regressione con effetti fissi e temporali Y it = β 1 X it + α i + λ t + u it T = 2: calcolare la differenza prima e includere una intercetta è equivalente a (fornisce esattamente la stessa regressione di) includere effetti individuali e temporali. T > 2 esistono vari modi equivalenti di incorporare effetti individuali e temporali: (i) deviazione dalle medie individuali e T 1 indicatori temporali; (ii) deviazione dalle medie temporali e n 1 indicatori individuali; (iii) T 1 indicatori temporali e n 1 indicatori individuali; (iv) deviazione dalle medie individuali e temporali

229 Dati panel Effetti fissi e temporali con Gretl panel fatality const beertax --time-dummies --robust Model 4: Fixed-effects, using 336 observations Included 48 cross-sectional units Time-series length = 7 Dependent variable: fatality Robust (HAC) standard errors coefficient std. error t-ratio p-value const e-28 *** beertax * dt_ ** dt_ * dt_ *** dt_ dt_ dt_

230 Dati panel Effetti fissi e temporali con Gretl Mean dependent var S.D. dependent var Sum squared resid S.E. of regression R-squared Adjusted R-squared F(54, 281) P-value(F) 9.6e-118 Log-likelihood Akaike criterion Schwarz criterion Hannan-Quinn rho Durbin-Watson Test for differing group intercepts - Null hypothesis: The groups have a common intercept Test statistic: F(47, 281) = with p-value = P(F(47, 281) > ) = e-114 Wald test for joint significance of time dummies Asymptotic test statistic: Chi-square(6) = with p-value =

231 Dati panel Gli errori standard della regressione con effetti fissi Sotto le assunzioni dei minimi quadrati nella versione per dati panel, lo stimatore OLS con effetti fissi di β 1 ha distribuzione normale. Tuttavia, è necessario introdurre una nuova formula dell errore standard, quella per dati raggruppati, o clustered. Questa nuova formula è necessaria perché le osservazioni per la stessa unità non sono indipendenti (è la stessa unità, infatti!), anche se le osservazioni di unità diverse sono indipendenti (in caso di campionamento casuale semplice). Qui consideriamo il caso di effetti fissi individuali. Gli effetti temporali possono semplicemente essere inclusi quali regressori binari aggiuntivi.

232 Dati panel Gli errori standard della regressione con effetti fissi e le assunzioni Consideriamo per semplicità una singola X: Y it = β 1 X it + α i + u it, i = 1..., n, t = 1,..., T 1 E(u it X i1,..., X it, α i ) = 0 2 (X i1,..., X it, u i1,..., u it ), sono iid dalla loro distribuzione congiunta 3 (X it, u it ) hanno momenti quarti finiti 4 Non vi è collinearità perfetta (molteplicità di X) Le assunzioni (3) e (4) sono identiche al caso dei minimi quadrati. Le assunzioni (1) e (2) sono diverse.

233 Dati panel Assunzione 1: E(u it X i1,..., X it, α i ) = 0 u it ha media zero, dato l effetto fisso e l intera storia delle X per l unità corrispondente È un estensione della precedente assunzione 1 della regressione multipla Ciò significa che non vi sono effetti passati omessi (qualsiasi effetto passato di X deve essere incluso esplicitamente come regressore ) Inoltre, non c è feedback da u su X futuri: Se uno stato ha un tasso di mortalità molto alto quest anno ciò non influisce sull aumento delle imposte della birra Talvolta questa assenza di feedback è plausibile, talvolta no.

234 Dati panel Assunzione 2: (X i1,..., X it, u i1,..., u it ), iid È un estensione della precedente assunzione 2 della regressione multipla con dati sezionali È soddisfatta se le unità sono prese a caso dalla popolazione mediante campionamento casuale semplice Non esclude possibile dipendenza nel tempo della stessa unità. Sarebbe irrealistico. Il fatto che uno stato abbia un imposta sulla birra elevata l anno t è correlato con il fatto che avrà un imposta elevata anche l anno t + 1. Simile correlazione verosimile per il termine di errore.

235 Dati panel Assunzione 2: (X i1,..., X it, u i1,..., u it ), iid Una variabile Z t osservata in tempi diversi si dice autocorrelata (correlata con se stessa) o serialmente correlata se corr(z t, Z t+h ) 0 per qualche h 0 cov(z t, Z t+h ) è detta la h ma covarianza di Z In molte applicazioni con dati panel, u it è plausibilmente autocorrelata

236 Dati panel Indipendenza e autocorrelazione nei dati panel i = 1 i = 2 i = 3... i = n t = 1 u 11 u 21 u u n1... t = T u 1T u 2T u 3T... u nt Se le unità sono ottenute con campionamento casuale semplice, allora i vettori colonna sono indipendenti tra loro Ma se i fattori omessi che comprendono u it sono serialmente correlati, allora u it sono serialmente correlati

237 Dati panel Sotto le assunzioni dei minimi quadrati per dati panel Lo stimatore OLS con effetto fisso (within) è non distorto, consistente e asintoticamente normale I consueti errori standard però (sia omoschedasticità pura sia robusti all eteroschedasticità) sono in generale sbagliati perché assumono incorrelazione degli u it spesso gli errori standard OLS sottostimano lo SE (quindi l incertezza della stima): se gli u it sono correlati nel tempo, si ha meno informazione (meno variazione casuale) di quanta si avrebbe se fossero incorrelati Il problema si risolve usando degli errori standard clustered

238 Dati panel Errori standard per dati raggruppati Stimano la varianza di ˆβ 1 quando le variabili sono iid tra le unità ma non tra tempi diversi nella stessa unità Per capirli, consideriamo la stima della media µ Y usando dati panel Y it = µ + u it i = 1,..., n, t = 1,..., T Lo stimatore della media è n T Ȳ = (nt ) 1 i=1 t=1 Ȳ può essere scritto come media tra le unità del valor medio individuale: Y it Ȳ = n 1 i Ȳ i dove Ȳi è la media campionaria per l unità i

239 Dati panel Errori standard per dati raggruppati Se le osservazioni sono i.i.d. (tra le entità), anche le medie (Ȳ1,..., Ȳn) sono i.i.d. Quindi per n grande, vale il TLC: Ȳ = 1 Ȳ i N(µ, σ 2 n Ȳ i /n) i L errore standard di Ȳ è la radice quadrata di uno stimatore di σ 2 Ȳ i Lo stimatore naturale di σ 2 è la varianza campionaria di Ȳ i Ȳ i, s 2 Ȳ i Questo fornisce una formula per l errore standard per dati raggruppati per Ȳ usando dati panel SEC(Ȳ ) = s 2 Ȳ i /n dove s 2 = 1 n Ȳ i n 1 i=1 (Ȳi Ȳ )2

240 Dati panel Errori standard per dati raggruppati la procedura di derivazione vista in precedenza è la stessa usata nel Capitolo 3 per derivare l errore standard della media campionaria, con la differenza che qui i dati sono le medie di unità i.i.d C è una caratteristica importante: nella derivazione dell errore standard per dati raggruppati non abbiamo mai assunto che le osservazioni siano i.i.d. in una unità. Quindi abbiamo implicitamente consentito la correlazione seriale in una unità. E la correlazione seriale, dov è finita? Determina σ 2 Ȳ i, la varianza di Ȳi

241 Dati panel La correlazione seriale in Y it... σ 2 Ȳ i = Var ( T 1 T t=1 Y it ) = 1 T 2 Var(Y i1 + Y i Y it ) = 1 T 2 Var(Y i1) + Var(Y i2 ) Var(Y it ) +2Cov(Y i1 Y i2 ) + 2Cov(Y i1 Y i3 ) Cov(Y it 1 Y it ) Se Y it è serialmente incorrelata, tutte le autocovarianze sono nulle e abbiamo la consueta derivazione (Cap. 3) Se invece le autocovarianze non sono nulle, la formula consueta (che non le considera) sarà sbagliata

242 Dati panel La correlazione seriale in Y it... La magia degli errori standard per dati raggruppati è che, operando al livello delle unità e delle loro medie, non occorre preoccuparsi di stimare le autocovarianze sottostanti, che sono stimate automaticamente dalla formula dell errore standard. Per contrasto, la formula consueta omette tutti i termini misti, il che è valido solo se le autocovarianze tra le unità in tempi diversi sono tutte zero. Ecco i calcoli:

243 Dati panel La correlazione seriale in Y it... s 2 Ȳ i = = = 1 n 1 1 n 1 1 n 1 = 1 n 1 i = 1 T T T 2 = 1 T 2 (Ȳi Ȳ )2 i ( 1 Y it T Ȳ i t ( 1 Y it T Ȳ i t=1 s=1 T t=1 s=1 1 t T T 2 t=1 s=1 [ 1 n 1 ) 2 ) ( 1 T ) Y it Ȳ T (Y it Ȳ )(Yis Ȳ ) ] (Y it Ȳ )(Yis Ȳ ) i T [autocov camp. tra Y t e Y s] t

244 Dati panel Errore standard clustered Il concetto di errori standard clustered per dati panel è del tutto analogo al precedente caso della media per dati panel - solo più complesso per notazione e formule. Gli errori standard clustered per dati panel sono l estensione logica di quelli robusti all eteroschedasticità per dati sezionali. Nella regressione con dati sezionali, gli errori standard robusti all eteroschedasticità sono validi indipendentemente dal fatto che vi sia eteroschedasticità. Nella regressione con dati panel, gli errori standard clustered sono validi indipendentemente dal fatto che vi sia eteroschedasticità e/o correlazione seriale. Il termine clustered deriva dal fatto che si consente correlazione in un cluster (o gruppo) di osservazioni (in una entità) ma non tra cluster.

245 Dati panel Il comando in Gretl In Gretl l opzione --robust, di default, calcola gli errori standard clustered (Arellano). panel fatality const beertax --robust (Arellano) In alternativa, è possibile scegliere un altro tipo di errori robusti (Beck-Katz SE psce Panel-Corrected Standard Errors ) set pcse on panel fatality const beertax --robust

246 Dati panel Applicazione: leggi sulla guida in stato di ebbrezza e mortalità stradale (par. 10.6) Alcuni fatti: Circa morti sulle strade ogni anno negli USA 1/3 degli incidenti mortali coinvolge un guidatore ubriaco 25% dei guidatori sulle strade tra l 1 e le 3 del mattino ha bevuto (stima) Un guidatore ubriaco ha 13 volte più probabilità di causare un incidente mortale rispetto a un guidatore sobrio (stima)

247 Dati panel Applicazione: leggi sulla guida in stato di ebbrezza e mortalità stradale (par. 10.6) Aspetti di politica pubblica La guida in stato di ebbrezza causa importanti esternalità (guidatori sobri vengono uccisi, la società sostiene costi medici, ecc.) vi è ampia giustificazione per un intervento del governo Esistono modi efficaci per ridurre la guida in stato di ebbrezza? Se sí, quali? Quali sono gli effetti di leggi specifiche: pene obbligatorie età minima legale per bere alcolici interventi economici (imposte sugli alcolici)

248 Dati panel Applicazione: leggi sulla guida in stato di ebbrezza e mortalità stradale (par. 10.6) ROMNEY CELEBRATES THE PASSAGE OF MELANIE S BILL (October 28, 2005) Legislation puts Massachusetts in line with federal standards for drunk driving Il Governatore Mitt Romney ha firmato oggi la più severa legge contro la guida in stato di ebbrezza nella storia del Commonwealth. La nuova legge, così chiamata in onore della tredicenne Melanie Powell, fisserà pene più severe per incidenti dovuti a guida in stato di ebbrezza in Massachusetts e chiuderà qualsiasi spazio nel sistema legislativo che possa consentire ai guidatori ubriachi recidivi di tornare al volante. Oggi rendiamo onore a coloro che hanno perso la vita in insensati incidenti dovuti a guida in stato di ebbrezza, e agiamo per salvare le vite che altrimenti rischieremmo di perdere il prossimo anno, ha detto Romney. Oggi abbiamo la Melanie s Law perché i cittadini del Commonwealth hanno fatto in modo che ciò accadesse.

249 Dati panel Applicazione: leggi sulla guida in stato di ebbrezza e mortalità stradale (par. 10.6) La nuova misura fornisce al pubblico ministero il potere di presentare documenti per provare che un recidivo è già stato condannato per guida in stato di ebbrezza. Inoltre, la pena minima obbligatoria per qualsiasi persona ritenuta colpevole di omicidio con mezzo motorizzato sarà aumentata da 2 anni e mezzo a cinque anni. I recidivi dovranno installare un dispositivo di blocco su qualsiasi veicolo che possiedano o usino. Questi dispositivi misurano il tasso alcolico e impediscono l avvio dell auto se il guidatore supera il limite. Chiunque alteri il dispositivo di blocco rischia una condanna penale. [...] La legge inasprisce le pene per chi guida in stato di ebbrezza con in auto un bambino minore di 14 anni e per chi guida con un tasso alcolico di 0,20 o superiore, più del doppio del limite di legge. Romney ha ringraziato l assemblea per aver approvato una legge severa che combatte la guida in stato di ebbrezza in Massachusetts.

250 Dati panel Dati panel per la guida in stato di ebbrezza n = 48 stati USA, T = 7 anni Variabili Tasso di mortalità stradale (morti per residenti), anni Imposta su una cassa di birra (Beertax) Età minima di legge per bere alcolici Pene minime per la prima violazione: Pena obbligatoria Servizio sociale obbligatorio sentenza pecuniaria Miglia per veicolo per guidatore (US DOT) Dati economici sullo stato (reddito pro capite, ecc.)

251 Dati panel Perché i dati panel potrebbero aiutare? Potenziale distorsione da variabili omesse per variabili che variano tra stati ma sono costanti nel tempo (usa effetti fissi di stato): cultura del bere e del guidare qualità delle strade età delle automobili sulle strade Potenziale distorsione da variabili omesse per variabili che variano nel tempo ma sono costanti tra stati (usa effetti temporali): miglioramenti nella sicurezza delle auto nel tempo mutamento atteggiamenti verso la guida in stato di ebbrezza a livello nazionale

252 Dati panel Analisi empirica: risultati principali

253 Dati panel Analisi empirica: risultati principali

254 Dati panel Analisi empirica: risultati principali Il segno del coefficiente dell imposta sulla birra cambia quando sono inclusi gli effetti fissi dello stato Gli effetti temporali sono statisticamente significativi ma la loro inclusione non ha un grande impatto sui coefficienti stimati L effetto stimato dell imposta sulla birra cala quando si includono altre leggi. L unica variabile politica che sembra avere un impatto è l imposta sulla birra non l età legale minima per bere alcolici, non la pena minima obbligatoria ecc. tuttavia l imposta sulla birra non è significativa anche al livello del 10% usando errori standard clustered nelle specifiche che controllano per le condizioni economiche dello stato (tasso di disoccupazione, reddito personale)

255 Dati panel Analisi empirica: risultati principali In particolare, l età legale minima per bere alcolici ha un coefficiente piccolo che è stimato con precisione riducendola non pare si abbia un grande effetto sulla mortalità stradale complessiva. Quali sono le minacce alla validità interna? Cosa si può dire su: 1 Distorsione da variabili omesse 2 Errata forma funzionale 3 Distorsione da errori nelle variabili 4 Distorsione da selezione del campione 5 Distorsione da causalità simultanea Che cosa ne pensate?

256 Dati panel Digressione: estensioni del concetto di n 1 regressori binari L idea di utilizzare molti indicatori binari per eliminare la distorsione da variabili omesse può essere estesa a dati non panel. La chiave è che la variabile omessa sia costante per un gruppo di osservazioni, il che in effetti significa che ciascun gruppo ha la propria intercetta. Esempio: effetto della dimensione delle classi. Supponiamo che livelli di finanziamento e di istruzione siano determinati a livello della contea, e che ogni contea abbia diversi distretti. Se si è preoccupati della distorsione da variabili omesse risultante da variabili non osservate a livello di contea, si possono includere gli effetti di contea (indicatori binari, uno per ciascuna contea, omettendo una sola contea per evitare la collinearità perfetta).

257 Dati panel Riepilogo: regressione con dati panel Vantaggi Si può controllare per variabili non osservate che variano tra stati ma non nel tempo e/o che variano nel tempo ma non tra stati Più osservazioni (su ciascuna unità) più informazioni Estensione relativamente semplice della stima OLS Limitazioni Necessaria la variazione nel tempo di X i (altrimenti è come un effetto fisso) Gli effetti di ritardo temporale posso essere importanti (aggiungere?) È necessario usare errori standard clustered per coprire il caso in cui gli errori siano autocorrelati

258 Modelli per dati categorici Capitolo 11 Modelli di regressione per variabile dipendente categorica

259 Modelli per dati categorici Outline Regressione con dati panel (1) Modello lineare di probabilità (2) Regressioni probit e logit (3) Stime e inferenza nei modelli logit e probit (4) Applicazione alla discriminazione razziale nella concessione dei mutui

260 Modelli per dati categorici Variabili dipendenti binarie: qual è la differenza? Finora tutte le variabili dipendenti (Y ) che abbiamo considerato erano continue: punteggio medio a livello del distretto nei test standardizzati tasso di mortalità stradale Che succede se Y è binaria? Y = decisione di andare all università; X =voti del liceo, punteggi SAT, variabili demografiche e economiche; Y = decisione di fumare; X = imposte sulle sigarette, reddito, variabili demografiche; Y = accettazione domanda di mutuo; X =razza, reddito, caratteristiche della casa, stato civile...

261 Modelli per dati categorici Esempio: negazione del mutuo e razza dati del Boston Fed HMDA Domande individuali per mutui unifamiliari effettuate nel 1990 nell area della città di Boston 2380 osservazioni, raccolte ai sensi della legge Home Mortgage Disclosure (HMDA) Variabili: Variabile dipendente: Il mutuo è concesso o negato? Variabili indipendenti: reddito, ricchezza, stato occupazionale altro prestito, caratteristiche della proprietà etnia del richiedente

262 Modelli per dati categorici Modello lineare di probabilità Un punto di partenza naturale è il modello di regressione lineare con un singolo regressore: Y i = β 0 + β 1 X i + u i Che cosa significa β 1 quando Y è binaria? β 1 = Y X? Che cosa significa β 0 + β 1 X quando Y è binaria? Che cosa significa il valore predetto (o previsto) Ŷ quando Y è binaria? Per esempio, cosa significa Ŷi = 0.26?

263 Modelli per dati categorici Modello lineare di probabilità Nel modello lineare di probabilità, il valore predetto di Y è interpretato come la probabilità predetta che Y = 1 e β 1 è la variazione di tale probabilità predetta per una variazione unitaria in X. Modello lineare di probabilità: Quando Y è binaria, E(Y X) = 1 P (Y = 1 X)+0 P (Y = 0 X) = P (Y = 1 X) Sotto l assunzione dei minimi quadrati E(u i X i ) = 0, quindi E(Y X) = E(β 0 + β 1 X i + u i X i ) = β 0 + β 1 X i P (Y = 1 X) = β 0 + β 1 X 1 Il modello di regressione Y i = β 0 + β 1 X i + u i è chiamato modello lineare di probabilià perchè

264 Modelli per dati categorici Modello lineare di probabilità Il valore predetto è una probabilità: E(Y X = x) = P (Y = 1 X = x) = prob. che Y = 1 data x Ŷ i = prob. prevista che Y i = 1 data X i β 1 è la variazione della probabilità che Y = 1 per una variazione unitaria di X: β 1 = P (Y = 1 X = x + x) P (Y = 1 X = x) x

265 Modelli per dati categorici Esempio: Modello lineare di probabilità Negazione di mutuo vs rapporto tra rata e reddito (per un sottoinsieme di HMDA di 127 osservazioni)

266 Modelli per dati categorici Modello lineare di probabilità Modello stimato (n = 2380): deny = P Iratio (0.032) (0.098) Valore previsto se rapporto rata/reddito=0.3? P (deny P Iratio = 0.3) = = Calcolo degli effetti: aumento il rapporto da 0.3 a 0.4 P (deny P Iratio = 0.4) = = L effetto sulla probabilità di negazione di un aumento nel rapporto rata/reddito da 0.3 a 0.4 è di un aumento della probabilità pari a , vale a dire ca. 6 punti percentuali

267 Modelli per dati categorici Modello lineare di probabilità Ora includiamo la variabile black come regressore: Modello stimato (n = 2380): deny = P Iratio black (0.032) (0.098) (0.025) Probabilità prevista di negazione per richiedenti con P Iratio = 0.3 P (deny = 1 P Iratio = 0.3, black = 1) = = Calcolo degli effetti: aumento il rapporto da 0.3 a 0.4 P (deny = 1 P Iratio = 0.3, black = 0) = = Differenza: = 0.177, vale a dire 17.7 punti percentuali Coefficiente di black significativo al livello 1% Ancora molto spazio per distorsione da variabili omesse...

268 Modelli per dati categorici Modello lineare di probabilità Modella P (Y = 1 X) come funzione lineare di X; Vantaggio: semplice da stimare e interpretare Vantaggio: stima uguale al caso di regressione lineare multipla; Svantaggio: la variazione di probabilità prevista per un determinato cambiamento in X è la stessa per ogni X (costante) ma non ha senso in molte applicazioni! Svantaggio: la probabilità prevista può essere negativa o maggiore di 1!!! Questi svantaggi possono essere superati usando un modello nonlineare di probabilità: regressioni logit e probit

269 Modelli per dati categorici Regressioni logit e probit Noi vogliamo 1 P (Y = 1 X) crescente in X per β 1 > P (Y = 1 X) 1 per ogni X Per ottenere ciò abbiamo bisogno di usare una forma funzionale non lineare. Il modello probit soddisfa entrambe le condizioni:

270 Modelli per dati categorici Regressione probit Modella la probabilità di Y = 1 (condizionata) utilizzando la funzione di ripartizione normale Φ(z), valutata nel punto x = β 0 + β 1 x: P (Y = 1 X) = Φ(β 0 + β 1 X) Il valore z = β 0 + β 1 X è chiamato indice z del modello probit. Esempio Supponiamo che β 0 = 2, β 1 = 3, X = 0.4. Quindi: P (Y = 1 X = 0.4) = Φ( ) = Φ( 0.8) =??

271 Modelli per dati categorici Regressione probit Perchè utilizzare la funzione di ripartizione normale? La forma a S fornisce ciò che desideriamo: (i) P (Y = 1 X) crescente in X se β 1 > 1 (come il modello lin. di prob.) (ii) 0 P (Y = 1 X) 1 per ogni X (a differenza del modello lin. prob.) Facile da utilizzare. Probabilità si trovano nelle tabelle di ripartizione normale, e sono calcolate da molti software statistici (Gretl, R, matlab, Stata...) Interpretazione relativamente semplice: β 0 + β 1 X = indice z (o valore z) ˆβ 0 + ˆβ 1 X, valore z previsto β 1 = variazione nel valore z per una variazione unitaria di X

272 Modelli per dati categorici Esempio: dati HMDA? probit Deny const pi_ratio --robust Model 4: Probit, using observations Dependent variable: Deny QML standard errors coefficient std. error z slope const pi_ratio Mean dependent var S.D. dependent var slope Cos è? Poichè la funzione Φ(z) non è lineare, la derivata Φ(β 0 + β 1 x)/ x β 1, ma dipende anche dal livello di x. slope è il valore della derivata calcolata in x = X, ossia slope = φ(β 0 + β 1 X)β1.

273 Modelli per dati categorici Regressione probit P (Y = 1 P Iratio) = Φ( P Iratio) (0.16) (0.47) Coefficiente positivo: ha senso? Gli errori standard hanno l interpretazione consueta Probabilità previste: P (deny = 1 P Iratio = 0.3) = Φ( ) = Φ( 1.3) = P (deny = 1 P Iratio = 0.4) = Φ( ) = Φ( 1.00) = Effetto della variazione nel rapporto P/I da 0.3 a 0.4: La probabilità di rifiuto passa da a (aumento di 6.2 punti percentuali, in linea con il modello lineare).

274 Modelli per dati categorici Regressione probit con regressori multipli P (Y = 1 X 1, X 2 ) = Φ(β 0 + β 1 X 1 + β 2 X 2 ) Φ è la funzione di ripartizione normale z = β 0 + β 1 X 1 + β 2 X 2 è il valore z o indice z del modello probit β 1 è l effetto sul valore z di una variazione unitaria di X 1, tenendo costante X 2 Proviamo ad aggiungere black

275 Modelli per dati categorici Esempio: dati HMDA? probit Deny const pi_ratio Black --robust Oppure, con l opzione --p-values:? probit Deny const pi_ratio Black --robust --p-values Model 6: Probit, using observations Dependent variable: Deny QML standard errors coefficient std. error z p-value const e-46 *** pi_ratio e-10 *** Black e-17 ***

276 Modelli per dati categorici Esempio: dati HMDA P (Y = 1 P Iratio, black) = Φ( P Iratio+0.71 (0.16) (0.44) Il coefficiente di black è statisticamente significativo? Effetto stimato di black e del rapporto P/I: (0.08) black) P (deny = 1 0.3, 1) = Φ( ) = P (deny = 1 0.3, 0) = Φ( ) = Differenza nelle probabilità di rifiuto= (15.8 punti percentuali!!) Molto. Però, ancora molto spazio per distorsione da variabili omesse!

277 Modelli per dati categorici Regressione logit Modella la probabilità di Y = 1 (condizionata) utilizzando la funzione di ripartizione logistica standard, valutata in z = β 0 + β 1 X: dove P (Y = 1 X) = F (β 0 + β 1 X) F (β 0 + β 1 X) = e (β 0+β 1 X) I coefficienti della regressione logit sono diversi da quelli della regressione probit, perchè la funzione di ripartizione usata è diversa. Esempio: β 0 = 3, β 1 = 2, X = 0.4 β 0 + β 1 X = 2.2 perciò (Y = 1 X = 0.4) = 1/(1 + e 2.2 ) =

278 Modelli per dati categorici Perché usare la regressione logit? Motivo storico: il logit è più veloce e più semplice dal punto di vista computazionale. Oggigiorno questo però non ha più molta importanza Nella pratica: logit e probit sono molto simili e danno risultati simili (a livello di probabilità predette). Tendono ad essere usati entrambi

279 Modelli per dati categorici Esempio dati HMDA? logit Deny const pi_ratio Black --robust --p-values Model 7: Logit, using observations Dependent variable: Deny QML standard errors coefficient std. error z p-value const e-33 *** pi_ratio e-08 *** Black e-18 *** Mean dependent var S.D. dependent var McFadden R-squared Adjusted R-squared

280 Modelli per dati categorici Esempio dati HMDA Le probabiliità previste con i due modelli logit e probit sono molto vicine: Anche se i parametri sono molto diversi, ma questo dipende dalla differenza di Φ da F

281 Modelli per dati categorici Stima e inferenza nei modelli logit e probit Consideriamo il modello probit Minimi quadrati nonlineari Stima di massima verosimiglianza (ciò che viene fatto nella pratica) Minimi quadrati nonlineari: min b 0,b 1 n (Y i Φ(b 0 + b 1 X i )) 2 i=1 Come risolvere questo problema di minimizzazione? Risolto numericamente (algoritmi di minimizzazione) Lo stimatore però non è efficiente. Uno stimatore migliore si ottiene con la max verosimiglianza

282 Modelli per dati categorici Stima di max verosimiglianza nel modello probit La funzione di verosimiglianza è la distribuzione del campione Y 1,..., Y n condizionata ai valori X 1,..., X n, trattata come una funzione dei parametri β 0, β 1 Lo stimatore di massima verosimiglianza (MLE) è quel valore ( ˆβ 0, ˆβ 1 ) che massimizza la funzione di (log)verosimiglianza MLE è il valore di (β 0, β 1 ) più plausibile alla luce delle osservazioni campionarie In grandi campioni, MLE è: consistente normalmente distribuito efficiente (varianza più piccola)

283 Modelli per dati categorici Caso particolare: MLE probit senza alcuna X Y = { 1 con probabilità p 0 con probabilità 1 p Campione: Y 1,..., Y n. P (Y 1 = 1) = p, P (Y 1 = 0) = 1 p P (Y 1 = y 1 ) = p y 1 (1 p) 1 y 1 Distrib. congiunta di Y 1, Y 2 : (Distribuzione di Bernoulli) P (Y 1 = y 1, Y 2 = y 2 ) = P (Y 1 = y 1 ) P (Y 2 = y 2 ) Distribuzione di Y 1,..., Y n : P (Y 1 = y 1, Y 2 = y 2,..., Y n = y n) = p y 1 (1 p) 1 y 1 p y 2 (1 p) 1 y 2 = p y 1+y 2 (1 p) 2 (y 1+y 2 ) = p y 1 (1 p) 1 y 1 p y 2 (1 p) 1 y 2 p yn (1 p) 1 yn = p i y i (1 p) n i y i

284 Modelli per dati categorici Caso particolare: MLE probit senza alcuna X Quindi, la verosimiglianza è la funzione (di p!!!): f(p; Y 1,..., Y n ) = p i y i (1 p) n i y i Massimizzare la verosimiglianza è equivalente a massimizzare la logverosimiglianza: ln[f(p; Y 1,..., Y n )] = i y i ln(p) + (n i y i ) ln(1 p) Condizioni del primo ordine (CPO): ln[f(p; Y 1,..., Y n )] p = i y i 1 p (n i 1 y i ) 1 p = 0 Risolvendo per p si ottiene ˆp MLE.

285 Modelli per dati categorici Caso particolare: MLE probit senza alcuna X Facile vedere che la CPO implica: i y i 1 ˆp MLE = (n i Ȳ 1 Ȳ = ˆp MLE 1 ˆp MLE Ȳ = ˆp MLE Questa stima non è una sorpresa vero? 1 y i ) 1 ˆp MLE In questo modello, MLE è lo stimatore naturale di p cioè la frazione di 1. È asintoticamente normale perché è una media. Quindi tutta l inferenza (compresi IC e test t) si fa come di consueto È efficiente. Risultato proprio delle stime MLE che raggiungono il limite inferiore di Cramèr-Rao (per n grande)

286 Modelli per dati categorici Verosimiglianza probit con una X Condizionatamente a X, Y è ancora una Bernoulli, solo che il parametro p dipende da X: { 1 con probabilità Φ(β0 + β Y X = 1 X) 0 con probabilità 1 Φ(β 0 + β 1 X) Quindi, come prima, P (Y 1 = y 1 X) = Φ(β 0 + β 1 X 1 ) y 1 (1 Φ(β 0 + β 1 X 1 )) 1 y 1 e la funzione di verosimiglianza è: f(β 0, β 1 ; Y 1,..., Y n ) = i Φ(β 0 + β 1 X i ) y i (1 Φ(β 0 + β 1 X i )) 1 y i La logverosimiglianza: ln[f(β 0, β 1 ; Y 1,..., Y n)] = i y i ln(φ(β 0 +β 1 X i ))+ i (1 y i ) ln(1 Φ(β 0 +β 1 X i ))

287 Modelli per dati categorici Verosimiglianza probit con una X ˆβ MLE 0 e Per trovare logverosimiglianza. ˆβ MLE 1 dobbiamo massimizzare la Problema: non possiamo risolvere in forma chiusa le 2 equazioni che corrispondono alle condizioni del primo ordine. MLE viene calcolato mediante metodi numerici. Le stime ottenute hanno le stesse proprietà di ˆp MLE per grandi campioni. Gli errori standard sono calcolati automaticamente da Gretl (o Stata...), il calcolo degli IC viene fatto nel solito modo e così la costruzione di test t

288 Modelli per dati categorici Verosimiglianza logit con una X Unica differenza rispetto al caso probit è la funzione usata per la probabilità condizionata. Quindi: Verosimiglianza: f(β 0, β 1 ; Y 1,..., Y n ) = i F (β 0 +β 1 X i ) y i (1 F (β 0 +β 1 X i )) 1 y i Logverosimiglianza: ln[f(β 0, β 1 ; Y 1,..., Y n)] = i y i ln(f (β 0 +β 1 X i ))+ i (1 y i ) ln(1 F (β 0 +β 1 X i )) Per la particolare forma della funzione logistica: log F (u)/(1 F (u)) = u e quindi ln[f(β 0, β 1 ; Y 1,..., Y n)] = i [y i (β 0 + β 1 X i ) + ln(1 F (β 0 + β 1 X i ))]

289 Modelli per dati categorici Misure di adattamento logit e probit R 2 e adjr 2 non hanno senso qui. Si utilizzano altre misure speciali. Frazione correttamente predetta Frazione di Y i per i quali il valore predetto Ŷi è più vicino al valore corretto cioè al valore realmente osservato, che a quello sbagliato. Pseudo-R 2 : misura il miglioramento della massima logverosimiglianza rispetto al caso senza X. Si semplifica a R 2 nel caso di errori normalmente distribuiti.

290 Modelli per dati categorici Frazione correttamente predetta Si basa sulla capacità predittiva del modello. Valore predetto Y i = 1 se P (Y i X i ) > 0.5, altrimenti il valore predetto è 0 Tutte le volte che Y i = 1 in corrispondenza di P (Y i X i ) > 0.5 OPPURE Y i = 0 con P (Y i X i ) < 0.5, il valore di Y i è correttamente predetto Si contano tutte le unità che sono correttamente predette dal modello e si divide per la numerosità campionaria: questa è la frazione correttamente predetta Per avere un idea della bontà del modello, questa viene confrontata con la frazione correttamente predetta del modello base, senza regressori

291 Modelli per dati categorici Pseudo-R 2 Ce ne sono diversi. Ci limitiamo alla definizione di uno dei più usati: l R 2 di MacFadden Si considera la logverosimiglianza massima (calcolata in corrispondenza delle stime) l( ˆβ 0, ˆβ 1 ) Questa viene confrontata con quella corrispondente al modello base (nessun regressore) l( ˆp) La logverosimiglianza l( ˆβ 0, ˆβ 1 ) dovrebbe essere maggiore di l(ˆp). Se è uguale, vuol dire che non c è stato alcun miglioramento rispetto al modello più semplice R 2 MF = 1 l( ˆβ 0, ˆβ 1 ) l(ˆp), sempre compreso tra 0 e 1.

292 Modelli per dati categorici Dataset HDMA Dati sulle caratteristiche individuali, caratteristiche di proprietà e rifiuto/concessione del prestito Processo di domanda di mutuo: (i) Recarsi alla banca o società di finanziamento; (ii) Compilare una domanda (info personali+finanziarie); (iii) Incontrare il funzionario dei mutui Quindi il funzionario decide per legge, a prescindere dall etnia. Presumibilmente la banca vuole concedere mutui redditizi e (se gli incentivi all interno della banca o dell ufficio responsabile dei prestiti sono giusti) il funzionario dei prestiti non vuole originare inadempienze.

293 Modelli per dati categorici Dataset HDMA Il funzionario prestiti utilizza variabili finanziarie chiave: Rapporto P/I (rata/reddito) Rapporto spesa per la casa sul reddito Rapporto mutuo su valore Storia creditizia personale La regola decisionale non è lineare

294 Modelli per dati categorici Specificazioni della regressione P (Deny = 1 black, altre X) modello lineare di probabilià probit (o logit) Problema principale con le regressioni fin qui: distorsione potenziale delle variabili omesse. Le variabili seguenti (i) entrano nella decisione del funzionario e (ii) sono o potrebbero essere correlate all etnia: Ricchezza, tipo di occupazione storia del credito ceto familiare Fortumatamente il dataset HDMA è molto ricco...

295 Modelli per dati categorici Risultati

296 Modelli per dati categorici Risultati

297 Modelli per dati categorici Risultati

298 Modelli per dati categorici Risultati

299 Modelli per dati categorici Risultati

300 Modelli per dati categorici Riepilogo risultati empirici coefficienti delle variabili finanziarie sono sensati Black è statisticamente significativa in tutte le specificazioni Le interazioni non sono significative, ma black+interazioni si. Includendo le covariate si riduce bruscamente l effetto dell etnia sulla probabilità di rifiuto LPM, probit, logit: stime simili di effetto dell etnia sulla probabilità di rifiuto. Gli effetti stimati sono grandi se considerati nel mondo reale

301 Stima IV Capitolo 12 Regressione con variabili strumentali

302 Stima IV Outline Regressione con variabili strumentali (1) Regressione IV: cosa e perché; TSLS (2) Il modello generale di regressione IV (3) Verifica della validità degli strumenti (4) Applicazione: domanda di sigarette

303 Stima IV Regressione IV: perché? Tre importanti minacce alla validità interna sono: Distorsione da variabili omesse per una variabile correlata con X ma inosservata (non può essere inclusa nella regressione) e per cui vi sono variabili di controllo inadeguate; Distorsione da causalità simultanea (X causa Y, Y causa X); Distorsione da errori nelle variabili (X è misurata con errore) Tutti e tre i problemi implicano E(u X) 0 La regressione con variabili strumentali può eliminare la distorsione quando E(u X) 0, usando una variabile strumentale Z

304 Stima IV Endogeneità e esogeneità Una variabile correlata con u si dice variabile endogena Una variabile incorrelata con u si dice variabile esogena Per introdurre la regressione IV ci concentriamo sul caso di una sola variabile endogena X e uno strumento Z esogeno. Affinché la regressione IV risolva il problema di distorsione dovuto all endogeneità di X, è necessario che lo strumento sia valido

305 Stima IV Validità di uno strumento Consideriamo il modello lineare Y i = β 0 + β 1 X i + u i con X endogena. Una variabile strumentale (o strumento) Z è valido se: Rilevanza: corr(z i, X i ) 0 Esogenità: corr(z i, u i ) = 0 Supponiamo per ora di avere una variabile Z i che soddisfa questi 2 requisiti: come possiamo usarla per stimare β 1?

306 Stima IV Stimatore IV con una X e una Z: minimi quadrati a due stadi (TSLS) Si deriva la stima IV attraverso due regressioni in due stadi successivi: 1 Regressione OLS di X su Z: X i = π 0 + π 1 Z i + v i Si isola la parte di X incorrelata con u, ossia ˆX = ˆπ 0 + ˆπ 1 Z, che è incorrelata perchè lo è Z 2 Si usa ˆX invece di X nella regressione di interesse: Y i = β 0 + β 1 ˆXi + u i allora Cov(u, ˆX) = 0, quindi β 1 è stimato in maniera consistente usando la regressione del secondo stadio Lo stimatore risultante è ˆβ T SLS 1, stimatore dei min. quad. in 2 stadi ed è consistente per β 1.

307 Stima IV Stimatore IV con una X e una Z: derivazione algebrica diretta Se Y i = β 0 + β 1 X i + u i, allora: Cov(Y i, Z i ) = Cov(β 0 + β 1 X i + u i, Z i ) = Cov(β 0, Z i ) + β 1 Cov(X i, Z i ) + Cov(u i, Z i ) = β 1 Cov(X i, Z i ) che implica β 1 = Cov(Y i, Z i ) Cov(X i, Z i ) Sostituendo alle covarianze le covarianze campionarie si ottiene lo (stesso di prima) stimatore ˆβ T SLS 1 = s Y Z s XZ

308 Stima IV Stimatore IV con una X e una Z: derivazione dalla forma ridotta La forma ridotta mette in relazione Y a Z e X a Z in due diverse equazioni di regressione (simultanee): X i = π 0 + π 1 Z i + v i Y i = γ 0 + γ 1 Z i + w i v i, w i termini di errore. Z è esogena, quindi incorrelata con v e w. L intuizione è questa: π 1 è l effetto di una variazione di Z su X X = π 1 Z e tale variazione è esogena perché causata da Z γ 1 è l effetto di una variazione di Z su Y Y = γ 1 Z Se β 1 è l effetto di una variazione esogena di X su Y Y = β 1 X = β 1 π 1 Z = γ 1 Z β 1 π 1 = γ 1 β 1 = γ 1 /π 1

309 Stima IV Stimatore IV con una X e una Z: derivazione dalla forma ridotta In formule: X i = π 0 + π 1 Z i + v i Y i = γ 0 + γ 1 Z i + w i Z i = π 0 /π 1 + (1/π 1 )X i (1/π 1 )v i Sostituiamo nella seconda equazione Y i = γ 0 + γ 1 Z i + w i = γ 0 + γ 1 [ π0 /π 1 + (1/π 1 )x i (1/π 1 )v i ] + wi = γ 0 π 0 γ 1 /π 1 + (γ 1 /π 1 )X i + (w i (γ 1 /π 1 )v i ) = β 0 + β 1 X i + u i dove abbiamo posto β 0 = γ 0 π 0 γ 1 /π 1, β 1 = γ 1 /π 1 e u i = w i (γ 1 /π 1 )v i una variazione esogena in X i di π 1 unità è associata a una variazione in Y i di γ 1 unità, perciò l effetto su Y di una variazione unitaria esogena in X è β 1 = γ 1 /π 1.

310 Stima IV Esempio 1: effetto dello studio sui voti Qual è l effetto sui voti di un ora in più al giorno di studio? Y = media voti X = tempo di studio Dati: voti e ore di studio di studenti del primo anno di college Secondo voi: lo stimatore OLS di β 1 (effetto sulla media di voti di un ora di studio in più) è non distorto? Perché? O perché no? Fattori omessi. Ad esempio: motivazione dello studente, abilità...

311 Stima IV Esempio 1: effetto dello studio sui voti Stinebrickner, Ralph and Stinebrickner, Todd R. (2008): The Causal Effect of Studying on Academic Performance, The B.E. Journal of Economic Analysis & Policy: Vol. 8: Iss. 1 (Frontiers), Article 14. n = 210 studenti primo anno Berea College (Kentucky) nel 2001 Y = media voti primo semestre X = media ore di studio giornaliere Compagni di stanza assegnati casualmente Z = 1 se il compagno di stanza ha un videogioco Z è uno strumento valido? È rilevante (correlato con X)? È esogeno (incorrelato con u)?

312 Stima IV Esempio 1: effetto dello studio sui voti X i = π 0 + π 1 Z i + v i Y i = γ 0 + γ 1 Z i + w i Risultati di Stinebrickner & Stinebrickner: (con regressori aggiuntivi...ci torneremo più avanti) ˆπ 1 = ˆγ 1 = ˆβ IV 1 = ˆγ 1 ˆπ 1 = 0.360

313 Stima IV Consistenza dello stimatore TSLS Ricordiamo che ˆβ T SLS 1 = s Y Z s XZ Fatto N.1: Le covarianze campionarie sono consistenti per le covarianze: s Y Z Cov(Y, Z) s XZ Cov(X, Z) Fatto N.2: La condizione di rilevanza di Z garantisce che s XZ 0 ˆβ T SLS 1 = s Y Z s XZ Cov(Y,Z) Cov(X,Z)

314 Stima IV Esempio 2: Offerta e domanda di burro La regressione IV è stata sviluppata in origine per stimare l elasticità della domanda per beni agricoli, per esempio burro: ( ) ( ) ln = β 0 + β 1 ln + u i Q butter i P butter i β 1 = elasticità del burr o=variazione percentuale in quantità per una variazione dell 1% di prezzo Dati: Osservazioni su prezzo e quantità di burro per diversi anni La regressione OLS di ln ( Q butter ) ( ) i su ln P butter i soffre di distorsione da causalità simultanea (il prezzo determina la quantità, la quantità determina il prezzo)

315 Stima IV Esempio 2: Offerta e domanda di burro Infatti: prezzo e quantità sono determinati dall interazione di domanda e offerta Questa interazione tra domanda e offerta produce dati come questi:

316 Stima IV Esempio 2: Offerta e domanda di burro TSLS stima la curva di domanda isolando gli spostamenti di prezzo e quantità conseguenti a spostamenti dell offerta Z è una var. che sposta l offerta ma non la domanda

317 Stima IV Esempio 2: Offerta e domanda di burro ( ln Q butter i ) ( = β 0 + β 1 ln P butter i ) + u i Consideriamo lo strumento: Z = pioggia nelle aree di produzione lattiera. Z è uno strumento valido? 1 Rilevante? corr(rain i, ln ( Pi butter ) ) 0? Plausibile: la pioggia insufficiente significa meno pascolo quindi meno burro e prezzi più alti 2 Esogeno? corr(rain i, u i ) = 0? Plausibile: la pioggia nelle aree di produzione lattiera non dovrebbe influenzare la domanda di burro

318 Stima IV Esempio 2: Offerta e domanda di burro ( ln Q butter i ) ( = β 0 + β 1 ln P butter i ) + u i Z i = rain i pioggia nelle aree di produzione lattiera. 1 Regressione di ln ( Pi butter ) su rain (inclusa costante) ln ( ) Pi butter. 2 Regressione di ln ( Q butter ) ( i su ln ) P butter i

319 Stima IV Esempio 3: Punteggi nei test e dimensioni delle classi Le regressioni di T estscore su ST R potrebbero avere distorsione da variabile omessa (es. partecipazione dei genitori) Questa distorsione può essere eliminata dalla regressione IV (TSLS) Un idea per uno strumento: alcuni distretti, colpiti da un terremoto, raddoppiano le classi. Allora possiamo usare Z i = Quake i = 1 se il distretto i è stato colpito da un terremoto. È uno strumento valido? 1 Il terremoto crea una situazione come se i distretti rientrassero in un esperimento con assegnazione casuale. Quindi la variazione di STR conseguente al terremoto è esogena 2 Il primo stadio del TSLS prevede la regressione di ST R su Quake, isolando così la parte esogena di ST R

320 Stima IV Inferenza con TSLS In grando campioni, la distribuzione campionaria dello stimatore TSLS è normale L inferenza (IC, verifica di ipotesi) si fa nel modo consueto, ovvero CI = (stimatore T SLS ± 1, 96SE) Il concetto alla base della normalità asintotica è che anche il TSLS può essere scritto come una somma di v.c. i.i.d., a cui possiamo applicare il TLC

321 Stima IV Inferenza con TSLS Si ottiene dove ˆβ T SLS 1 N(β 1, σ 2ˆβT SLS 1 σ 2ˆβT SLS 1 = 1 Var(Zu) n [Cov(X, Z)] 2 e dove Cov(X, Z) 0 perché lo strumento è rilevante Tutto questo assume che gli strumenti siano validi vedremo tra breve che cosa accade se non lo sono. Nota sugli errori standard: Gli errori standard OLS dalla regressione del secondo stadio non sono corretti perché non tengono conto della stima al primo stadio. Si utilizza invece un singolo comando apposito che calcola lo stimatore TSLS e gli errori standard corretti (robusti all eteroshedasticità) )

322 Stima IV Esempio 4: domanda di sigarette ( ln Q cigar i ) ( = β 0 + β 1 ln P cigar i ) + u i Perché lo stimatore OLS è probabilmente distorto? Dati panel su consumo annuo e prezzi medi (comprese imposte) delle sigarette per stato (48 stati USA), anni Z i = imposta generale sulle vendite al pacchetto nello Stato=SalesT ax i È uno strumento valido? SI: correlato con i prezzi, ma non con u i (la domanda di sigarette non dipende direttamente da SalesT ax)

323 Stima IV Esempio 4: domanda di sigarette Per ora usiamo solo i dati del 1995 (n = 48) smpl year= restrict Primo stadio: ( ln Secondo Stadio: ( ln P cigar i Q cigar i ) = SalesT ax ) ( = ln P cigar i ) + u i Regressione TSLS con errori standard corretti e HC: ( ln Q cigar i ) =9.72 (1.53) 1.08 (0.32) ( ln P cigar i ) + u i

324 Stima IV Esempio 4: domanda di sigarette Regressione di primo stadio? ols lravgprs const rtaxso --robust Model 1: OLS, using observations 1-48 Dependent variable: lravgprs Heteroskedasticity-robust standard errors, variant HC1 coefficient std. error t-ratio p-value const *** rtaxso *** R-squared F(1, 46) P-value(F)

325 Stima IV Gli errori standard sono sbagliati perché ignorano la stima del primo stadio Esempio 4: domanda di sigarette Regressione di secondo stadio? ols lpackpc const lravphat --robust Model 2: OLS, using observations 1-48 Dependent variable: lpackpc Heteroskedasticity-robust standard errors, variant HC1 coefficient std. error t-ratio p-value const *** lravphat *** R-squared F(1, 46) P-value(F)

326 Stima IV Esempio 4: domanda di sigarette In un unico comando? tsls lpackpc const lravgprs ; const rtaxso --robust Model 3: TSLS, using observations 1-48 Dependent variable: lpackpc Instrumented: lravgprs Instruments: const rtaxso Heteroskedasticity-robust standard errors, variant HC1 coefficient std. error z p-value const e-10 *** lravgprs *** Mean dependent var S.D. dependent var Sum squared resid S.E. of regression R-squared Adjusted R-squared

327 Stima IV Riepilogo: regressione IV con singola X e Z Uno strumento valido deve soddisfare: 1 Rilevanza: Cov(X, Z) 0 2 Esogeneità: Cov(Z, u) = 0 TSLS procede eseguendo prima la regressione di X su Z per ottenere ˆX e poi Y su ˆX Il concetto chiave è che il primo stadio isola la parte della variazione in X che è incorrelata con u Se lo strumento è valido, allora la distribuzione in grandi campioni è normale, perciò l inferenza procede come di consueto

328 Stima IV Il modello generale di regressione IV Ora estenderemo i concetti visti fino ad ora a più regressori endogeni (X 1,..., X k ) più variabili incluse esogene (W 1,..., W r ) Più variabili strumentali (Z 1,..., Z m ). Più strumenti (rilevanti) possono produrre una minore varianza del TSLS: l R 2 del primo stadio aumenta, perciò si ha maggiore variazione in ˆX. Nuovi termini: identificazione e sovraidentificazione.

329 Stima IV Identificazione In generale si dice che un parametro è identificato se diversi valori del parametro producono distribuzioni diverse dei dati Nella regressione IV, il fatto che i coefficienti siano identificati dipende dalla relazione tra il numero di strumenti (m) e il numero di regressori endogeni (k) Intuitivamente: se ci sono meno strumenti che regressori endogeni, non possiamo stimare β 1,..., β k. Pensiamo al caso banale k = 1 e m = 0 (nessuno strumento)!

330 Stima IV Identificazione I coefficienti β 1,..., β k si dicono esattamente identificati se m = k sovraidentificati se m > k. Ci sono più strumenti di quelli necessari per stimare β 1,..., β k. In questo caso si può verificare se gli strumenti sono validi (test delle restrizioni sovraidentificanti ) torneremo sul tema in seguito sottoidentificati se m < k Ci sono troppi pochi strumenti per stimare β 1,..., β k. In questo caso occorre procurarsi più strumenti!

331 Stima IV Il modello generale di regressione IV Y i = β 0 + β 1 X 1i + + β k X ki + β k+1 W 1i + + β k+r W ri + u i Y i variabile dipendente X 1i,..., X ki regressori endogeni W 1i,..., W ri regressori esogeni β 0,..., β k+r coefficienti di regressione ignoti Z 1i,..., Z mi m variabili strumentali

332 Stima IV TSLS con un singolo regressore endogeno Y i = β 0 + β 1 X 1i + β 2 W 1i + + β 1+r W ri + u i m 1 strumenti Z 1,..., Z m Primo Stadio: Regressione di X i su tutti i regressori esogeni e sugli strumenti (inclusa intercetta), usando OLS Calcolo dei valori predetti ˆXi Secondo Stadio: Regressione di Y i su ˆX i e su tutti i regressori esogeni W 1i,..., W ri I coefficienti di questa seconda regressione OLS sono gli stimatori TSLS ma gli SE sono sbagliati Per ottenere errori standard corretti, occorre procedere in un singolo passaggio con il software di regressione (Gretl)

333 Stima IV Esempio 4: ancora la domanda di sigarette Assumiamo che il reddito sia esogeno, e di voler anche stimare l elasticità: ( ) ( ) ln = β 0 + β 1 ln + β 2 ln (Income i ) + u i Q cigar i Abbiamo 2 strumenti: P cigar i Z 1i = imposta generale sulle vendite Z 2i = imposta specifica sulle sigarette ( Variabile endogena: ln P cigar i ) ( una sola X ) Variabile esogena inclusa: ln(income) ( una sola W ) Strumenti (variabili endogene escluse): imposta generale vendite, imposta specifica sulle sigarette ( due Z ) β 1 è sovraidentificata

334 Stima IV Esempio 4: ancora la domanda di sigarette Stime TSLS, Z =imposta vendite (m = 1) ( ln Q cigar i ) ( = ln (1.26) (0.37) P cigar i ) (0.31) ln (Income i) Stime TSLS, Z =imposta vendite e imposta sigarette (m = 2) ( ln Q cigar i ) ( = ln (0.96) (0.25) P cigar i ) (0.25) ln (Income i) Errori standard per m = 2. Con due strumenti si hanno più informazioni, più variazione come se casuale in X Bassa elasticità al reddito (non è un bene di lusso); elasticità al reddito non significativamente diversa da zero Elasticità al prezzo sorprendentemente elevata

335 Stima IV Validità di uno strumento: assunzioni generali Y i = β 0 + β 1 X 1i + β 2 W 1i + + β 1+r W ri + u i Esogeneità: Corr(Z 1i, u i ) = 0,..., Corr(Z mi, u i ) = 0 Rilevanza: Caso generale (più X) Supponiamo che la regressione del secondo stadio possa essere eseguita usando i valori predetti dalla regressione del primo stadio. Allora non vi è perfetta collinearità in questa regressione del secondo stadio. Caso speciale di una sola X: l assunzione generale è equivalente a (a) almeno uno strumento deve entrare nella controparte della regressione del primo stadio e (b) i W non sono perfettamente collineari.

336 Stima IV Assunzioni della regressione IV Y i = β 0 + β 1 X 1i + + β k X ki + β k+1 W 1i + + β k+r W ri + u i (1) E(u i W 1i,..., W ri ) = 0,ossia: i regressori esogeni sono esogeni (2) (Y i, X 1i,..., X ki, W 1i,..., W ri, Z 1i,..., Z mi ) sono iid dalla loro distribuzione congiunta (niente di nuovo) (3) X, W, Z e Y hanno momenti quarti finiti non nulli (non è nuova) (4) Gli strumenti (Z 1i,..., Z mi ) sono validi Sotto le assunzioni della regressione IV, il TSLS e la statistica t hanno distribuzione approx normale Requisito fondamentale è che gli strumenti siano validi

337 Stima IV Esempio 1: effetto dei voti sullo studio Y = media voti primo semestre Y i = β 0 + β 1X i + u i X = media ore di studio giornaliere Z = 1 se il compagno di stanza ha un videogioco (Compagni di stanza assegnati casualmente) Perché Z potrebbe essere correlata con u (non esogena)? Ipotesi: il genere Le donne hanno in media voti più alti degli uomini a parità di ore di studio Gli uomini hanno un maggior probabilità di portare un videogioco Corr(Z i, u i) < 0 (maschi hanno più probabilità di avere un compagno di stanza (maschio) che porti un videogioco, ma i maschi tendono anche ad avere voti inferiori, a parità di tempo di studio) Si tratta di un caso di variabili omesse. La soluzione sta nell includere (controllare per) la variabile omessa (il genere)

338 Stima IV Verifica della validità degli strumenti Ricordiamo che uno strumento è valido se vale 1 Rilevanza: (con una sola X endogena) almeno uno strumento deve essere correlato con la X 2 Esogeneità: tutti gli strumenti devono essere incorrelati con il termine di errore Cosa accade se uno di questi due requisiti non è soddisfatto?

339 Stima IV Verifica della Rilevanza dello strumento Consideriamo il caso di un solo regressore endogeno: Y i = β 0 + β 1 X 1i + β 2 W 1i + + β 1+r W ri + u i La regressione di primo stadio è: X i = π 0 + π 1 Z 1i + + π m Z mi + π m+1 W 1i + π m+r W ri + u i Gli strumenti sono rilevanti se almeno uno dei coefficienti π 1,..., π m è diverso da zero Gli strumenti si dicono deboli se tutti i π 1,..., π m sono uguali o molto vicini a zero Il problema degli strumenti deboli è che spiegano solo una piccola parte della variazione esogena di X, non ci dicono (quasi) niente di più di quello che già ci dicono gli altri regressori (controlli) W

340 Stima IV Conseguenze di strumenti deboli Se gli strumenti sono deboli, la distribuzione campionaria del TSLS e della sua statistica t non è normale, neanche per grandi campioni. Consideriamo ll caso più semplice: Y i = β 0 + β 1 X i + u i X i = π 0 + π 1 Z i + v i Lo stimatore IV ˆβ T SLS 1 = s Y Z S ZX Se Cov(X, Z) è zero o cmq molto molto piccolo, allora s XZ sarà molto piccolo: il denominatore è quasi zero La distribuzione campionaria non è più ben approssimata da una normale

341 Stima IV Conseguenze di strumenti deboli Linea scura = strumenti non rilevanti Linea chiara tratteggiata = strumenti forti

342 Stima IV Perchè l approssimazione normale non funziona? ˆβ T SLS 1 = s Y Z s ZX Se Cov(X, Z) è piccola, piccole variazioni in s ZX inducono grandi variazioni in ˆβ T SLS 1 Approssimazione migliore è quella di un rapporto tra v.c. normali correlate Strumenti deboli consueti metodi di inferenza (potenzialmente) molto inaffidabili

343 Stima IV Test degli strumenti deboli: la statistica F del primo stadio La regressione del primo stadio (una sola X per semplicità): regressione di X su Z 1,..., Z m, W 1,..., W r. Strumenti totalmente irrilevanti se tutti i coefficienti di Z 1,..., Z m sono nulli La statistica F del primo stadio verifica l ipotesi che Z 1,..., Z m non entrino nella regressione di primo stadio (non significativi) Strumenti deboli (non totalmente irrilevanti) implicano un basso valore della statistica F di primo stadio

344 Stima IV Test degli strumenti deboli: la statistica F del primo stadio Si calcola la statistica F del primo stadio Regola empirica: se la statistica F del primo stadio è minore di 10, allora l insieme di strumenti è debole. In questo caso, lo stimatore TSLS sarà distorto, e le inferenze statistiche possono essere fuorvianti. Ma, perchè quel valore 10? Non potremmo semplicemente fare un test F per rifiutare l ipotesi di non significatività? No, non è sufficiente respingere l ipotesi nulla, perchè strumenti deboli non sono necessariamente totalmente irrilevanti Il valore F = 10 corrisponde a una distorsione di TSLS pari al 10% dell OLS. Se F < 10 la distorsione relativa è superiore al 10%, quindi (anche) il TSLS ha una distorsione importante

345 Stima IV Cosa fare se gli strumenti sono deboli? Trovare strumenti migliori (... difficile...) se gli strumenti sono molti, togliere i più deboli (scartando uno strumento irrilevante aumenterà la statistica F di primo stadio Se nessuna delle due strade è percorribile, allora necessario eseguire una analisi IV più complessa: (i) separare il problema della stima di β 1 dalla costruzione di IC; (ii) stime alternative a TSLS

346 Stima IV Intervalli di confidenza con strumenti deboli Intervallo di confidenza di Anderson-Rubin Si basa sulla statistica di A-R per l ipotesi β 1 = β 1,0 : (i) calcolo Y i β 1,0 X i ; (ii) Regressione su W, Z; (iii) test F sui coefficientei di Z 1,..., Z m Intervallo di confidenza al 95% è la regione di accettazione al livello 5% del test A-R IC del Rapporto di verosimiglianza (LR) condizionato di Moreira Si basa sulla statistica del LR condizionato di Moreira. Tende ad essere più stretto di quello di A-R specialmente se ci sono molti strumenti Come l IC di A-R, necessita di un software che produce questo intervallo

347 Stima IV Stima con strumenti deboli Non ci sono stimatori non distorti se gli strumenti sono deboli o irrilevanti. Tuttavia, alcuni stimatori hanno una distribuzione più centrata su β 1 del TSLS. Uno stimatore di questo tipo è lo stimatore di max verosimiglianza con informazione limitata (LIML) Può essere derivato come stimatore di Max Verosim. È il valore di β 1 che minimizza il valore p del test A-R Con Gretl: opzione apposita del comando tsls: --lilm. Esempio: tsls lpackpc const lravgprs lperinc ; const rtaxso rtax lperinc --robust --lilm

348 Stima IV Verifica dell assunzione di esogenetià Esogeneità: tutti gli strumenti Z 1,..., Z m sono incorrelati con il termine di errore. Se gli strumenti sono correlati con il termine d errore, il primo stadio del TSLS non può isolare una parte di X incorrelata con u, ovvero anche ˆX è correlata con u e il TSLS è inconsistente Se ci sono più strumenti che regressori endogeni, è possibile verificare parzialmente l esogeneità degli strumenti

349 Stima IV Verifica di restrizioni di sovraidentificazione Caso semplice Y i = β 0 + β 1 X i + u i Supponiamo di avere 2 strumenti validi: Z 1, Z 2 Potremmo calcolare 2 stime TSLS separate ciascuna con esatta identificazione Intuizione: se entrambi gli strumenti sono validi, le due stime dovrebbero essere simili. Se le stime sono diverse, uno dei 2 strumenti non è valido Questa è l idea del test J. Si può ovviamente fare solo se c è sovraidentificazione

350 Stima IV Il test J di restrizioni di sovraidentificazione Supponiamo di avere k regressori endogeni e m > k strumenti. Il test J si effettua nel modo seguente: Stimiamo l equazione di interesse con TSLS usando tutti gli strumenti Calcoliamo i valori predetti Ŷ usando le X e non le ˆX del secondo stadio Calcoliamo i residui: û i = Y i Ŷi Regressione di û rispetto agli strumenti (Z) e ai regressori esogeni (W ) Statistica F per l ipotesi di significatività dei coefficienti associati agli strumenti J = m F. Sotto H 0 : tutti gli strumenti sono esogeni, J χ 2 m k Valori alti di J ci portano a respingere l ipotesi che tutti gli strumenti siano esogeni. Almeno alcuni degli strumenti sono endogeni. Quale scartare?

351 Stima IV Applicazione: domanda di sigarette Perché misurare l elasticità della domanda di sigarette? Teoria della tassazione ottimale. L aliquota d imposta ottimale è inversamente proporzionale all elasticità al prezzo: maggiore à l elasticità, minore la quantità influenzata da una data percentuale d imposta, perciò minore è la variazione di consumo Esternalità del fumo - ruolo dell intervento pubblico che scoraggia il fumo: (i) effetti del fumo (passivo e non) sulla salute; (ii) esternalità monetarie (Positive): costo minore pensioni e assistenza anziani per lo Stato

352 Stima IV Dati panel sul fumo Dataset Consumo annuo di sigarette, prezzi medi pagati dal consumatore finale (tasse incluse), reddito personale e percentuali d imposta (specifiche per le sigarette e generali sulle vendite nello stato) 48 stati continentali USA, Strategia di stima Dobbiamo usare metodi di stima IV per gestire la distorsione da causalità simultanea che nasce dall interazione di offerta e domanda. Indicatori binari di stato = variabili W (variabili di controllo) che controllano per caratteristiche inosservate a livello di stato che influiscono sulla domanda di sigarette e la percentuale d imposta, purché tali caratteristiche non varino nel tempo.

353 Stima IV Modello a effetti fissi della domanda di sigarette ( ln Q cigar it ) ( = α i + β 1 ln P cigar it ) + β 2 ln (Income it ) + u it n = 48, T = 11 (1985,..., 1995) ( ( ) ) Cov ln P cigar it, u it verosimilmente diverso da zero a causa di variazioni domanda-offerta α i riflette valori omessi inosservati che variano tra stati ma non nel tempo Stima 1 Regressione per dati panel per eliminare effetti fissi 2 TSLS per gestire distorsione da causalità simultanea Consideriamo solo T = 1985, 1995 osserviamo la risposta a lungo termine non la dinamica a breve termine

354 Stima IV Metodo prima e dopo T = 2, quindi possiamo usare il metodo prima e dopo per dati panel. Riscriviamo l equazione di regressione: ( ) ( ) ( ( ) ( )) ln ln = β 1 ln ln Q cigar i95 Q cigar i85 P cigar i95 P cigar i85 +β 2 (ln (Income i95 ) ln (Income i85 )) + u i95 u i85 Creiamo le variabili differenza prima e dopo poi stimiamo il modello così trasformato mediante TSLS. Otteniamo così la stima dell elasticità della domanda (di lungo periodo) Metodi di stima equivalenti: (i) stima within; (ii) introduzione di N 1 dummies di stato (variabili di controllo, W ) nella regressione

355 Stima IV Come fare con Gretl 1. Creazione delle variabili differenze prima e dopo : Ad esempio con i comandi: diff(l_packpc) diff(l_income) diff(l_avgprs) diff(rtax) diff(rtaxso) si generano le variabili d_l_packpc, d_l_income, d_l_avgprs, d_rtax, d_rtaxso

356 Stima IV Come fare con Gretl 2. comando per la regressione TSLS: tsls d_l_packpc const d_l_avgprs d_l_perinc ; const d_l_perinc d_rtaxso --robust Elasticità stimata 0.94! Sorprendentemente elastica. Elasticità del reddito piccola e enon significativa. 3. Verifica della rilevanza dello strumento: Automaticamente con Gretl compare nell output: Weak instrument test - First-stage F-statistic (1, 45) = A value < 10 may indicate weak instruments 4. Esogenetià dello strumento: non possiamo verificarla (m = 1)

357 Stima IV Come fare con Gretl 5. comando per la regressione TSLS con 2 strumenti: (tasse su sigarette rtax e imposta generale sulle vendite rtaxso) tsls d_l_packpc const d_l_avgprs d_l_perinc ; const d_l_perinc d_rtaxso d_rtax --robust Elasticità stimata 1.202, ancora più elastica

358 Stima IV Come fare con Gretl 6. Verifica della rilevanza dello strumento: Weak instrument test - First-stage F-statistic (2, 44) = A value < 10 may indicate weak instruments 7. Esogenetià dello strumento: Direttamente dall output di Gret Sargan over-identification test - Null hypothesis: all instruments are valid Test statistic: LM = with p-value = P(Chi-square(1) > ) = L ipotesi è rifiutata al 5%... e ora??

359 Stima IV Riepilogo risultati in tabella

Regressione lineare multipla

Regressione lineare multipla Regressione lineare multipla Eduardo Rossi 2 2 Università di Pavia (Italy) Aprile 2014 Rossi Regressione lineare Econometria - 2014 1 / 31 Outline 1 La distorsione da variabili omesse 2 Causalità 3 Misure

Dettagli

Analisi di Regressione Multipla

Analisi di Regressione Multipla Analisi di Regressione Multipla Stima OLS della relazione Test Score/STR : TestScore! = 698.9.8 STR, R =.05, SER = 18.6 (10.4) (0.5) E una stima credibile dell effetto causale sul rendimento nei test di

Dettagli

R - Esercitazione 6. Andrea Fasulo Venerdì 22 Dicembre Università Roma Tre

R - Esercitazione 6. Andrea Fasulo Venerdì 22 Dicembre Università Roma Tre R - Esercitazione 6 Andrea Fasulo fasulo.andrea@yahoo.it Università Roma Tre Venerdì 22 Dicembre 2017 Il modello di regressione lineare semplice (I) Esempi tratti da: Stock, Watson Introduzione all econometria

Dettagli

lezione 4 AA Paolo Brunori

lezione 4 AA Paolo Brunori AA 2016-2017 Paolo Brunori dove eravamo arrivati - abbiamo individuato la regressione lineare semplice (OLS) come modo immediato per sintetizzare una relazione fra una variabile dipendente (Y) e una indipendente

Dettagli

Regressione lineare con un solo regressore

Regressione lineare con un solo regressore Regressione lineare con un solo regressore La regressione lineare è uno strumento che ci permette di stimare e di fare inferenza sui coefficienti incogniti di una retta. Lo scopo principale è di stimare

Dettagli

Esercitazione del

Esercitazione del Esercizi sulla regressione lineare. Esercitazione del 21.05.2013 Esercizio dal tema d esame del 13.06.2011. Si consideri il seguente campione di n = 9 osservazioni relative ai caratteri ed Y: 7 17 8 36

Dettagli

ECONOMETRIA: Laboratorio I

ECONOMETRIA: Laboratorio I ECONOMETRIA: Laboratorio I Luca De Angelis CLASS - Università di Bologna Programma Laboratorio I Valori attesi e varianze Test di ipotesi Stima di un modello lineare attraverso OLS Valore atteso Data una

Dettagli

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte Cap.1: Probabilità 1. Esperimento aleatorio (definizione informale): è un esperimento che a priori può avere diversi esiti possibili

Dettagli

Dispensa di Statistica

Dispensa di Statistica Dispensa di Statistica 1 parziale 2012/2013 Diagrammi... 2 Indici di posizione... 4 Media... 4 Moda... 5 Mediana... 5 Indici di dispersione... 7 Varianza... 7 Scarto Quadratico Medio (SQM)... 7 La disuguaglianza

Dettagli

Richiami di statistica

Richiami di statistica Richiami di statistica Eduardo Rossi 2 2 Università di Pavia (Italy) Marzo 2014 Rossi Statistica Econometria - 2014 1 / 61 Indice 1 Esempio 2 Elementi di probabilità 3 Stima 4 Verifica di ipotesi Rossi

Dettagli

Metodi statistici per l economia (Prof. Capitanio) Slide n. 10. Materiale di supporto per le lezioni. Non sostituisce il libro di testo

Metodi statistici per l economia (Prof. Capitanio) Slide n. 10. Materiale di supporto per le lezioni. Non sostituisce il libro di testo Metodi statistici per l economia (Prof. Capitanio) Slide n. 10 Materiale di supporto per le lezioni. Non sostituisce il libro di testo 1 REGRESSIONE LINEARE Date due variabili quantitative, X e Y, si è

Dettagli

STATISTICA (2) ESERCITAZIONE Dott.ssa Antonella Costanzo

STATISTICA (2) ESERCITAZIONE Dott.ssa Antonella Costanzo STATISTICA (2) ESERCITAZIONE 7 11.03.2014 Dott.ssa Antonella Costanzo Esercizio 1. Test di indipendenza tra mutabili In un indagine vengono rilevate le informazioni su settore produttivo (Y) e genere (X)

Dettagli

lezione 7 AA Paolo Brunori

lezione 7 AA Paolo Brunori AA 2016-2017 Paolo Brunori dove siamo arrivati? - se siamo interessati a studiare l andamento congiunto di due fenomeni economici - possiamo provare a misurare i due fenomeni e poi usare la lineare semplice

Dettagli

Regressione lineare semplice: inferenza

Regressione lineare semplice: inferenza Regressione lineare semplice: inferenza Eduardo Rossi 2 2 Università di Pavia (Italy) Marzo 2014 Rossi Regressione lineare semplice Econometria - 2014 1 / 60 Outline 1 Introduzione 2 Verifica di ipotesi

Dettagli

Il modello di regressione lineare multipla

Il modello di regressione lineare multipla Il modello di regressione lineare multipla Eduardo Rossi 2 2 Università di Pavia (Italy) Aprile 2014 Rossi MRLM Econometria - 2014 1 / 31 Outline 1 Notazione 2 3 Collinearità Rossi MRLM Econometria - 2014

Dettagli

La statistica è la scienza che permette di conoscere il mondo intorno a noi attraverso i dati.

La statistica è la scienza che permette di conoscere il mondo intorno a noi attraverso i dati. RICHIAMI DI STATISTICA La statistica è la scienza che permette di conoscere il mondo intorno a noi attraverso i dati. Quale è la media della distribuzione del reddito dei neolaureati? Per rispondere dovremmo

Dettagli

lezione 9 AA Paolo Brunori

lezione 9 AA Paolo Brunori AA 2016-2017 Paolo Brunori Dove siamo arrivati? - la regressione lineare multipla ci permette di stimare l effetto della variabile X sulla Y tenendo ferme tutte le altre variabili osservabili che hanno

Dettagli

Indice. centrale, dispersione e forma Introduzione alla Statistica Statistica descrittiva per variabili quantitative: tendenza

Indice. centrale, dispersione e forma Introduzione alla Statistica Statistica descrittiva per variabili quantitative: tendenza XIII Presentazione del volume XV L Editore ringrazia 3 1. Introduzione alla Statistica 5 1.1 Definizione di Statistica 6 1.2 I Rami della Statistica Statistica Descrittiva, 6 Statistica Inferenziale, 6

Dettagli

Modelli Statistici per l Economia. Regressione lineare con un singolo regressore (terza parte)

Modelli Statistici per l Economia. Regressione lineare con un singolo regressore (terza parte) Modelli Statistici per l Economia Regressione lineare con un singolo regressore (terza parte) 1 Verifica di ipotesi su β 1 H 0 : β 1 = β 1,0 H 1 : β 1 β 1,0 Se è vera H 0 (cioè sotto H 0 ) e n è grande,

Dettagli

Il modello di regressione lineare multivariata

Il modello di regressione lineare multivariata Il modello di regressione lineare multivariata Eduardo Rossi 2 2 Università di Pavia (Italy) Aprile 2015 Rossi MRLM Econometria - 2015 1 / 39 Outline 1 Notazione 2 il MRLM - Assunzioni 3 OLS 4 Proprietà

Dettagli

Regressione Lineare Semplice e Correlazione

Regressione Lineare Semplice e Correlazione Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)

Dettagli

Tecniche di sondaggio

Tecniche di sondaggio SMID a.a. 2005/2006 Corso di Statistica per la Ricerca Sperimentale Tecniche di sondaggio 24/1/2006 Nomenclatura Indicheremo con P una popolazione, con N la sua numerosità, con k la sua etichetta e con

Dettagli

STATISTICA A K (60 ore)

STATISTICA A K (60 ore) STATISTICA A K (60 ore) Marco Riani mriani@unipr.it http://www.riani.it Richiami sulla regressione Marco Riani, Univ. di Parma 1 MODELLO DI REGRESSIONE y i = a + bx i + e i dove: i = 1,, n a + bx i rappresenta

Dettagli

Econometria. lezione 2. Probabilità. Econometria. lezione 2. AA Paolo Brunori

Econometria. lezione 2. Probabilità. Econometria. lezione 2. AA Paolo Brunori AA 2014-2015 Paolo Brunori probabilità e variabili casuali - risultati: esiti potenziali mutualmente esclusivi di un processo causale [numero di goal segnati da Mario Gomez] - probabilità: proporzione

Dettagli

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1 Lezione 1 - Martedì 23 Settembre 2014 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1 Lezione 1 - Mercoledì 28 Settembre 2016 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Dipartimento di Sociologia e Ricerca Sociale. Corso di Laurea in Sociologia. Insegnamento di Statistica (a.a ) dott.ssa Gaia Bertarelli

Dipartimento di Sociologia e Ricerca Sociale. Corso di Laurea in Sociologia. Insegnamento di Statistica (a.a ) dott.ssa Gaia Bertarelli Dipartimento di Sociologia e Ricerca Sociale Corso di Laurea in Sociologia Insegnamento di Statistica (a.a. 2018-2019) dott.ssa Gaia Bertarelli Esercitazione n. 6 1. Si consideri un campione di 69 persone

Dettagli

Richiami di inferenza statistica Strumenti quantitativi per la gestione

Richiami di inferenza statistica Strumenti quantitativi per la gestione Richiami di inferenza statistica Strumenti quantitativi per la gestione Emanuele Taufer Inferenza statistica Parametri e statistiche Esempi Tecniche di inferenza Stima Precisione delle stime Intervalli

Dettagli

PROBABILITÀ ELEMENTARE

PROBABILITÀ ELEMENTARE Prefazione alla seconda edizione XI Capitolo 1 PROBABILITÀ ELEMENTARE 1 Esperimenti casuali 1 Spazi dei campioni 1 Eventi 2 Il concetto di probabilità 3 Gli assiomi della probabilità 3 Alcuni importanti

Dettagli

Richiami di inferenza statistica. Strumenti quantitativi per la gestione. Emanuele Taufer

Richiami di inferenza statistica. Strumenti quantitativi per la gestione. Emanuele Taufer Richiami di inferenza statistica Strumenti quantitativi per la gestione Emanuele Taufer Inferenza statistica Inferenza statistica: insieme di tecniche che si utilizzano per ottenere informazioni su una

Dettagli

1.1 Obiettivi della statistica Struttura del testo 2

1.1 Obiettivi della statistica Struttura del testo 2 Prefazione XV 1 Introduzione 1.1 Obiettivi della statistica 1 1.2 Struttura del testo 2 2 Distribuzioni di frequenza 2.1 Informazione statistica e rilevazione dei dati 5 2.2 Distribuzioni di frequenza

Dettagli

Capitolo 12 La regressione lineare semplice

Capitolo 12 La regressione lineare semplice Levine, Krehbiel, Berenson Statistica II ed. 2006 Apogeo Capitolo 12 La regressione lineare semplice Insegnamento: Statistica Corso di Laurea Triennale in Ingegneria Gestionale Facoltà di Ingegneria, Università

Dettagli

Verifica di ipotesi e intervalli di confidenza nella regressione multipla

Verifica di ipotesi e intervalli di confidenza nella regressione multipla Verifica di ipotesi e intervalli di confidenza nella regressione multipla Eduardo Rossi 2 2 Università di Pavia (Italy) Maggio 2013 Rossi MRLM Econometria - 2013 1 / 54 Sommario Verifica di ipotesi e intervalli

Dettagli

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi

Università di Pavia Econometria. Richiami di Statistica. Eduardo Rossi Università di Pavia Econometria Richiami di Statistica Eduardo Rossi Università di Pavia Campione casuale Siano (Y 1, Y 2,..., Y N ) variabili casuali tali che le y i siano realizzazioni mutuamente indipendenti

Dettagli

PROVA SCRITTA DI STATISTICA (COD COD ) 7 luglio 2005 APPROSSIMARE TUTTI I CALCOLI ALLA QUARTA CIFRA DECIMALE SOLUZIONI MODALITÀ A

PROVA SCRITTA DI STATISTICA (COD COD ) 7 luglio 2005 APPROSSIMARE TUTTI I CALCOLI ALLA QUARTA CIFRA DECIMALE SOLUZIONI MODALITÀ A PROVA SCRITTA DI STATISTICA (COD. 047 - COD. 403-37-377) 7 luglio 200 APPROSSIMARE TUTTI I CALCOLI ALLA QUARTA CIFRA DECIMALE SOLUZIONI MODALITÀ A Esercizio (9 punti) Supponiamo di aver osservato la seguente

Dettagli

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1 Lezione 1 - Mercoledì 27 Settembre 2017 Introduzione al corso. Richiami di probabilità: spazi di probabilità, variabili aleatorie,

Dettagli

Esercizi di statistica

Esercizi di statistica Esercizi di statistica Test a scelta multipla (la risposta corretta è la prima) [1] Il seguente campione è stato estratto da una popolazione distribuita normalmente: -.4, 5.5,, -.5, 1.1, 7.4, -1.8, -..

Dettagli

3.1 Classificazione dei fenomeni statistici Questionari e scale di modalità Classificazione delle scale di modalità 17

3.1 Classificazione dei fenomeni statistici Questionari e scale di modalità Classificazione delle scale di modalità 17 C L Autore Ringraziamenti dell Editore Elenco dei simboli e delle abbreviazioni in ordine di apparizione XI XI XIII 1 Introduzione 1 FAQ e qualcos altro, da leggere prima 1.1 Questo è un libro di Statistica

Dettagli

Corso di STATISTICA EGA - Classe 1 aa Docenti: Luca Frigau, Claudio Conversano

Corso di STATISTICA EGA - Classe 1 aa Docenti: Luca Frigau, Claudio Conversano Corso di STATISTICA EGA - Classe 1 aa 2017-2018 Docenti: Luca Frigau, Claudio Conversano Il corso è organizzato in 36 incontri, per un totale di 72 ore di lezione. Sono previste 18 ore di esercitazione

Dettagli

Contenuto del capitolo

Contenuto del capitolo Capitolo 8 Stima 1 Contenuto del capitolo Proprietà degli stimatori Correttezza: E(Stimatore) = parametro da stimare Efficienza Consistenza Intervalli di confidenza Per la media - per una proporzione Come

Dettagli

Statistica Applicata all edilizia: Stime e stimatori

Statistica Applicata all edilizia: Stime e stimatori Statistica Applicata all edilizia E-mail: orietta.nicolis@unibg.it 15 marzo 2011 Statistica Applicata all edilizia: Indice 1 2 Statistica Applicata all edilizia: Uno dei problemi principali della statistica

Dettagli

05. Errore campionario e numerosità campionaria

05. Errore campionario e numerosità campionaria Statistica per le ricerche di mercato A.A. 01/13 05. Errore campionario e numerosità campionaria Gli schemi di campionamento condividono lo stesso principio di fondo: rappresentare il più fedelmente possibile,

Dettagli

Analisi della regressione multipla

Analisi della regressione multipla Analisi della regressione multipla y = β 0 + β 1 x 1 + β 2 x 2 +... β k x k + u 2. Inferenza Assunzione del Modello Classico di Regressione Lineare (CLM) Sappiamo che, date le assunzioni Gauss- Markov,

Dettagli

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04 LU 1/3 Esempi di vita reale : calcolo delle probabilità, statistica descrittiva e statistica inferenziale. Lancio dado/moneta: definizione

Dettagli

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione.

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione. Coppie o vettori di dati Spesso i dati osservati sono di tipo vettoriale. Ad esempio studiamo 222 osservazioni relative alle eruzioni del geyser Old Faithful. Old Faithful, Yellowstone Park. Old Faithful

Dettagli

Regressione lineare semplice

Regressione lineare semplice Regressione lineare semplice Prof. Giuseppe Verlato Sezione di Epidemiologia e Statistica Medica, Università di Verona Statistica con due variabili var. nominale, var. nominale: gruppo sanguigno - cancro

Dettagli

lezione 13 AA Paolo Brunori

lezione 13 AA Paolo Brunori AA 2016-2017 Paolo Brunori popolazione studiata e popolazione di interesse - popolazione studiata: popolazione da cui è stato estratto il campione - popolazione di interesse: popolazione per la quale ci

Dettagli

Regressione & Correlazione

Regressione & Correlazione Regressione & Correlazione Monia Ranalli Ranalli M. Dipendenza Settimana # 4 1 / 20 Sommario Regressione Modello di regressione lineare senplice Stima dei parametri Adattamento del modello ai dati Correlazione

Dettagli

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6 CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6 Dott.ssa Antonella Costanzo a.costanzo@unicas.it Esercizio 1. Associazione, correlazione e dipendenza tra caratteri In un collettivo di 11 famiglie è stata

Dettagli

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1 Statistica Capitolo 1 Regressione Lineare Semplice Cap. 1-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Spiegare il significato del coefficiente di correlazione lineare

Dettagli

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c.

Stima dei parametri. La v.c. multipla (X 1, X 2,.., X n ) ha probabilità (o densità): Le f( ) sono uguali per tutte le v.c. Stima dei parametri Sia il carattere X rappresentato da una variabile casuale (v.c.) che si distribuisce secondo la funzione di probabilità f(x). Per investigare su tale carattere si estrae un campione

Dettagli

Esercitazione 3 - Statistica II - Economia Aziendale Davide Passaretti 23/5/2017

Esercitazione 3 - Statistica II - Economia Aziendale Davide Passaretti 23/5/2017 Esercitazione 3 - Statistica II - Economia Aziendale Davide Passaretti 3/5/017 Contents 1 Intervalli di confidenza 1 Intervalli su un campione 1.1 Intervallo di confidenza per la media................................

Dettagli

STATISTICA. Esercitazione 5

STATISTICA. Esercitazione 5 STATISTICA Esercitazione 5 Esercizio 1 Ad un esame universitario sono stati assegnati in modo casuale due compiti diversi con i seguenti risultati: Compito A Compito B Numero studenti 102 105 Media dei

Dettagli

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF

Campionamento. Una grandezza fisica e' distribuita secondo una certa PDF Campionamento Una grandezza fisica e' distribuita secondo una certa PDF La pdf e' caratterizzata da determinati parametri Non abbiamo una conoscenza diretta della pdf Possiamo determinare una distribuzione

Dettagli

STATISTICA. Regressione-3 L inferenza per il modello lineare semplice

STATISTICA. Regressione-3 L inferenza per il modello lineare semplice STATISTICA Regressione-3 L inferenza per il modello lineare semplice Regressione lineare: GRAFICO DI DISPERSIONE & & analisi residui A. Valutazione preliminare se una retta possa essere una buona approssimazione

Dettagli

Statistica. Alfonso Iodice D Enza

Statistica. Alfonso Iodice D Enza Statistica Alfonso Iodice D Enza iodicede@unicas.it Università degli studi di Cassino () Statistica 1 / 33 Outline 1 2 3 4 5 6 () Statistica 2 / 33 Misura del legame Nel caso di variabili quantitative

Dettagli

STATISTICA MULTIVARIATA SSD MAT/06

STATISTICA MULTIVARIATA SSD MAT/06 Università degli studi di Ferrara Dipartimento di Matematica A.A. 2018/2019 I semestre STATISTICA MULTIVARIATA SSD MAT/06 LEZIONE 4 - Questioni di analisi e applicazione della regressione lineare Pratica

Dettagli

Campionamento e stima di parametri

Campionamento e stima di parametri Sia X una variabile aleatoria associata a un dato esperimento. Ripetiamo l esperimento n volte, ottenendo una famiglia di valori sperimentali della v.a. X : X = (X 1, X 2,..., X n ) ogni X i é una v.a.

Dettagli

Metodi statistici per la ricerca sociale Capitolo 11. Regressione Multipla e Correlazione

Metodi statistici per la ricerca sociale Capitolo 11. Regressione Multipla e Correlazione Metodi statistici per la ricerca sociale Capitolo 11. Regressione Multipla e Correlazione Alessandra Mattei Dipartimento di Statistica, Informatica, Applicazioni (DiSIA) Università degli Studi di Firenze

Dettagli

Modelli Statistici per l Economia. Regressione lineare con regressori multipli

Modelli Statistici per l Economia. Regressione lineare con regressori multipli Modelli Statistici per l Economia Regressione lineare con regressori multipli 1 Esempio: Dimensione della classe e risultato dell istruzione Y = punteggio nei test X = rapporto studenti/insegnanti Potremmo

Dettagli

Test delle Ipotesi Parte I

Test delle Ipotesi Parte I Test delle Ipotesi Parte I Test delle Ipotesi sulla media Introduzione Definizioni basilari Teoria per il caso di varianza nota Rischi nel test delle ipotesi Teoria per il caso di varianza non nota Test

Dettagli

1. variabili dicotomiche: 2 sole categorie A e B

1. variabili dicotomiche: 2 sole categorie A e B Variabile X su scala qualitativa (due categorie) modello di regressione: variabili quantitative misurate almeno su scala intervallo (meglio se Y è di questo tipo e preferibilmente anche le X i ) variabili

Dettagli

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla Introduzione E la generalizzazione del modello di regressione lineare semplice: per spiegare il fenomeno d interesse Y vengono introdotte p, con p > 1, variabili esplicative. Tale generalizzazione diventa

Dettagli

Indice. L Editore ringrazia. Ringraziamenti. Autori. Prefazione. Obiettivi formativi XIII XVII

Indice. L Editore ringrazia. Ringraziamenti. Autori. Prefazione. Obiettivi formativi XIII XVII Indice XI XI XIII XV XVII L Editore ringrazia Ringraziamenti Autori Prefazione Obiettivi formativi XIX Istruzioni per gli studenti XIX Un po di storia XX Cosa è la Statistica XXI Come usare questo libro

Dettagli

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0. Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive

Dettagli

lezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1

lezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1 lezione n. 6 (a cura di Gaia Montanucci) METODO MASSIMA VEROSIMIGLIANZA PER STIMARE β 0 E β 1 Distribuzione sui termini di errore ε i ε i ~ N (0, σ 2 ) ne consegue : ogni y i ha ancora distribuzione normale,

Dettagli

Presentazione dell edizione italiana

Presentazione dell edizione italiana 1 Indice generale Presentazione dell edizione italiana Prefazione xi xiii Capitolo 1 Una introduzione alla statistica 1 1.1 Raccolta dei dati e statistica descrittiva... 1 1.2 Inferenza statistica e modelli

Dettagli

Corso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti

Corso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti Corso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti Professor Paolo Vitale Anno Accademico 2017-8 UdA, Scuola d Economia Domanda 1 [6 punti]. (a) La multi-collineartità

Dettagli

Statistica Applicata all edilizia: il modello di regressione

Statistica Applicata all edilizia: il modello di regressione Statistica Applicata all edilizia: il modello di regressione E-mail: orietta.nicolis@unibg.it 27 aprile 2009 Indice Il modello di Regressione Lineare 1 Il modello di Regressione Lineare Analisi di regressione

Dettagli

Matematica Lezione 22

Matematica Lezione 22 Università di Cagliari Corso di Laurea in Farmacia Matematica Lezione 22 Sonia Cannas 14/12/2018 Indici di posizione Indici di posizione Gli indici di posizione, detti anche misure di tendenza centrale,

Dettagli

Minimi quadrati vincolati e test F

Minimi quadrati vincolati e test F Minimi quadrati vincolati e test F Impostazione del problema Spesso, i modelli econometrici che stimiamo hanno dei parametri che sono passibili di interpretazione diretta nella teoria economica. Consideriamo

Dettagli

Esercitazione del 16 maggio 2014

Esercitazione del 16 maggio 2014 Esercitazione del 16 maggio 2014 Conclusione dell esercizio sul consumo annuo di energia elettrica della lezione precedente. Avevamo un campione di n=101 abitazioni di metratura confrontabile e per ciascuna

Dettagli

Econometria. lezione 13. validità interna ed esterna. Econometria. lezione 13. AA 2014-2015 Paolo Brunori

Econometria. lezione 13. validità interna ed esterna. Econometria. lezione 13. AA 2014-2015 Paolo Brunori AA 2014-2015 Paolo Brunori popolazione studiata e popolazione di interesse - popolazione studiata: popolazione da cui è stato estratto il campione - popolazione di interesse: popolazione per la quale ci

Dettagli

Sommario. Capitolo 1 I dati e la statistica 1. Capitolo 2 Statistica descrittiva: tabelle e rappresentazioni grafiche 25

Sommario. Capitolo 1 I dati e la statistica 1. Capitolo 2 Statistica descrittiva: tabelle e rappresentazioni grafiche 25 Sommario Presentazione dell edizione italiana Prefazione xv xiii Capitolo 1 I dati e la statistica 1 Statistica in pratica: BusinessWeek 1 1.1 Le applicazioni in ambito aziendale ed economico 3 Contabilità

Dettagli

Il Teorema del limite Centrale (TLC)

Il Teorema del limite Centrale (TLC) (TLC) Teorema. Sia X 1,..., X n un campione i.i.d. per una v.a. X, avente E(X ) = µ e Var(X ) = σ 2 entrambi finiti. Allora Z n = X µ σ 2 n n Y N(0, 1) Si noti che nel calcolare Z n ho standardizzato X.

Dettagli

Regressione Lineare con regressori multipli

Regressione Lineare con regressori multipli Regressione Lineare con regressori multipli L idea chiave della regressione multipla è che, se sono disponibili i dati sulle variabili omesse, possiamo aggiungerle come regressori addizionali. In altre

Dettagli

Correlazione tra due variabili

Correlazione tra due variabili Correlazione tra due variabili Federico Plazzi 26 Novembre 2015 Correlazione tra due variabili Correlazione tra due variabili Variabili dipendenti e variabili indipendenti La variabile indipendente è quella

Dettagli

Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura

Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura INDICE GENERALE Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura XI XIV XV XVII XVIII 1 LA RILEVAZIONE DEI FENOMENI

Dettagli

STATISTICA ESERCITAZIONE

STATISTICA ESERCITAZIONE STATISTICA ESERCITAZIONE Dott. Giuseppe Pandolfo 1 Giugno 2015 Esercizio 1 Una fabbrica di scatole di cartone evade il 96% degli ordini entro un mese. Estraendo 300 campioni casuali di 300 consegne, in

Dettagli

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita 9. Test del χ 2 e test di Smirnov-Kolmogorov 9. Stimatori di massima verosimiglianza per distribuzioni con densità finita Supponiamo di avere un campione statistico X,..., X n e di sapere che esso è relativo

Dettagli

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità B

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità B Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità B Cognome Nome: Part time: Numero di matricola: Diurno: ISTRUZIONI: Il punteggio relativo alla prima parte dell esame viene calcolato

Dettagli

Contenuti: Capitolo 14 del libro di testo

Contenuti: Capitolo 14 del libro di testo Test d Ipotesi / TIPICI PROBLEMI DI VERIFICA DI IPOTESI SONO Test per la media Test per una proporzione Test per la varianza Test per due campioni indipendenti Test di indipendenza Contenuti Capitolo 4

Dettagli

INDICE PARTE METODOLOGICA

INDICE PARTE METODOLOGICA INDICE PARTE METODOLOGICA 1. Il processo di ricerca 1.1.Individuazione di un problema e formulazione delle ipotesi 1.2.Individuazione e definizione operativa delle variabili 1.2.1. Le variabili definite

Dettagli

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 7: Basi di statistica

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 7: Basi di statistica Costruzione di macchine Modulo di: Progettazione probabilistica e affidabilità Marco Beghini Lezione 7: Basi di statistica Campione e Popolazione Estrazione da una popolazione (virtualmente infinita) di

Dettagli

Indice. Prefazione. 4 Sintesi della distribuzione di un carattere La variabilità Introduzione La variabilità di una distribuzione 75

Indice. Prefazione. 4 Sintesi della distribuzione di un carattere La variabilità Introduzione La variabilità di una distribuzione 75 00PrPag:I-XIV_prefazione_IAS 8-05-2008 17:56 Pagina V Prefazione XI 1 La rilevazione dei fenomeni statistici 1 1.1 Introduzione 1 1.2 Caratteri, unità statistiche e collettivo 1 1.3 Classificazione dei

Dettagli

Il modello di regressione lineare multipla con regressori stocastici

Il modello di regressione lineare multipla con regressori stocastici Università di Pavia Il modello di regressione lineare multipla con regressori stocastici Eduardo Rossi Il valore atteso condizionale Modellare l esperimento casuale bivariato nel quale le variabili casuali

Dettagli

Funzioni di regressione non lineari

Funzioni di regressione non lineari Funzioni di regressione non lineari Eduardo Rossi 2 2 Università di Pavia (Italy) Maggio 2013 Rossi Regressione nonlineare Econometria - 2013 1 / 25 Sommario Funzioni di regressione non lineari - note

Dettagli

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate Introduzione Notazione Modello additivo Verifica d ipotesi Sia X una variabile q-dimensionale, a valori reali, non degenere, osservata in k tempi diversi (τ 1, τ 2,..., τ k ), sulle stesse n unità statistiche

Dettagli

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE S.S.I.S TOSCANA F.I.M. -II anno STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE PROBLEMA 1 Vogliamo valutare la percentuale p di donne fumatrici tra le donne in età fertile. Procediamo all estrazione

Dettagli

STATISTICHE, DISTRIBUZIONI CAMPIONARIE E INFERENZA

STATISTICHE, DISTRIBUZIONI CAMPIONARIE E INFERENZA Metodi statistici e probabilistici per l ingegneria Corso di Laurea in Ingegneria Civile A.A. 2009-10 Facoltà di Ingegneria, Università di Padova Docente: Dott. L. Corain 1 STATISTICHE, DISTRIBUZIONI CAMPIONARIE

Dettagli

Metodi Quantitativi per Economia, Finanza e Management. Lezione n 8 Regressione lineare multipla: le ipotesi del modello, la stima del modello

Metodi Quantitativi per Economia, Finanza e Management. Lezione n 8 Regressione lineare multipla: le ipotesi del modello, la stima del modello Metodi Quantitativi per Economia, Finanza e Management Lezione n 8 Regressione lineare multipla: le ipotesi del modello, la stima del modello 1. Introduzione ai modelli di regressione 2. Obiettivi 3. Le

Dettagli

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità D

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità D Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità D Cognome Nome: Part time: Numero di matricola: Diurno: ISTRUZIONI: Il punteggio relativo alla prima parte dell esame viene calcolato

Dettagli

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A

Università di Siena. Teoria della Stima. Lucidi del corso di. Identificazione e Analisi dei Dati A.A Università di Siena Teoria della Stima Lucidi del corso di A.A. 2002-2003 Università di Siena 1 Indice Approcci al problema della stima Stima parametrica Stima bayesiana Proprietà degli stimatori Stime

Dettagli

Statistica 1 A.A. 2015/2016

Statistica 1 A.A. 2015/2016 Corso di Laurea in Economia e Finanza Statistica 1 A.A. 2015/2016 (8 CFU, corrispondenti a 48 ore di lezione frontale e 24 ore di esercitazione) Prof. Luigi Augugliaro 1 / 35 Il modello di regressione

Dettagli

Argomenti della lezione:

Argomenti della lezione: Lezione 7 Argomenti della lezione: La regressione semplice Il modello teorico Il calcolo dei parametri Regressione lineare Esamina la relazione lineare tra una o più variabili esplicative (o indipendenti,

Dettagli