lezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1

Documenti analoghi
STATISTICA A K (60 ore)

Metodi statistici per l economia (Prof. Capitanio) Slide n. 10. Materiale di supporto per le lezioni. Non sostituisce il libro di testo

lezione 4 AA Paolo Brunori

MODELLO DI REGRESSIONE LINEARE. le ipotesi del modello di regressione classico, stima con i metodi dei minimi quadrati e di massima verosimiglianza,

Statistica Applicata all edilizia: il modello di regressione

Regressione Lineare Semplice e Correlazione

La regressione lineare semplice

Variabili indipendenti qualitative. In molte applicazioni si rende necessario l introduzione di un fattore a due o più livelli.

LEZIONE N. 11 ( a cura di MADDALENA BEI)

R - Esercitazione 6. Andrea Fasulo Venerdì 22 Dicembre Università Roma Tre

STATISTICA (2) ESERCITAZIONE Dott.ssa Antonella Costanzo

Dispensa di Statistica

STATISTICA A D (72 ore)

Esercizi di statistica

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1

Correlazione e regressione

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6

Regressione multipla

ECONOMETRIA APPLICATA PER L IMPRESA. Test di Radici Unitarie - Esercizio 5

s a Inferenza: singolo parametro Sistema di ipotesi: : β j = β j0 H 1 β j0 statistica test t confronto con valore t o p-value

Richiami di inferenza statistica Strumenti quantitativi per la gestione

Richiami di inferenza statistica. Strumenti quantitativi per la gestione. Emanuele Taufer

Esercitazione del

Lezione 18. Statistica. Alfonso Iodice D Enza Università degli studi di Cassino. Lezione 18. A. Iodice

0 altimenti 1 soggetto trova lavoroentro 6 mesi}

Argomenti della lezione:

Regressione lineare semplice

La multicollinearità sorge quando c è un elevata correlazione tra due o più variabili esplicative.

Test F per la significatività del modello

1. variabili dicotomiche: 2 sole categorie A e B

Statistica multivariata Donata Rodi 17/10/2016

3.1 Classificazione dei fenomeni statistici Questionari e scale di modalità Classificazione delle scale di modalità 17

Metodi statistici per lo studio dei fenomeni biologici

Capitolo 12 La regressione lineare semplice

Regressione & Correlazione

Regressione lineare. Lucio Demeio Dipartimento di Ingegneria Industriale e Scienze Matematiche Università Politecnica delle Marche.

Distribuzione Normale. Dott. Claudio Verona

Regressione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007

Test delle Ipotesi Parte I

Il modello di regressione (VEDI CAP 12 VOLUME IEZZI, 2009)

Corso in Statistica Medica

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

STATISTICA. Regressione-4 ovvero Macron!

STATISTICA 1, metodi matematici e statistici Introduzione al linguaggio R Esercitazione 7:

UNIVERSITÀ DEGLI STUDI ROMA TRE Corso di Laurea in Matematica ST410 - Statistica 1 - A.A. 2014/2015 Appello B - 5 Febbraio 2015

Esercitazione 5 - Statistica (parte II) Davide Passaretti 9/3/2017

L'analisi bivariata (analisi della varianza e correlazione) Prof. Stefano Nobile. Corso di Metodologia della ricerca sociale

Statistica Inferenziale

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione.

Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare

Vogliamo determinare una funzione lineare che meglio approssima i nostri dati sperimentali e poter decidere sulla bontà di questa approssimazione.

Statistica (parte II) Esercitazione 4

Distribuzione Normale. Dott. Claudio Verona

STATISTICA ESERCITAZIONE 13

I modelli probabilistici

Analisi della regressione multipla

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza

Indipendenza, Dipendenza e interdipendenza

Data Mining. Prova parziale del 20 aprile 2017: SOLUZIONE

STATISTICA MULTIVARIATA SSD MAT/06

Distribuzioni campionarie

Università degli Studi Roma Tre Anno Accademico 2017/2018 ST410 Statistica 1

Statistica Inferenziale

Metodologie Quantitative

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla

CHEMIOMETRIA. CONFRONTO CON VALORE ATTESO (test d ipotesi) CONFRONTO DI VALORI MISURATI (test d ipotesi) CONFRONTO DI RIPRODUCIBILITA (test d ipotesi)

STATISTICA INDUTTIVA: STIMA DI PARAMETRI STIMA PUNTUALE

STATISTICA. Esercitazione 5

Metodi statistici per la ricerca sociale Capitolo 11. Regressione Multipla e Correlazione

Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare

Stima puntuale. Stimare: attribuire un valore plausibile ad una grandezza. (parametro) non misurabile esattamente.

Statistica Applicata all edilizia: Stime e stimatori

Corso di Laurea: Numero di Matricola: Esame del 31 maggio 2018 Tempo consentito: 120 minuti

Minimi quadrati vincolati e test F

Nel modello di regressione Multivariata abbiamo più variabili risposta (tipicamente poche), in particolare avremo:

Analisi della varianza

lezione 13 AA Paolo Brunori

COGNOME.NOME...MATR..

LEZIONE N.8 (a cura di Teresa Fanelli) Questa forma risulta importante nel modello di regressione con più variabili.

Statistica economica

Indice. centrale, dispersione e forma Introduzione alla Statistica Statistica descrittiva per variabili quantitative: tendenza

Analisi multivariata per osservazioni appaiate. Analisi multivariata per osservazioni appaiate

PROBABILITÀ ELEMENTARE

Il modello di regressione lineare multipla con regressori stocastici

Statistica Applicata all edilizia Lezione: approccio stocastico all analisi delle serie storiche

ANOVA. ANalysis Of VAriance. Federico Plazzi. 1 Dicembre 2015

La distribuzione t. Federico Plazzi. 7 Novembre 2015

Cognome e Nome:... Matricola e corso di laurea:...

Introduzione all'inferenza Lezione 4

Esercizi su distribuzioni doppie, dipendenza, correlazione e regressione (Statistica I, IV Canale)

Metodi statistici per le ricerche di mercato

Questo calcolo richiede che si conoscano media e deviazione standard della popolazione.

Contenuti: Capitolo 14 del libro di testo

Stima dei parametri di modelli lineari

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1

Università del Piemonte Orientale. Corso di laurea in medicina e chirurgia. Corso di Statistica Medica. La distribuzione t - student

Statistica. Alfonso Iodice D Enza

Lezione 10: Interpolazione lineare Corso di Statistica Facoltà di Economia Università della Basilicata. Prof. Massimo Aria

Transcript:

lezione n. 6 (a cura di Gaia Montanucci) METODO MASSIMA VEROSIMIGLIANZA PER STIMARE β 0 E β 1 Distribuzione sui termini di errore ε i ε i ~ N (0, σ 2 ) ne consegue : ogni y i ha ancora distribuzione normale, più precisamente y i ~ N ( μ i, σ 2 ) con μ i = β 0 + β 1 x i Verosimiglianza: L = = =. Log verosimiglianza: Parte indipendente da β 0 e β 1, la possiamo trascurare quando facciamo la massimizzazione Parte dipendente da β 0 e β 1 CONCLUSIONE: Relativamente a β 0 e β 1, il metodo dei minimi quadrati porta esattamente alla stessa soluzione del metodo della massima verosimiglianza. Inoltre, massimizzare la verosimiglianza equivale a minimizzare S. Per quanto riguarda la varianza il discorso è diverso: metodo dei minimi quadrati metodo della massima verosimiglianza Quindi in conclusione se stimo β 0 e β 1 non c è differenza tra i due metodi, mentre se devo stimare i due approcci portano a conseguenze diverse.

I due metodi sono basati su due idee diverse: Il metodo dei minimi quadrati è basato sulla minimizzazione dell errore di previsione che è un concetto intuitivo e non richiede l assunzione della distribuzione normale sulle variabili casuali Il metodo di massima verosimiglianza è più formale, richiede l assunzione della distribuzione normale per i termini di errore PROPRIETA DEGLI STIMATORI: 1 ) β 0 e β 1 sono stimatori non distorti: E( ) = β 0, E( ) = Per stimatore non distorto s intende che il valore atteso coincide con la quantità da stimare. Anche S 2 è uno stimatore non distorto della varianza: E(S 2 ) = Mentre E( anche se distorsione piccola è distorto 2 ) Var ( Var ( ) = 3 ) Distribuzione degli stimatori : se è valida la proprietà che i termini di errore hanno distribuzione normale ε i N ( 0, allora anche β 0 e β 1 avranno distribuzione normale, Var ( )) Sotto questa condizione posso anche ricavare: S 2 Questa proprietà mi serve per fare inferenza : per trovare gli intervalli di confidenza e la verifica delle ipotesi. INTERVALLI DI CONFIDENZA β 0 Si distinguono due casi: 1 ) conosco : Estremo di dx, Estremo di sx 2 ) non conosco Estremo di dx, Estremo di sx

Quando utilizzo la t mi devo ricordare di utilizzare n - 2 gradi di libertà S 2 VERIFICA DELLE IPOTESI SU β 0 H 0 : β 0 = β 00 dove β 0 = intercetta e β 00 = valore particolare dell intercetta Esempio H 0 : β 0 = 5 H 1 : β 0 β 00 Bisogna distinguere due casi : 1 ) conosco : calcoliamo la statistica test z = La statistica test ci dice quanto il valore che stimo è diverso da quello ipotizzato discrepanza RH 0 2 ) non conosco : statistica test t = RH 0 Caso standard : H 0 : β 0 = 0 H 1 : β 0 Questa è l ipotesi più interessante perché la y è PROPORZIONALE alla x se vale la ipotesi nulla e in questo caso abbiamo una retta passante per l origine: E(Y x

INTERVALLO DI CONFIDENZA PER 1 ) conosco : 2 ) non conosco = VERIFICA DELLE IPOTESI H 0 : β 1 = β 10 dove β 1 = coefficiente angolare β 10 = preciso valore che deve assumere β 1 Esempio H 0 : β 1 = - 1 H 1 : β 1 β 10 1 ) conosco : z = RH 0 2 ) non conosco t = RH 0 Caso standard : H 0 : β 1 = 0 H 1 : β 1 0 Se vale l ipotesi nulla dipende linearmente dalla x e ciò equivale a dire che y non E(Y) Qualsiasi valore di x che prendo ottengo sempre lo stesso valore atteso x

t = dove è una misura di errore associata alla stima, più grande è tale valore meno precisa è la stima OUTPUT DI R METODO DI REGRESSIONE SEMPLICE est s.e. t - stat p - value p value ( ) p value ( β 1 ) La prima colonna ci permette di capire come la x influisce sulla y. Ci dice se la soluzione è vera o è dovuta al caso. = valore atteso della y quando x = 0 = incremento del valore atteso quando I valori per noi più significativi sono quindi est e p value. Facciamo un esempio: est p - value 10 0.03 3 0.15 Con 0.03 RH 0 : β 0 = 0 quindi l intercetta è significativamente diversa da 0 e ne consegue che 10 non è dovuto al caso ma è un valore plausibile. Con 0.15 AH 0 : β 1 = 0 quindi il coefficiente angolare non è significativamente diverso da 0 e ne consegue che non posso dire che 3 sia dovuto al caso

r 2 = INDICE DI DETERMINAZIONE e serve a valutare la bontà dell adattamento del modello e si calcola : r 2 = 1- = 1 - dove DR = devianza residua r 2 può assumere i seguenti valori: 0 se r 2 = 0 vuol dire che la devianza residua è uguale alla devianza di y ho un ADATTAMENTO PESSIMO: vuol dire che il modello è inutile a livello di previsioni (situazione peggiore) se r 2 = 1 vuol dire che la devianza residua è uguale a 0 e quindi ogni valore osservato è uguale a quello previsto DR =0 e abbiamo un ADATTAMENTO PERFETTO: riesco a prevedere ogni situazione Esempio: r 2 il modello ha una buona capacità previsiva x i r 2 = 1 x i r 2 = 0 y i y i I casi che troveremo saranno, usualmente, quelli intermedi: r 2 = 0.8