LABORATORIO DI PROBABILITA E STATISTICA
|
|
|
- Marcella Pesce
- 9 anni fa
- Visualizzazioni
Transcript
1 LABORATORIO DI PROBABILITA E STATISTICA Docente: Bruno Gobbi 3 LA REGRESSIONE LINEARE
2 ES. STUDIO RELAZIONE ALTEZZA - PESO Soggetto Altezza Peso A B C D E F G H I L
3 I VARI PUNTI SONO LE OSSERVAZIONI Y FRA PESO E ALTEZZA DI 10 PERSONE peso Soggetto Altezza Peso A B C D E F G H I L altezza
4 CERCO DI INTERPOLARE CON UNA RETTA Y = a + bx peso Y (RETTA DI REGRESSIONE) altezza
5 MISURO GLI SCARTI FRA Y (RETTA) E Y (OSSERVAZIONI) Y (RETTA DI REGRESSIONE) } SCARTI FRA Y E Y
6 METODO DEI MINIMI QUADRATI BISOGNA TROVARE QUELLA FUNZIONE Y CHE INTERPOLA AL MEGLIO I DATI OSSERVATI Y IN QUESTO CASO Y SARA UNA RETTA DEL TIPO: Y = a + b X
7 METODO DEI MINIMI QUADRATI DOMANDA: QUALI PARAMETRI a E b PER LA RETTA Y =a+bx? LA SCELTA RICADE SU QUELLI CHE DISEGNANO LA FUNZIONE CHE RENDE MINIMA LA SOMMA DEGLI SCARTI FRA Y (MODELLO TEORICO/RETTA) E LE VARIE Y (OSSERVAZIONI) min Σ (Y Y) GRAFICAMENTE GLI SCARTI SONO I SEGMENTI TRATTEGGIATI FRA LA RETTA E I SINGOLI PUNTI OSSERVATI POICHE CI POSSONO ESSERE DEGLI SCARTI CON VALORI POSITIVI O NEGATIVI FRA Y E Y, SI USA IL QUADRATO DEGLI SCARTI min Σ (Y Y) 2
8 METODO DEI MINIMI QUADRATI AL FINE DI MINIMIZZARE LA SOMMA DEI QUADRATI DEGLI SCARTI FRA Y E Y, IL METODO MATEMATICO DA SEGUIRE E QUELLO DI CALCOLARE LA DERIVATA PRIMA DI QUESTA FUNZIONE E POI DI PORLA UGUALE A 0 Der( min Σ (Y Y) 2 ) = 0 SI OTTENGONO COSI I PARAMETRI MIGLIORI PER LA FUNZIONE TEORICA, CHE NEL CASO DELLA RETTA SONO DATI DAL COEFFICIENTE ANGOLARE b E DALL INTERSEZIONE CON L ASSE DELLE ORDINATE a.
9 ES. STUDIO RELAZIONE ALTEZZA - PESO Soggetto Altezza Peso A B C D E F G H I L > altezza = c(174, 166, 173, 171, 168, 167, 165, 164, 181, 185) > peso = c(75, 63, 70, 71, 68, 68, 64, 60, 86, 91)
10 ES. STUDIO RELAZIONE ALTEZZA - PESO # CREIAMO IL GRAFICO DELLE VARIABILI > plot(altezza, peso) # EFFETTUIAMO LA REGRESSIONE LINEARE FRA PESO E ALTEZZA # INVERTIRE L ORDINE DELLE VARIABILI!!! Per scrivere la tilde ~ in > retta = lm(peso ~ altezza) # lm = LINEAR MODEL Ubuntu premere: ALT GR + ì # PER DISEGNARE LA RETTA DI REGRESSIONE LINEARE > abline (retta, col="blue") # (PARAMETRI DELLA RETTA, COLORE) # PER AGGIUNGERE DEI SEGMENTI CHE COLLEGANO LA RETTA AI SINGOLI PUNTI > segments(altezza, fitted(retta), altezza, peso, lty=2) # (X DI PARTENZA, Y DI PARTENZA, X DI ARRIVO, Y DI ARRIVO, TIPO TRATTO) (lty=2 TRATTEGGIATO) > title (main="regressione lineare fra peso e altezza")
11
12 OUTPUT DI > summary(retta)
13 PRIMA PARTE DELL OUTPUT DI > summary(retta) Nella prima parte dei risultati è riportata la descrizione dei residui del modello, cioè della distanza che c è fra la retta di regressione in blu e i singoli punti.
14 SECONDA PARTE DELL OUTPUT DI > summary(retta) Nella seconda parte sono riportati le stime dei coefficienti (Estimate). I coefficienti (riferito all intercetta) e quello (riferito all altezza) significano che il modello della retta di regressione (Y =a+bx) sarà: peso = * altezza I valori di Std. Error indicano il margine di errore che si commette con questa retta per ogni coefficiente. I due successivi t value e PR(> t ) indicano la significatività di questi coefficienti così stimati, ossia quanto sono affidabili come stime.
15 TERZA PARTE DELL OUTPUT DI > summary(retta) Nella terza parte sono riportati l errore standard dei residui (Residual standard error) e la bontà di adattamento del modello R 2 (Multiple R- Squared). Vedremo più avanti il significato di questo indicatore.
16 ANALISI DEI RESIDUI Al fine di valutare la bontà della regressione lineare che abbiamo condotto, risulta utile fare l analisi dei residui, ossia delle distanza fra ogni punto osservato e la retta di regressione. Questi residui dovrebbero avere il più possibile una media nulla (perché sommando le distanze positive sopra la retta e negative sotto la retta dovremmo avere un valore vicino a 0) e dovrebbero essere incorrelati fra di loro.
17 ANALISI DEI RESIDUI Y = -167, ,39602 * Altezza Altezza (X) Peso (Y) Y' residui (Y-Y ) , , , , ,0612-1, , , , , ,0413-0, , , , , ,0015 0, , ,41442
18 # PER IL GRAFICO DEI RESIDUI > plot(fitted(retta), residuals(retta)) # PER DISEGNARE LA RETTA ORIZZONTALE DELLE ORDINATE ZERO > abline(0, 0) # (INTERCETTA E COEFFICIENTE ANGOLARE) residuals(retta) fitted(retta)
19 residuals(retta) fitted(retta) # IL GRAFICO CONFERMA L IPOTESI DI DISTRIBUZIONE CASUALE DEI RESIDUI, PERCHÉ I VALORI SONO EQUIDISTRIBUITI INTORNO ALLA RETTA 0 E SONO PRESENTI SIA SOPRA CHE SOTTO DI ESSA.
20 IL COEFFICIENTE DI CORRELAZIONE LINEARE PER CALCOLARE IL TIPO DI RELAZIONE FRA I FENOMENI SI USA IL COEFFICIENTE DI CORRELAZIONE LINEARE: R = σ xy σ x σ y = ρ R = covarianza fra X e Y diviso s.q.m. di X per s.q.m. di Y SE R = -1 PERFETTA RELAZIONE LINEARE INVERSA SE R = 0 INDIPENDENZA LINEARE SE R = +1 PERFETTA RELAZIONE LINEARE DIRETTA
21 IL COEFFICIENTE DI CORRELAZIONE LINEARE R = σ xy σ x σ y = ρ IN Rstudio SI CALCOLA CON LA FUNZIONE DIRETTA: R = cor(peso, altezza) OPPURE SE PREFERIAMO SCRIVERE TUTTA LA FORMULA: R = var(peso, altezza)/(sd(peso)*sd(altezza))
22 IL COEFFICIENTE DI CORRELAZIONE LINEARE NEL NOSTRO ESEMPIO: > R = cor(peso, altezza) > R [1] DATO CHE IL VALORE DEL COEFFICIENTE DI CORRELAZIONE LINEARE E MOLTO VICINO A 1, ALLORA DICIAMO CHE C E UNA FORTE RELAZIONE LINEARE DIRETTA FRA I DUE FENOMENI. IN ALTRE PAROLE: AL CRESCERE DEL PESO, L ALTEZZA CRESCE QUASI SEMPRE E LO FA IN MANIERA MOLTO SIMILE AL PESO.
23 IL COEFFICIENTE DI CORRELAZIONE LINEARE R = FORTE RELAZIONE LINEARE DIRETTA
24 ES. DI COEFFICIENTI DI CORRELAZIONE LINEARE
25 IL COEFFICIENTE DI DETERMINAZIONE: R 2 AL FINE DI MISURARE QUANTO IL MODELLO TEORICO SIA BUONO (BONTA DI ACCOSTAMENTO), SI USA IL COEFFICIENTE DI DETERMINAZIONE R 2 : R 2 = (Y M Y ) 2 (Y M Y ) 2 = ρ 2 ovvero R 2 = dev(regressione) dev (Totale) = ρ 2 QUESTO INDICATORE SI PUO ANCHE CALCOLARE SEMPLICEMENTE FACENDO IL QUADRATO DEL COEFFICIENTE DI CORRELAZIONE LINEARE R (CFR. ANCHE 3 PARTE OUTPUT)
26 IL COEFFICIENTE DI DETERMINAZIONE : R 2 0 R 2 1 SE R 2 = 0 IL MODELLO TEORICO Y NON RIESCE A SPIEGARE NULLA DELLA VARIABILITA DELLE OSSERVAZIONI Y SE R 2 = 1 IL MODELLO TEORICO Y SPIEGA IN MANIERA PERFETTA LA VARIABILITA DELLE OSSERVAZIONI Y IL MODELLO TEORICO ASSUME GLI STESSI VALORI DI Y Y =Y > R2=R^2 [1] # POICHE R 2 E VICINO A 1, IL MODELLO TROVATO E MOLTO BUONO E RIESCE A SPIEGARE QUASI COMPLETAMENTE LA VARIABILITA DELLE Y
27 ES. STUDIO RELAZIONE ORE DI STUDIO VOTO ESAME Ore studio Voto Studiare la relazione fra le Ore di studio e il Voto ottenuto all esame di 7 studenti utilizzando la regressione lineare, disegnando il grafico, calcolando i parametri della retta interpolante, i residui con grafico, il coefficiente di correlazione lineare e giudicandone la bontà di accostamento.
28 ES. STUDIO RELAZIONE ORE DI STUDIO VOTO ESAME > orestudio=c(30, 50, 40, 85, 60, 80, 70) > voto=c(10, 18, 16, 30, 20, 28, 26) > rettastat=lm(voto~orestudio) > plot(orestudio, voto) > abline(rettastat, col="blue") > segments(orestudio, fitted(rettastat), orestudio, voto, lty=2) > title(main="regressione lineare fra Ore di studio e Voto in statistica")
29 ES. STUDIO RELAZIONE ORE DI STUDIO VOTO ESAME
30 ES. STUDIO RELAZIONE ORE DI STUDIO VOTO ESAME > summary (rettastat) Call: lm(formula = voto ~ orestudio) Residuals: Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) orestudio e-05 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 5 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 5 DF, p-value: 2.346e-05
31 ES. STUDIO RELAZIONE ORE DI STUDIO VOTO ESAME # I PARAMETRI TROVATI SONO a=0,55241 E b=0,37431 QUINDI IL MODELLO TEORICO SARA : Y = *orestudio # EFFETTUIAMO L ANALISI DEI RESIDUI > plot(fitted(rettastat), residuals(rettastat)) >abline(0, 0) residuals(rettastat) L analisi dei residui conferma che questi si distribuiscono in maniera uniforme e apparentemente casuale attorno all asse zero, quindi si può confermare l ipotesi di distribuzione casuale degli stessi, con media nulla e incorrelazione. fitted(rettastat)
32 ES. STUDIO RELAZIONE ORE DI STUDIO VOTO ESAME # CALCOLIAMO IL COEFFICIENTE DI CORRELAZIONE LINEARE: > R=cor(orestudio, voto) > R [1] # POICHE R E MOLTO VICINO A 1 POSSIAMO AFFERMARE CHE C E UNA FORTE RELAZIONE LINEARE DIRETTA FRA LE DUE VARIABILI # CALCOLIAMO IL COEFFICIENTE DI DETERMINAZIONE FACENDO IL QUADRATO DI R PER GIUDICARE LA BONTA DI ACCOSTAMENTO: > R2=R^2 > R2 [1] # DATO CHE R2 E QUASI UGUALE A 1, DICIAMO CHE IL MODELLO TEORICO USATO SI ADATTA MOLTO BENE AI VALORI OSSERVATI A TITOLO DI VERIFICA, LO STESSO VALORE E PRESENTE ANCHE NELLA TERZA PARTE DELL OUTPUT DELLA summary
33 ES. LONGLEY POPOLAZIONE E OCCUPATI Utilizzando la serie storica di longley, presente nei dataset precaricati di RStudio (usare il comando data() per ottenerne una lista), analizzare la relazione fra le variabili: Population (per richiamare i dati: pop=longley$population) Employed (per richiamare i dati: occu=longley$employed) Attraverso una regressione lineare determinare: Grafico del modello teorico Y =a+bx Coefficiente angolare e intersezione con l asse delle ordinate della retta di regressione Analisi dei residui con relativo grafico Verificare il tipo di relazione con R Giudicare la bontà di accostamento
34 ES. LONGLEY POPOLAZIONE E OCCUPATI > longley GNP.deflator GNP Unemployed Armed.Forces Population Year Employed
35 ES. LONGLEY POPOLAZIONE E OCCUPATI > pop=longley$population > occu=longley$employed > plot(pop, occu) > rettalong=lm(occu ~ pop) > abline (rettalong, col="blue") > segments(pop, fitted(rettalong), pop, occu, lty=2) > title(main="retta di regressione fra Popolazione e Occupati - Longley")
36
37 ES. LONGLEY POPOLAZIONE E OCCUPATI > summary(rettalong) Call: lm(formula = occu ~ pop) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) pop e-09 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 14 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 14 DF, p-value: 3.693e-09
38 ES. LONGLEY POPOLAZIONE E OCCUPATI # I PARAMETRI TROVATI SONO a= E b= QUINDI IL MODELLO TEORICO SARA : Y = *pop # EFFETTUIAMO L ANALISI DEI RESIDUI > plot(fitted(rettalong), residuals(rettalong)) > abline(0, 0) residuals(rettalong) L analisi dei residui conferma che questi si distribuiscono in maniera uniforme e apparentemente casuale attorno all asse zero, quindi si può confermare l ipotesi di distribuzione casuale degli stessi, con media nulla e incorrelazione fitted(rettalong)
39 ES. LONGLEY POPOLAZIONE E OCCUPATI # CALCOLIAMO IL COEFFICIENTE DI CORRELAZIONE LINEARE: > R=cor(pop, occu) > R [1] # POICHE R E VICINISSIMO A 1, POSSIAMO AFFERMARE CHE C E UNA FORTE RELAZIONE LINEARE DIRETTA FRA LE DUE VARIABILI # CALCOLIAMO IL COEFFICIENTE DI DETERMINAZIONE FACENDO IL QUADRATO DI R PER GIUDICARE LA BONTA DI ACCOSTAMENTO: > R2=R^2 > R2 [1] # DATO CHE R2 E MOLTO VICINO A 1, DICIAMO CHE IL MODELLO TEORICO USATO SI ADATTA MOLTO BENE AI VALORI OSSERVATI A TITOLO DI VERIFICA, LO STESSO VALORE E PRESENTE ANCHE NELLA TERZA PARTE DELL OUTPUT DELLA summary
40 ES. WOMEN ALTEZZA E PESO AMERICANE Utilizzando la serie storica di women, presente nei dataset precaricati di RStudio (usare il comando data() per ottenerne una lista), analizzare la relazione fra le variabili: height weight Attraverso una regressione lineare determinare: Grafico del modello teorico Y =a+bx Coefficiente angolare e intersezione con l asse delle ordinate della retta di regressione Analisi dei residui con relativo grafico Verificare il tipo di relazione con R Giudicare la bontà di accostamento
41 ES. WOMEN ALTEZZA E PESO AMERICANE > women height weight
42 ES. WOMEN ALTEZZA E PESO AMERICANE > plot(women$height, women$weight) > retta=lm(women$weight ~ women$height) > abline(retta, col="blue") > segments(women$height, fitted(retta), women$height, women$weight, lty=2) > title(main="regressione fra altezza e peso donne americane")
43
44 ES. WOMEN ALTEZZA E PESO AMERICANE > summary(retta) Call: lm(formula = women$weight ~ women$height) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-09 *** women$height e-14 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 13 degrees of freedom Multiple R-squared: 0.991, Adjusted R-squared: F-statistic: 1433 on 1 and 13 DF, p-value: 1.091e-14
45 ES. WOMEN ALTEZZA E PESO AMERICANE # I PARAMETRI TROVATI SONO a= E b= QUINDI IL MODELLO TEORICO SARA : Y = *height # EFFETTUIAMO L ANALISI DEI RESIDUI > plot(fitted(rettalong), residuals(rettalong)) > abline(0, 0) residuals(retta) fitted(retta) Questa volta l analisi dei residui evidenzia un andamento a parabola. Questo significa che il modello della retta di regressione non è il migliore per questo caso e che sarebbe opportuno riprovare a fare la regressione con una parabola del tipo: Y =a+bx+cx 2
46 ES. WOMEN ALTEZZA E PESO AMERICANE # CALCOLIAMO COMUNQUE LA CORRELAZIONE LINEARE: > R=cor(women$height, women$weight) > R [1] # POICHE R E VICINISSIMO A 1, POSSIAMO AFFERMARE CHE C E UNA FORTE RELAZIONE LINEARE DIRETTA FRA LE DUE VARIABILI # CALCOLIAMO IL COEFFICIENTE DI DETERMINAZIONE FACENDO IL QUADRATO DI R PER GIUDICARE LA BONTA DI ACCOSTAMENTO: > R2=R^2 > R2 [1] # DATO CHE R2 E MOLTO VICINO A 1, DICIAMO CHE IL MODELLO TEORICO USATO SI ADATTA MOLTO BENE AI VALORI OSSERVATI A TITOLO DI VERIFICA, ANCHE SE COME ABBIAMO VISTO DALL ANALISI DEI RESIDUI SI PUO FARE DI MEGLIO
47 ES. WOMEN REGRESSIONE CON MODELLO PARABOLA EXTRA NON VERRA CHIESTO ALL ESAME! > plot(women$height, women$weight) # CREO UN MODELLO PARABOLICO DEL TIPO Y =a+bx+cx 2 > height2=women$height^2 > parabola=lm(women$weight ~ women$height + height2) # DISEGNO LA PARABOLA > lines(women$height, fitted(parabola), col = red, lwd = 3)
48 Regressione con parabola fra altezza e peso 'women' women$weight women$height
49 ES. WOMEN REGRESSIONE CON MODELLO PARABOLA > summary(parabola) Call: lm(formula = women$weight ~ women$height + height2) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-07 *** women$height e-07 *** height e-09 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 12 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: 1.139e+04 on 2 and 12 DF, p-value: < 2.2e-16
50 ES. WOMEN REGRESSIONE CON MODELLO PARABOLA # IL MODELLO TEORICO SARA : Y = * height * height^2 # EFFETTUIAMO L ANALISI DEI RESIDUI > plot(fitted(parabola), residuals(parabola)) > abline(0, 0) residuals(parabola) Ora l analisi dei residui non ha più l andamento parabolico di prima, ma rispetta la distribuzione casuale intorno alla retta 0 che ci si aspetta. S Si può quindi confermare l ipotesi di distribuzione casuale degli stessi, con media nulla e incorrelazione. fitted(parabola)
51 ES. WOMEN REGRESSIONE CON MODELLO PARABOLA # DATO CHE PER QUESTO CASO NON ABBIAMO UNA RETTA COME MODELLO TEORICO, IL CALCOLO DEL COEFFICIENTE DI CORRELAZIONE LINEARE NON HA MOLTO SENSO. # TUTTAVIA POSSIAMO VERIFICARE COME L R2 SIA PIU ALTO RISPETTO AL CASO PRECEDENTE DELLA RETTA (0.991), ARRIVANDO A , COME EVIDENZIATO DALL OUTPUT DELLA SUMMARY. QUESTO CONFERMA CHE IL MODELLO DELLA PARABOLA SI ADATTA MEGLIO AI DATI OSSERVATI RISPETTO AL MODELLO LINEARE, ARRIVANDO A ESSERE VICINISSIMO A 1 E QUINDI QUASI PERFETTAMENTE SOVRAPPOSTO ALLE OSSERVAZIONI Y.
LABORATORIO DI PROBABILITA E STATISTICA
UNIVERSITA DEGLI STUDI DI VERONA LABORATORIO DI PROBABILITA E STATISTICA Docente: Bruno Gobbi 6 ESERCIZI RIEPILOGATIVI PRIME 3 LEZIONI REGRESSIONE LINEARE: SPORT - COLESTEROLO ESERCIZIO 8: La tabella seguente
LABORATORIO DI PROBABILITA E STATISTICA
UNIVERSITA DEGLI STUDI DI VERONA LABORATORIO DI PROBABILITA E STATISTICA Docente: Bruno Gobbi Corso di laurea in Informatica e Bioinformatica 4 ESERCIZI RIEPILOGATIVI PRIME 3 LEZIONI 1 - STATISTICA DESCRITTIVA
Il modello di regressione (VEDI CAP 12 VOLUME IEZZI, 2009)
Il modello di regressione (VEDI CAP 12 VOLUME IEZZI, 2009) Quesito: Posso stimare il numero di ore passate a studiare statistica sul voto conseguito all esame? Potrei calcolare il coefficiente di correlazione.
Analisi grafica residui in R. Da output grafico analisi regressionelm1.csv Vedi dispensa. peso-statura
Analisi grafica residui in R Da output grafico analisi regressionelm1.csv Vedi dispensa peso-statura 1) Il plot in alto a sinistra mostra gli errori residui contro i loro valori stimati. I residui devono
Indipendenza, Dipendenza e interdipendenza
Indipendenza, Dipendenza e interdipendenza In analisi bivariata la tabella di contingenza consente di esaminare congiuntamente due variabili consente di rilevare le relazioni esistenti tra le variabili
REGRESSIONE lineare e CORRELAZIONE. Con variabili quantitative che si possono esprimere in un ampio ampio intervallo di valori
REGRESSIONE lineare e CORRELAZIONE Con variabili quantitative che si possono esprimere in un ampio ampio intervallo di valori Y X La NATURA e la FORZA della relazione tra variabili si studiano con la REGRESSIONE
Rappresentazioni grafiche di distribuzioni doppie
Rappresentazioni grafiche di distribuzioni doppie Distribuzione doppia di frequenze Tabella di contingenza Tabella di correlazione Stereogramma Distribuzione unitaria doppia di 2 caratteri quantitativi
Anova e regressione. Andrea Onofri Dipartimento di Scienze Agrarie ed Ambientali Universitá degli Studi di Perugia 22 marzo 2011
Anova e regressione Andrea Onofri Dipartimento di Scienze Agrarie ed Ambientali Universitá degli Studi di Perugia 22 marzo 2011 Nella sperimentazione agronomica e biologica in genere è normale organizzare
Regressione Lineare Semplice e Correlazione
Regressione Lineare Semplice e Correlazione 1 Introduzione La Regressione è una tecnica di analisi della relazione tra due variabili quantitative Questa tecnica è utilizzata per calcolare il valore (y)
LABORATORIO DI PROBABILITA E STATISTICA
UNIVERSITA DEGLI STUDI DI VERONA LABORATORIO DI PROBABILITA E STATISTICA Docente: Bruno Gobbi Corso di laurea in Informatica e Bioinformatica 9 ESERCIZI DI RIPASSO FINALE (1 di 2) 1 - STATISTICA DESCRITTIVA
Capitolo 12 La regressione lineare semplice
Levine, Krehbiel, Berenson Statistica II ed. 2006 Apogeo Capitolo 12 La regressione lineare semplice Insegnamento: Statistica Corso di Laurea Triennale in Ingegneria Gestionale Facoltà di Ingegneria, Università
Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1
Statistica Capitolo 1 Regressione Lineare Semplice Cap. 1-1 Obiettivi del Capitolo Dopo aver completato il capitolo, sarete in grado di: Spiegare il significato del coefficiente di correlazione lineare
Esercitazione III Soluzione
Esercitazione III Soluzione Esercizio 1 a) Frequenze congiunte assolute: n ij Reddito mensile Titolo di studio 1000-000 000-5000 5000-8000 Totale Laurea triennale 4 1 0 5 Laurea magistrale 1 4 7 Dottorato
LABORATORIO DI PROBABILITA E STATISTICA
LABORATORIO DI PROBABILITA E STATISTICA Docente: Bruno Gobbi Bonus ESERCIZI DI RIPASSO FINALE 1 - STATISTICA DESCRITTIVA TABLET ESERCIZIO 1: La seguente tabella riporta i volumi di vendita (in migliaia
R - Esercitazione 6. Andrea Fasulo Venerdì 22 Dicembre Università Roma Tre
R - Esercitazione 6 Andrea Fasulo [email protected] Università Roma Tre Venerdì 22 Dicembre 2017 Il modello di regressione lineare semplice (I) Esempi tratti da: Stock, Watson Introduzione all econometria
Esercizi su Regressione e Connessione
Esercizi su Regressione e Connessione Stefano Cabras 31 marzo 2009 Sommario Questa serie di esercizi è principalmente incentrata sulla regressione e la connessione, tuttavia in alcuni esercizi le soluzioni
STATISTICA (2) ESERCITAZIONE Dott.ssa Antonella Costanzo
STATISTICA (2) ESERCITAZIONE 7 11.03.2014 Dott.ssa Antonella Costanzo Esercizio 1. Test di indipendenza tra mutabili In un indagine vengono rilevate le informazioni su settore produttivo (Y) e genere (X)
Lezione 10: Interpolazione lineare Corso di Statistica Facoltà di Economia Università della Basilicata. Prof. Massimo Aria
Lezione 10: Interpolazione lineare Corso di Statistica Facoltà di Economia Università della Basilicata Prof. Massimo Aria [email protected] Il concetto di interpolazione In matematica, e in particolare in
Quiz di verifica - Alberi e FC Strumenti Quantitativi per la gestione
Quiz di verifica - Alberi e FC Strumenti Quantitativi per la gestione Le domande 1-6 si riferiscono al seguente problema Un data set contiene i dati sui consumi di diversi tipi di automobili e alcune loro
CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6
CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6 Dott.ssa Antonella Costanzo [email protected] Esercizio 1. Associazione, correlazione e dipendenza tra caratteri In un collettivo di 11 famiglie è stata
Statistica Descrittiva Soluzioni 7. Interpolazione: minimi quadrati
ISTITUZIONI DI STATISTICA A. A. 2007/2008 Marco Minozzo e Annamaria Guolo Laurea in Economia del Commercio Internazionale Laurea in Economia e Amministrazione delle Imprese Università degli Studi di Verona
STATISTICA 1, metodi matematici e statistici Introduzione al linguaggio R Esercitazione 7:
esercitazione 7 p. 1/13 STATISTICA 1, metodi matematici e statistici Introduzione al linguaggio R Esercitazione 7: 20-05-2004 Luca Monno Università degli studi di Pavia [email protected] http://www.lucamonno.it
Esercitazione 5 - Statistica (parte II) Davide Passaretti 9/3/2017
Esercitazione 5 - Statistica (parte II) Davide Passaretti 9/3/2017 Contents 1 Inferenza sulla regressione semplice 1 1.1 Test sulla pendenza della retta................................... 1 1.2 Test sull
Statistica di base per l analisi socio-economica
Laurea Magistrale in Management e comunicazione d impresa Statistica di base per l analisi socio-economica Giovanni Di Bartolomeo [email protected] Definizioni di base Una popolazione è l insieme
Esercizio 1 GRAFICO 1. X e Y sono indipendenti. X e Y non sono correlate. La correlazione tra X e Y è <1. X e Y sono perfettamente correlate
Esercizio 1 Osservare il grafico 1 riportato in figura che mette in relazione una variabile dipendente Y ed una variabile indipendente X e rispondere alle seguenti domande. 400 300 200 GRAFICO 1 100 0
Nuovo Ordinamento Esame di Statistica 20 Giugno 2003 docente: P. Vicard Nome
Nuovo Ordinamento Esame di Statistica 20 Giugno 2003 Cognome docente: P. Vicard Nome Al termine di ogni esercizio è lasciato lo spazio per scrivere la soluzione (corredata degli opportuni passaggi). La
Covarianza, correlazione e retta di regressione. Paola Lecca, CIBIO UNITN Corso di Matematica e Statistica 2
Covarianza, correlazione e retta di regressione Paola Lecca, CIBIO UNITN Corso di Matematica e Statistica 2 Questa presentazione è stata preparata attingendo dai seguenti testi S. M. Iacus, Statistica,
La media e la mediana sono indicatori di centralità, che indicano un centro dei dati.
La media e la mediana sono indicatori di centralità, che indicano un centro dei dati. Un indicatore che sintetizza in un unico numero tutti i dati, nascondendo quindi la molteplicità dei dati. Per esempio,
Analisi della varianza a due fattori
Laboratorio 11 Analisi della varianza a due fattori 11.1 Analisi del dataset PENICILLIN.DAT I dati contenuti nel file penicillin.dat, si riferiscono ad un esperimento di produzione di penicillina tendente
Probabilità e Statistica Prova del 29/07/2016 Traccia E TEORIA Università degli Studi di Verona Laurea in Informatica e Bioinformatica A.A.
Prova del 29/07/2016 Traccia E TEORIA ESERCIZIO 1 X f(x) 4 24 0 20 9 18 5 38 Sulla distribuzione di valori presentata in tabella, calcolare: (a) la media aritmetica, la media armonica e la media geometrica;
REGRESSIONE E CORRELAZIONE
REGRESSIONE E CORRELAZIONE Nella Statistica, per studio della connessione si intende la ricerca di eventuali relazioni, di dipendenza ed interdipendenza, intercorrenti tra due variabili statistiche 1.
La regressione lineare. Rappresentazione analitica delle distribuzioni
La regressione lineare Rappresentazione analitica delle distribuzioni Richiamiamo il concetto di dipendenza tra le distribuzioni di due caratteri X e Y. Ricordiamo che abbiamo definito dipendenza perfetta
Statistica. Alfonso Iodice D Enza
Statistica Alfonso Iodice D Enza [email protected] Università degli studi di Cassino () Statistica 1 / 24 Outline 1 2 3 4 5 () Statistica 2 / 24 Dipendenza lineare Lo studio della relazione tra caratteri
Validazione dei modelli Strumenti quantitativi per la gestione
Validazione dei modelli Strumenti quantitativi per la gestione Emanuele Taufer Validazione dei modelli Il data set Auto I dati Il problema analizzato Validation set approach Diagramma a dispersione Test
Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.
Regressione [] el modello di regressione lineare si assume una relazione di tipo lineare tra il valore medio della variabile dipendente Y e quello della variabile indipendente X per cui Il modello si scrive
STATISTICA. Regressione-2
STATISTICA Regressione-2 Esempio Su un campione di =5unità sono state osservate due variabili, ed : x i 1 2 3 4 5 y i 1.5 2.5 3 2.5 3.5 1. Rappresentare l andamento congiunto di in funzione di mediante
9.3 Il metodo dei minimi quadrati in formalismo matriciale
9.3. IL METODO DEI MINIMI QUADRATI IN FORMALISMO MATRICIALE 121 9.3 Il metodo dei minimi quadrati in formalismo matriciale Per applicare il MMQ a funzioni polinomiali, ovvero a dipendenze di una grandezza
Regressione lineare semplice
Regressione lineare semplice Prof. Giuseppe Verlato Sezione di Epidemiologia e Statistica Medica, Università di Verona Statistica con due variabili var. nominale, var. nominale: gruppo sanguigno - cancro
Statistica 1 A.A. 2015/2016
Corso di Laurea in Economia e Finanza Statistica 1 A.A. 2015/2016 (8 CFU, corrispondenti a 48 ore di lezione frontale e 24 ore di esercitazione) Prof. Luigi Augugliaro 1 / 35 Il modello di regressione
7. STATISTICA DESCRITTIVA
7. STATISTICA DESCRITTIVA Quando si effettua un indagine statistica si ha a che fare con un numeroso insieme di oggetti, detto popolazione del quale si intende esaminare una o più caratteristiche (matricole
STATISTICA A K (60 ore)
STATISTICA A K (60 ore) Marco Riani [email protected] http://www.riani.it Richiami sulla regressione Marco Riani, Univ. di Parma 1 MODELLO DI REGRESSIONE y i = a + bx i + e i dove: i = 1,, n a + bx i rappresenta
Regressione lineare semplice
Regressione lineare semplice Strumenti quantitativi per la gestione Emanuele Taufer Regressione lineare (RL) La regressione lineare per i dati Advertising Analisi d interesse Regressione lineare semplice
STATISTICA esercizi svolti su: INTERPOLAZIONE PONDERATA, REGRESSIONE E CORRELAZIONE
STATISTICA esercizi svolti su: INTERPOLAZIONE PONDERATA, REGRESSIONE E CORRELAZIONE 1 1 INTERPOLAZIONE PONDERATA, REGRESSIONE E CORRELAZIONE 2 1 INTERPOLAZIONE PONDERATA, REGRESSIONE E CORRELAZIONE 1.1
Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica
Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica Regressione Lineare e Correlazione Argomenti della lezione Determinismo e variabilità Correlazione Regressione Lineare
Laboratorio di Probabilità e Statistica
Laboratorio di Probabilità e Statistica lezione 9 Massimo Guerriero Ettore Benedetti Indice Lezione Prerequisiti dalla lezione scorsa Analisi di regressione: Cambiamenti di scala Schema generale sull analisi
