Soluzioni Capitolo

Documenti analoghi
La regressione lineare multipla

Capitolo 12 La regressione lineare semplice

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1

s a Inferenza: singolo parametro Sistema di ipotesi: : β j = β j0 H 1 β j0 statistica test t confronto con valore t o p-value

Metodi statistici per le ricerche di mercato

Esercitazioni di Statistica Dott.ssa Cristina Mollica

1. variabili dicotomiche: 2 sole categorie A e B

5. Per determinare il miglior grado del polinomio di una regressione polimoniale

Metodi statistici per l economia (Prof. Capitanio) Slide n. 10. Materiale di supporto per le lezioni. Non sostituisce il libro di testo

Il modello di regressione lineare multipla. Il modello di regressione lineare multipla

RICHIAMI DI STATISTICA DESCRITTIVA E DI INFERENZA: LA VERIFICA DI IPOTESI: TEST BASATI SU UN CAMPIONE

Regressione Lineare Semplice e Correlazione

La regressione lineare semplice

Giorno n. clienti di attesa

STATISTICA MULTIVARIATA SSD MAT/06

Esercizi su distribuzioni doppie, dipendenza, correlazione e regressione (Statistica I, IV Canale)

Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare

lezione 4 AA Paolo Brunori

Il modello di regressione (VEDI CAP 12 VOLUME IEZZI, 2009)

Correlazione e regressione

Università del Piemonte Orientale Corso di Laurea in Medicina e Chirurgia. Corso di Statistica Medica. Correlazione. Regressione Lineare

Data Mining. Prova parziale del 20 aprile 2017: SOLUZIONE

Regressione semplice: come applicarla come interpretare i risultati

Metodi statistici per la ricerca sociale Capitolo 12. Confronto fra gruppi: L analisi della varianza. Esercitazione

Statistica descrittiva: analisi di regressione

lezione 10 AA Paolo Brunori

Regressione & Correlazione

Statistica Applicata all edilizia: il modello di regressione

STATISTICA. Regressione-2

Statistica - metodologie per le scienze economiche e sociali /2e S. Borra, A. Di Ciaccio - McGraw Hill

STIMA DELLA PIENA INDICE

L'analisi bivariata (analisi della varianza e correlazione) Prof. Stefano Nobile. Corso di Metodologia della ricerca sociale

Università del Piemonte Orientale Corso di Laurea specialistica in Biotecnologie mediche. Corso di Statistica Medica. Correlazione

Regressione Lineare Multipla

Statistica multivariata Donata Rodi 17/10/2016

2) REGRESSIONE. 1) Creo un diagramma a dispersione per ispezionare i dati. 2) Selezionare in SPSS Analizza -> Regressione Lineare.

Rappresentazioni grafiche di distribuzioni doppie

LEZIONE N. 11 ( a cura di MADDALENA BEI)

STIMA DELLA PIENA INDICE

Esercitazione del

Metodi statistici per la ricerca sociale Capitolo 13. Combinare regressione e ANOVA: predittori categoriali e quantitativi

Regressione lineare semplice

Metodi statistici per la ricerca sociale Capitolo 11. Regressione Multipla e Correlazione

B il suo coe ciente si interpreta come la variazione di Y dovuta alla variazione unitaria di X (0! 1)

CORSO DI STATISTICA (parte 1) - ESERCITAZIONE 6

Statistica. Alfonso Iodice D Enza

Regressione lineare multipla CORSO DI ANALISI DEI DATI Anno Accademico 2009/2010, I ciclo

STATISTICA A K (60 ore)

Fasi del modello di regressione

ESERCIZIO 1. Di seguito vengono riportati i risultati di una regressione multipla effettuata secondo il metodo standard (o per blocchi )

CHEMIOMETRIA. CONFRONTO CON VALORE ATTESO (test d ipotesi) CONFRONTO DI VALORI MISURATI (test d ipotesi) CONFRONTO DI RIPRODUCIBILITA (test d ipotesi)

LM 88 SOCIOLOGIA E RICERCA SOCIALE. Metodi Statistici per la Ricerca Sociale. Regressione lineare e correlazione

Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica

CAPITOLO 11 ANALISI DI REGRESSIONE

Metodi Quantitativi per Economia, Finanza e Management

Argomenti della lezione:

11.2. Introduzione alla statistica 2/ed. Marilyn K. Pelosi, Theresa M. Sandifer, Paola Cerchiello, Paolo Giudici

Correlazione e regressione

Metodologie Quantitative

STATISTICA. Esercitazione 5

Confronto fra gruppi: il metodo ANOVA. Nicola Tedesco (Statistica Sociale) Confronto fra gruppi: il metodo ANOVA 1 / 23

Esercitazione del 16 maggio 2014

Analisi di Regressione Multipla

Esercizi di statistica

Politecnico di Milano - Scuola di Ingegneria Industriale. II Prova in Itinere di Statistica per Ingegneria Energetica 7 Luglio 2011

Casa dello Studente. Casa dello Studente

La regressione lineare multipla

S 2 p n X. + S2 p. n Y

Esercitazione 5 Sta/s/ca Aziendale

Indice. Prefazione all edizione italiana, di Piero Veronese » XI. Prefazione

Statistica inferenziale

Settimana 3. G. M. Marchetti. Marzo 2017

Analisi della Regressione Lineare

Laboratorio 8. Regressione multipla. 8.1 Analisi del dataset HOOK.DAT

Contenuti: Capitolo 14 del libro di testo

ESERCITAZIONE ANCOVA

Teoria e tecniche dei test. Concetti di base

ANALISI MULTIVARIATA

Sommario. Capitolo 1 I dati e la statistica 1. Capitolo 2 Statistica descrittiva: tabelle e rappresentazioni grafiche 25

Psicometria con Laboratorio di SPSS 2

Esercitazione 9 del corso di Statistica (parte seconda)

Metodi statistici per la ricerca sociale Capitolo 13. Combinare regressione e ANOVA: predittori categoriali e quantitativi Esercitazione

Regressione e Correlazione (cap. 11) Importazione dati da file di testo

Laboratorio di Statistica Aziendale Modello di regressione lineare multipla

La multicollinearità sorge quando c è un elevata correlazione tra due o più variabili esplicative.

Esercitazione 8 del corso di Statistica 2

Statistica. Alfonso Iodice D Enza

Statistica economica

Analisi della regressione multipla

Vecchie prove d esame Statistica e Calcolo delle Probabilità

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione.

Analisi descrittiva: calcolando medie campionarie, varianze campionarie e deviazioni standard campionarie otteniamo i dati:

SOLUZIONI DI ALCUNI ESERCIZI. Appello del

1. Sono state eseguite 250 misure di temperatura che hanno rivelato i seguenti valori stimati di media e di deviazione standard per il campione

Regressione logistica

COGNOME.NOME...MATR..

Transcript:

Soluzioni Capitolo 13 13.1 (a) Mantenendo costante l effetto di X 2, ci aspettiamo che per ogni unità addizionale di X 1 la variabile risposta Y aumenti in media di 5 unità. Mantenendo costante l effetto di X 1, ci aspettiamo che per ogni unità addizionale di X 2 la variabile risposta Y aumenti in media di 3 unità. (b) L intercetta b 0 rappresenta la parte di variabilità della Y non dovuta alle variabili esplicative X 1 e X 2. (c) Il 60% della variabilità di Y è spiegato dalla variabilità di X 1 e X 2. 13.2 (a) Ŷ i 0.02686 0.79116X 1i 0.60484X 2i. (b) Per un dato valore della variabile MIDSOLE, ci aspettiamo che un aumento di una unità della variabile FOREIMP determini un aumento della variabile risposta LTIMP di 0.79116 unità. Per un dato valore della variabile FOREIMP, ci aspettiamo che un aumento di una unità della variabile MIDSOLE determini un aumento della variabile risposta LTIMP di 0.60484 unità. (c) r 2 Y.12 0.9421; 94.21% della variabilità della variabile risposta LTIMP può essere spiegata dalla variabilità delle variabili esplicative MIDSOLE e FOREIMP. (d) r 2 adj 0.9324 13.4 (a) Ŷ i 156.4 13.081X 1i 16.795X 2i dove X 1 pubblicità per radio e televisione (in migliaia di dollari) e X 2 pubblicità su giornali (in migliaia di dollari). (b) Mantenendo costante la pubblicità sui giornali, ci aspettiamo che per ogni aumento di $ 1000 della pubblicità per radio e per televisione le vendite aumentino di $ 13 081. Mantenendo costante la pubblicità per radio e per televisione, ci aspettiamo che per ogni aumento di un $ 1000 della pubblicità sui giornali le vendite aumentino di $ 753.95. (c) Ŷ i $ 753.95 (d) r 2 Y.12 0.809; 80.9% l 80.9% della variabilità delle vendite può essere spiegata dalla variabilità della spesa in pubblicità per radio e televisione e della spesa in pubblicità su giornali. (e) r 2 adj 0.789 13.6 I grafici dei residui rispetto alla pubblicità per radio e televisione e rispetto alla pubblicità sui giornali rivelano la presenza di una relazione non lineare. Pertanto sarebbe opportuno inserire nel modello di regressione dei termini polinomiali in entrambe le variabili esplicative 13.8 (a) F 97.69 F U 3.89 con 2 e 18 gradi di libertà. Si rifiuta H 0. Vi è una relazione lineare tra almeno una delle variabili indipendenti e la variabile dipendente Y. (b) La probabilità di ottenere un modello di regressione multipla in cui la statistica test F con 2 e 12 gradi di libertà assume un valore uguale o maggiore di 97.69 quando l ipotesi nulla è vera è uguale a 0.0001 (p-value). 87

13.10 (a) F 40.16 F U 3.52 con 2 e 19 gradi di libertà. Si rifiuta H 0. Vi è una relazione lineare significativa tra le vendite e la pubblicità per radio e televisione e tra le vendite e la pubblicità sui giornali. (b) Il p-value (o la probabilità di ottenere un modello di regressione multipla in cui la statistica test F con 2 e 19 gradi di libertà assume un valore uguale o maggiore di 40.16 quando l ipotesi nulla è vera) è uguale a 0.001. 13.11 (a) L inclinazione della variabile risposta rispetto a X 2 è maggiore di quella rispetto a X 1. (b) 0.852 1 9.148 (c) t 2.50 t 22 2.0739 con 22 gradi di libertà. Si rifiuta H 0. Vi è prova che la variabile X 1 dia un contributo significativo al modello in cui sia inserita come variabile esplicativa X 2. t 1.25 t 22 2.0739. Non si rifiuta H 0. Non vi è prova che la variabile X 2 dia un contributo significativo al modello in cui sia inserita come variabile esplicativa X 1. Solo la variabile X 1 dovrebbe essere inserita nel modello. Sebbene come osserviamo in (a) l inclinazione di Y rispetto a X 2 sia minore, la variabilità attorno a b 2 è maggiore. Pertanto X 1 contribuisce in maniera significativa al modello al contrario di X 2. 13.12 (a) 0.65400 1 0.92832 (b) Per la variabile X 1 : t 12.57 t 12 2.1788 con 12 gradi di libertà. Si rifiuta H 0. Per la variabile X 2 : t 8.43 t 12 2.1788 con 12 gradi di libertà. Si rifiuta H 0. Pertanto ciascuna variabile indipendente dà un contributo significativo al modello di regressione. Entrambe dovrebbero essere inserite. 13.15 (a) Per la variabile X 1 : F 5.25 F U 4.41 con 1 e 18 gradi di libertà. Si rifiuta H 0. Per la variabile X 2 : F 2.25 F U 4.41 con 1 e 18 gradi di libertà. Non si rifiuta H 0. Poiché in presenza della variabile X 1, la variabile X 2 non dà un contributo significativo al modello, solo X 1 dovrebbe essere inserita nel modello e si dovrebbe sviluppare un modello di regressione semplice. (b) r 2 Y1.2 0.2258. Tenendo costante l effetto della variabile X 2, 22.58% il 22.58% della variabilità di Y può essere spiegata dalla variabilità di X 1. r 2 Y2.1 0.1111. Tenendo costante l effetto della variabile X 2, il 11.11% della variabilità di Y può essere spiegata dalla variabilità di X 2. 13.17 (a) Per la variabile X 1 : F 55.28 F U 4.38 con 1 e 19 gradi di libertà. Si rifiuta H 0. Per la variabile X 2 : F 32.12 F U 4.38 con 1 e 19 gradi di libertà.. Si rifiuta H 0. Pertanto ciascuna variabile indipendente dà un contributo significativo al modello di regressione. Entrambe dovrebbero essere inserite. (b) r 2 Y1.2 0.7442. Dato l ammontare della spesa in pubblicità sui giornali, il 74.42% della variabilità della vendite può essere spiegato dalla variabilità della pubblicità per radio e televisione. r 2 Y2.1.6283. Dato l ammontare della spesa in pubblicità per radio e televisione, il 62.83% della variabilità della vendite può essere spiegato dalla variabilità della pubblicità sui giornali. 13.18 (a) Ŷ i 17 (b) t 22 2.0739. Poiché t 2.35, l effetto quadratico è significativo. (c) t 22 2.0739. Poiché t 1.17, l effetto quadratico non è significativo. (d) Ŷ i 5 88 SOLUZIONI

13.19 (b) Ŷ 7.56 1.27X 1i 0.0145X1i 2 i (c) Ŷ i 18.52 miglia per gallone. (d) L analisi dei residui rivela la presenza di una struttura. Il modello stimato dovrà essere usato con cautela. (e) F 141.46 3.89. Si rifiuta H 0. Il modello complessivo è significativo. Il p-value = meno di 0.001. (f) t 16.63 2.0595. Si rifiuta H 0. Il modello complessivo è significativo. Il p-value = meno di 0.001. (g) r 2 Y.12 il 91.9% della variabilità delle miglia per gallone può essere spiegata dalla relazione lineare tra le miglia per gallone e la velocità in autostrada. 13.21 (a) Tenendo conto della variabile X 2, ci aspettiamo che per ogni aumento di un unità della variabile X 1, la variabile dipendente aumenti di 4 unità. (b) Tenendo conto della variabile X 1, ci aspettiamo che per ogni aumento di un unità della variabile X 2 la variabile dipendente aumenti di 2 unità. (c) t 3.27 2.1098. Si rifiuta H 0. L effetto polinomiale è significativo. 13.22 (a) Ŷ i 1.30 0.074X 1i 0.45X 2i, dove X 1 spazio sullo scaffale, X 2 0 se lo scaffale è dietro X 2 1 se lo scaffale è davanti. (b) Tenendo costante l effetto della posizione dello scaffale nella corsia, ci aspettiamo che per ogni piede addizionale di spazio sullo scaffale le vendite aumentino di 0.074 dollari. Per un dato ammontare di spazio, ci aspettiamo che se lo scaffale è posizionato davanti le vendite aumentino di 0.45 dollari. (c) Ŷ i 1.892 o $ 189.20 (d) Il modello risulta adeguato alla luce dell analisi dei residui. (e) F 28.53 4.26. Si rifiuta H 0. Vi è prova di una relazione lineare tra le vendite e le due variabili dipendenti. (f) t 6.72 2.2622 e t 3.45 2.2622. Pertanto ciascuna variabile esplicativa dà un contributo significativo e dovrebbe essere inclusa nel modello. (g) 0.049 1 0.099 0.155 2 0.745 (h) L inclinazione in questo caso tiene conto dell effetto dell altro previsore, che non si prende in considerazione nell Esercizio 9.2 (i) r 2 Y.12 0.864; 86.4% della variabilità delle vendite può essere spiegata dalla variabilità nello spazio sullo scaffale e nella posizione dello scaffale. (j) r 2 adj 0.834 (k) r 2 0.864; r 2 Y.12 0.684. L inclusione della variabile posizione dello scaffale nella corsia dà luogo a un aumento. (l) r 2 Y1.2 0.834. Tenendo costante l effetto della posizione dello scaffale, l 83.4% della variabilità nelle vendite può essere spiegato dalla variabilità nello spazio sullo scaffale. r 2 Y2.1 0.569. Tenendo costante l effetto dello spazio sullo scaffale, il 56.9% della variabilità nelle vendite può essere spiegato dalla variabilità nella posizione dello scaffale (m) L inclinazione delle vendite rispetto allo spazio sullo scaffale è la stessa indipendentemente dall inclusione o meno della variabile dummy. (n) Ŷ i 1.20 0.082X 1i 0.75X 2i 0.024X 1i X 2i, dove X 1 spazio sullo scaffale, X 2 0 se lo scaffale è dietro X 2 1 se lo scaffale è davanti. t 1.03 2.306. Non si rifiuta H 0. Non vi è prova che il termine di interazione dia un contributo significativo al modello. SOLUZIONI 89

(o) Si dovrebbero usare entrambe le variabili in (e). 13.23 (a) Ŷ i 43.737 9.219X 1i 12.967X 2i, dove X 1 numero di stanze, X 2 0 se se la casa è a Est, X 2 1 se se la casa è a Ovest. (b) Tenendo costante l effetto dell area della città, ci aspettiamo che per ogni stanza in più, il prezzo di vendita aumenti di 9.219 mila dollari. Per un dato numero di stanze, ci aspettiamo che il prezzo di vendita aumenti di 12.967 mila dollari se la casa è a Ovest. (c) Ŷ i 126.710 or $ 126,710. (d) Il modello risulta adeguato alla luce dell analisi dei residui. (e) F 55.39 3.59. Si rifiuta H 0. Vi è prova di una relazione lineare tra le vendite e le due variabili dipendenti. (f) t 8.95 2.1098 e t 3.59 2.1098. Pertanto ciascuna variabile esplicativa dà un contributo significativo e dovrebbe essere inclusa nel modello. (g) 7.0466 1 11.3913 5.2377 2 20.1557 13.24 VIF 1.25 13.25 VIF 1 2.8 e VIF 2 2.8. Non vi è ragione di sospettare la presenza di multicollinearità 13.27 (a) C p 35.04 (b) C p supera di molto p 1 3, il numero dei parametri, pertanto questo modello non soddisfa le condizioni necessarie per poter essere incluso tra i modelli tra cui selezionare il migliore. 13.28 I valori del VIF sono rispettivamente uguali a 1.3, 1.0 e 1.2, pertanto non vi è prova di multicollinearità. La regressione stepwise seleziona un modello con il valore accertato e il periodo di vendita come variabili esplicative. Il C p per questo modello è, infatti, 2.8, minore o uguale a p 1. Il modello stimato è: Prezzo di vendita 44.988 1.7506 valore accertato 0.368 periodo di vendita Il 95.9% della variabilità del prezzo di vendita può essere spiegato dalla variabilità del valore accertato e del periodo di vendita della casa. Mantenendo costante il periodo di tempo in cui le case sono vendute, ci aspettiamo che, se il valore accertato cresce di $ 1000, il prezzo di vendita cresca di $ 1660.09. Mantenendo costante il valore accertato, ci aspettiamo che il prezzo di vendita cresca di $ 507 per ogni periodo di tempo addizionale. Mantenendo costante il periodo di tempo in cui le case sono vendute, il 95.1% della variabilità del prezzo può essere spiegato dalla variabilità del valore accertato. Mantenendo costante il valore accertato, il 78.5% della variabilità del prezzo di vendita può essere spiegato dalla variabilità nel periodo di tempo in cui avvengono le vendite. 13.40 (a) Ŷ i 63.7751 10.7252X 1i 0.2843X 2i dove X 1 la superficie riscaldata (in migliaia di piedi), X 2 età (in anni). (b) Mantenendo costante l effetto dell età, se la superficie riscaldata aumenta di 1000 piedi ci aspettiamo che il valore delle case aumenti di 10.7257 mila dollari. Mantenendo costante la superficie riscaldata, ci aspettiamo che per ogni anno in più il valore delle case diminuisca di 0.2843 mila dollari. 90 SOLUZIONI

(c) Ŷ i 79.702 mila dollari (d) Il grafico dei residui Ŷ i evidenzia la presenza di una possibile struttura. Tuttavia gli altri grafici non danno la medesima indicazione, mentre uno dei valori sembra essere un outlier in tutti e quattro i grafici. (e) F 36.94 F U 3.98 con 2 e 11 gradi di libertà. Si rifiuta H 0. Sussiste una relazione lineare tra almeno una delle variabili esplicative e la variabile dipendente Y. (f) Il p-value (o la probabilità di ottenere un modello di regressione multipla in cui la statistica test F con 2 e 11 gradi di libertà assume un valore uguale o maggiore di 36.94 quando l ipotesi nulla è vera) è minore di 0.001. (g) r 2 Y.12 0.870; 87.0% della variabilità del valore accertato può essere spiegata dalla variabilità della superficie riscaldata e dalla variabilità dell età. (h) r 2 adj 0.847 (i) t 5.06 t 11 2.201 con 11 gradi di libertà. Si rifiuta H 0. Vi è prova che la variabile X 1 contribuisce in maniera significativa a un modello di regressione che includa la variabile X 2. t 5.27 t 11 2.201 con 11 gradi di libertà. Si rifiuta H 0. Vi è prova che la variabile X 2 contribuisce in maniera significativa a un modello di regressione che includa la variabile X 1. Entrambe le variabili dovrebbero essere incluse nel modello. (j) Per la variabile X 1 il p-value è minore di 0.001. La probabilità di ottenere un modello in cui la statistica test t differisce da 0 per più di 5.06, quando l ipotesi nulla, è vera è minore di 0.001. (k) 6.710 1 17.032. Tenendo conto dell età delle case, l inclinazione rappresenta l aumento del valore accertato che ci si aspetta se la superficie riscaldata aumenta di 1000 piedi al quadrato. Nell Esercizio 9.43 non si tiene conto dell effetto dell età. (l) r 2 Y1.2 0.6997. Data l età della casa, il 69.97% della variabilità del valore accertato può essere spiegato dalla variabilità della superficie riscaldata. r 2 Y2.1 0.7163. Data la superficie riscaldata, il 71.63% della variabilità del valore accertato può essere spiegata dalla variabilità dell età. (m) (m) No. L età dell età è un previsore del valore accertato leggermente migliore della superficie riscaldata. 13.42 (a) Ŷ i 50.0181 0.0188X 1i 0.0074X 2i dove X 1 la lunghezza (in pollici), X 2 peso (in libbre). (b) Mantenendo costante l effetto del peso, ci aspettiamo che per ogni pollice in più di lunghezza, le miglia percorse per gallone diminuiscano di 0.0188. Mantenendo costante la lunghezza, ci aspettiamo che per ogni libbra in più di peso, le miglia percorse per gallone diminuiscano di 0.0074. (c) Ŷ i 24.152 miglia per gallone. (d) Tutti i grafici dei residui confermano l adeguatezza del modello. (e) F 196.62 F U 3.11 con 2 e 86 gradi di libertà. Si rifiuta H 0. Sussiste una relazione lineare tra Almeno una delle variabili esplicative e la variabile dipendente Y. (f) Il p-value (o la probabilità di ottenere un modello di regressione multipla in cui la statistica test F con 2 e 86 gradi di libertà assume un valore uguale o maggiore di 196.62 quando l ipotesi nulla è vera) è minore di 0.001. (g) r 2 Y.12 0.821; l 82.1% della variabilità delle miglia per gallone può essere spiegata dalla variabilità nella lunghezza e nel peso. SOLUZIONI 91

(h) r 2 adj 0.816 (i) t 0.51 t 86 1.9879 con 86 gradi di libertà. Non si rifiuta H 0. Non vi è prova che la variabile X 1 contribuisca in maniera significativa a un modello che includa la variabile X 2. t 7.90 t 86 1.9879 con 86 gradi di libertà. Si rifiuta H 0. La variabile X 2 contribuisce in maniera significativa a un modello che includa la variabile X 1. Pertanto solo la variabile X 2, dovrebbe essere includa nel modello e un modello di regressione lineare semplice deve essere sviluppato. (j) Per la variabile X 1 il p-value è 0.613. La probabilità di ottenere un modello in cui la statistica test t differisce da 0 per più di 0.51 quando l ipotesi nulla è vera è uguale a 0.613. Per la variabile X 2 il p-value è minore di 0.001. La probabilità di ottenere un modello in cui la statistica test t differisce da 0 per più di 7.90 quando l ipotesi nulla è vera è minore o uguale a 0.001. (k) 0.009289 2 0.005553. Tenendo conto dell effetto del previsore non significativo X 1 l inclinazione rappresenta la diminuzione delle miglia per gallone che ci si aspetta per ogni libbra addizionale di peso dell automobile. (l) r 2 Y1.2 0.0030. Dato il peso, lo 0.3% della variabilità nelle miglia per gallone può essere spiegata dalla variabilità della lunghezza. r 2 Y2.1 0.4192. Data la lunghezza, il 41.92% della variabilità nelle miglia per gallone può essere spiegata dalla variabilità del peso. Considerate il seguente modello di regressione lineare semplice in cui il peso viene impiegato per prevedere le miglia per gallone: Equazione di regressione: Ŷ i 47.885 0.00785X 2i. Previsione: Ŷ i 24.324 miles per gallon. Analisi dei residui: Entrambi i grafici dei residui evidenziano che il modello di regressione è adeguato. Test di significatività: Per la variabile X 2, t 19.91 t 87 1.9876 con 87 gradi di libertà. Si rifiuta H 0. La variabile X 2 contribuisce in maniera significativa al modello p-value: La probabilità di ottenere un modello di regressione in cui la test t con 87 gradi di libertà è uguale o maggiore di 19.91 è minore di 0.001. R quadro: r 2 0.820; l 82.0% della variabilità delle miglia per gallone può essere spiegata dalla variabilità del peso. Inclinazione: 0.008638 2 0.007070. L inclinazione rappresenta la riduzione nelle miglia per gallone che ci si aspetta per ogni libbra addizionale di peso. 92 SOLUZIONI

ˆ 1 1 2 ; t Capitolo 14 14.1 (a) La proporzione di non conformi è maggiore (0.22) in corrispondenza del quinto giorno e più piccola (0.10) in corrispondenza del terzo giorno. (b) p 0.148; LCL 0.041; UCL 0.255 (c) Non ci sono cause straordinarie di variazione: il processo è sotto controllo. 14.3 (a) p 0.1145; LCL 0.0522; UCL 0.1768. La proporzione di ritardi corrispondente al tredicesimo giorno si trova all esterno dei limiti di controllo. L analista deve investigare le possibili cause straordinarie di variazione. (b) p 0.1102; LCL 0.0489; UCL 0.1715. La situazione non cambia rispetto a quella descritta nel punto (a) 14.4 (a) p 0.04617; UCL 0.09882. Il limite di controllo inferiore non esiste. (b) Anche se non si assiste a situazioni fuori controllo la carta evidenzia un andamento sistematico (pattern) delle osservazioni nel tempo. 14.5 (a) p 0.0129; LCL 0.0082; UCL 0.0175. Anche se non si assiste a situazioni fuori controllo la carta evidenzia un andamento sistematico (pattern) delle osservazioni nel tempo (gli ultimi 8 punti si trovano tutti sopra la media e quasi tutti i precedenti al di sotto di questo valore). Prima di modificare il processo l analista dovrà investigare le cause alla base di questa sistematicità. (b) Una volta eliminate le cause di variazione alla base dell andamento sistematico delle osservazioni, l analista può tentare di migliorare il processo, per esempio attraverso l applicazione dei 14 punti di Deming. 14.7 (a) d 2 2.059 (b) d 3 0.880 (c) D 3 0 (d) D 4 2.282 (e) A 2 0.729 14.9 (a) R 271.57; UCL 574.20. LCL non esiste. Non vi sono punti al di fuori dei limiti di controllo e non si evidenzia alcun pattern nel diagramma R. X 198.67; LCL 41.97; UCL 355.36. Non vi sono punti al di fuori dei limiti di controllo e non si evidenzia alcun pattern nel diagramma X. (b) Il processo sembra sotto controllo. 14.10 (a) R 4.8325 e X 3.549. Per il diagramma R, LCL 1.0776 e UCL 8.5874. Il processo sembra sotto controllo perché non ci sono punti al di fuori dei limiti superiore e inferiore e le osservazioni non evidenziano alcuna struttura particolare. Dal momento che il processo è sotto controllo, sta al management decidere di ridurne le cause ordinarie di variazione ricorrendo alla teoria dei 14 punti di Deming. SOLUZIONI 93