Modelli Multilineari e Misure di adeguatezza del modello

Documenti analoghi
Il modello di regressione lineare multipla. Il modello di regressione lineare multipla

Statistica Applicata all edilizia: il modello di regressione

Esercitazione del

Statistica. Alfonso Iodice D Enza

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

lezione n. 6 (a cura di Gaia Montanucci) Verosimiglianza: L = = =. Parte dipendente da β 0 e β 1

Metodi statistici per l economia (Prof. Capitanio) Slide n. 10. Materiale di supporto per le lezioni. Non sostituisce il libro di testo

STATISTICA (2) ESERCITAZIONE Dott.ssa Antonella Costanzo

Statistica. Alfonso Iodice D Enza

I. Foglio di esercizi su vettori linearmente dipendenti e linearmente indipendenti. , v 2 = α v 1 + β v 2 + γ v 3. α v 1 + β v 2 + γ v 3 = 0. + γ.

Esercizi su distribuzioni doppie, dipendenza, correlazione e regressione (Statistica I, IV Canale)

12) Metodo dei minimi quadrati e linea di tendenza

ANOVA: ANALISI DELLA VARIANZA Prof. Antonio Lanzotti

Università del Piemonte Orientale Specializzazioni di area sanitaria Statistica Medica

Regressione multipla

Variabili aleatorie scalari

Algebra lineare con R

REGRESSIONE E CORRELAZIONE

METODO DEI MINIMI QUADRATI

Il metodo delle osservazioni indirette

Note sulla probabilità

Metodologia Sperimentale Agronomica / Metodi Statistici per la Ricerca Ambientale

Analisi delle corrispondenze

0 altimenti 1 soggetto trova lavoroentro 6 mesi}

Politecnico di Milano - Scuola di Ingegneria Industriale. II Prova in Itinere di Statistica per Ingegneria Energetica 25 luglio 2011

Sommario. Capitolo 1 I dati e la statistica 1. Capitolo 2 Statistica descrittiva: tabelle e rappresentazioni grafiche 25

CHEMIOMETRIA. CONFRONTO CON VALORE ATTESO (test d ipotesi) CONFRONTO DI VALORI MISURATI (test d ipotesi) CONFRONTO DI RIPRODUCIBILITA (test d ipotesi)

Appunti su Indipendenza Lineare di Vettori

Corso di Statistica Industriale

VALIDAZIONE DEI METODI RADIOCHIMICI. Analisi di alcuni aspetti: 1. Taratura. 2. Ripetibilità. Dott. Maurizio Bettinelli.

Sistemi sovradeterminati

Sistemi lineari. Lorenzo Pareschi. Dipartimento di Matematica & Facoltá di Architettura Universitá di Ferrara

Il teorema di Rouché-Capelli

La regressione lineare multipla

Errori di misura Teoria

Analisi descrittiva: calcolando medie campionarie, varianze campionarie e deviazioni standard campionarie otteniamo i dati:

3.1 Classificazione dei fenomeni statistici Questionari e scale di modalità Classificazione delle scale di modalità 17

Lezione 10: Interpolazione lineare Corso di Statistica Facoltà di Economia Università della Basilicata. Prof. Massimo Aria

Distribuzioni e inferenza statistica

Metodi di regressione multivariata

Esercitazioni di Statistica

Intervallo di fiducia del coefficiente angolare e dell intercetta L intervallo di fiducia del coefficiente angolare (b 1 ) è dato da:

La matrice delle correlazioni è la seguente:

Statistica. Esercitazione 16. Alfonso Iodice D Enza iodicede@unicas.it. Università degli studi di Cassino. Statistica. A. Iodice

TOPOGRAFIA 2013/2014. Prof. Francesco-Gaspare Caputo

Funzioni di regressione non lineari

Statistica multivariata Donata Rodi 17/10/2016

Lezioni di Statistica del 15 e 18 aprile Docente: Massimo Cristallo

Probabilità classica. Distribuzioni e leggi di probabilità. Probabilità frequentista. Probabilità soggettiva

Econometria. lezione 13. validità interna ed esterna. Econometria. lezione 13. AA Paolo Brunori

Metodi computazionali per i Minimi Quadrati

LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano. Strumenti statistici in Excell

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza

Massimi e minimi vincolati

Risoluzione di problemi ingegneristici con Excel

Ogni misura è composta di almeno tre dati: un numero, un'unità di misura, un'incertezza.

Variabili indipendenti qualitative. In molte applicazioni si rende necessario l introduzione di un fattore a due o più livelli.

Tema d esame del 15/02/12

SISTEMI LINEARI: APPROFONDIMENTI ED ESEMPI

Distribuzione Gaussiana - Facciamo un riassunto -

Dal coefficiente di Correlazione lineare tra due grandezze x, y alla covarianza.

Esercitazioni di statistica

Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura

Dipendenza e indipendenza lineare (senza il concetto di rango)

Capitolo 2 Le misure delle grandezze fisiche

La statistica. Elaborazione e rappresentazione dei dati Gli indicatori statistici. Prof. Giuseppe Carucci

Intervalli di confidenza

Università degli studi della Tuscia. Principi di Statistica dr. Luca Secondi A.A. 2014/2015. Esercitazione di riepilogo Variabili casuali

Esercizi su algebra lineare, fattorizzazione LU e risoluzione di sistemi lineari

Generazione di Numeri Casuali- Parte 2

LE DISTRIBUZIONI CAMPIONARIE

Il modello lineare misto

LEZIONE N. 11 ( a cura di MADDALENA BEI)

La regressione fuzzy. Capitolo I limiti della regressione classica. a cura di Fabrizio Maturo

Laboratorio di Didattica di elaborazione dati 5 STIMA PUNTUALE DEI PARAMETRI. x i. SE = n.

Geometria BIAR Esercizi 2

Capitolo 8. Intervalli di confidenza. Statistica. Levine, Krehbiel, Berenson. Casa editrice: Pearson. Insegnamento: Statistica

Misure Meccaniche e Termiche. punti massa. Valore atteso: Varianza:

Il test (o i test) del Chi-quadrato ( 2 )

PROCEDURE/TECNICHE DI ANALISI / MISURE DI ASSOCIAZIONE A) ANALISI DELLA VARIANZA

Distribuzione Normale

Covarianza, correlazione e retta di regressione. Paola Lecca, CIBIO UNITN Corso di Matematica e Statistica 2

Σ (x i - x) 2 = Σ x i 2 - (Σ x i ) 2 / n Σ (y i - y) 2 = Σ y i 2 - (Σ y i ) 2 / n. 13. Regressione lineare parametrica

Variabile casuale Normale

UNIVERSITÀ di ROMA TOR VERGATA

Decomposizione LU di una matrice quadrata

1 4 Esempio 2. Si determini la distribuzione di probabilità della variabile casuale X = punteggio ottenuto lanciando un dado. Si ha immediatamente:

Capitolo 12. Suggerimenti agli esercizi a cura di Elena Siletti. Esercizio 12.1: Suggerimento

Transcript:

Metodi di Analisi dei Dati Sperimentali AA /2010 Pier Luca Maffettone Modelli Multilineari e Misure di adeguatezza del modello

Sommario Regressione multilineare Coefficiente di determinazione (modelli lineari e non lineari) Matrice di correlazione (modelli lineari) Matrice di correlazione asintotica (estensione a modelli non lineari) Analisi dei residui (modelli lineari e non lineari) 2 /47

Regressioni multilineari Molte applicazioni di analisi della regressione coinvolgono situazioni con più di una singola variabile indipendente. Un modello lineare che contiene più di una variabile indipendente è detto multilineare Spesso modelli multilineari sono ottenuti a valle di linearizzazioni di modelli nonlineari. Continuiamo a a considerare problemi in cui si misura una sola variabile dipendente. 3 /47

Regressioni multilineari Il modello dell esperimento è: Abbiamo p=k+1 parametri ed N condizioni sperimentali Per poter stimare i parametri N>>p Tipo di esperimento: (comunque esperimenti indipendenti) ε i :=N(0, σ 2 ) 4 /47

Regressioni multilineari Il criterio della massima verosimiglianza nelle ipotesi in cui ci siamo messi porta ad uno stimatore di tipo minimi quadrati. Come al solito vogliamo minimizzare questa sommatoria al variare dei parametri da stimare: 5 /47

Regressioni multilineari Con un po di algebra si arriva ad un sistema di p equazioni in p incognite 6 /47

Regressioni multilineari: Esempio Resistenza a trazione di un wire bond per semiconduttori Modello empirico dell esperimento: 7 /47

Regressioni multilineari: Esempio Grandezze utili per i calcoli 8 /47

Regressioni multilineari: Esempio Sistema di equazioni Con i dati Soluzione 9 /47

Regressioni multilineari Nei problemi multilineari conviene usare un approccio matriciale Il modello lo scriviamo così: X ij : i parametro 1..k+1 j prova 1..n 10 /47

Regressioni multilineari Qualche richiamo di algebra lineare y = y 1 y 2 y 3 y 4, X = 1 x 11 x 12 1 x 21 x 22 1 x 31 x 32 1 x 41 x 42, β = β 0 β 1 β 2 X β = 1 x 11 x 12 1 x 21 x 22 1 x 31 x 32 1 x 41 x 42 β 0 β 1 β 2 = β 0 + β 1 x 11 + β 2 x 12 β 0 + β 1 x 21 + β 2 x 22 β 0 + β 1 x 31 + β 2 x 32 β 0 + β 1 x 41 + β 2 x 42 11 /47

Regressioni multilineari Qualche richiamo di algebra lineare X T X = = 1 1 1 1 x 11 x 21 x 31 x 41 x 12 x 22 x 32 x 42 1 x 11 x 12 1 x 21 x 22 1 x 31 x 32 1 x 41 x 42 = 4 x 11 + x 21 + x 31 + x 41 x 12 + x 22 + x 32 + x 42 x 11 + x 21 + x 31 + x 41 x 2 11 + x 2 21 + x 2 31 + x 2 41 x 11 x 12 + x 21 x 22 + x 31 x 32 + x 41 x 42 x 12 + x 22 + x 32 + x 42 x 11 x 12 + x 21 x 22 + x 31 x 32 + x 41 x 42 x 2 12 + x 2 22 + x 2 32 + x 2 42 y T X = y 1 y 2 y 3 y 4 T 1 x 11 x 12 1 x 21 x 22 1 x 31 x 32 1 x 41 x 42 = y 1 + y 2 + y 3 + y 4 x 11 y 1 + x 21 y 2 + x 31 y 3 + x 41 y 4 x 12 y 1 + x 22 y 2 + x 32 y 3 + x 42 y 4 12 /47

Regressione multilineare Modello del processo: ( ) g i β = β0 + β 1 x 1i + β 2 x 2i +... + β k x ki g ( β ) = X β La funzione scalare dei p parametri da minimizzare è in generale:(forma quadratica) Φ ( β ) = ε ε = ( y g ( β )) T ( ( )) ( ) T ( ) y g β = y X β y X β Il modello è lineare nei parametri quindi per determinare i parametri dobbiamo determinare le derivate della funzione obiettivo rispetto ai vari parametri ed uguagliarle a zero. 13 /47

Regressioni multilineari Qualche richiamo di algebra lineare y T X = y T X T y Φ ( β ) β = β ( y X β ) T ( y X β ) = X T (y X β ) + ( y X β ) T ( X ) = X T y + X T X β y T X + ( X β ) T X =2X T X β 2X T y 14 /47

Regressione multilineare In questo modo si perviene ad un sistema di p equazioni lineari in p incognite (i parametri) Φ ( β ) = 2X T (y X β ) β X T ( y X ˆβ ) =0 ovvero ( XT X ) ˆβ = X T y Sistema di equazioni lineari Matrice dei coefficienti Vettore dei termini noti Perché esistano soluzioni il determinante della matrice dei coefficienti deve essere non nullo (ma dipende dalle condizioni sperimentali). 15 /47

Regressione multilineare In definitiva, risolvendo in modo formale: ˆβ = ( X T X ) 1 ( XT y ) (1) Da un punto di vista pratico non conviene risolvere il sistema di equazioni lineari procedendo attraverso l inversione della matrice caratteristica. Conviene invece procedere alla soluzione del sistema di equazioni lineari con algoritmi che riducano l onere calcolativo, per esempio con il metodo di Gauss o derivati. (vedrete un esempio alle esercitazioni) 16 /47

Regressione multilineare Quindi il problema è di nuovo: Il modello con i parametri stimati è Esercizio da fare a casa: ripetete con l approccio matriciale l esempio nel lucido 7 17 /47

Regressione multilineare Come appare evidente dalla (1) lo stimatore dei parametri dipende linearmente dai risultati sperimentali per cui è una VA dello stesso tipo. Nelle ipotesi fatte le proprietà dello stimatore sono: ( ) E ˆβ = β ( ) ˆβ := N β,v ˆβ ( ) T ( ) V ˆβ = E ˆβ β ˆβ β }{{}}{{} P 1 1 P }{{} P P (2) (3) 18 /47

Regressione multilineare Con la 1 la 2 e la 3 si ottiene: La stima basata sulla MV della varianza: V ˆβ = σ 2 ( X T X ) 1 Matrice di Covarianza ( ) ( ˆβ) T ( Φ min = Φ ˆβ = y X y X ˆβ ) ˆσ 2 = NB il numeratore è il minimo della funzione obiettivo. Questa espressione non viene utilizzata perché parziale in genere si usa la forma non distorta: s 2 = ( y X ˆβ) T N ( y X ˆβ ) ( ˆβ) T ( y X y X ˆβ ) N P = SS E N = SS E N P 19 /47

Regressione multilineare RIPARAMETRIZZAZIONE Abbiamo già studiato questa procedura nel caso banale di una unica variabile indipendente: y i = β 0 + β 1 (x i x)+ε i Ovviamente possiamo generalizzare la riparametrizzazione ai modelli multilineari, ma non sarà in generale possibile disaccoppiare il sistema di equazioni necessarie a stimare i parametri. L unica equazione a disaccoppiarsi è quella per la valutazione dell intercetta 20 /47

Regressione multilineare Il modello diventa: y i = β 0 + β 1 (x 1i x 1 )+β 2 (x 2i x 2 )+... + β k (x ki x k )+ε i b i = β i b 0 = β 0 k β j x j j=1 In definitiva la stima consiste nella risoluzione di P-1 equazioni lineari. Il vantaggio sta nel miglioramento delle proprietà della matrice caratteristica. In genere conviene riparametrizzare. 21 /47

Regressione multilineare Che tipo di VA è lo stimatore per la varianza? ( ) T ( ) y X β y X β χ 2 N = La precedente è una forma quadratica senza doppi prodotti. σ 2 Senza addentrarci in dettagli ma estendendo le conclusioni del caso lineare semplice possiamo partizionare la precedente chi-quadro ed ottenere: χ 2 N = Q 1 + Q 2 Q 1 = Q 2 = ( y X ˆβ) T σ 2 ( y X ˆβ ) ( ˆβ θ ) T XT X ( ˆβ θ ) σ 2 22 /47

Regressione multilineare Inoltre si dimostra che Q 1 = χ 2 N P, Q 2 = χ 2 P inoltre le due Q sono indipendenti Lo stimatore della varianza sperimentale è indipendente dallo stimatore dei parametri s 2 = χ 2 N P σ 2 N P La Q 2 sarà utilizzata quando dovremo determinare le regioni di fiducia. 23 /47

Introduzione Nelle precedenti sezioni si è visto come stimare i parametri di un modello matematico a partire da una campagna sperimentale L errore sperimentale, inevitabilmente presente nella misura, non permette mai di trarre delle conclusioni certe e i parametri del modello sono affetti da incertezze Un problema essenziale è la verifica della validità del modello Il modello è adeguato per descrivere i dati sperimentali a disposizione? Non esiste una risposta definitiva a questa domanda (l errore sperimentale non permette di trarre delle conclusioni certe), ma esistono delle tecniche che possono essere implementate per avere utili informazioni al riguardo 24 /47

Stima con i Minimi Quadrati Riscriviamo la SS E valutata nel suo minimo: SS E = N ( y i β 0 β 1 x i ) 2 N = y i y β 1 x β 1 x i i=1 i=1 ( ) 2 = N ( y i y) 2 N β 1 x i x i=1 i=1 ( ) 2 Il primo termine a destra è la somma totale corretta dei quadrati SS TC La dipendenza dalla x della variabile dipendente determina una riduzione di SS TC. Se Y non dipende da x questo termine è trascurabile e SS E = SS TC Il secondo termine a destra quindi dipende dalla regressione D altra parte si può scrivere: 25 /47

Stima con i Minimi Quadrati La regressione ripartisce la somma dei quadrati, SS T, in tre termini: 1. La somma dei quadrati dovuti alla media SS M ; 2. La somma degli scarti quadratici dovuti agli errori SS E (deviazione dalla linea di regressione); 3. La somma degli scarti quadratici dovuti alla regressione SS R. In altro modo si può dire che ciascun y i è composto da tre parti: 26 /47

Coefficiente di determinazione Si definisce coefficiente di determinazione il rapporto R 2 = ( ŷ i y ) 2 ( y i y ) 2 = SS R S TC = 1 SS E S TC 0 R 2 1 S TC è una misura della variabilità in y senza considerare la variabilità della variabile indipendente x SS E è una misura della variabilità rimanente dopo che x è stata considerata R 2 è la porzione di variazione descritta dalla regressione lineare. Il secondo termine a destra paragona la varianza non spiegata dal modello con la varianza totale dei dati. 27/37 /47

Coefficiente di determinazione R 2 e una statistica che da informazioni sulla bontà del fit di un modello. Tale coefficiente da una misura di quanto bene la linea di regressione approssima i dati sperimentali. Un valore unitario indicherebbe che la regressione passa perfettamente tra i dati. (ATTENZIONE!) Possiamo avere valori di R 2 al di fuori dell intervallo 0,1. Questo può accadere quando la regressione non è lineare. Se facciamo crescere il numero di parametri R 2 può crescere. 28/37 /47

Coefficiente di determinazione Cautele quando si interpreta R 2 R 2 non fornisce informazioni su se: Le variabili indipendenti considerate siano la vera causa della variazione della variabile dipendente Esista una distorsione dovuta alle variabili indipendenti omesse Il modello sia corretto Siano state scelte le migliori variabili indipendenti. Il modello possa essere migliorato trasformando le variabili indipendenti 29/37 /47

Coefficiente di determinazione aggiustato È possibile normalizzare il coefficiente R 2 in funzione del numero p di parametri e del numero n di prove sperimentali: SS E = SS TC = N i=1 N i=1 ( y i β 0 β 1 x i ) 2 ( y i y) 2 R C 2 = 1 SS E df E df TC = 1 + ( R 2 1) n 1 SS TC n p Tale espressione risulta più significativa del coefficiente di determinazione classico in quanto tiene conto anche del numero di parametri presente nel modello. Al crescere del numero dei parametri possiamo avvicinarci sempre meglio ai dati anche se ciò può non essere significativo dal punto di vista del modello Utile soprattutto nel caso di regressioni multiple. 30 /47

Matrice di correlazione Nell ipotesi di regressione multilineare: La matrice di covarianza è: V ˆβ = σ 2 y = X β ( X T ) X 1 È possibile valutare una sua versione normalizzata, ovvero la matrice di correlazione: ( ) c ij = cov B B i j σ B1 σ B2 c ij = 1 i j i = j 31 /47

Matrice di correlazione Se i termini fuori diagonale della matrice di correlazione c ij sono molto prossimi al valore unitario: c ij 1 i j Le stime dei parametri non sono molto affidabili: Il modello sperimentale è troppo complicato per descrivere la campagna sperimentale Questo può essere legato a: Un modello difettoso che contempla la dipendenza da un numero eccessivo di variabili La campagna sperimentale è stata progettata male 32 /47

Multicollinearità Può accadere che nel caso di regressione multilineare variabili indipendenti siano correlate e pertanto non indipendenti. X 1 X 2 correlate indipendenti X 2 X 3 Tale eventualità può avere effetti disastrosi sulla stima dei parametri 33 /47

Multicollinearità Richiamando relazioni precedentemente introdotte: V ˆβ = σ 2 ( X T ) X 1 L eventualità di una dipendenza lineare tra le variabili dipendenti, di fatto, rende la matrice delle prove sperimentali vicina alla condizione di singolarità. Gli elementi della matrice inversa di X T X possono assumere valori enormi La varianza dello stimatore può essere drammaticamente amplificata rispetto alla varianza sperimentale Come individuarla: Valori elevati di R 2 ma intervalli di fiducia molto ampi per i singoli coefficienti di regressione. Correlazioni tra le variabili regressore 34 /47

Quantificazione della multicollinearità Autovalori: se tutti i k autovalori della matrice d e l l e c o n d i z i o n i s p e r i m e n t a l i s o n o approssimativamente uguali, la multicollinearità è bassa. Condizionamento prossimo a 1 indica bassa multicollinearità X 1 bassa correlazione λ 1 ~ λ 2 Matrice di correlazione: Se vi sono dei termini fuori diagonale per cui X 2 Alta correlazione λ 1 >> λ 2 può esistere una forte correlazione tra le variabili regressore x i e x j. X 1 X 2 35 /47

Come migliorare le stime dei parametri Si è visto come una campagna sperimentale condotta in modo poco attento possa avere delle conseguenze disastrose sulla stima dei parametri Da un punto di vista intuitivo, la scelta delle condizioni sperimentali deve essere dettata dall esigenza di rendere le prove sperimentali quanto più possibile linearmente indipendenti Da un punto di vista rigoroso, la matrice X T X deve essere quanto più possibile lontana dalle condizioni di singolarità Una possibile politica può essere la ricerca delle condizioni sperimentali per cui il determinante sia massimo Tale filosofia è alla base delle cosiddetti Progettazioni di Campagne Sperimentali D- ottimali (D-Optimal Design, dove D sta per determinante) 36 /47

Matrice di correlazione per modelli non lineari Nel caso di modelli non lineari non è possibile effettuare dei test rigorosi, dato che la maggior parte delle variabili non sono assimilabili a VA normali. Si deve far ricorso a delle approssimazioni È possibile solo esprimere giudizi qualitativi 37 /47

Analisi dei residui Si definisce residuo alla prova i-esima: Il residuo rappresenta la componente dell osservazione sperimentale che il modello non è in grado di descrivere Il residuo (idealmente) descrive la parte aleatoria dell esperimento essendo σ la deviazione standard dell errore sperimentale Osservazione sperimentale Parte deterministica Parte aleatoria Si può facilmente verificare che: e i 2 n 2 = SS E n 2 = MS = E s2 38 /47

Analisi dei residui È possibile anche introdurre il concetto di residuo standardizzato: d i = e i MS E I residui standardizzati hanno media 0 e varianza più o meno unitaria. L analisi dei residui è un analisi di tipo grafico È possibile rappresentare graficamente l errore di rispetto al valore previsto dal modello corrispondente rispetto alla variabile regressore xi non si rappresenta graficamente rispetto all osservazione yi Se il modello descrive esattamente le osservazioni, i residui si dovrebbero comportare come genuini numeri casuali Può essere utile per la determinazione di inadeguatezze del modello. 39 /47

Analisi dei residui Se nel diagramma i residui sono contenuti in una banda orizzontale, senza la presenza di una struttura, allora non appaiono evidenti difetti nel modello 40 /47

Analisi dei residui Varianza non uniforme Situazioni in cui l analisi dei residui rivela un comportamento anomalo. La varianza dei residui varia con la stima di y (eteroschedasticità): sarebbe adeguata una stima pesata dei parametri. 41 /47

Analisi dei residui Struttura nei residui Se il modello supposto per la descrizione dei dati non è corretto, nel residuo cade anche una parte deterministica che il modello non riesce a descrivere Modello vero Osservazione sperimentale Residuo stimato Parte deterministica Residuo: non è più un numero casuale catturata dal modello dato che in esso cade il determinismo che il modello sbagliato non può catturare Modello non corretto Parte aleatoria nel residuo Parte del residuo dovuta alla scelta (sbagliata) del modello In questo caso il valore del residuo dipende dalla variabile indipendente 42 /47

Analisi dei residui Struttura nei residui Nel caso rappresentato in figura, si evince la presenza di una struttura nei residui al variare della predizione di y Questo scenario è in conflitto con l assunzione iniziale (di di natura puramente casuale dell osservazione) Nel residuo vi è una parte deterministica che non è stata catturata completamente dal modello È necessario estendere e/o modificare il modello 43 /47

Analisi dei residui Punti isolati L analisi dei residui può aiutare a individuare punti sperimentali che siano frutto di una misura palesemente errata. Punto isolato I residui normalizzati devono comunque essere compresi più o meno nella banda [-2,2] 44 /47

Analisi dei residui Punti isolati Attenzione: la presenza di punti isolati può influenzare drammaticamente l interpretazione dei residui 45 /47

Analisi dei residui Punti isolati I residui standardizzati nel primo caso presentano una struttura molto evidente: questo non è dovuto alla mancata efficienza del modello ma alla presenza del punto isolato che perturba significativamente la stima dei parametri della regressione Rimuovendo il punto isolato, la struttura dei residui migliora significativamente. Da osservare come la varianza sia diminuita di un ordine di grandezza S 2 =0.698 S 2 =0.046 46 /47

Sommario Generalizzazione della regressione lineare al caso multilineare È possibile implementare tecniche per confermare se il modello scelto per descrivere il processo in esame sia adeguato o meno Analisi di tipo quantitativo (determinazione scalari e/o matrici) Coefficiente di determinazione Matrice di correlazione Analisi di tipo qualitativo (via grafica) Matrice di correlazione Non esiste un metodo che sia univocamente riconosciuto come il più efficiente Conviene eseguire quante più analisi possibile e confrontarne i risultati 47 /47