Statistica II Laurea magistrale in Ing. Gestionale a.a. 2012/13 Registro delle lezioni

Documenti analoghi
Presentazione dell edizione italiana

()Probablità, Statistica e Processi Stocastici

Probablità, Statistica e Processi Stocastici

A.A. 2014/2015 Corso di Algebra Lineare

Indice. Prefazione. 4 Sintesi della distribuzione di un carattere La variabilità Introduzione La variabilità di una distribuzione 75

Sommario. 2 I grafici Il sistema di coordinate cartesiane Gli istogrammi I diagrammi a torta...51

Dispensa di Statistica

Statistica II, Laurea magistrale in Ing. Gestionale, a.a /11 Esempi di domande e dissertazioni

Prefazione Ringraziamenti dell'editore Il sito web dedicato al libro Test online: la piattaforma McGraw-Hill Education Guida alla lettura

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

LEZIONI IN LABORATORIO Corso di MARKETING L. Baldi Università degli Studi di Milano. Strumenti statistici in Excell

3.1 Classificazione dei fenomeni statistici Questionari e scale di modalità Classificazione delle scale di modalità 17

Regressione Lineare Semplice e Correlazione

Old Faithful, Yellowstone Park. Statistica e biometria. D. Bertacchi. Dati congiunti. Tabella. Scatterplot. Covarianza. Correlazione.

1. ANALISI DEI RESIDUI recupero dati----- X = scan("clipboard") accessori.auto = ts(x, frequency=12, start=c(1995,1)) plot(accessori.

ANALISI DELLE SERIE STORICHE

Similitudine (ortogonale) e congruenza (ortogonale) di matrici.

Autovalori e autovettori, matrici simmetriche e forme quadratiche (cenni) (prof. M. Salvetti)

Serie storiche Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007

Analisi di Regressione Multivariata. β matrice incognita dei coeff. di regressione (regr. lineare in β)

STATISTICA A K (60 ore)

VIII Indice 2.6 Esperimenti Dicotomici Ripetuti: Binomiale ed Ipergeometrica Processi Stocastici: Bernoul

Statistica. Capitolo 12. Regressione Lineare Semplice. Cap. 12-1

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

()Probablità, Statistica e Processi Stocastici

Processi stocastici A.A Corso di laurea Magistrale in Statistica Univ. degli Studi di Palermo

DIARIO DEL CORSO DI GEOMETRIA E ALGEBRA LINEARE

Generazione di Numeri Casuali- Parte 2

0 altimenti 1 soggetto trova lavoroentro 6 mesi}

REGISTRO DELLE LEZIONI

Statistica Applicata all edilizia: il modello di regressione

VALIDAZIONE DEL MODELLO

Scheda n.3: densità gaussiana e Beta

Statistica. Alfonso Iodice D Enza

ARGOMENTI TRATTATI NEL CORSO DI ANALISI II

Esercitazione del

Punti di massimo o di minimo per funzioni di n variabili reali

Maria Prandini Dipartimento di Elettronica e Informazione Politecnico di Milano

I VETTORI GAUSSIANI E. DI NARDO

I appello di calcolo delle probabilità e statistica

Capitolo 6. La distribuzione normale

Esercizi di Geometria - 1

Università degli Studi di Enna Kore Facoltà di Ingegneria ed Architettura

Istituzioni di Statistica

Calcolo delle Probabilità A.A. 09/10 Corso di Studi in Statistica per l Analisi dei dati Università degli Studi di Palermo

Introduzione generale. Cenni storici. 1 Problema di de Mèrè e soluzione. martedì 27 febbraio 2007

Il modello di regressione (VEDI CAP 12 VOLUME IEZZI, 2009)

Elementi di statistica per l econometria

Nozioni preliminari... 1 Notazioni... 1 Alcunirichiamidianalisimatematica... 3 Sommeinfinite... 3

Statistica multivariata 27/09/2016. D.Rodi, 2016

Applicazioni lineari e diagonalizzazione. Esercizi svolti

Capitolo 6 La distribuzione normale

Analisi delle corrispondenze

x, y rappresenta la coppia di valori relativa La rappresentazione nel piano cartesiano dei punti ( x, y ),( x, y ),...,( x, y )

SPAZI EUCLIDEI, APPLICAZIONI SIMMETRICHE, FORME QUADRATICHE

Spazi euclidei, endomorfismi simmetrici, forme quadratiche. R. Notari

Variabili tutte osservabili: regressione Si parla di regressione quando si ha a disposizione un campione sperimentale di numerosità n della forma X 1

Presentazione dell edizione italiana Prefazione xix Ringraziamenti xxii Glossario dei simboli xxiii

Analisi delle componenti principali

Sommario. Capitolo 1 I dati e la statistica 1. Capitolo 2 Statistica descrittiva: tabelle e rappresentazioni grafiche 25

Laboratorio di Statistica 1 con R Esercizi per la Relazione. I testi e/o i dati degli esercizi contassegnati da sono tratti dai libri consigliati

Statistica Metodologica Avanzato Test 1: Concetti base di inferenza

AUTOVALORI, AUTOVETTORI, AUTOSPAZI

Algebra lineare con R

Distribuzioni di Probabilità

Corso di Laurea in Ingegneria Informatica e Automatica (M-Z) Università di Roma La Sapienza

FONDAMENTI DI ALGEBRA LINEARE E GEOMETRIA

Statistica. Esercitazione 4 17 febbraio 2011 Medie condizionate. Covarianza e correlazione

Regressione lineare semplice

Data Mining. Prova parziale del 20 aprile 2017: SOLUZIONE

Regressione Mario Guarracino Laboratorio di Sistemi Informativi Aziendali a.a. 2006/2007

Programma delle lezioni svolte nel corso CLEM di Matematica Generale, Lettere M-Z, Prof. F. Manzini.

Statistica Applicata all edilizia Lezione: approccio stocastico all analisi delle serie storiche

Analisi delle corrispondenze

Statistica. Alfonso Iodice D Enza

(a) 8x 9y = 2, (b) 28x + 6y = 33.

Prova scritta di Complementi di Probabilità e Statistica. 7 Dicembre 2012

Sistemi lineari - Parte Seconda - Esercizi

Volumi in spazi euclidei 12 dicembre 2014

Analisi della disponibilità d acqua. Valutazione dell impianto attraverso il calcolo di un indice economico (criterio)

LA DISTRIBUZIONE NORMALE o DI GAUSS

II Università degli Studi di Roma

Statistica a breve termine: metodo delle onde apparenti

Simulazione dei dati

Corso di Laurea in Scienze dell Organizzazione Facoltà di Sociologia, Università degli Studi di Milano-Bicocca a.a. 2009/2010.

Esercizi su distribuzioni doppie, dipendenza, correlazione e regressione (Statistica I, IV Canale)

5 Un applicazione: le matrici di rotazione

CURVE DI DURATA: Introduzione e Rappresentazione analitica

Classificazione delle coniche.

TEORIA DEI SISTEMI E DEL CONTROLLO LM in Ingegneria Informatica e Ingegneria Elettronica

Esercizi di statistica

0.1 Condizione sufficiente di diagonalizzabilità

Sperimentazioni di Fisica I mod. A Statistica - Lezione 2

LeLing12: Ancora sui determinanti.

Appunti su Indipendenza Lineare di Vettori

Statistica. Capitolo 6. Variabili Aleatorie Continue e Distribuzioni di Probabilità. Cap. 6-1

SCHEDA DIDATTICA N 7

Corsi di Laurea in Scienze Biologiche Prova scritta di Informatica e Statistica Generale (A). 05/07/2006

Diario delle lezioni di Calcolo e Biostatistica (O-Z) - a.a. 2013/14 A. Teta

Richiami di algebra delle matrici a valori reali

Transcript:

Statistica II Laurea magistrale in Ing. Gestionale a.a. 2012/13 Registro delle lezioni Lezione 1 (24/9). Introduzione al corso, composto principalmente dalla sezione sui vettori gaussiani (Cap. 1), dallo studio delle serie storiche (Cap. 4) e dall analisi multivariata (Cap. 6). Materiale e comunicazioni si trovano alla pag. di F. Flandoli, http://users.dma.unipi.it/~flandoli/dispensemmmpg.html Richiamo sulle gaussiane 1-dimensionali (definizioni), legame tra N (µ, σ 2 ) e N (0, 1) (X = σz + µ), pdf, cdf e quantili, media, varianza e deviazione standard, comandi di R (pnorm, qnorm, dnorm, rnorm). Lezione 2 (25/9). Varie osservazioni sui comandi pnorm, qnorm, dnorm, rnorm, come tracciare il grafico di una densità gaussiana, con R, istogramma relativo a dati sperimentali. Richiami sulla definizione di covarianza e correlazione, formula V ar [X + Y ] = V ar [X] + V ar [Y ] + 2Cov (X, Y ), linearità negli argomenti, invarianza di scala di ρ (X, Y ) (ρ (ax, by ) = ρ (X, Y ); 1 ρ (X, Y ) 1). legami tra indipendenza e condizioni Cov (X, Y ) = 0, ρ (X, Y ) = 0. Tabella di dati sperimentali relativi ad una coppia di variabili (X, Y ). Formule per le grandezze empiriche Ĉov e ρ; vicinanza a zero di ρ rispetto a vicinanza a zero di Ĉov. Interpretazione grafica (inclinazione della nuvola di punti) del segno di Ĉov, sulla base della formula empirica. Col programma R, prodotti col comando rnorm(n) dei dati X, Y, si può calcolare cor(x,y) e visualizzare plot(x,y). Si veda il caso indipendente ed uno dipendente della forma Y = ax + bz, X e Z indipendenti. Vettori aleatori, vettore dei valori medi, matrice di covarianza. Sua struttura: sulla diagonale ci sono le varianze; è simmetrica. E semi-definita positiva (con dimostrazione dettagliata). Lezione 3 (28/9). Trasformazione del vettore medio e della matrice di covarianza di un vettore aleatorio sotto trasformazioni lineari (con dimostrazione dettagliata). Densità congiunta di un vettore aleatorio. Trasformazione della densità sotto trasformazioni lineari (dimostrata partendo dalla formula generale delle trasformazioni di densità sotto applicazioni biunivoche, a sua volta però non dimostrata). Densità marginali, legami. Vettore gaussiano standard in R n, densità gaussiana standard in R n. Tre raffi gurazioni: suo grafico, curve di livello, 1

campione di punti causali. Vettore medio e matrice di covarianza di un vettore gaussiano standard. Definizione di vettore gaussiano generico in R k : ogni vettore della forma X = AZ + µ in cui Z è un vettore gaussiano standard in R n, A è una matrice con n ingressi e k uscite (definisce una trasformazione da R n in R k ) e µ = (µ 1,..., µ k ) R k. Vettore medio e matrice di covarianza di un vettore gaussiano così definito. Densità nel caso n = m, det A 0, scrittura in termini di µ e Q. Esercizi per casa: es. 6 ed es. 8 della prova del 14/02//2012. Lezione 4 (1/10). Simulazioni con R. I comandi usati durante la lezione sono disponibili su un file di testo separato. Svolgimento di esercizi con R di lezioni precedenti: grafico di una gaussiana, istogramma, covarianza e correlazione di nuvole di punti nel piano. Visualizzazione di punti nel piano corrispondenti ad un vettore gaussiano standard e ad alcuni ( vettori gaussiani ) non standard, corrispondenti alle matrici del tipo A =, poi del tipo A λ1 0 0 λ = UA con A del tipo precedente ed U matrice di rotazione del tipo U = (rotazione 2 ( ) cos θ sin θ sin θ cos θ antioraria di angolo θ). Lezione 5 (2/10). Formulazione e soluzione di alcuni esercizi; tra le cose importanti: i) un vettore gaussiano è standard se e solo se µ = 0, Q = id; ii) ci sono esempi di vettori gaussiani le cui componenti sono N (0, 1) ma, come vettori, non sono standard (manca l indipendenza tra le componenti). Definizione di v.a. gaussiana tramite trasformazioni: viene ripresa e viene dimostrato che le trasformazioni affi ni di gaussiane sono gaussiane. Viene fatto un esempio degenere. Commenti sulla definizione di v.a. gaussiana tramite densità, sulla parziale equivalenza con la definizione precedente (quando Q è invertibile) e sul fatto che le trasformazioni affi ni di gaussiane sono gaussiane, basato su questa definizione. Sulla matrice di covarianza: dal fatto che è simmetrica discende che si può diagonalizzare (si veda il ruolo di autovettori ed autovalori nella diagonalizzazione); dal fatto che è semidefinita positiva si vede che gli autovalori sono 0. Matrice di cambio di base. 2

Costruzione della radice quadrata di una matrice simmetrica semi-definita positiva. Dimostrazione del fatto che, nota Q, si può costruire una gaussiana avente covarianza Q. Osservazioni su come ottenere un campione gaussiano con matrice di covarianza data. Lezione 6 (5/10). Due utilizzi in statistica multivariata (Cap. 6) della teoria svolta fino ad ora. Primo: nella regressione lineare multipla. Definito il modello lineare a più fattori, ipotizzati i fattori aleatori e l errore indipendente, si calcola un opportuna matrice di covarianza e da essa si ottiene la formula per i coeffi cienti del modello (p. 342). Aspetto empirico a partire da una tabella. Curve di livello di una densità gaussiana qualsiasi: verifica che sono ellissi, raffi gurazione. Seconda applicazione alla statistica multivariata: il metodo PCA. Idea intuitiva e geometrica del metodo, basata sulla struttura geometrica dei vettori gaussiani. Formalizzazione tramite la decomposizione spettrale di Q; Teorema 36. Lezione 7 (8/10). Esercitazione con R. Caricamento veloce di una tabella già presente sulle dispense: i) si apra un file.txt e si incolli su esso la tabella presa dalle dispense ii) si scriva X<-read.table("clipboard",header=T) su R, senza dare l invio; poi si copi il contenuto del file txt, si riposizioni il cursore su R e si dia invio. A titolo di esempio è stata esaminata la tabella degli "indicatori di benessere" (esercizio 3 del Cap. 6). Lezione 8 (9/10). Brevi richiami di algebra lineare sul concetto di rappresentazione di vettori e matrici rispetto ad una base e cambio di base (vedi pp. 99-100). Un vettore aleatorio X = (X 1,..., X n ) si scrive nella forma X = X 1 u 1 +... + X n u n rispetto alla base canonica {u 1,..., u n } e nella forma X = V 1 e 1 +... + V n e n rispetto a qualsiasi base ortonormale {e 1,..., e n }, dove V i = X, e i. In particolare, ciò vale per la base {e 1,..., e n } di autovettori della matrice di covarianza Q di X. I coeffi cienti V 1,..., V n sono v.a. reali. Teorema: V ar [V i ] = λ i, Cov (V i, V j ) = 0 per i j, dove λ 1,..., λ n sono gli autovalori relativi agli autovettori {e 1,..., e n }. Dimostrazione dettagliata della prima affermazione. 3

Vari esercizi. Es.: cos è il piano principale di PCA; perché il piano generato da {e 1, e 2 } permette una visione particolarmente buona dei dati. Lezione 9 (12/10). Relazioni tra variabili. E possibile stabilire, sulla base di dati, che esista una relazione di causa-effetto tra certe variabili date? Viene discusso il problema, cosa può dire il coeffi ciente di correlazione, il caso di variabili influenzate da una terza variabile comune, il caso delle grandezze estensive tutte influenzate dalla dimensione regionale. Può la regressione lineare stabilire l esistenza di una relazione causaeffetto? Possono stabilirlo degli indicatori di bontà del modello di regressione? Vediamo due indicatori: varianza spiegata e residui. Definizione di varianza spiegata. Concetto di residui, due loro grafici ed informazioni estraibili, grandezze cumulate, in particolare la varianza spiegata empirica. Lezione 10 (15/10). Esercitazione con R sugli argomenti delle lezioni precedenti. In particolare: plot di una tabella, esempi di regressione, sommario della regressione e plot dei residui. Lezione 11 (16/10). Regressione semplice: legami tra varianza spiegata, coeffi ciente di correlazione, coeffi ciente angolare (incluso calcolo della varianza dell errore). Osservazioni varie (incluso a = ρ (X, Y ) nel caso standard). Coeffi cienti di regressione nel caso standardizzato: quando a i = ρ (X i, Y )? se le variabili sono tutte standardizzate ed i fattori sono scorrelati. Allineamenti (fattori molto correlati): possibili problemi di interpretazione del modello (esemplificazione con due fattori quasi uguali); eccessiva propagazione degli errori statistici; motivo: det Q 1 molto elevato. Ipoteticamente si possono scorrelare le variabili usando PCA. Lezione 12 (19/10). Discussione del possibile progettino da preparare entro fine novembre, su un argomento di previsione. Regressione come modello di previsione. Caso temporale e caso spaziale. Nel caso temporale, Y è una grandezza di cui vogliamo prevedere il valore di domani sulla base dei valori di oggi e ieri di altre grandezze (inclusa eventualmente la stessa), che verranno ad essere i predittori X 1,..., X p. Nel caso spaziale, si cerca un modello che descriva il legame tra predittori ed output sulla base di dati relativi ad una certa scala spaziale o una certa regione e poi si applica il modello ad un altra scala o regione. Spiegazione del perché R 2 aumenta all aumentare dei fattori (la somma dei quadrati dei residui diminuisce, perché si cercano i coeffi cienti che minimizzano tale somma). Viene impostato il fatto che i coeffi cienti di regressione, precedentemente trovati con calcoli di covarianza, sono anche quelli che min- 4

imizzano la somma dei quadrati dei residui (metodo dei minimi quadrati). Varianza spiegata dalla direzione principale e dal piano principale di PCA. Loadings di PCA (introduzione). Lezione 13 (22/10). Esercitazione con R (vedere comandi in rete). Creazione di una tabella Excel e caricamento. Analisi della tabella: matrice di correlazione, plot, PCA (dopo standardizzazione) (comandi nuovi: varianza delle componenti, loadings). Tentativi di regressione; metodo di sfoltimento, guidato dai p-value e dalle correlazioni. Lezione 14 (23/10). Metodo dei minimi quadrati (considerazioni generali). Applicazione alla regressione lineare multipla, come sulle dispense, fino ad arrivare al calcolo dei coeffi cienti ottimali usando la matrice X T X. Enunciato e dimostrazione del fatto che R 2 aumenta aggiungendo fattori. Regressione applicata a serie storiche: modello, tabella dati, vettori ritardati, applicazione. Si consiglia di vedere l esercizio n. 2 del capitolo 6. Lezione 15 (26/10). Prime pagine del capitolo 6: metodo di Monte Carlo per trovare la distribuzione del coeffi ciente di correlazione empirico, determinazione di quantili e di p-value. [Incidentalmente: ciclo di for in R.] Idee generali sui test statistici (si veda anche il capitolo 2): ipotesi nulla, grandezza statistica T (possibilmente universale, ma non necessariamente, grazie a Monte Carlo), p-value (probabilità che T sia più estremo del valore empirico di T ), rifiuto o non rifiuto dell ipotesi nulla. Regressione multipla, p-value dei singoli fattori: ipotesi nulla (coeffi cente di regressione nullo) e grandezza statistica T (coeffi cente di regressione standardizzato). Come calcolerebbe la distribuzione di tale coeffi ciente il metodo di Monte Carlo. Lezione 16 (29/10). Esercitazione con R. Esame di due serie storiche con comandi specifici e modelli di regressione tra esse e autoregressione con e senza fattore esogeno. Comandi acf e ccf. Lezione 17 (30/10). Descrizione di alcuni elementi del progetto: predizione di una grandezza del mondo della finanza, con metodi di regressione, usando fattori esogeni. Funzione di autocorrelazione: definizione teorica (ρ k = cor (X 0, X k )), traduzione empirica diretta ( ρ k = cov dove si fa riferiemento alle serie σ 0 σ k x 1,..., x n k e x k+1,..., x n ), formula empirica usata da R ( ρ R k = covr (0,k) dove cov R (0,0) n k i=1 (x i+k x k ) (x i x 0 )). Grafici tipici di acf, rispondenza ĉov R (0, k) = 1 n a periodicità, rispondenza a trend. Modello X n+1 = ax n + b + ε. Perché molto spesso ρ 1 è molto elevato 5

(quindi il modello ha ottimi R 2 e p-values): concordanza di x i e x i+1 rispetto alla media della serie. Tuttavia, vengono illustrate le debolezze predittive di questo modello. Primi ragionamenti sulle diverse scale temporali. Variabili dummy. Lezione 18 (5/11). Esercitazione con R. Comandi decompose e stl. Esempi da serie sintetiche. ccf. Applicazione con periodi diversi alla serie EURUSD. Lezione 19 (6/11). Regressione multipla: impostazione vettoriale, teoremi sui coeffi cienti (nuove brevi note in rete), conseguenze e interpretazioni applicative. Possibili difetti di un modello con troppi fattori. Lezione 20 (9/11). Serie storiche: implementazione del metodo di regressione senza fattori esogeni e della predizione tramite tale modello; problema della propagazione dell errore. Implementazione nel caso dei fattori esogeni; ulteriori diffi coltà per la propagazione oltre la lunghezza del ritardo dei fattori esogeni. Il comando ccf: formule, lettura del grafico, utilità. Metodo di media mobile, sue caratteristiche, anche grafiche. Comando decompose, metodo con cui calcola il trend; serie detrendizzata. Lezione 21 (13/11). Metodo di smorzamento esponenziale (e confronto con media mobile) e di smorzamento esponenziale con trend: teoria e considerazioni pratiche (Capitolo 4). [somiglianze e differenze del modello rispetto alla regressione, ruolo dei parametri, casi limite α, β 0 o 1, utilità per identificare un trend, residui, come il SW calcola i parametri ottimali, difetti della ricerca automatica dei parametri se si vuole un trend.] Comando HoltWinters all esercizio 6 del capitolo. Lezione 22 (16/11). Decomposizione in trend e stagionalità: caso additivo e caso moltiplicativo. Metodo di Holt-Winters: teoria e considerazioni pratiche (Capitolo 4). Metodi per il confronto tra modelli e metodi diversi: cross-validation ed RMS sui dati stessi. Difetti di ciascun metodo. Lezione 23 (19/11). Esercitazione con R. Comandi relativi ad Holt- Winters. Lezione 24 (20/11). Problema dell eliminazione del trend, motivato ad esempio dalla necessità di identificare componenti periodiche complesse tramite acf. Varie idee: media mobile, SET (ed altri della famiglia), decompose e stl, regressione, serie delle differenze. Commenti su alcuni difetti di alcuni di questi metodi. Descrizione dettagliata di come usare SET, anche inizializzato tramite regressione. Differenze col problema di trovare un trend 6

per la previsione futura. Completamento della descrizione del comando decompose. Cenni al comando loess ed alla struttura generale del comando stl. Come estrarre il trend da stl. Cenno ai pericoli nell eliminazione simultanea di fattori ed al metodo di accrescimento del numero di fattori (come scegliere i fattori). Lezione 25 (21/11). Fit di densità (Cap. 4) applicato alle serie storiche. Due applicazioni: per descrivere sommariamente l intera serie (discusso in dettaglio) e per i residui (da approfondire). Tra le utilità: intervalli di confidenza e soglie (visti anche i comandi). Esempio gaussiano in dettaglio. Metodi parametrici e non. Comando KernelSmoothing e idee ad esso collegate. Quantili direttamente dai dati. Densità Weibull (Cap. 1), partendo da S (t) (funzione di affi dabilità o sopravvivenza). Parametri a ed s, diverse forme del grafico. Comandi R per il fit di Weibull (Cap. 4), raffi gurazione sopra istogramma. Confronto tra diversi modelli: anche col qqplot (spiegato in dettaglio). Lezione 26 (27/11). Processi stocastici, prime definizioni, valori medi (funzioni), densità congiunte, caso gaussiano. Processi stazionari, definizione. Lezione 27 (30/11). Processi stocastici stazionari: il teorema ergodico (enunciato, dimostrazione, utilità). Discussione sul trend di un serie periodica. Lezione 28 (3/12). Esercitazione (comandi in rete) sulla ricerca di un trend tramite stl, detrendizzazione, fit dei residui. Lezione 29 (4/12). Modelli AR (Capitolo 4): definizioni di AR, MA, ARMA, riscrittura con L, calcoli formali con L. Possibile uso per i residui o serie stazionarie ma anche per serie più generali. White noise (Cap. 3): definizione, verifica della stazionarietà. Modello AR(1): alcune verifiche relative alla stazionarietà (limitate a m (t) e σ 2 (t)), condizione di stazionarietà a 1 < 1. Riscrittura come MA infinito (da completare). Lezione 30 (7/12). Quantificazione dell incertezza di una previsione: fit dei residui, calcolo intervalli di confidenza. Cenno senza dettagli sul fatto che i modelli AR possono produrre processi stazionari (o asintoticamente stazionari) sotto opportune ipotesi sui coeffi cienti (di cui a 1 < 1 è un esempio). Equazioni di Yule-Walker nel caso stazionario, processi AR, con dimostrazione. 7

Considerazioni applicative e di SW. Cenno all indicatore di Akaike per la determinazione dell ordine p del modello. Difetti dei modelli AR rispetto a quelli basati sulla regressione. Lezione 31 (10/12). Esercitazione con R sui modelli AR, come da scheda in rete. Lezione 32 (11/12). Chiacchierata sui modelli lineari in generale, quelli visti a lezione con input ed output misurabili, e quelli con solo l output misurabile (FA - non in programma - e PCA; per quest ultimo si è impostata la relazione X i = a i1 V 1 +... + a ip V p, i = 1,..., p, come un modello lineare con input incogniti e non direttamente misurabili). Modelli non lineari di tipo basico (quelli con potenze ed altre trasformazioni delle variabili) e quelli denominati "generalized linear models". Descrizione di questi ultimi nel caso particolare della regressione logistica, svolta in tutti i dettagli come sulle dispense (impostazione teorica, calcolo dei coeffi cienti, trafila dati -> risultati). Paragone con la regressione lineare tradizionale e schema generale dei "generalized linear models". Chiacchierata sul problema generale della classificazione (gruppo training e gruppo test, regola decisa usando il gruppo training ed applicata sul gruppo test). Interpretazione della regressione logistica come metodo di classificazione (secco o sfumato). Lezione 33 (14/12). Richiamo sulla regressione logistica, vista come metodo di classificazione. Interpretazione del criterio di classificazione p 1 2 come appartenenza ad un semispazio in R p (p=numero di fattori). Da qui, visione geometrica della classificazione, come suddivisione di R p in due parti. Analisi discriminante quadratica e lineare (in tutti i dettagli). Visione geometrica e visione bayesiana, secondo le idee generali della Teoria delle Decisioni. Pregi e difetti del caso lineare rispetto a quello quadratico. Cenno alla differenza tra clustering e classificazione. 8