STATISTICA INFERENZIALE Premessa importante: si ipotizza che il comportamento della popolazione rispetto ad una variabile casuale X viene descritto attraverso una funzione parametrica di probabilità p X (x θ) o di densità f X (x θ) di cui non si conosce θ. Non si conosco i dati relativi a tutta la popolazione, ma solo quelli relativi ad un campione rappresentativo di n unità: X 1 = x 1,..., X n = x n. Attraverso la conoscenza del campione si cerca di stimare o di verificare la validità di alcune congetture per θ. Quindi l inferenza è un processo attraverso il quale dal campione si deducono informazioni sulla popolazione ed è necessario valutare la qualità e la veridicità di tali informazioni. Statistica, CLEM p. 1/88
Problema inferenziale (1) Un azienda produce dei bulloni di ferro. Durante la produzione, capita che dei bulloni prodotti siano difettosi e quindi vanno eliminati. L azienda, per capire la qualità del suo processo produttivo, vuole conoscere la proporzione p di prodotti difettosi in un mese. L azienda inoltre valuta che il processo produttivo è buono se tale proporzione in un mese è p < 15% Problema inferenziale: stimare un valore per p stimare un intervallo di valori per p valutare se il processo produttivo è buono o necessita di interventi per migliorie Statistica, CLEM p. 2/88
Interpretazione del problema inferenziale (1) C è una variabile casuale binaria X = numero di pezzi difettosi in un mese (1: difettoso; 0: non difettoso) per conoscere la vera proporzione p di pezzi difettosi, basterrebbe osservare tutta la POPOLAZIONE = tutti i pezzi prodotti in un mese classificandoli come 1 (difettosi) o 0 (non difettosi) e si calcola la proporzione, cioè il PARAMETRO p della popolazione per vari motivi, non si può osservare tutta la popolazione, ma un CAMPIONE (x 1,..., x n ) di n bulloni prodotti in un mese Dato il campione, si cerca di conoscere la popolazione: STIMA PUNTUALE: stimare un valore per p INTERVALLI DI CONFIDENZA: stimare un intervallo di valori per p TEST DI IPOTESI: verificare che p < 0.15 per sincerarsi che il processo produttivo è buono Statistica, CLEM p. 3/88
Problema inferenziale (2) Consideriamo gli iscritti al primo anno del CLEM. Siamo interessati a conoscere l altezza media dei maschi µ M e l altezza media delle femmine µ F. Inoltre vogliamo verificare che in media i maschi sono più alti delle femmine. Problema inferenziale: stimare due valori per µ F e µ M stimare due intervalli di valori per µ F e µ M verificare l ipotesi che i maschi sono in media più alti delle femmine Statistica, CLEM p. 4/88
Interpretazione del problema inferenziale (2) Ci sono due variabili casuali continue M = altezza dei maschi e F = altezza delle femmine per conoscere le vere altezze medie µ F e µ M, basterrebbe osservare la POPOLAZIONE dei MASCHI = altezza di tutti i maschi iscritti al primo anno e la POPOLAZIONE delle FEMMINE = altezza di tutte le femmine iscritte al primo anno. Facendo le medie dei dati osservati, si ottengono i PARAMETRI µ F e µ M delle due popolazioni per vari motivi, non si possono osservare entrambe le popolazioni, ma due CAMPIONI (m 1,..., m n ) e (f 1,..., f m ) rispettivamente di n e m dimensioni Dati i due campioni, si cerca di conoscere i parametri di entrambe le popolazioni: STIMA PUNTUALE: stimare due valori per µ M e µ F INTERVALLI DI CONFIDENZA: stimare due intervalli di valori per µ M e µ F TEST DI IPOTESI: verificare che µ M µ F > 0 per attestare che effettivamente i maschi in media sono più altri delle femmine Statistica, CLEM p. 5/88
Perché il campione Le indagini svolte sull intera popolazione sono dette censuarie poiché svolte attraverso dei CENSIMENTI. Ma spesso può convenire osservare solo un sottoinsieme della popolazione, cioé un CAMPIONE costi elevati di un censimento tempi lunghi di un censimento la popolazione può essere infinita Statistica, CLEM p. 6/88
Campione probabilistico Un campione (X 1,..., X n ) è probabilistico quando è nota la probabilità di ogni singola unità di entrare a far parte del campione PRIMA dell estrazione delle n unità il campione (X 1,..., X n ) è una variabile casuale perché non sappiamo esattamente le unità che faranno parte del campione DOPO l estrazione delle n unità il campione (x 1,..., x n ) contiente delle osservazioni e non è più una variabile casuale (X 1 = x 1,..., X n = x n ) Statistica, CLEM p. 7/88
Campionamento casuale semplice Un CAMPIONE (X 1,..., X n ) è detto CASUALE SEMPLICE quando ogni unità della popolazione ha la stessa probabilità di entrare a far parte del campione. Consideriamo due tecniche di campionamento estrazione con reinserimento estrazione senza reinserimento Nel primo caso si ha un campione casuale semplice perché ogni unità mantiene la stessa probabilità di entrare a far parte del campione. Nel secondo caso non si ha un campione casuale semplice perché, a seguito di ogni estrazione, varia la probabilità delle singole unità di entrare a far parte del campione. Le differenze fra le due tecniche sono minime quando si hanno popolazioni molto grandi. In generale consideriamo sempre CCS (campioni casuali semplici) ottenuti con estrazione con reinserimento estrazione senza reinserimento in grandi popolazioni Statistica, CLEM p. 8/88
Struttura probabilistica del CCS Data una popolazione per una variabile casuale X con distribuzione di probabilità p X (x), un CCS, PRIMA dell estrazione, è una successione di variabili casuali X 1,..., X i,..., X n, i = 1,..., n X 1,..., X n sono i.i.d. ogni X i ha la stessa distribuzione di probabilità della popolazione p Xi (x i ) per l indipendenza, la distribuzione di probabilità del campione è p X1,...,X n (x 1,..., x n ) = n p Xi (x i ) i=1 DOPO l estrazione, il campione non è più una variabile casuale, ma una successione di osservazioni con cui fare inferenza sulla popolazione x 1,..., x i,..., x n, i = 1,..., n Statistica, CLEM p. 9/88
Come fare inferenza Supponiamo di considerare una variabile casuale X= altezza ed ipotizziamo X N(µ, σ 2 ). effettuiamo un CCS {X 1,..., X n } osserviamo n unità {x 1,..., x n } Cerchiamo un criterio per utilizzare i dati del CAMPIONE per fare inferenza sui PARAMETRI media µ e varianza σ 2 della POPOLAZIONE Cerchiamo degli indicatori sintetici da calcolare nel campione che possono darci informazioni sui parametri STATISTICHE CAMPIONARIE Statistica, CLEM p. 10/88
Statistica campionaria Una statistica campionaria T (X 1,..., X n ) è una funzione che dipende solo dai dati del campione e non da variabili incognite. Dato un CCS {X 1,..., X n } la media campionaria: X = 1 n 2 i=1 X i la varianza campionaria: S 2 = 1 n 1 n i=1 (X i X) 2 oppure S 2 = 1 n n i=1 (X i X) 2 la mediana campionaria semisomma dei valori estremi: (X max X min )/2... Struttura probabilistica della statistica campionaria PRIMA dell estrazione del campione T (X 1,..., X n ) è una variabile casuale ottenuta come combinazioni di variabili casuali X i la cui funzione di distribuzione è quella della popolazione DOPO l estrazione del campione, T (x 1,..., x n ) = t non è una variabile casuale, ma è il valore t che la statistica campionaria assume nel campione estratto. Statistica, CLEM p. 11/88
Stimatore di un parametro Lo stimatore è una statistica campionaria T (X 1,..., X n ) che viene utilizzata per stimare (dedurre informazioni) il parametro della popolazione. Esempio. Sia X Be(p). Sia {x 1,..., x n } un CCS osservato del tipo {1, 0, 0..., 1}. Si vuole trovare uno stimatore per p, parametro che rappresenta la proporzione di successi nella popolazione. Un possibile stimatore è la statistica campionaria ˆp = 1 n n i=1 x i Esempio. Sia X N(0, σ 2 ). Sia {x 1,..., x n } un CCS osservato. Si vuole trovare uno stimatore per σ 2, parametro che rappresenta la variabilità nella popolazione. Possibili stimatori sono S 2 = 1 n n (x i 0) 2, S 2 = 1 n 1 i=1 n (x i 0) 2, T = (X max X min )/2 i=1 Statistica, CLEM p. 12/88
Come si sceglie lo stimatore? si devono studiare le proprietà degli stimatori e scegliere quello con le proprietà più desiderabili per conoscere le proprietà degli stimatori è necessario conoscere la loro struttura probabilistica, cioè la loro distribuzione di probabilità dato che è nota la distribuzione di probabilità della popolazione, si può dedurre anche la distribuzione di probabilità di una statistica campionaria, poiché questa è funzione del CCS {X 1,..., X n } composto di var. casuali i.i.d. Alcune proprietà di uno stimatore correttezza efficienza consistenza Statistica, CLEM p. 13/88
Correttezza di uno stimatore (1) Sia X una variabile casuale con distribuzione di probabilità p X (x θ) con parametro θ. Sia T una funzione del campione {X 1,..., X n } usata come stimatore di θ. Se p T (t θ) è la distribuzione di probabilità dello stimatore T, questo è corretto o non distorto se E(T ) = θ Esempio. Sia T = X la media campionaria usata come stimatore di θ. Se T è corretto, significa che in media riproduce il valore di θ: si estraggono m = 1000 campioni {x 1,..., x n } in ogni campione si calcola la media campionaria x 1,..., x m la media di tutte le medie è uguale a θ 1 m m x j = θ j=1 Statistica, CLEM p. 14/88
Correttezza di uno stimatore (2) densità 4 3 2 theta = 1.6 T 1 è corretto T 2 non è corretto T 1 T 2 1 0 1 1.2 1.4 1.6 1.8 2 2.2 T Statistica, CLEM p. 15/88
Efficienza di uno stimatore (1) Sia X una variabile casuale con distribuzione di probabilità p X (x θ) con parametro θ. Siano T 1 e T 2 due possibili stimatori di θ. Se p T1 (t 1 θ) p T2 (t 2 θ) sono le distribuzioni di probabilità dei due stimatori, T 1 è più efficiente di T 2 V(T 1 ) < V(T 2 ) Esempio. Siano T 1 = X la media campionaria e T 2 = Me la mediana campionaria, due stimatori di θ. X è più efficiente di Me se è meno variabile: si estraggono m = 1000 campioni {x 1,..., x n } in ogni campione si calcolano i due stimatori x 1,..., x m, me 1,..., me m si calcolano la varianze σ 2 T 1 e σ 2 T 2 per entrambe le successioni di stimatori la media campionaria è più efficiente delle mediana campionaria se σ 2 T 1 < σ 2 T 2 N.B. L efficienza di uno stimatore è definita in termini relativi (rispetto ad altri stimatori) e non in termini assoluti. Statistica, CLEM p. 16/88
Efficienza di uno stimatore (2) 8 T 1 6 VAR(T1) < VAR(T2) densità 4 2 T 2 0 1 1.2 1.4 1.6 1.8 2 2.2 T Statistica, CLEM p. 17/88
Errore quadratico medio (1) L errore quandratico medio di uno stimatore T di un parametro θ considera congiuntamente sia l efficienza sia la distorsione dello stimatore MSE(T ) = E(T θ) 2 = V(T ) + D(T ) 2 dove D(T ) = E(T ) θ. Se uno stimatore è corretto, D(T ) = 0, quindi l errore quadratico medio coincide con la varianza M SE(T ) = V(T ), per stimatori non distorti Siano T 1 e T 2 due possibili stimatori di θ. Lo stimatore T 1 è migliore di T 2 se MSE(T 1 ) < MSE(T 2 ) Se T 1 e T 2 sono due stimatori corretti di θ, si ritorna alla definizione di efficienza, per cui lo stimatore T 1 è migliore di T 2 se V(T 1 ) < V(T 2 ) Statistica, CLEM p. 18/88
Errore quadratico medio (2) Anche se T 1 è distorto, è comunque migliore di T 2 perché ha una maggiore efficienza. densità 8 6 4 theta = 1.60 E(T1) = 1.70 E(T2) = 1.60 V(T1) < V(T2) MSE(T1) < MSE(T2) T 1 2 0 1 1.2 1.4 1.6 1.8 2 2.2 T T 2 Statistica, CLEM p. 19/88
Consistenza (1) La consistenza è una proprietà asintotica, nel senso che vale per campioni molto grandi, cioè quando n. Indichiamo con T n lo stimatore calcolato su campioni di dimensioni n. Uno stimatore T n di un parametro θ è consistente quando lim n P ( T n θ < ɛ) = 1, ɛ è un numero piccolissimo positivo Questo significa che quando il campione è molto grande tende ad 1 la probabilità che la stima T n = t cade in un intervallo molto piccolo del parametro θ la stima T n = t ottenuta attraverso uno stimatore consistente è molto vicina al valore vero del parametro θ. Statistica, CLEM p. 20/88
Consistenza (2) 40 35 30 25 theta = 1.60 n = 50 n = 100 n = 200 densità 20 15 10 5 0 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 T Statistica, CLEM p. 21/88
La distribuzione degli stimatori Dato uno stimatore T n, per conoscere le sue proprietà è necessario conoscere la sua distribuzione di probabilità. Studiamo la distribuzione di probabilità e le proprietà dei seguenti stimatori X = 1 n n i=1 X i S 2 = 1 n n 1 i=1 (X i X) 2 S 2 = 1 n n i=1 (X i X) 2 ˆp = n i=1 X i, quando X è una variabile binaria discreta (0, 1) Statistica, CLEM p. 22/88
La distrib. della media campionaria X (1) Sia X una variabile casuale con E(X) = µ e V(X) = σ 2 e sia {X 1,..., X n } un CCS con variabili i.i.d. Consideriamo la variabile casuale media campionaria X = 1 n n i=1 X i dato che il campione CS è costituito di variabili i.i.d. E(X) = 1 n n i=1 E(X i) = nµ = µ: X è uno stimatore CORRETTO di µ n V(X) = 1 n n 2 i=1 V(X i) = nσ2 n 2 = σ2 n N.B. Notare che la media campionaria X ha una variabilità inferiore alla variabile X V(X) = σ2 n < V(X) = σ 2 Statistica, CLEM p. 23/88
La distrib. della media campionaria X (2) Se X una variabile casuale normale, X N(µ, σ 2 ) e se {X 1,..., X n } è un CCS, la media campionaria n X = 1 n i=1 X i è una combinazione di variabili casuali i.i.d. Per le proprietà della normale X N(µ, σ 2 /n) Se X è variabile casuale qualsiasi con E(X) = µ e V(X) = σ 2, la media campionaria è sempre una combinazione di variabili i.i.d., ma potremmo non conoscere la distribuzione esatta di X ma se il campione è abbastanza grande, per il TLC (teorema del limite centrale), la distribuzione di X si approssima con una distribuzione normale X N(µ, σ 2 /n) Statistica, CLEM p. 24/88
La media campionaria per una pop. normale 20 18 T = media campionaria 16 14 12 densità 10 8 T = N(1.60, 0.2/10) X = N(1.60, 0.2) 6 4 2 X 0 1 1.5 2 2.5 Statistica, CLEM p. 25/88
La distribuzione della stat. campionaria S 2 Sia X una variabile casuale normale N(µ, σ 2 ) e sia {X 1,..., X n } un CCS con variabili i.i.d.. Consideriamo la statistica campionaria S 2 = 1 n n (X i X) 2 i=1 dato che il campione CS è costituito da variabili i.i.d., si dimostra che n S 2 σ 2 χ2 (n 1), N.B. solo se X N da cui si può facilmente verificare che S 2 è uno stimatore DISTORTO di σ 2 E( n S 2 σ 2 ) = n 1, E( S 2 ) = n 1 n σ2 < σ 2 Quindi lo stimatore distorto S 2 tende a sottostimare σ 2. Statistica, CLEM p. 26/88
La distribuzione della stat. campionaria S 2 Sia X una variabile casuale normale N(µ, σ 2 ) e sia {X 1,..., X n } un CCS con variabili i.i.d.. Consideriamo la statistica campionaria S 2 = 1 n 1 n (X i X) 2 dato che il campione CS è costituito da variabili i.i.d., si dimostra che i=1 (n 1)S 2 σ 2 χ 2 (n 1), N.B. solo se X N da cui si può facilmente verificare che S 2 è uno stimatore CORRETTO di σ 2 (n 1)S2 E( σ 2 ) = n 1, E(S 2 ) = n 1 n 1 σ2 = σ 2 Quindi si predilige S 2 come stimatore della varianza σ 2. Statistica, CLEM p. 27/88
La distrib. di (n 1)S 2 /σ 2 per pop. normali 0.12 Distribuzione della varianza campionaria 0.1 0.08 chi quadrato n 1 gradi di libertà densità 0.06 0.04 0.02 0 0 5 10 15 20 25 30 Statistica, CLEM p. 28/88
La distrib. della proporzione campionaria ˆp Sia X una variabile casuale binaria X Be(p) con E(X) = p e V(X) = p(1 p) e sia {X 1,..., X n } un CCS con variabili i.i.d. Consideriamo la variabile casuale ˆp = proporzione campionaria di successo n ˆp = 1 n i=1 X i dato che il campione CS è fatto variabili i.i.d. X i Be(p), ˆp Bin(n, p) E(ˆp) = 1 n n i=1 E(X i) = np n V(ˆp) = 1 n n 2 i=1 V(X i) = np(1 p) n 2 = p: ˆp è uno stimatore CORRETTO di p = p(1 p) n N.B. Se il campione è molto grande, per il TLC ˆp si approssima con una normale ˆp N(p, p(1 p) ) n Statistica, CLEM p. 29/88
La distrib. approssimata di ˆp per vari n Densità approssimata della proporzione camp. densità 160 140 120 100 80 p = 0.4 p(1 p) = 0.24 n = 100 n = 50 n = 30 N(0.4, 0.24/100) N(0.4, 0.24/50) N(0.4, 0.24/30) 60 40 20 0 0.35 0.4 Statistica, CLEM p. 30/88
Stima puntuale Sia X distribuita con una legge di probabilità p X (x θ) o funzione di densità f X (x θ). Sia T (X) uno stimatore di θ e {X 1,..., X n } un CCS. Una volta estratto il campione X 1 = x 1,..., X n = x n la stima puntuale è il valore assunto dallo stimatore nel campione T (x 1,..., x n ) = t Si assume t come stima per θ. L accuratezza della stima puntuale dipende dall errore standard della stima SE(T ) = V(T ) Statistica, CLEM p. 31/88
Stima puntuale della media Sia X N(µ, σ 2 ). Supponiamo che σ 2 sia noto e l unico parametro è µ. Una volta estratto il campione X 1 = x 1,..., X n = x n la stima puntuale è e l accuratezza della stima di µ è x = 1 n n i=1 x i SE(x) = σ n dato che V(X) = σ2 n Statistica, CLEM p. 32/88
Stima puntuale di una proporzione Sia X Be(p) di parametro p. Una volta estratto il campione X 1 = x 1,..., X n = x n la stima puntuale di p è n p = 1 n i=1 x i e l accuratezza della stima è dato che V( p) = p(1 p) n SE( p) = p(1 p) n Statistica, CLEM p. 33/88
Stima per intervallo (1) A volte, piuttosto che stimare il parametro con un unico valore (stima puntuale), si preferisce stimare un intervallo di valori plausibili per il parametro: un intervallo di confidenza (o fiduciario). La stima per intervallo si basa su: uno stimatore T per il parametro θ la distribuzione di probabilità p T (t θ) dello stimatore T un livello di confidenza α = una probabilità che indica l affidabilità della stima un intervallo di confidenza: un insieme di valori per θ Statistica, CLEM p. 34/88
Stima per intervallo (2) Sia X una variabile casuale per la popolazione con parametro θ non noto. Sia T uno stimatore corretto di θ, E(T ) = θ, e {X 1,..., X n } un CCS. PRIMA dell estrazione del campione, T è una variabile casuale che consideriamo standardizzata e per la quale possiamo definire un intervallo (a, b) tale che P (a T θ SE(T ) b) = 1 α, con α abbastanza piccolo P (T a SE(T ) θ T + b SE(T )) = P (a θ b ) = 1 α Gli estremi dell intervallo (a, b ) dipendono da T e sono anche loro variabili casuali. α = P [θ / (a, b )], 1 α = P [θ (a, b )] α = probabilità di estrarre un certo campione in cui T = t da cui deriva un intervallo [t a SE(t), t + b SE(T )] che non contiene il parametro θ, quindi produce una stima per intervallo errata Statistica, CLEM p. 35/88
Intervallo di confidenza PRIMA dell estrazione del campione, P (T v θ T + k) = 1 α, v = a SE(T ), k = b SE(T ) (T v, T + k) è un intervallo i cui estremi sono variabili casuali 1 α = probabilità si estrarre un certo campione in cui T = t da cui deriva una stima per intervallo intervallo (t v, t + k) che contiene il parametro θ. DOPO l estrazione del campione CS {x 1,..., x n } (t v, t + k) è l intervallo di confidenza i cui estremi sono valori certi, non più variabili casuali per un α molto piccolo {0.10, 0.05, 0.01}, abbiamo che la probabilità a priori di estrarre un campione che genera un intervallo che non contiene θ è bassissma, perciò confidiamo nel fatto che θ (t v, t + k) Statistica, CLEM p. 36/88
Intervallo di confidenza (2) Consideriamo una variabile casuale X N(µ, 1) con varianza nota. Sia {X 1,..., X n } un CCS e sia T N(µ, 1/n) lo stimatore media campionaria per il parametro µ. Se α = 0.05 = 5%, P (a T µ 1/n b) = P (T a 1/n µ T + b 1/n) = 0.95 = 95% In pratica, supponiamo di estrarre 1000 campioni: 950 di questi campioni generano una stima T = t tale che la stima per intervallo è corretta θ (t a 1/n, t + b 1/n) 50 di questi campioni generano una stima T = t tale che la stima per intervallo è errata θ / (t a 1/n, t + b 1/n) Statistica, CLEM p. 37/88
Come si scelgono a e b? Consideriamo α = 0.10 P (a T µ 1/n b) = P (a Z b) = 90% Ci sono tantissimi intervalli (a, b) che soddisfano quella condizione P ( 2.05 Z 1.41) = P ( 1.48 Z 1.88) = P ( 1.64 Z 1.64) = 90% L intervallo di confidenza migliore di solito è quello simmetrico, cioè quello per cui la probabilità α = 10% si divide a metà P ( 1.64 Z 1.64) = 90% P (Z 1.64) = α/2 = 5%, P (Z < 1.64) = α/2 = 5% Statistica, CLEM p. 38/88
Alcuni intervalli per α = 0.10 Quello in rosso è l intervallo simmetrico ( 1.64, 1.64) 0.4 0.35 Int. Confidenza, alpha = 10% alpha = 2% + 8% IC = ( 2.05, 1,41) alpha = 5%+ 5% IC = ( 1.64, 1,64) 0.3 alpha = 7% + 3% IC = ( 1.48, 1,88) 0.25 densità 0.2 0.15 0.1 0.05 0 4 3 2 1 0 1 2 3 4 Z Statistica, CLEM p. 39/88
Intervallo di confidenza simmetrico Consideriamo una variabile casuale X N(µ, 1) con varianza nota. Sia {X 1,..., X n } un CCS e sia T N(µ, 1/n) lo stimatore media campionaria per il parametro µ. L intervallo di confidenza simmetrico si ottiene P ( z α/2 T µ 1/n z α/2 ) = P (T z α/2 1/n µ T + z α/2 1/n) = 1 α Se α = 0.05, z 0.025 = 1.96 e z 0.025 = 1.96. L intervallo di confidenza casuale è (T 1.96 1/n, T + 1.96 1/n) poiché P ( 1.96 T µ 1/n 1.96) = 1 5% = 95% Una volta estratto un campione {x 1,..., x n } in cui T = t, la stima per intervallo del parametro µ è data dall intervallo di confidenza µ (t 1.96 1/n, t + 1.96 1/n) Statistica, CLEM p. 40/88
Alcuni valori z α/2 per una normale standard 0.4 0.4 0.35 Normale Standard 0.35 Normale Standard 0.3 0.3 0.25 0.25 0.2 0.15 90% 0.2 0.15 95% 0.1 0.1 0.05 5% 5% 0 3 2 1 0 1 2 3 1.64 1.64 0.4 0.05 2.5% 2.5% 0 3 2 1 0 1 2 3 1.96 1.96 0.35 Normale Standard 0.3 0.25 0.2 0.15 99% 0.1 0.05 0.5% 0.5% 0 3 2 1 0 1 2 3 2.57 2.57 Statistica, CLEM p. 41/88
IC per la media µ in caso di varianza nota IC per µ di pop. normale con varianza nota Sia X N(µ, σ 2 ) con varianza σ 2 nota Sia X N(µ, σ 2 /n) lo stimatore per il parametro µ Sia {x 1,..., x n } un CCS estratto in cui X = x L intervallo di confidenza simmetrico è (x 1.64 σ/ n, x + 1.64 σ/ n), per α = 10% (x 1.96 σ/ n, x + 1.96 σ/ n), per α = 5% (x 2.57 σ/ n, x + 2.57 σ/ n), per α = 1% IC per µ di pop. non normale con varianza nota e grandi campioni Gli stessi intervalli si possono usare per ottenere IC asintotici per il parametro E(X) = µ anche per variabili casuali X NON NORMALI, ma solo nel caso di GRANDI CAMPIONI (n abbastanza grande). Poiché, per il teorema del limite centrale X = 1 n n X i si approssima con N(µ, σ 2 /n) per n grande i=1 Statistica, CLEM p. 42/88
Stima giusta o errata? IC rossi sono stime errate di µ generate da campioni in cui t = x è poco probabile 2 1.8 Stime per intervallo corrette ed errate T 1.6 1.4 1.2 t = 0.90 t = 2.10 1 t = 1.40 0.8 0.6 t = 1.80 0.4 0.2 0 0.5 1 1.5 2 2.5 mu = 1.60 Statistica, CLEM p. 43/88
IC per la media µ con varianza non nota (1) IC per µ di pop. normale con varianza non nota Sia X N(µ, σ 2 ) con varianza σ 2 non nota usiamo S 2 = 1 n n 1 i=1 (X i X) 2 come stimatore di σ 2 Sia X lo stimatore per il parametro µ, se X N, si dimostra che X µ S/ n t n 1, t Student con n 1 g.l. Sia {x 1,..., x n } un CCS estratto in cui X = x e S 2 = s 2 L intervallo di confidenza simmetrico è (x t (n 1),α/2 s/ n, x + t (n 1),α/2 s/ n) (x 1.83 s n, x + 1.83 s/ n), per α = 10% e n = 10 (x 2.26 s/ n, x + 2.26 s/ n), per α = 5% e n = 10 (x 3.25 s/ n, x + 3.25 s/ n), per α = 1% e n = 10 Statistica, CLEM p. 44/88
IC per la media µ con varianza non nota (2) IC per µ di pop. non normale con varianza non nota e grandi campioni Nel caso di grandi campioni, sia che X sia normale sia che X sia non normale, per il teorema del limite centrale X µ S/ n si approssima con N(0, 1) L intervallo di confidenza asintotico e simmetrico per µ è quindi (x z α/2 s/ n, x + z α/2 s/ n) Ad esempio, con n = 10 con α = 5%, IC per µ è (x 1.96 s/ n, x + 1.96 s/ n) Statistica, CLEM p. 45/88
IC per la proporzione p in grandi campioni Sia X Be(p) una variabile binaria (0, 1) e sia {X 1,..., X n } un CCS Sia p = 1 n n i=1 X i lo stimatore per il parametro p. Per il teorema del limite centrale p p p(1 p) n si approssima con N(0, 1) Sia {x 1,..., x n } un GRANDE CAMPIONE estratto in cui si calcola p L intervallo di confidenza asintotico e simmetrico è ( p 1.64 ( p 1.96 ( p 2.57 p(1 p) p(1 p) ( p z α/2, p + z α/2 ) n n p(1 p) p(1 p) n, p + 1.64 p(1 p) p(1 p) n ), per α = 10%, p + 1.96 ), per α = 5% n n p(1 p) p(1 p), p + 2.57 ), per α = 1% n n Statistica, CLEM p. 46/88
IC per la varianza σ 2 in pop. normali (1) IC per σ 2 di pop. normale con µ non nota Sia X N(µ, σ 2 ) con µ non nota usiamo S 2 = 1 n 1 n i=1 (X i X) 2 come stimatore di σ 2. Si ha che per un certo α (n 1)S 2 σ 2 χ 2 n 1, chi-quadrato con n 1 g.l. P [χ 2 (n 1),1 α/2 (n 1)S2 σ 2 χ 2 (n 1),α/2 ] = 1 α P [(n 1)S 2 /χ 2 (n 1),α/2 σ2 (n 1)S 2 /χ 2 (n 1),1 α/2 ] = 1 α Sia {x 1,..., x n } un CCS estratto in cui S 2 = s 2 L intervallo di confidenza simmetrico è [(n 1)s 2 /χ 2 (n 1),α/2, (n 1)s2 /χ 2 (n 1),1 α/2 ] Statistica, CLEM p. 47/88
IC per la varianza σ 2 in pop. normali (2) (9s 2 /16.92, 9s 2 /3.33), per α = 10% e n = 10 (9s 2 /19.02, 9s 2 /2.70), per α = 5% e n = 10 (9s 2 /23.59, 9s 2 /1.73), per α = 1% e n = 10 IC per σ 2 di pop. normale con µ nota Se X N(µ, σ 2 ) dove µ è nota, la differenza è che (n 1)S 2 σ 2 χ 2 n, chi-quadrato con n g.l. quindi, per un certo valore s 2 ed un certo α, IC simmetrico per σ 2 è [(n 1)s 2 /χ 2 n,α/2, (n 1)s2 /χ 2 n,1 α/2 ] Statistica, CLEM p. 48/88
Quantili χ 2 9,α/2 e χ2 9,1 α/2 0.12 Chi quadro con 9 gradi di libertà 0.1 0.08 IC 90% IC 95% IC 99% 0.06 0.04 0.02 0 0 5 10 15 20 25 30 Statistica, CLEM p. 49/88
IC per µ X µ Y : pop. normali, var. note IC per µ X µ Y con X N(µ X, σ 2 X ) e Y N(µ Y, σ 2 Y ), con X Y Siano le varianze σx 2 e σ2 Y note Siano X N(µ X, σx 2 /n) e Y N(µ Y, σy 2 /m) gli stimatori di µ X e µ Y Siano {x 1,..., x n } e {y 1,..., y m } due CCS indipendenti in cui X = x e Y = y Per l indipendenza si ha che L intervallo di confidenza simmetrico è (X Y ) (µ X µ Y ) N(0, 1) σ 2 X n + σ2 Y m [(x y) 1.64 σ 2 X n + σ2 Y m, (x y) + 1.64 [(x y) 1.96 σ 2 X n + σ2 Y m, (x y) + 1.96 [(x y) 2.57 σ 2 X n + σ2 Y m, (x y) + 2.57 σ 2 X σ 2 X n + σ2 Y m ], per α = 10% n + σ2 Y m ], per α = 5% σ 2 X n + σ2 Y m ], per α = 1% Statistica, CLEM p. 50/88
IC per µ X µ Y : pop. normali, var. non note IC per µ X µ Y con X N(µ X, σ 2 X ) e Y N(µ Y, σ 2 Y ), con X Y Siano le varianze non note ma uguali σ 2 = σ 2 X = σ2 Y (omoschedasticità) Assumiamo come stimatore per la varianza comune S 2 p = (n 1)S2 X + (m 1)S2 Y n + m 2 Siano X N(µ X, σ 2 X /n) e Y N(µ Y, σ 2 Y /m) gli stimatori di µ X e µ Y Siano {x 1,..., x n } e {y 1,..., y m } due CCS indipendenti in cui X = x e Y = y Se X ed Y sono normali ed indipendenti si ha che (X Y ) (µ X µ Y ) t k, k = n + m 2 Sp( 2 1n + 1m ) L intervallo di confidenza simmetrico è [(x y) t k,α/2 s 2 p( 1 n + 1 m ), (x y) + t k,α/2 s 2 p( 1 n + 1 m )] Statistica, CLEM p. 51/88
IC per µ X µ Y per grandi campioni (1) IC per µ X µ Y per popolazioni non normali con varianze note e grandi campioni Anche se X ed Y sono NON NORMALI, ma INDIPENDENTI, per costruire intervalli di confidenza per il parametro µ X µ Y si può comunque utilizzare la distribuzione Normale, ma solo nel caso di GRANDI CAMPIONI, poiché, per il teorema del limite centrale (X Y ) (µ X µ Y ) σ 2 X n + σ2 Y m si approssima con N(0, 1) per n ed m grandi L intervallo di confidenza asintotico e simmetrico è [(x y) z α/2 σ 2 X n + σ2 Y m, (x y) + z α/2 σ 2 X n + σ2 Y m ] Statistica, CLEM p. 52/88
IC per µ X µ Y per grandi campioni (2) IC per µ X µ Y per popolazioni non normali con varianze non note e grandi campioni Consideriamo S 2 X ed S2 Y come stimatori corretti per σ2 X e σ2 Y Anche se X ed Y sono NON NORMALI, ma INDIPENDENTI, per costruire intervalli di confidenza per il parametro µ X µ Y si può comunque utilizzare la distribuzione Normale, ma solo nel caso di GRANDI CAMPIONI, poiché, per il teorema del limite centrale (X Y ) (µ X µ Y ) S 2 X n + S2 Y m si approssima con N(0, 1) per n ed m grandi L intervallo di confidenza asintotico e simmetrico è [(x y) z α/2 s 2 X n + s2 Y m, (x y) + z s 2 X α/2 n + s2 Y m ] Statistica, CLEM p. 53/88
Decisioni in condizioni di incertezza Un azienda che produce pezzi di ricambio per auto ha acquistato un nuovo macchinario per realizzare tali pezzi in una lega più leggera di alluminio. Vuole testare e valutare il nuovo processo produttivo sulla base dei pezzi prodotti. Valuta che in media i pezzi dovrebbero pesare µ = 1.5 kg se i pezzi pesano in media più o meno di 1.5 kg, il processo produttivo va fermato e revisionato. La decisione si basa su un campione scelto casualmente di n = 50 pezzi prodotti: come si fa a prendere una decisione? 1. si osserva il peso dei 16 pezzi x 1,..., x 16, si calcola la media e, se x 1.5, allora si decide di fermare il processo produttivo 2. dato che non si conosce l intera popolazione, la decisione deve tenere conto dell incertezza dovuta alla stima campionaria: x può essere diverso da 1.5 nel campione, ma la media nella popolazione µ potrebbe comunque essere 1.5 3. per decidere se fermare o no la produzione sulla base del campione, è necessario definire una regola che tiene conto dell errore campionario x µ Statistica, CLEM p. 54/88
Verifica di ipotesi Sia X un certo fenomeno casuale oggetto di interesse (peso dei pezzi prodotti) di cui si conosce la famiglia di distribuzione di probabilità p X (x θ) o f X (x θ), ma non si conosce il valore del parametro θ. Si vuole verificare una certa ipotesi su θ sulla base di un campione di osservaioni. La verifica di ipotesi si basa su: uno stimatore T per θ la distribuzione f T (t θ) dello stimatore T l ipotesi nulla H 0 : θ = θ 0 l ipotesi alternativa H 1 semplice: H 1 : θ = θ 1 unidirezionale: H 1 : θ > θ 0 o H 1 : θ < θ 0 bi-direzionale: H 1 : θ θ 0 una regola per prendere una decisione sulla base del campione estratto: accettare H 0 o rifiutare H 0 la probabilità α di commettere un errore nel prendere una decisione: rifiutare H 0 anche se è vera. Statistica, CLEM p. 55/88
Sistema di ipotesi L ipotesi nulla H 0 : θ = θ 0 esprime ciò che ci interessa verificare. Nell esempio precedente: H 0 : µ = 15 L ipotesi alternativa H 1 smentisce l ipotesi nulla ed indica altri possibili valori per θ diversi da θ 0. Nell esempio precedente: H 1 : µ = 30 o H 1 : µ > 15 o H 1 < 15 o H 1 15 Esempio: Sia X = il peso dei pezzi prodotti e sia x 1,..., x 16 un campione di 50 pezzi osservati. Assumiamo che X N(µ, 4) con µ non nota. Prendiamo X come stimatore di µ: X N(µ, 4/16) Dato che nel campione osservato x = 14, serve una REGOLA per decidere se accettare H 0 : µ = 15 e non fermare il processo produttivo rifiutare H 0 poiché µ 15 e fermare il processo produttivo Statistica, CLEM p. 56/88
Regola decisionale (1) Sia Ω lo spazio campionario, cioè l insieme di tutti i possibili campioni x 1,..., x n che si possono estrarre La regola va definita sullo spazio Ω il quale viene diviso in due parti disgiunte ed esaustive, Ω = A R, A R = A: l insieme dei campioni per cui si accetta H 0 R: l insieme dei campioni per cui si rifiuta H 0 Consideriamo il sistema di ipotesi H 0 : θ = θ 0, H 1 : θ θ 0. e lo stimatore T di θ che in ogni campione x 1,..., x n assume un certo valore t. La regola dovrebbe essere definita in modo tale che per ogni campione contenuto in A, t deve essere abbastanza vicino a θ 0 per ogni campione contenuto in R, t deve essere abbastanza diverso da θ 0 Statistica, CLEM p. 57/88
Regola decisionale (2) La regola deve essere definita in modo tale che campioni che producono stime T = t per il parametro θ molto vicine (diverse) a θ 0 portano ad accettare (rifiutare) l ipotesi nulla H 0 Si considera la distribuzione di probabilità f T (t θ 0 ) dello stimatore T quando è vera H 0 sulla base di f T (t θ 0 ), la regola definisce A: zona di accettazione, cioè i valori di T per cui si accetta H 0 R: zona di rifiuto o zona critica, cioè i valori di T per cui si rifiuta H 0 se H 0 è vera, A è un insieme di valori di T molto probabili secondo la funzione f T (t θ 0 ) se H 0 è vera, R è un insieme di valori di T poco probabili secondo la funzione f T (t θ 0 ) Statistica, CLEM p. 58/88
Zona R di rifiuto e zona di A accettazione Sia X N(µ, 4) e X N(µ, 4/16) lo stimatore di µ. Vogliamo verificare l ipotesi H 0 : µ = 15, contro H 1 : µ 15 1.6 Distribuzione della media camp. sotto l ipotesi nulla 1.4 1.2 1 densità 0.8 0.6 0.4 R A R 0.2 0 13 13.5 14 14.5 15 15.5 16 16.5 17 media campionaria A: insieme di molto probabili e R: insieme di poco probabili se è vera H 0 Statistica, CLEM p. 59/88
Livello di significatività α e valori critici Il livello di significatività α è una probabilità da cui derivano i valori critici x α/2 che delimitano la zona di rifiuto (zona critica) R e di accettazione A 1.6 1.4 1.2 alpha = 10% 14.5 = valore critico 15.5 = valore critico Distribuzione della media camp. sotto H0 H0 densità 1 0.8 0.6 0.4 5% 90% 5% 0.2 R A R 0 13 13.5 14 14.5 15 15.5 16 16.5 17 media campionaria x α/2 = (14.5, 15.5) R : (, 14.5) (15.5, + ) P (X R) = 0.10 = α: prob. di rifiutare H 0 A : (14.5, 15.5) P (X A) = 0.90 = 1 α: prob. di accettare H 0 Statistica, CLEM p. 60/88
Errori di I e II tipo R : (, 14.5) (15.5, + ), A : (14.5, 15.5) Se estraggo un campione x 1,..., x 16 in cui = 14.8, ACCETTO H 0 perché x A. Se se H 0 è vera prendo una decisione corretta se H 0 è falsa prendo una decisione errata Se estraggo un campione x 1,..., x 16 in cui x = 15.9, RIFIUTO H 0 perché x R. Se se H 0 è vera prendo una decisione errata se H 0 è falsa prendo una decisione corretta Nel prendere queste decisioni si possono commettere due errori: ERRORE di I tipo: rifiuto H 0 ma è vera ERRORE di II tipo: accetto H 0 ma è falsa Statistica, CLEM p. 61/88
Errore di I tipo Se estraggo un campione con x = 15.9 o con x = 13.9, questi valori sotto H 0 sono poco plausibili, mentre sono più plausibili sotto H 1 : RIFIUTO H 0 1.6 1.4 Distribuzione della media camp. sotto H0 e H1 H1 H0 H1 1.2 1 densità 0.8 0.6 0.4 0.2 R A R 0 13 13.5 14 14.5 15 15.5 16 16.5 17 media campionaria se H 0 è falsa ho preso una giusta decisione se H 0 è vera ho commesso un ERRORE DI I TIPO Statistica, CLEM p. 62/88
Errore di II tipo Se estraggo un campione con x = 14.8, questo valore sotto H 0 è molto plausibile, mentre è poco plausibile sotto H 1 : ACCETTO H 0 1.6 1.4 Distribuzione della media camp. sotto H0 e H1 H1 H0 H1 1.2 1 densità 0.8 0.6 0.4 0.2 R A R 0 13 13.5 14 14.5 15 15.5 16 16.5 17 media campionaria se H 0 è falsa ho commesso un ERRORE DI II TIPO se H 0 è vera ho preso una giusta decisione Statistica, CLEM p. 63/88
Test unidirezionale semplice (1) Verifica di ipotesi unidirezionale semplice con α = 10% H 0 : µ = 15 H 1 : µ = 15.6 Il valore critico è x α = 15.3 e la zona di rifiuto o critica è x > 15.3 1.6 1.4 1.2 alpha = 10% H0 H1 densità 1 0.8 0.6 0.4 0.2 A R 0 14 14.5 15 15.3 15.5 16 Statistica, CLEM p. 64/88
Test unidirezionale semplice (2) Verifica di ipotesi unidirezionale semplice con α = 5% H 0 : µ = 15 H 1 : µ = 14.3 Il valore critico è x α = 14.5 e la zona di rifiuto o critica è x < 14.5 1.6 1.4 1.2 H1 H0 alpha = 5% densità 1 0.8 0.6 0.4 0.2 R A 0 14 14.5 15 15.5 16 Statistica, CLEM p. 65/88
Probabilità dell errore di I e II tipo PRIMA di estrarre il campione posso calcolare la probabilità di decisioni errate. P (Errore I tipo) = P (X R H 0 è vera) = α P (Errore II tipo) = P (X A H 0 è falsa) = P (X A H 1 è vera) = β PRIMA di estrarre il campione posso calcolare la probabilità di decisioni corrette P (X A H 0 è vera) = 1 α P (X R H 1 è vera) = 1 β: potenza del test DOPO l estrazione del campione, si ha un valore preciso X = x per il quale si confida nella decisione presa ACCETTO H 0 se x A o RIFIUTO H 0 se x R sulla base della zona di rifiuto o critica stabilita secondo un livello di significatività α Statistica, CLEM p. 66/88
H 0 : µ = 15 H 1 : µ = 15.6 x α = 15.3 1.6 1.4 alpha = 10% beta = 32% H0 H1 1.2 1 0.8 0.6 0.4 0.2 A R 0 13.5 14 14.5 15 15.3 15.5 16 P (X R H 0 ) = P (X > 15.3 µ = 15) = α = 0.10: prob. errore I tipo P (X A H 1 ) = P (X < 15.3 µ = 15.6) = β = 0.32: prob. errore II tipo P (X A H 0 ) = P (X < 15.3 µ = 15) = 1 α = 0.90: P (X R H 1 ) = P (X > 15.3 µ = 15.6) = 1 β = 0.78: potenza del test Statistica, CLEM p. 67/88
Test unidirezionale composto (1) Verifica di ipotesi unidirezionale semplice con α = 5% H 0 : µ = 15 H 1 : µ > 15 (l ipotesi H 1 non è semplice, è definita per ogni µ > 15) Il valore critico è x α = 15.3 e la zona di rifiuto o critica è x > 15.3 1.6 1.4 1.2 alpha = 10% H0 H1 1 0.8 0.6 0.4 0.2 A R 0 14 15 15.3 16 17 Statistica, CLEM p. 68/88
Test unidirezionale composto (2) Verifica di ipotesi unidirezionale semplice con α = 5% H 0 : µ = 15 H 1 : µ < 15 (l ipotesi H 1 non è semplice, è definita per ogni µ < 15) Il valore critico è x α = 14.5 e la zona di rifiuto o critica è x < 14.5 1.6 1.4 1.2 H1 H0 alpha = 5% 1 0.8 0.6 0.4 0.2 R A 0 13 14 14.5 15 16 Statistica, CLEM p. 69/88
H 0 : µ = 15 H 1 : µ = µ 1 < 15 1.6 1.4 1.2 H1 H0 alpha = 5% 1 0.8 0.6 0.4 0.2 R A 0 13 14 14.5 15 16 P (X R H 0 ) = P (X < 14.5 µ = 15) = α = 0.5: prob. errore I tipo P (X A H 1 ) = P (X > 14.5 µ 1 ) = β(µ 1 ): prob. errore II tipo P (X A H 0 ) = P (X > 14.5 µ = 15) = 1 α = 0.95: P (X R H 1 ) = P (X < 14.5 µ 1 ) = 1 β(µ 1 ): potenza del test Statistica, CLEM p. 70/88
Test bi-direzionale Verifica di ipotesi bi-direzionale con α = 10%, H 0 : µ = 15 H 1 : µ 15 (l ipotesi H 1 non è semplice, è definita per ogni µ 15) Abbiamo due valori critici che si ottengono convenzionalmente usando α/2: x α/2 = (14.5, 15.5) e la zona di rifiuto o critica è x < 14.5 x > 15.5 1.6 1.4 Test bi direzionale con alpha = 10% H1 H0 H1 1.2 1 0.8 0.6 0.4 R A R 0.2 0 13 13.5 14 14.5 15 15.5 16 16.5 17 Statistica, CLEM p. 71/88
H 0 : µ = 15 H 1 : µ = µ 1 15 1.6 1.4 Test bi direzionale con alpha = 10% H1 H0 H1 1.2 1 0.8 0.6 0.4 R A R 0.2 0 13 13.5 14 14.5 15 15.5 16 16.5 17 P (X R H 0 ) = P (X > 15.5 X < 14.5 µ = 15) = α = 0.10: prob. errore I tipo P (X A H 1 ) = P (14.5 < X < 15.5 µ 1 ) = β(µ 1 ): prob. errore II tipo P (X A H 0 ) = P (14.5 < X < 15.5 µ = 15) = 1 α = 0.90 P (X R H 1 ) = P (X > 15.5 X < 14.5 µ 1 ) = 1 β(µ 1 ): potenza del test Statistica, CLEM p. 72/88
Considerazioni sulla verifica di ipotesi (1) Data una variabile casuale X con distribuzione di probabilità f X (x θ), attraverso un test statistico si vuole verificare una certa ipotesi sul parametro θ. Il test di ipotesi di basa su un ipotesi nulla H 0 ed un ipotesi alternativa H 1 che sono fra loro incompatibili uno stimatore T di θ, detto anche statistica test che ha una certa distribuzione di probabilità f T (t θ) un livello di significatività α che, sulla base della distribuzione di probabilità f T (t θ 0 ) sotto H 0 definisce: dei valori critici t α oppure t α/2 una zona critica R di rifiuto e una zona di accettazione A per verificare l ipotesi H 0 dato un campione CS x 1,..., x n in cui T = t se t A, si accetta H 0 se t R si rifiuta H 0 Statistica, CLEM p. 73/88
Considerazioni sulla verifica di ipotesi (2) La regola decisionale del test che porta ad accettare/rifiutare l ipotesi nulla, dipende solo dal livello di significatività α dalla distribuzione f T (t θ 0 ) sotto H 0 L ipotesi alternativa H 1 consente di valutare l errore di II tipo β e la potenza del test 1 β di capire la direzione del test (unidirezionale o bi-direzionale) Si possono commettere due errori, le cui probabilità PRIMA di estrarre il campione sono: P (T R H 0 ) = α: prob. errore di I tipo P (T A H 1 ) = β: prob. errore di II tipo DOPO l estrazione del campione, dato il valore della statistica test T = t, si valuta se accettare H 0 : il test non è significativo al livelllo α rifiutare H 0 : il test è significativo al livello α N.B. Al variare di α, varia la regione critica R e con lo stesso campione si possono prendere decisioni diverse Statistica, CLEM p. 74/88
H 0 : µ = 15 H 1 : µ = 15.6 Dato un campione CS in cui x = 15.4, il test è significativo (rifiuto H 0 ) al livello α = 10% il test è non significativo (accetto H 0 ) al livello α = 1% 1.6 1.4 1.2 1 0.8 alpha = 10% valore critico = 15.64 beta = 53% alpha = 1% valore critico = 15.6 beta = 87% H0 H1 0.6 0.4 0.2 0 13 14 15 15.64 16 17 16.16 Statistica, CLEM p. 75/88
Test per la media µ con varianza nota (1) Test per H 0 : µ = µ 0 in pop. normale con varianza nota Sia X N(µ, σ 2 ) con varianza σ 2 nota Sia X N(µ, σ 2 /n) la statistica test per µ e α il livello di significatività del test Sia {x 1,..., x n } in cui X = x Il valore standardizato di x sotto H 0 è z = x µ 0 σ/ n, 0.2 P(T > 3.3) = 0.80 0.18 0.16 0.14 0.12 0.1 0.08 0.06 0.04 0.02 Media campionaria, N(5,4) P(T > 5.5)= 0.4 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 Media campionaria standardizzata, N(0,1) z = (3 3 5)/2) = 0.85 P(Z > 0.85)= = 0.80 z = (5.5 5)/2) = 0.25 P(Z > 0.25)= = 0.4 0 0 1 2 3 4 5 6 7 8 9 10 3.3 5.5 0 3 2 1 0 1 2 3 0.85 0.25 Statistica, CLEM p. 76/88
Test per la media µ con varianza nota (2) H 0 : µ = 5 H 1 : µ > 5 Per α = 5%, i valori critici sono z α sulla N(0, 1), x α = µ 0 + z α σ/ n = 5 + 1.64 2 = 8.3 sulla N(5, 2) Media camp. standardizzata, N(0,1) e Media campionaria, N(5,4) 0.4 alpha = 5% N(0,1) 0.35 valore critico: 1.64 R: z > 1.64 0.3 N(5,4) 0.25 valore critico: 8.3 R: t > 8.3 = 1.64*2 + 5 0.2 0.15 0.1 0.05 0 3 2 1 0 1 2 3 4 5 6 7 8 9 10 1.64 8.3 Statistica, CLEM p. 77/88
Test per la media µ con varianza nota (3) se H 1 : µ = µ 1 > µ 0, o H 1 : µ µ 0, il valore critico per un certo α è z α :A = (, z α ), R = (z α, + ) rifiuto H 0 se z > z α se H 1 : µ = µ 1 < µ 0, o H 1 : µ µ 0, il valore critico per un certo α è z α :A = (z α, + ), R = (, z α ) rifiuto H 0 se z < z α se H 1 : µ µ 0, i valori critici per un certo α sono ±z α/2 : A = ( z α/2, z α/2 ), R = (, z α/2 ) (z α/2, + ) rifiuto H 0 se z < z α/2 o z > z α/2 Test per µ di pop. non normale con varianza nota e grandi campioni Per il TLC si può usare lo stesso test asintotico per la verifica di ipotesi del parametro E(X) = µ anche per variabili NON NORMALI in GRANDI CAMPIONI. Statistica, CLEM p. 78/88
Alcuni valori critici z α Test unidirezionali 0.4 0.35 0.3 Test inidirezionale a sinistra alpha = 10% alpha = 5% alpha = 1% 0.4 0.35 0.3 Test unidirezionale a destra alpha = 10% alpha = 5% alpha = 1% 0.25 0.25 0.2 0.2 0.15 0.15 0.1 0.1 0.05 0.05 0 3 2 1 0 1 2 3 2.32 1.64 1.28 0 3 2 1 0 1 2 3 1.28 1.64 2.32 Statistica, CLEM p. 79/88
Alcuni valori critici z α/2 Test bi-direzionali 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 Test bi direzionali alpha = 10% alpha = 5% alpha = 1% 0 3 2 1 0 1 2 3 2.57 1.96 1.64 1.64 1.96 2.57 Statistica, CLEM p. 80/88
Test per la media µ con varianza non nota (1) Test per H 0 : µ = µ 0 in pop. normale con varianza non nota Sia X N(µ, σ 2 ) con varianza σ 2 non nota con S 2 come stimatore di σ 2 e X come stimatore di µ, sotto H 0 t = X µ 0 S/ n t n 1, t Student con n 1 g.l. Dato un campione CS in cui X = x, per un certo α fissato se H 1 : µ = µ 1 > µ 0, o H 1 : µ µ 0, rifiuto H 0 se t > t α se H 1 : µ = µ 1 < µ 0, o H 1 : µ µ 0, rifiuto H 0 se t < t α se H 1 : µ µ 0, rifiuto H 0 se t < t α/2 o t > t α/2 Statistica, CLEM p. 81/88
Test per la media µ con varianza non nota (2) Test per µ di pop. non normale con varianza non nota e grandi campioni Nel caso di grandi campioni, sia che X sia normale sia che X sia non normale, per il TLC, sotto H 0 z = X µ 0 S/ n si approssima con N(0, 1) Il test asintotico per µ si può fare utilizzando la distribuzione normale. Per un certo α se H 1 : µ = µ 1 > µ 0, o H 1 : µ µ 0, rifiuto H 0 se z > z α se H 1 : µ = µ 1 < µ 0, o H 1 : µ µ 0, rifiuto H 0 se z < z α se H 1 : µ µ 0, rifiuto H 0 se z < z α/2 o z > z α/2 Statistica, CLEM p. 82/88
rifiuto H 0 se z < z α/2 o z > z α/2 Statistica, CLEM p. 83/88 Test per la proporzione p in grandi campioni Sia X Be(p) una variabile binaria (0, 1) e sia {X 1,..., X n } un CCS Sia p = 1 n n i=1 X i lo stimatore per il parametro p. Per il TLC, sotto H 0 : p = p 0 z = p p 0 p0 (1 p 0 ) n si approssima con N(0, 1) Sia {x 1,..., x n } un GRANDE CAMPIONE estratto in cui si calcola p e z Il test asintotico per un certo α fissato è se H 1 : p = p 1 > p 0, o H 1 : p p 0, rifiuto H 0 se z > z α se H 1 : p = p 1 < p 0, o H 1 : p p 0, rifiuto H 0 se z < z α se H 1 : p p 0,
Test per µ X µ Y : pop. normali, var. note Test per H 0 : µ X µ Y = 0 con X N(µ X, σ 2 X ) e Y N(µ Y, σ 2 Y ), con X Y Siano le varianze σx 2 e σ2 Y note Siano X N(µ X, σx 2 /n) e Y N(µ Y, σy 2 /m) gli stimatori di µ X e µ Y Siano {x 1,..., x n } e {y 1,..., y m } due CCS indipendenti in cui X = x e Y = y Per l indipendenza si ha che, sotto H 0 Il test per un certo α fissato è se H 1 : µ X µ Y > 0, z = X Y N(0, 1) σ 2 X n + σ2 Y m rifiuto H 0 se z > z α se H 1 : µ X µ Y < 0, rifiuto H 0 se z < z α se H 1 : µ X µ Y 0, rifiuto H 0 se z < z α/2 o z > z α/2 Statistica, CLEM p. 84/88
Test per µ X µ Y : pop. normali, var. non note Test per H 0 : µ X µ Y = 0 con X N(µ X, σ 2 X ) e Y N(µ Y, σ 2 Y ), con X Y Siano le varianze non note ma uguali σ 2 = σ 2 X = σ2 Y (omoschedasticità) Assumiamo come stimatore per la varianza comune S 2 p = (n 1)S2 X + (m 1)S2 Y n + m 2 Siano X N(µ X, σ 2 X /n) e Y N(µ Y, σ 2 Y /m) gli stimatori di µ X e µ Y Siano {x 1,..., x n } e {y 1,..., y m } due CCS indipendenti in cui X = x e Y = y Se X ed Y sono normali ed indipendenti si ha che, sotto H 0 t = X Y S 2 p( 1n + 1m ) t k, k = n + m 2 Statistica, CLEM p. 85/88
Test per µ X µ Y : pop. normali, var. non note Il test per un certo α fissato è se H 1 : µ X µ Y > 0, rifiuto H 0 se t > t α se H 1 : µ X µ Y < 0, rifiuto H 0 se t < t α se H 1 : µ X µ Y 0, rifiuto H 0 se t < t α/2 o t > t α/2 Statistica, CLEM p. 86/88
Test per µ X µ Y per grandi campioni (1) Test per H 0 : µ X µ Y = 0 per popolazioni non normali con varianze note e grandi campioni Anche se X ed Y sono NON NORMALI, ma INDIPENDENTI, per costruire intervalli di confidenza per il parametro µ X µ Y si può utilizzare la distribuzione Normale, perché per il TLC, nel caso di GRANDI CAMPIONI, sotto H 0 z = X Y si approssima con N(0, 1) per n ed m grandi σ 2 X n + σ2 Y m Il test per un certo α fissato è se H 1 : µ X µ Y > 0, rifiuto H 0 se z > z α se H 1 : µ X µ Y < 0, rifiuto H 0 se z < z α se H 1 : µ X µ Y 0, rifiuto H 0 se z < z α/2 o z > z α/2 Statistica, CLEM p. 87/88
Test per µ X µ Y per grandi campioni (2) Test per H 0 : µ X µ Y = 0 per popolazioni non normali con varianze non note e grandi campioni Consideriamo S 2 X ed S2 Y come stimatori corretti per σ2 X e σ2 Y Anche se X ed Y sono NON NORMALI, ma INDIPENDENTI, il test asintotico per µ X µ Y si può fare usando la distribuzione Normale, perché per il TLC, nel caso di GRANDI CAMPIONI, sotto H 0 z = X Y si approssima con N(0, 1) per n ed m grandi S 2 X n + S2 Y m Il test asintotico per un certo α fissato è se H 1 : µ X µ Y > 0, rifiuto H 0 se z > z α se H 1 : µ X µ Y < 0, rifiuto H 0 se z < z α se H 1 : µ X µ Y 0, rifiuto H 0 se z < z α/2 o z > z α/2 Statistica, CLEM p. 88/88