Statistica, CLEA p. 1/55 ELEMENTI DI CALCOLO DELLE PROBABILITA Premessa importante: il comportamento della popolazione rispetto una variabile casuale X viene descritto attraverso una funzione parametrica di probabilità p X (x θ) dove θ è l insieme dei parametri che caratterizza la popolazione. In questo contesto, i dati osservati o raccolti rappresentano possibili realizzazioni della variabile casuale avvenute attraverso esperimenti casuali. Data la legge p X (x θ), possiamo calcolare la probabilità/densità di probabilità per ogni realizzazione X = x o insieme di realizzazioni X 1 = x 1,..., X n = x n.
Statistica, CLEA p. 2/55 Esperimento casuale L esperimento casuale è un esperimento il cui risultato non si può determinare con certezza. Ad esempio: risultato del lancio di una moneta colore di una pallina estratta da un urna contente palline di vario colore numeri estratti per il gioco del lotto Ciò che si può fare è calcolare la probabilità di ogni relizzazione dell esperimento. Si necessita: spazio di tutti i possibili eventi Ω variabile aleatoria X distribuzione di probabilità p X (x θ)
Statistica, CLEA p. 3/55 Spazio degli eventi Ω Definiamo con Ω, l insieme di tutti i possibili eventi elementari ω che si possono realizzare da un esperimento casuale. Consideriamo gli esperimenti k lanci consecutivi di una moneta k estrazioni da un urna contenente palline bianche e nere Spazio degli eventi Ω k = 1 k = 2 k = 3 T T T T T T C T C T T C CT T CT CC CT T T CC CCT CT C CCC Spazio degli eventi Ω k = 1 k = 2 k = 3 B BB BBB N BN BBN NB BNB NN NBB BNN NNB NBN NNN
Statistica, CLEA p. 4/55 Insiemi di eventi Consideriamo 3 lanci consecutivi di una moneta. L insieme degli eventi elemenatari ω: Ω = {T T T, T T C, T CT, CT T, T CC, CCT, CT C, CCC} Altri eventi almeno una volta testa: A = {T T T, T T C, T CT, CT T, T CC, CCT, CT C} due volte croce: B = {T CC, CCT, CT C} al massimo una volta testa: C = {T CC, CCT, CT C, CCC} tre volte croce, coincide con un evento elementare: ω = CCC
Statistica, CLEA p. 5/55 Operazione fra insiemi di eventi Consideriamo 2 eventi in Ω = {T T T, T T C, T CT, CT T, T CC, CCT, CT C, CCC}: A = {T CC, CCT, CT C}, B = {T T T, T CC, CT C, CCC} UNIONE di eventi A B: insieme di eventi in A o in B A B = {T CC, CCT, CT C, T T T, CCC} INTERSEZIONI di eventi A B: insieme di eventi in A e in B A B = {T CC, CT C} NEGAZIONE di eventi A: insieme di eventi che non sono in A Ω \ A = {T T T, T T C, T CT, CT T, CCC}
Statistica, CLEA p. 6/55 Alcune proprietà Dato Ω lo spazio di tutti gli eventi e A, B Ω, con A, B A B non è mai un insieme vuoto A B può essere un insieme vuoto, allora A e B sono due eventi incompatibili, non si possono verificare contemporaneamente dati k eventi H 1,..., H k fra loro incompatibili, H i H j =, i, j = 1,..., k, sono anche esaustivi se A =, se e solo se A Ω Ω = H 1 H 2 H k A è un evento impossibile se non può mai verificarsi, quindi A Ω A è un evento certo se si verifica sempre, ad esempio: A Ω dato A, l evento complementare è l evento negato A = Ω \ A
Statistica, CLEA p. 7/55 Eventi condizionati Condizionare significa ridurre lo spazio Ω poiché si è verificato l evento B Ω, per cui B diventa un evento certo B = Ω \ B è un evento impossibile Consideriamo nello spazio Ω = {T T T, T T C, T CT, CT T, T CC, CCT, CT C, CCC} A = {T T T, T T C, T CT, CT T }: almeno due volte testa C = {T T C, T CT, CT T, T CC, CCT, CT C, CCC}: almeno 1 volta croce D = {CCT, CCC}: i primi due lanci croce Supponiamo di conoscere l esito del primo lancio che è T : evento certo B= testa al primo lancio e evento impossibile B= non testa al primo lancio. Lo spazio degli eventi possibili diventa Ω B = {T T T, T T C, T CT, T CC} da cui gli eventi condiziontati sono relativi non a Ω, ma a Ω B A B = {T T T, T T C, T CT } C B = {T T C, T CT, T CC} D B = è un evento impossibile perché D e B sono incompatibili
Statistica, CLEA p. 8/55 Probabilità: approccio classico Approccio classico: se tutti i casi sono equiprobabili, la probabilità di ogni evento A è il rapporto P (A) = numero dei casi favorevoli all evento numero di tutti i casi possibili Esempi di esperimenti casuali con risultati equiprobabili: lancio di un dado P (1) = P (2) = P (3) = P (4) = P (5) = P (6) = 1/6 lancio di una moneta non truccata P (T ) = P (C) = 1/2 =.5 estrazione di un numero da 1 a 9 P (1) = P (2) = = P (9) = 1/9
Statistica, CLEA p. 9/55 Esempio Consideriamo lo spazio Ω = {T T T, T T C, T CT, CT T, T CC, CCT, CT C, CCC} A = {T T T, T T C, T CT, CT T }: due volte testa P (A) = 4/8 =.5 C = {T T C, T CT, CT T, T CC, CCT, CT C, CCC}: almeno 1 volta croce P (C) = 7/8 =.875 D = {CCT, CCC}: i primi due lanci croce P (D) = 2/8 =.25
Statistica, CLEA p. 1/55 Probabilità condizionata Supponiamo di conoscere l esito del primo lancio che è T. Lo spazio degli eventi possibili diventa A B = {T T T, T T C, T CT } Ω B = {T T T, T T C, T CT, T CC} P (A B) = 3/4 =.75 C B = {T T C, T CT, T CC} P (C B) = 3/4 =.75 D B = P (D B) =
Statistica, CLEA p. 11/55 Assiomi e proprietà La probabilità è una funzione definita sullo spazio degli eventi Ω che associa ad ogni evento A Ω un numero reale P (A) P (A) 1 la prob. di un evento certo è 1: P (Ω) = 1 la prob. di un evento impossibile è, ma viceversa non è vero P (A B) = P (A) + P (B) P (A B) P (A B) = P (A) + P (B) se A B = P (A) = 1 P (A) P (A B) = P (A B)P (B) = P (B A)P (A), da cui P (A B) = P (A B)/P (B) P (A B) = P (A)P (B) se e solo se A e B sono indipendenti, da cui P (A B) = P (A) e P (B A) = P (B)
Statistica, CLEA p. 12/55 Indipendenza Due eventi A e B sono indipendenti, A B se e solo se P (A B) = P (A)P (B) Questo vuol dire che il verificarsi di B non influisce sulla probabilità di A e viceversa P (A B) = P (A B) P (B) = P (A)P (B) P (B) = P (A) P (B A) = P (A B) P (A) = P (A)P (B) P (A) = P (B) N.B. Se due eventi A e B con probabilità positive sono incompatibili, sicuramente non sono indipendenti, poiché se A e B sono incompatibili, A B =, quindi P (A B) = P (A). Analogamente, se due eventi sono indipendenti sono necessariamente compatibili.
Statistica, CLEA p. 13/55 Teorema delle probabilità totali Siano E 1,..., E k k eventi esaustivi ed incompatibili Ω = E 1 E k E j E i =, i, j = 1,..., k Dato un qualunque evento B Ω P (B) = P (B E 1 ) + + P (B E k ) P (B) = P (B E 1 )P (E 1 ) + + P (B E k )P (E k ) Esempio. Ci sono k urne E 1,..., E k contenenti palline bianche e nere. La probabilità di estrarre una pallina bianca considerando che la scelta delle urne è equiprobabile P (E i ) = 1 k, P (B E i) = numero palline bianche in E i numero palline in E i P (B) = numero palline bianche in E 1 1 numero palline in E 1 k + + numero palline bianche in E k 1 numero palline in E k k
Statistica, CLEA p. 14/55 Teorema di Bayes Consideriamo un modo alternativo di calcolare la probabilità condizionata P (A B) = P (B A) P (B) = P (B A)P (A) P (B A)P (A) + P (B A)P (A) dove il denominatore si può calcolare col teorema delle probabilità totali Interpretazione: supponiamo che l evento B sia l EFFETTO che può essere causato da tanti eventi E 1,..., E k che sono CAUSE esaustive e disgiunte P (CAUSA i EF F ET T O) = P (EF F ET T O CAUSA i)p (CAUSA i ) P (EF F ET T O) P (E i B) = P (B E i)p (E i ) P (B) = P (B E i )P (E i ) P (B E 1 )P (E 1 ) + + P (B E k )P (E k ) P (E i ): probabilità a priori della CAUSA (scegliere l urna E i ) P (E i B): probabilità a posteriori della CAUSA E i dato l EFFETTO B (estratta pallina bianca)
Statistica, CLEA p. 15/55 Variabile aleatoria X Una variabile aleatoria X è una funzione definita sullo spazio Ω che associa un numero reale X(ω) = x ad ogni elemento elementare ω Ω. X: numero di volte testa X: numero di palline nere Spazio degli eventi Ω e var. aleatoria X Spazio degli eventi Ω e var. aleatoria X k = 1 X k = 2 X k = 3 X k = 1 X k = 2 X k = 3 X T 1 T T 2 T T T 3 B BB BBB C T C 1 T T C 2 N 1 BN 1 BBN 1 CT 1 T CT 2 NB 1 BNB 1 CC CT T 2 NN 2 NBB 1 T CC 1 BNN 2 CCT 1 NNB 2 CT C 1 NBN 2 CCC NNN 3 N.B. Con X indichiamo una var. aleatoria, con x una possibile realizzazione.
Statistica, CLEA p. 16/55 Variabile aleatoria discreta Una variabile aleatoria X descrive il comportamento di un fenomeno a prescindere della realizzazione del singolo esperimento casuale dopo la realizzazione dell esperimento casuale, la variabile aleatoria assume un valore certo X = x la variabile aleatoria è DISCRETA se X assume un infinità numerabile di valori numero di volte testa in 3 lanci de una moneta numero di palline bianche estratte da un urna numero di prodotti difettosi al giorno numero di auto al casello ogni giorno etc...
Statistica, CLEA p. 17/55 Distribuzione di probabilità p X (x) Data una var. aleatoria X discreta, la distribuzione di probabilità p X (x) è una funzione che associa ad ogni x la probabilità di verificarsi p(x) = P (X = x) p(x) i p(x i) = 1.5.45.4.35 probabilità.3.25.2.15.1.5 1 1 2 3 4 5 numero di figli N.figli X 1 2 3 4 tot p(x).24.47.17.8.4 1.
Statistica, CLEA p. 18/55 Funzione di ripartizione F (x) = P (X x) = p(x i ) x i x è non decrescente, continua a destra, lim x F (x) =,lim x F (x) = 1 1 Funzione di ripartizione.9.8 frequenze rel. cumulate.7.6.5.4.3.2.1 1 1 2 3 4 5 numero di figli N.figli X 1 2 3 4 p(x).24.47.17.8.4 F (x).24.71.88.96 1.
Statistica, CLEA p. 19/55 Valore atteso e varianza Il valore atteso di una variabile casuale X discreta è E(X) = µ X = i x i p(x i ) E(X) = µ X =.24 + 1.47 + 2.17 + 3.8 + 4.4 = 1.21 La varianza di una variabile casuale X discreta è V(X) = E(X µ X ) 2 = i (x i µ X ) 2 p(x i ) V(X) = 1.46.24+.4.47+.62.17+3.2.8+7.78.4 = 1.4 N.figli X 1 2 3 4 p(x).24.47.17.8.4 (x i µ X ) 2 1.46.4.62 3.2 7.78
Statistica, CLEA p. 2/55 Varianza e deviazione standard La varianza si può calcolare anche V(X) = E(X 2 ) µ 2 x = i x 2 i p(x i) µ 2 X V(X) =.24 + 1.47 + 4.17 + 9.8 + 16.4 1.21 2 = 1.4 la deviazione standard è SD(X) = V(X) = 1.4 = 1.1 N.figli X 1 2 3 4 p(x).24.47.17.8.4 x 2 i 1 4 9 16
Statistica, CLEA p. 21/55 Indipendenza fra var. casuali Date 2 variabili casuali X e Y rispettivamente con legge di probabilità p X (x) e p Y (x), la distribuzione della variabile congiunta (X, Y ) è p XY (x, y) = p X (x) p Y (y) X Y Esempio. Consideriamo il lancio di una moneta per cui P (1) =.2 e P () =.8 dove 1 indica il successo T e l insuccesso C. Consideriamo le variabili X= risultato del primo lancio Y = risultato del secondo lancio Dato che i due lanci sono indipendenti, possiamo calcolare p XY (x, y) p XY (X = 1, Y = ) = p X (1) p Y () =.2.8 p XY (X =, Y = 1) = p X () p Y (1) =.8.2 p XY (X = 1, Y = 1) = p X (1) p Y () =.2.2 p XY (X =, Y = ) = p X (1) p Y () =.8.8
Statistica, CLEA p. 22/55 Combinazioni lineari di var. casuali Date n variabili casuali X i ognuna distribuita con una legge di probabilità p Xi (x i ) con un certo valore atteso E(X i ) e una certa varianza V(X i ), consideriamo la variabile casuale Y ottenuta come combinazione lineare Y = n a i X i + b i, dove a i, b i sono costanti i=1 Se le X i sono tutte indipendenti fra loro E(Y ) = n a i E(X i ) + b i, V(Y ) = i=1 n a 2 i V(X i) i=1 Esempio. Siano due variabili casuali indipendenti X e Z con E(X) = 8, V(X) =.5 e con E(Z) =.4, V(Z) =.1. Consideriamo Y = 3X 4Z + 5 E(Y ) = 3 8 4.4 + 5, V(Y ) = 9.5 + 16.1
Statistica, CLEA p. 23/55 Alcune variabiabili casuali discrete X U(a, b) Uniforme, a x b X Be(π) Bernoulli, x =, 1 X Bin(n, π), Binomiale, x n X P o(λ), Poisson, x N.B. I valori a, b, n, π e λ sono i parametri che caratterizzano la distribuzione di probabilità che descrive il comportamento della variabile casuale X nella popolazione.
Statistica, CLEA p. 24/55 Distribuione discreta Uniforme La variabile casuale discreta X assume un numero finito di valori x 1,..., x K ed assume probabilità costante per ogni x i p(x i ) = 1 K, F (x) = num. di x i x K, i = 1..., K Esempio: X = lancio di un dado {1, 2, 3, 4, 5, 6} ha una distribuzione uniforme discreta 1.5 Distribuzione uniforme discreta 1 Distribuzione uniforme discreta.9 1.8.7 probabilità.5 Funz. ripartizione.6.5.4.3.5.2.1 1 1 2 3 4 5 6 7 X 1 2 3 4 5 6 7 X
Statistica, CLEA p. 25/55 Distribuzione di Bernoulli (1) La variabile casuale discreta X Be(x π), dove π è la probabilità di successo, assume due valori x = 1: successo x = : insuccesso x = 1, p(x) = π, prob. successo p(x) = π x (1 π) 1 x, π 1 x =, p(x) = 1 π, prob. insuccesso E(X) = µ x = 1 π + (1 π) = π V(X) = E(X 2 ) µ 2 X = 1 π + (1 π) π2 = π(1 π) Esempio: consideriamo una moneta truccata per cui la probabilità di successo (T ) è π =.7 P (X = 1) =.7 1.3 1 1 =.7 P (X = ) =.7.3 1 =.3
Statistica, CLEA p. 26/55 Distribuione di Bernoulli (2) (nei grafici p si legga π) 1 Distribuzione di Bernoulli 1 Distribuzione di Bernoulli 1 Distribuzione di Bernoulli.8 p =.8.8 p =.3.9.8 p =.5.7 probabilità.6.4 probabilità.6.4 probabilità.6.5.4.3.2.2.2 Funz. ripartizione 1.5.5 1 1.5 2 X 1.8.6.4.2 p =.8 Distribuzione di Bernoulli 1.5.5 1 1.5 2 X Funz. ripartizione 1.5.5 1 1.5 2 X 1.8.6.4.2 p =.3 Distribuzione di Bernoulli 1.5.5 1 1.5 2 X Funz. ripartizione.1 1.5.5 1 1.5 2 X 1.9.8.7.6.5.4.3.2.1 p =.5 Distribuzione di Bernoulli 1.5.5 1 1.5 2 X
Statistica, CLEA p. 27/55 Distribuzione Binomiale (1) La variabile casuale discreta X Bin(x n, π), dove π è la probabilità di successo e n è la dimensione del campione assume valori x n p(x) = ( n x) π x (1 π) n x, π 1 dove x indica il numero di successi in n prove indipendenti. E(X) = µ x = nπ, V(X) = nπ(1 π) Esempio: consideriamo un urna contenente 1 palline bianche e 15 palline nere. Il successo è l estrazione di pallina bianca (B) la cui probabilità è π = 1/25 =.4. La probabilità di ottenere x = 3 successi in n = 5 prove è P (X = 3) = ( 5 3).4 3.6 5 3 = 5! 3!2!.43.6 2 =.23 P (X = ) = ( 5 ).4.6 5 =.8, P (X = 5) = ( 5 5).4 5.6 =.1
Statistica, CLEA p. 28/55 Distribuione Binomiale (2) (nei grafici p si legga π).45 Distribuzione binomiale.4 Distribuzione binomiale.35 Distribuzione binomiale.4 p =.2.35.3 p =.5 probabilità.35.3.25.2.15.1 probabilità.3.25.2.15.1 p =.7 probabilità.25.2.15.1.5.5.5 1 1 2 3 4 5 6 X 1 1 2 3 4 5 6 X 1 1 2 3 4 5 6 X Prob. di più di 3 successi: P (X > 3) = P (X = 4) + P (X = 5) Prob, di al massimo 2 successi: P (X 2) = P (X = ) + P (X = 1) + P (X = 2) Prob. di almeno 1 successo: P (X 1) = P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) = 1 P (X = )
Statistica, CLEA p. 29/55 Binomiale come somma di Bernoulli (1) La variabile casuale X Binomiale può essere vista come somma di n variabili Y Bernoulli indipendenti e identicamente distribuite (con lo stesso parametro p) X = n i=1 Y i Per l indipendenza E(X) = n E(Y i ) = i=1 n π = nπ, V(X) = i=1 n V(Y i ) = i=1 n π(1 π) = nπ(1 π) i=1 Per ogni var. Y i Bernoulli si può calcolare la prob. di successo P (Y i = T ) in un singolo lancio di una moneta secondo una prob. di successo π. La var. X binomiale calcola la prob. di x volte testa (successi) in n lanci indipendenti ognuno dei quali ha la stessa prob. di successo π.
Statistica, CLEA p. 3/55 Binomiale come somma di Bernoulli (2) Esempio. Dati n = 3 lanci indipendenti di una moneta in cui la probabilità di successo (T ) è π =.3, calcolare la probabilità di una volta testa, P (X = 1), X Bin(x n, π). Ad esempio calcoliamo la prob. di questo risultato, che, data l indipendenza delle prove, P (T C C) = P (T ) P (C) P (C) =.3.7.7 =.3 1.7 2 Quanti sono i possibili risultati per cui si ha un solo successo? ( n x) = ( 3 1) = 3 : (T CC), (CT C), (CCT ). Da cui, se X è Binomaile con n = 3 e π =.3, P (X = 1) = ( 3 1).3.7 2.
Statistica, CLEA p. 31/55 Variabile aleatoria continua Una variabile aleatoria X è CONTINUA se X assume un infinità non numerabile di valori altezza peso distanza tempo di percorrenza etc... Alcuni aspetti delle variabili continue: Se ogni possibile realizzaione della X è equiprobabile, allora P (X = x) =, per ogni x R. La funzione di probabilità non si può usare, come nel caso discreto per descrivere il comportamento di una var. casuale continua. Con la funzione di ripartizione possiamo calcolare la prob. di un intervallo F (x) = P (X x) Per descrivere la X si utilizza la funzione di densità f X (x) = d dx F (x)
Statistica, CLEA p. 32/55 La funzione di densità f X (x) Data una variabile aleatoria continua X, la funzione di densità f(x) = d dx F (x) è una curva per ogni valore x attribuisce la densità di probabilità probabilità. La probabilità è l area al di sotto della curva P (a X b) = b a f X (x)dx = F (b) F (a) Proprietà: f(x), per ogni x R, ma non necessariamente f(x) 1 + f X(x)dx = 1
Statistica, CLEA p. 33/55 Funzione di ripartizione F (x) = P (X x) = x f(x)dx è non decrescente, continua, lim x F (x) =,lim x F (x) = 1 1 Funzione di ripartizione 4 Funzione di densità.9.8.7 media = 1.6 varianza =.1 3.5 3 media = 1.6 varianza =.1.6 2.5 F(x).5 f(x) 2.4.3.2.1 1 1.2 1.4 1.6 1.8 2 altezza 1.5 1.5 1 1.2 1.4 1.6 1.8 2 2.2 altezza
Statistica, CLEA p. 34/55 Valore atteso e varianza Il valore atteso di una variabile casuale X continua è E(X) = µ X = + xf(x)dx La varianza di una variabile casuale X continua è V(X) = E(X µ X ) 2 = + (x µ X ) 2 f(x)dx oppure + V(X) = E(X 2 ) µ 2 x = x 2 f(x)dx µ 2 X la deviazione standard è SD(X) = V(X)
Statistica, CLEA p. 35/55 Variabili standardizzate Una variabile Z è standardizzata quando E(X) = V(X) = 1 Una variabile X con valore atteso E(X) e varianza V(X) si può standardizzare Z = X E(X) V(X), E(Z) = E(X) E(X) V(X) =, V(Z) = V(X) V(X) = 1 5 4.5 4 Media = 1.6 Varianza =.1.5 Variabile standardizzata Media = 1.6 Varianza =.1 3.5.4 3 densità 2.5 2 densità.3 1.5.2 1.5.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 3 2 1 1 2 3 altezza altezza standardizzata
Statistica, CLEA p. 36/55 Indipendenza e combinazioni lineari Date 2 variabili casuali X e Y rispettivamente con funzione di densità f X (x) e f Y (x), la distribuzione della variabile congiunta (X, Y ) è f XY (x, y) = f X (x) f Y (y) X Y Date n variabili casuali X i ognuna con funzione di densità f Xi (x i ) con un certo valore atteso E(X i ) e una certa varianza V(X i ), consideriamo la variabile casuale Y ottenuta come combinazione lineare Y = n a i X i + b i, dove a i, b i sono costanti i=1 Se le X i sono tutte indipendenti fra loro E(Y ) = n a i E(X i ) + b i, V(Y ) = i=1 n a 2 i V(X i) i=1
Statistica, CLEA p. 37/55 Alcune variabili aleatorie continue X N(µ, σ 2 ) Normale, < x < + X t(r) t-student, < x < + X χ 2 (r) chi-quadrato, x X F (r 1, r 2 ) Fisher x N.B. I valori µ, σ 2, r, r 1 e r 2 sono i parametri che caratterizzano la distribuzione di probabilità che descrive il comportamento della variabile casuale X nella popolazione.
Statistica, CLEA p. 38/55 Distribuzione Normale La variabile casuale X Normale o Gaussiana ha una forma campanulare ed è simmetrica. E caratterizzata da due parametri E(X) = µ la media V(X) = σ 2 la varianza f X (x µ, σ 2 ) = 1 2πσ 2 exp[ (x µ)2 2σ 2 ], x + La probabilità si calcola attraverso l integrale P (a X b) = b a f X (x µ, σ 2 )dx = F (b) F (a) P (X a) = a f X (x µ, σ 2 )dx = F (a), P (X a) = + a f X (x µ, σ 2 )dx = 1 F (a) N.B. Si dimostra che f X (x µ, σ 2 )dx = 1, ma questi integrali non si possono calcolare in forma analitica, ma numerica (uso delle tavole).
Statistica, CLEA p. 39/55 Distribuzione Normale (2) 1.9 P(a < X < b) = F(b) F(a) = =.8.4 =.4 Funzione di ripartizione 4 3.5 P(a < X < b) =.4 media = 1.6 varianza =.1.8 3 F(b).7.6.5 media = 1.6 varianza =.1 2.5 2.4.4 1.5 F(a).3.2.1 a b 1 1.2 1.4 1.6 1.8 2 altezza 1.5 a b 1 1.2 1.4 1.6 1.8 2 altezza
Statistica, CLEA p. 4/55 La media: parametro di posizione 3 3 2.5 Media = 1.6 Varianza =.2 2.5 media = 1.4 varianza =.2 2 2 densità 1.5 1 densità 1.5 1.5.5 1 1.2 1.4 1.6 1.8 2 2.2 altezza.8 1 1.2 1.4 1.6 1.8 2 altezza 1 1.9.8.7 media = 1.6 varianza =.2.9.8.7 media = 1.4 varianza =.2 Funz. ripartizione.6.5.4 Funz. ripartizione.6.5.4.3.3.2.2.1.1 1 1.5 2 2.5 altezza.8 1 1.2 1.4 1.6 1.8 2 altezza
Statistica, CLEA p. 41/55 La varianza: parametro di dispersione 3 9 2.5 Media = 1.6 Varianza =.2 8 7 Media = 1.6 Varianza =.5 2 6 densità 1.5 densità 5 4 1 3.5 2 1 1 1.2 1.4 1.6 1.8 2 2.2 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 altezza altezza 1 1.9.8 media = 1.6 varianza =.2.9.8 media = 1.6 varianza =.5.7.7 Funz. ripartizione.6.5.4 Funz. ripartizione.6.5.4.3.3.2.2.1.1 1 1.5 2 2.5 altezza 1 1.2 1.4 1.6 1.8 2 altezza
Statistica, CLEA p. 42/55 Combinazioni lineari di Normali Se X 1,..., X n sono var. casuali N(µ i, σi 2 ) indipendenti, la combinazione lineare Y = n a i X i i=1 Y N( i a i µ i, i a 2 i σ2 i ) Se X 1,..., X n sono i.i.d. N(µ, σ 2 ), Y N(nµ, nσ 2 )
Z: la Normale standard La variabile casuale Z normale standardizzata ha la caratteristica di avere µ = σ 2 = 1 f Z (z, 1) = 1 2π exp[ z2 2 ].4 1.35.9.3 media = varianza = 1.8.7 media = varianza = 1 densità.25.2.15 Funz. ripartizione.6.5.4.1.3.2.5.1 3 2 1 1 2 3 Z 3 2 1 1 2 3 Z Statistica, CLEA p. 43/55
Statistica, CLEA p. 44/55 Z: esempio (1) Attraverso le tavole della Normale standard si può calcolare la probabilità P (Z ) =.5, P (Z ) =.5.5.45.4 P(Z <.31) =.62 Normale standard P(Z >.31) = 1 P(Z <.31) = 1.62 =.38.35.3.25.2.15.1.5.62.38 3 2 1.31 1 2 3 P (Z.31) =.62 >.5, P (Z.31) =.38 <.5
Statistica, CLEA p. 45/55 Z: esempio (2).5.45.4 Normale standard P(Z <.45) = P(Z >.45) = 1 P(Z <.45) = = 1.67 =.33 P(Z >.45) = P(Z <.45) =.67.35.3.25.2.15.1.67.33.5.33.67 3 2 1 1 2 3.45.45 P (Z.45) = 1 P (Z.45) = 1.67 =.33 P (Z.45) = P (Z.45) = 1 P (Z.45) = 1.67 =.33
Statistica, CLEA p. 46/55 Distribuzione t-student La variabile casuale X t (r) ha una forma campanulare ed è simmetrica rispetto allo. Rispetto alla Normale standard ha le code più pesanti. E caratterizzata dal parametro r: gradi di libertà f X (x r) = Γ[(r + 1)/2] πrγ(r/2), x +, r N + La probabilità si calcola attraverso l integrale P (a X b) = b a f X (x r)dx = F (b) F (a) N.B. Si dimostra che f X (x r)dx = 1, ma questi integrali non si possono calcolare in forma analitica, ma numerica (uso delle tavole). E(X) =, V(X) = r r 2
Statistica, CLEA p. 47/55 I gradi di libertà.4 t Student 1 t Student.35.3 r = 3 r = 5 r = 1.9.8.7 r = 3 r = 5 r = 1 densità.25.2.15.1.5 2 1.5 1.5.5 1 1.5 2 X Funz. ripartizione.6.5.4.3.2.1 2 1.5 1.5.5 1 1.5 2 X Quando aumentano i gradi di libertà diminuisce la varianza e quindi la dispersione
Statistica, CLEA p. 48/55 t-student: esempio Attraverso le tavole si può calcolare la probabilità P (X ) =.5, P (X ) =.5.4.35.3 r = 1 r = 5 r = 3 P(X > 3.8) =.1 P(X > 1.48) =.1 P(X > 1.31) =.1.25.2.15.1.5 1.31 4 3 2 1 1 2 3 4 1.48 3.8
Statistica, CLEA p. 49/55 t-student Normale standard Quando i gradi di libertà aumentano, la t-student tende ad una Normale standard.4.35.3.25 Normale Standard r = 3 r = 5 r = 1 densità.2.15.1.5 4 3 2 1 1 2 3 4 X
Statistica, CLEA p. 5/55 Distribuzione chi-quadrato La variabile casuale X χ 2 (r) parametro r: gradi di libertà mostra un asimmetria positiva. E caratterizzata dal f X (x r) = 1 2 r/2 Γ(r/2) xr/2 1 e x/2, x, r N + La probabilità si calcola attraverso l integrale P (a X b) = b a f X (x r)dx = F (b) F (a) N.B. Si dimostra che f X (x r)dx = 1, ma questi integrali non si possono calcolare in forma analitica, ma numerica (uso delle tavole). E(X) = r, V(X) = 2r
Statistica, CLEA p. 51/55 I gradi di libertà.25 1 r = 15.9.2 r = 1 r = 3.8.7 r = 15 r = 1 densità.15.1 Funz. ripartizione.6.5.4 r = 3.3.5.2.1 5 1 15 2 25 3 X 5 1 15 2 25 3 X Quando aumentano i gradi di libertà diminuisce l asimmetria
Statistica, CLEA p. 52/55 χ 2 (r) : esempio Attraverso le tavole si può calcolare la probabilità.25.2.15 r = 3 r = 1 r = 15 P(X > 6.25) =.1 P(X > 15.99) =.1 P(X > 22.31) =.1 densità.1.5 5 1 15 2 25 3 6.25 15.99 22.31
Statistica, CLEA p. 53/55 Teorema del limite centrale Se X 1,..., X n sono i.i.d. E(X i ) = µ, V(X i ) = σ 2 allora la loro somma Y = n i=1 X i, Y N(nµ, nσ 2 ) L approssimazione è tanto migliore quanto maggiore è n. Inoltre, la bontà dell approssimazione dipende molto dalla forma della distribuzione di partenza. Esempio. Consideriamo n variabili χ 2 (1) : X 1,..., X n, con E(X i ) = 1 e V(X i ) = 2 Y = n i=1 X i Per le proprietà della distribuzione χ 2, Y χ 2. Per il teorema del limite centrale, (n) quando n è molto grande Y N(n, 2n)
Statistica, CLEA p. 54/55 TLC: esempio (1).16 Chi quadro 5 d.f. e N(5, 1).1 Chi quadro 1 d.f. e N(1, 2).14.12 chi quadro (5) N(5,1).9.8.7 chi quadro (1) N(1,2).1.6 densità.8 densità.5.6.4.4.3.2.2.1 5 1 15 2 25 3 5 1 15 2 25 3
Statistica, CLEA p. 55/55 TLC: esempio (2).8 Chi quadro 15 d.f. e N(15, 3).6 Chi quadro 3 d.f. e N(3, 6).7 chi quadro (15) N(15,3).5 chi quadro (3) N(3,6).6.5.4 densità.4 densità.3.3.2.2.1.1 5 1 15 2 25 3 1 2 3 4 5 6