ELEMENTI DI CALCOLO DELLE PROBABILITA



Похожие документы
Lezione n. 2 (a cura di Chiara Rossi)

E naturale chiedersi alcune cose sulla media campionaria x n

La variabile casuale Binomiale

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)

Probabilità II Variabili casuali discrete

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

Calcolo delle Probabilità

Viene lanciata una moneta. Se esce testa vinco 100 euro, se esce croce non vinco niente. Quale è il valore della mia vincita?

Facciamo qualche precisazione

STATISTICA INFERENZIALE

Statistica Applicata all edilizia: alcune distribuzioni di probabilità

Cosa dobbiamo già conoscere?

LA STATISTICA si interessa del rilevamento, dell elaborazione e dello studio dei dati; studia ciò che accade o come è fatto un gruppo numeroso di

Esercizi. Rappresentando le estrazioni con un grafo ad albero, calcolare la probabilità che:

Tutorato di Probabilità e Statistica

1. Richiami di Statistica. Stefano Di Colli

E NECESSARIO RICORRERE ALLE VARIABILI CASUALI

LEZIONE 3. Ing. Andrea Ghedi AA 2009/2010. Ing. Andrea Ghedi AA 2009/2010

Calcolo delle probabilità

VARIABILI ALEATORIE MULTIPLE E TEOREMI ASSOCIATI. Dopo aver trattato delle distribuzioni di probabilità di una variabile aleatoria, che

1 Probabilità condizionata

Calcolo delle Probabilità

Teoria della probabilità Assiomi e teoremi

Statistica inferenziale

PROBABILITÀ - SCHEDA N. 2 LE VARIABILI ALEATORIE

Capitolo 4 Probabilità

La distribuzione Gaussiana

Esercitazioni di Statistica

1. la probabilità che siano tutte state uccise con pistole; 2. la probabilità che nessuna sia stata uccisa con pistole;

Test statistici di verifica di ipotesi

DISTRIBUZIONI DI PROBABILITÀ

La Distribuzione Normale (Curva di Gauss)

Corso di Laurea in Ingegneria Informatica e Automatica (A-O) Università di Roma La Sapienza

VARIABILI ALEATORIE CONTINUE

Gli eventi sono stati definiti come i possibili risultati di un esperimento. Ogni evento ha una probabilità

CP110 Probabilità: Esame del 3 giugno Testo e soluzione

Istituzioni di Statistica e Statistica Economica

PROBABILITA CONDIZIONALE

La distribuzione Normale. La distribuzione Normale

Inferenza statistica. Inferenza statistica

Statistica Matematica A - Ing. Meccanica, Aerospaziale I prova in itinere - 19 novembre 2004

2. Un carattere misurato in un campione: elementi di statistica descrittiva e inferenziale

Analisi di dati di frequenza

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 1

Esercizio 1. Svolgimento

Analisi statistica degli errori

Esercizi di Calcolo delle Probabilità con Elementi di Statistica Matematica

(concetto classico di probabilità)

DISTRIBUZIONI DI VARIABILI CASUALI DISCRETE


Algoritmi (9 CFU) (A.A )

ESERCIZI. x + 3 x 2 1. a) y = 4x2 + 3x 2x + 2 ; b) y = 6x2 x 1. (x + 2) 2 c) y =

ORDINALI E NOMINALI LA PROBABILITÀ. Nell ambito della manifestazione di un fenomeno niente è certo, tutto è probabile.

matematica probabilmente

Statistica inferenziale, Varese, 18 novembre 2009 Prima parte - Modalità C

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 8

11. Analisi statistica degli eventi idrologici estremi

Corso di Statistica. Corso di Laurea in Ingegneria Edile. Ingegneria Tessile. Docente: Orietta Nicolis

Ancora sull indipendenza. Se A e B sono indipendenti allora lo sono anche

Corso di Matematica. Corso di Laurea in Farmacia, Facoltà di Farmacia. Università degli Studi di Pisa. Maria Luisa Chiofalo.

STATISTICA E PROBABILITá

1. Distribuzioni campionarie

19txtI_BORRA_ /11/13 10:52 Pagina 449 TAVOLE STATISTICHE

Istituzioni di Statistica e Statistica Economica

Slide Cerbara parte1 5. Le distribuzioni teoriche

COEFFICIENTI BINOMIALI

Metodi statistici per le ricerche di mercato

Corso di Automazione Industriale 1. Capitolo 4

Probabilità e statistica

Probabilità. Concetti fondamentali Definizione di probabilità Teoremi sulla probabilità

Lezione 6: Forma di distribuzione Corso di Statistica Facoltà di Economia Università della Basilicata. Prof. Massimo Aria

Riassunto 24 Parole chiave 24 Commenti e curiosità 25 Esercizi 27 Appendice

Tabella 7. Dado truccato

Appunti: elementi di Probabilità

Inferenza statistica. Statistica medica 1

2 CERTAMEN NAZIONALE DI PROBABILITA E STATISTICA FELICE FUSATO Fase di Istituto 15 febbraio 2011

Il confronto fra proporzioni

1 Modelli di variabili aleatorie continue

Matematica Applicata. Probabilità e statistica

Si considerino gli eventi A = nessuno studente ha superato l esame e B = nessuno studente maschio ha superato l esame. Allora A c B è uguale a:

PARTE PRIMA PROBABILITA

Statistica. Lezione 6

Corso integrato di informatica, statistica e analisi dei dati sperimentali Altri esercizi_esercitazione V

Università di Firenze - Corso di laurea in Statistica Seconda prova intermedia di Statistica. 18 dicembre 2008

Temi di Esame a.a Statistica - CLEF

Esercitazioni 2013/14

STATISTICA ESERCITAZIONE 11 Dott. Giuseppe Pandolfo 3 febbraio Modelli continui di probabilità: la v.c. uniforme continua

Matematica generale CTF

SPC e distribuzione normale con Access

ESERCIZI DI RIEPILOGO 2. 7 jj(addi

Inferenza statistica I Alcuni esercizi. Stefano Tonellato

Analisi bivariata. Dott. Cazzaniga Paolo. Dip. di Scienze Umane e Sociali paolo.cazzaniga@unibg.it

Calcolo delle probabilità

PROBABILITA. Sono esempi di fenomeni la cui realizzazione non è certa a priori e vengono per questo detti eventi aleatori (dal latino alea, dado)

Esercizi sul calcolo delle probabilità

PROVE D'ESAME DI CPS A.A. 2009/ altrimenti.

Tecniche di analisi multivariata

CAPITOLO 16 SUCCESSIONI E SERIE DI FUNZIONI

Matematica II: Calcolo delle Probabilità e Statistica Matematica

Транскрипт:

Statistica, CLEA p. 1/55 ELEMENTI DI CALCOLO DELLE PROBABILITA Premessa importante: il comportamento della popolazione rispetto una variabile casuale X viene descritto attraverso una funzione parametrica di probabilità p X (x θ) dove θ è l insieme dei parametri che caratterizza la popolazione. In questo contesto, i dati osservati o raccolti rappresentano possibili realizzazioni della variabile casuale avvenute attraverso esperimenti casuali. Data la legge p X (x θ), possiamo calcolare la probabilità/densità di probabilità per ogni realizzazione X = x o insieme di realizzazioni X 1 = x 1,..., X n = x n.

Statistica, CLEA p. 2/55 Esperimento casuale L esperimento casuale è un esperimento il cui risultato non si può determinare con certezza. Ad esempio: risultato del lancio di una moneta colore di una pallina estratta da un urna contente palline di vario colore numeri estratti per il gioco del lotto Ciò che si può fare è calcolare la probabilità di ogni relizzazione dell esperimento. Si necessita: spazio di tutti i possibili eventi Ω variabile aleatoria X distribuzione di probabilità p X (x θ)

Statistica, CLEA p. 3/55 Spazio degli eventi Ω Definiamo con Ω, l insieme di tutti i possibili eventi elementari ω che si possono realizzare da un esperimento casuale. Consideriamo gli esperimenti k lanci consecutivi di una moneta k estrazioni da un urna contenente palline bianche e nere Spazio degli eventi Ω k = 1 k = 2 k = 3 T T T T T T C T C T T C CT T CT CC CT T T CC CCT CT C CCC Spazio degli eventi Ω k = 1 k = 2 k = 3 B BB BBB N BN BBN NB BNB NN NBB BNN NNB NBN NNN

Statistica, CLEA p. 4/55 Insiemi di eventi Consideriamo 3 lanci consecutivi di una moneta. L insieme degli eventi elemenatari ω: Ω = {T T T, T T C, T CT, CT T, T CC, CCT, CT C, CCC} Altri eventi almeno una volta testa: A = {T T T, T T C, T CT, CT T, T CC, CCT, CT C} due volte croce: B = {T CC, CCT, CT C} al massimo una volta testa: C = {T CC, CCT, CT C, CCC} tre volte croce, coincide con un evento elementare: ω = CCC

Statistica, CLEA p. 5/55 Operazione fra insiemi di eventi Consideriamo 2 eventi in Ω = {T T T, T T C, T CT, CT T, T CC, CCT, CT C, CCC}: A = {T CC, CCT, CT C}, B = {T T T, T CC, CT C, CCC} UNIONE di eventi A B: insieme di eventi in A o in B A B = {T CC, CCT, CT C, T T T, CCC} INTERSEZIONI di eventi A B: insieme di eventi in A e in B A B = {T CC, CT C} NEGAZIONE di eventi A: insieme di eventi che non sono in A Ω \ A = {T T T, T T C, T CT, CT T, CCC}

Statistica, CLEA p. 6/55 Alcune proprietà Dato Ω lo spazio di tutti gli eventi e A, B Ω, con A, B A B non è mai un insieme vuoto A B può essere un insieme vuoto, allora A e B sono due eventi incompatibili, non si possono verificare contemporaneamente dati k eventi H 1,..., H k fra loro incompatibili, H i H j =, i, j = 1,..., k, sono anche esaustivi se A =, se e solo se A Ω Ω = H 1 H 2 H k A è un evento impossibile se non può mai verificarsi, quindi A Ω A è un evento certo se si verifica sempre, ad esempio: A Ω dato A, l evento complementare è l evento negato A = Ω \ A

Statistica, CLEA p. 7/55 Eventi condizionati Condizionare significa ridurre lo spazio Ω poiché si è verificato l evento B Ω, per cui B diventa un evento certo B = Ω \ B è un evento impossibile Consideriamo nello spazio Ω = {T T T, T T C, T CT, CT T, T CC, CCT, CT C, CCC} A = {T T T, T T C, T CT, CT T }: almeno due volte testa C = {T T C, T CT, CT T, T CC, CCT, CT C, CCC}: almeno 1 volta croce D = {CCT, CCC}: i primi due lanci croce Supponiamo di conoscere l esito del primo lancio che è T : evento certo B= testa al primo lancio e evento impossibile B= non testa al primo lancio. Lo spazio degli eventi possibili diventa Ω B = {T T T, T T C, T CT, T CC} da cui gli eventi condiziontati sono relativi non a Ω, ma a Ω B A B = {T T T, T T C, T CT } C B = {T T C, T CT, T CC} D B = è un evento impossibile perché D e B sono incompatibili

Statistica, CLEA p. 8/55 Probabilità: approccio classico Approccio classico: se tutti i casi sono equiprobabili, la probabilità di ogni evento A è il rapporto P (A) = numero dei casi favorevoli all evento numero di tutti i casi possibili Esempi di esperimenti casuali con risultati equiprobabili: lancio di un dado P (1) = P (2) = P (3) = P (4) = P (5) = P (6) = 1/6 lancio di una moneta non truccata P (T ) = P (C) = 1/2 =.5 estrazione di un numero da 1 a 9 P (1) = P (2) = = P (9) = 1/9

Statistica, CLEA p. 9/55 Esempio Consideriamo lo spazio Ω = {T T T, T T C, T CT, CT T, T CC, CCT, CT C, CCC} A = {T T T, T T C, T CT, CT T }: due volte testa P (A) = 4/8 =.5 C = {T T C, T CT, CT T, T CC, CCT, CT C, CCC}: almeno 1 volta croce P (C) = 7/8 =.875 D = {CCT, CCC}: i primi due lanci croce P (D) = 2/8 =.25

Statistica, CLEA p. 1/55 Probabilità condizionata Supponiamo di conoscere l esito del primo lancio che è T. Lo spazio degli eventi possibili diventa A B = {T T T, T T C, T CT } Ω B = {T T T, T T C, T CT, T CC} P (A B) = 3/4 =.75 C B = {T T C, T CT, T CC} P (C B) = 3/4 =.75 D B = P (D B) =

Statistica, CLEA p. 11/55 Assiomi e proprietà La probabilità è una funzione definita sullo spazio degli eventi Ω che associa ad ogni evento A Ω un numero reale P (A) P (A) 1 la prob. di un evento certo è 1: P (Ω) = 1 la prob. di un evento impossibile è, ma viceversa non è vero P (A B) = P (A) + P (B) P (A B) P (A B) = P (A) + P (B) se A B = P (A) = 1 P (A) P (A B) = P (A B)P (B) = P (B A)P (A), da cui P (A B) = P (A B)/P (B) P (A B) = P (A)P (B) se e solo se A e B sono indipendenti, da cui P (A B) = P (A) e P (B A) = P (B)

Statistica, CLEA p. 12/55 Indipendenza Due eventi A e B sono indipendenti, A B se e solo se P (A B) = P (A)P (B) Questo vuol dire che il verificarsi di B non influisce sulla probabilità di A e viceversa P (A B) = P (A B) P (B) = P (A)P (B) P (B) = P (A) P (B A) = P (A B) P (A) = P (A)P (B) P (A) = P (B) N.B. Se due eventi A e B con probabilità positive sono incompatibili, sicuramente non sono indipendenti, poiché se A e B sono incompatibili, A B =, quindi P (A B) = P (A). Analogamente, se due eventi sono indipendenti sono necessariamente compatibili.

Statistica, CLEA p. 13/55 Teorema delle probabilità totali Siano E 1,..., E k k eventi esaustivi ed incompatibili Ω = E 1 E k E j E i =, i, j = 1,..., k Dato un qualunque evento B Ω P (B) = P (B E 1 ) + + P (B E k ) P (B) = P (B E 1 )P (E 1 ) + + P (B E k )P (E k ) Esempio. Ci sono k urne E 1,..., E k contenenti palline bianche e nere. La probabilità di estrarre una pallina bianca considerando che la scelta delle urne è equiprobabile P (E i ) = 1 k, P (B E i) = numero palline bianche in E i numero palline in E i P (B) = numero palline bianche in E 1 1 numero palline in E 1 k + + numero palline bianche in E k 1 numero palline in E k k

Statistica, CLEA p. 14/55 Teorema di Bayes Consideriamo un modo alternativo di calcolare la probabilità condizionata P (A B) = P (B A) P (B) = P (B A)P (A) P (B A)P (A) + P (B A)P (A) dove il denominatore si può calcolare col teorema delle probabilità totali Interpretazione: supponiamo che l evento B sia l EFFETTO che può essere causato da tanti eventi E 1,..., E k che sono CAUSE esaustive e disgiunte P (CAUSA i EF F ET T O) = P (EF F ET T O CAUSA i)p (CAUSA i ) P (EF F ET T O) P (E i B) = P (B E i)p (E i ) P (B) = P (B E i )P (E i ) P (B E 1 )P (E 1 ) + + P (B E k )P (E k ) P (E i ): probabilità a priori della CAUSA (scegliere l urna E i ) P (E i B): probabilità a posteriori della CAUSA E i dato l EFFETTO B (estratta pallina bianca)

Statistica, CLEA p. 15/55 Variabile aleatoria X Una variabile aleatoria X è una funzione definita sullo spazio Ω che associa un numero reale X(ω) = x ad ogni elemento elementare ω Ω. X: numero di volte testa X: numero di palline nere Spazio degli eventi Ω e var. aleatoria X Spazio degli eventi Ω e var. aleatoria X k = 1 X k = 2 X k = 3 X k = 1 X k = 2 X k = 3 X T 1 T T 2 T T T 3 B BB BBB C T C 1 T T C 2 N 1 BN 1 BBN 1 CT 1 T CT 2 NB 1 BNB 1 CC CT T 2 NN 2 NBB 1 T CC 1 BNN 2 CCT 1 NNB 2 CT C 1 NBN 2 CCC NNN 3 N.B. Con X indichiamo una var. aleatoria, con x una possibile realizzazione.

Statistica, CLEA p. 16/55 Variabile aleatoria discreta Una variabile aleatoria X descrive il comportamento di un fenomeno a prescindere della realizzazione del singolo esperimento casuale dopo la realizzazione dell esperimento casuale, la variabile aleatoria assume un valore certo X = x la variabile aleatoria è DISCRETA se X assume un infinità numerabile di valori numero di volte testa in 3 lanci de una moneta numero di palline bianche estratte da un urna numero di prodotti difettosi al giorno numero di auto al casello ogni giorno etc...

Statistica, CLEA p. 17/55 Distribuzione di probabilità p X (x) Data una var. aleatoria X discreta, la distribuzione di probabilità p X (x) è una funzione che associa ad ogni x la probabilità di verificarsi p(x) = P (X = x) p(x) i p(x i) = 1.5.45.4.35 probabilità.3.25.2.15.1.5 1 1 2 3 4 5 numero di figli N.figli X 1 2 3 4 tot p(x).24.47.17.8.4 1.

Statistica, CLEA p. 18/55 Funzione di ripartizione F (x) = P (X x) = p(x i ) x i x è non decrescente, continua a destra, lim x F (x) =,lim x F (x) = 1 1 Funzione di ripartizione.9.8 frequenze rel. cumulate.7.6.5.4.3.2.1 1 1 2 3 4 5 numero di figli N.figli X 1 2 3 4 p(x).24.47.17.8.4 F (x).24.71.88.96 1.

Statistica, CLEA p. 19/55 Valore atteso e varianza Il valore atteso di una variabile casuale X discreta è E(X) = µ X = i x i p(x i ) E(X) = µ X =.24 + 1.47 + 2.17 + 3.8 + 4.4 = 1.21 La varianza di una variabile casuale X discreta è V(X) = E(X µ X ) 2 = i (x i µ X ) 2 p(x i ) V(X) = 1.46.24+.4.47+.62.17+3.2.8+7.78.4 = 1.4 N.figli X 1 2 3 4 p(x).24.47.17.8.4 (x i µ X ) 2 1.46.4.62 3.2 7.78

Statistica, CLEA p. 2/55 Varianza e deviazione standard La varianza si può calcolare anche V(X) = E(X 2 ) µ 2 x = i x 2 i p(x i) µ 2 X V(X) =.24 + 1.47 + 4.17 + 9.8 + 16.4 1.21 2 = 1.4 la deviazione standard è SD(X) = V(X) = 1.4 = 1.1 N.figli X 1 2 3 4 p(x).24.47.17.8.4 x 2 i 1 4 9 16

Statistica, CLEA p. 21/55 Indipendenza fra var. casuali Date 2 variabili casuali X e Y rispettivamente con legge di probabilità p X (x) e p Y (x), la distribuzione della variabile congiunta (X, Y ) è p XY (x, y) = p X (x) p Y (y) X Y Esempio. Consideriamo il lancio di una moneta per cui P (1) =.2 e P () =.8 dove 1 indica il successo T e l insuccesso C. Consideriamo le variabili X= risultato del primo lancio Y = risultato del secondo lancio Dato che i due lanci sono indipendenti, possiamo calcolare p XY (x, y) p XY (X = 1, Y = ) = p X (1) p Y () =.2.8 p XY (X =, Y = 1) = p X () p Y (1) =.8.2 p XY (X = 1, Y = 1) = p X (1) p Y () =.2.2 p XY (X =, Y = ) = p X (1) p Y () =.8.8

Statistica, CLEA p. 22/55 Combinazioni lineari di var. casuali Date n variabili casuali X i ognuna distribuita con una legge di probabilità p Xi (x i ) con un certo valore atteso E(X i ) e una certa varianza V(X i ), consideriamo la variabile casuale Y ottenuta come combinazione lineare Y = n a i X i + b i, dove a i, b i sono costanti i=1 Se le X i sono tutte indipendenti fra loro E(Y ) = n a i E(X i ) + b i, V(Y ) = i=1 n a 2 i V(X i) i=1 Esempio. Siano due variabili casuali indipendenti X e Z con E(X) = 8, V(X) =.5 e con E(Z) =.4, V(Z) =.1. Consideriamo Y = 3X 4Z + 5 E(Y ) = 3 8 4.4 + 5, V(Y ) = 9.5 + 16.1

Statistica, CLEA p. 23/55 Alcune variabiabili casuali discrete X U(a, b) Uniforme, a x b X Be(π) Bernoulli, x =, 1 X Bin(n, π), Binomiale, x n X P o(λ), Poisson, x N.B. I valori a, b, n, π e λ sono i parametri che caratterizzano la distribuzione di probabilità che descrive il comportamento della variabile casuale X nella popolazione.

Statistica, CLEA p. 24/55 Distribuione discreta Uniforme La variabile casuale discreta X assume un numero finito di valori x 1,..., x K ed assume probabilità costante per ogni x i p(x i ) = 1 K, F (x) = num. di x i x K, i = 1..., K Esempio: X = lancio di un dado {1, 2, 3, 4, 5, 6} ha una distribuzione uniforme discreta 1.5 Distribuzione uniforme discreta 1 Distribuzione uniforme discreta.9 1.8.7 probabilità.5 Funz. ripartizione.6.5.4.3.5.2.1 1 1 2 3 4 5 6 7 X 1 2 3 4 5 6 7 X

Statistica, CLEA p. 25/55 Distribuzione di Bernoulli (1) La variabile casuale discreta X Be(x π), dove π è la probabilità di successo, assume due valori x = 1: successo x = : insuccesso x = 1, p(x) = π, prob. successo p(x) = π x (1 π) 1 x, π 1 x =, p(x) = 1 π, prob. insuccesso E(X) = µ x = 1 π + (1 π) = π V(X) = E(X 2 ) µ 2 X = 1 π + (1 π) π2 = π(1 π) Esempio: consideriamo una moneta truccata per cui la probabilità di successo (T ) è π =.7 P (X = 1) =.7 1.3 1 1 =.7 P (X = ) =.7.3 1 =.3

Statistica, CLEA p. 26/55 Distribuione di Bernoulli (2) (nei grafici p si legga π) 1 Distribuzione di Bernoulli 1 Distribuzione di Bernoulli 1 Distribuzione di Bernoulli.8 p =.8.8 p =.3.9.8 p =.5.7 probabilità.6.4 probabilità.6.4 probabilità.6.5.4.3.2.2.2 Funz. ripartizione 1.5.5 1 1.5 2 X 1.8.6.4.2 p =.8 Distribuzione di Bernoulli 1.5.5 1 1.5 2 X Funz. ripartizione 1.5.5 1 1.5 2 X 1.8.6.4.2 p =.3 Distribuzione di Bernoulli 1.5.5 1 1.5 2 X Funz. ripartizione.1 1.5.5 1 1.5 2 X 1.9.8.7.6.5.4.3.2.1 p =.5 Distribuzione di Bernoulli 1.5.5 1 1.5 2 X

Statistica, CLEA p. 27/55 Distribuzione Binomiale (1) La variabile casuale discreta X Bin(x n, π), dove π è la probabilità di successo e n è la dimensione del campione assume valori x n p(x) = ( n x) π x (1 π) n x, π 1 dove x indica il numero di successi in n prove indipendenti. E(X) = µ x = nπ, V(X) = nπ(1 π) Esempio: consideriamo un urna contenente 1 palline bianche e 15 palline nere. Il successo è l estrazione di pallina bianca (B) la cui probabilità è π = 1/25 =.4. La probabilità di ottenere x = 3 successi in n = 5 prove è P (X = 3) = ( 5 3).4 3.6 5 3 = 5! 3!2!.43.6 2 =.23 P (X = ) = ( 5 ).4.6 5 =.8, P (X = 5) = ( 5 5).4 5.6 =.1

Statistica, CLEA p. 28/55 Distribuione Binomiale (2) (nei grafici p si legga π).45 Distribuzione binomiale.4 Distribuzione binomiale.35 Distribuzione binomiale.4 p =.2.35.3 p =.5 probabilità.35.3.25.2.15.1 probabilità.3.25.2.15.1 p =.7 probabilità.25.2.15.1.5.5.5 1 1 2 3 4 5 6 X 1 1 2 3 4 5 6 X 1 1 2 3 4 5 6 X Prob. di più di 3 successi: P (X > 3) = P (X = 4) + P (X = 5) Prob, di al massimo 2 successi: P (X 2) = P (X = ) + P (X = 1) + P (X = 2) Prob. di almeno 1 successo: P (X 1) = P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5) = 1 P (X = )

Statistica, CLEA p. 29/55 Binomiale come somma di Bernoulli (1) La variabile casuale X Binomiale può essere vista come somma di n variabili Y Bernoulli indipendenti e identicamente distribuite (con lo stesso parametro p) X = n i=1 Y i Per l indipendenza E(X) = n E(Y i ) = i=1 n π = nπ, V(X) = i=1 n V(Y i ) = i=1 n π(1 π) = nπ(1 π) i=1 Per ogni var. Y i Bernoulli si può calcolare la prob. di successo P (Y i = T ) in un singolo lancio di una moneta secondo una prob. di successo π. La var. X binomiale calcola la prob. di x volte testa (successi) in n lanci indipendenti ognuno dei quali ha la stessa prob. di successo π.

Statistica, CLEA p. 3/55 Binomiale come somma di Bernoulli (2) Esempio. Dati n = 3 lanci indipendenti di una moneta in cui la probabilità di successo (T ) è π =.3, calcolare la probabilità di una volta testa, P (X = 1), X Bin(x n, π). Ad esempio calcoliamo la prob. di questo risultato, che, data l indipendenza delle prove, P (T C C) = P (T ) P (C) P (C) =.3.7.7 =.3 1.7 2 Quanti sono i possibili risultati per cui si ha un solo successo? ( n x) = ( 3 1) = 3 : (T CC), (CT C), (CCT ). Da cui, se X è Binomaile con n = 3 e π =.3, P (X = 1) = ( 3 1).3.7 2.

Statistica, CLEA p. 31/55 Variabile aleatoria continua Una variabile aleatoria X è CONTINUA se X assume un infinità non numerabile di valori altezza peso distanza tempo di percorrenza etc... Alcuni aspetti delle variabili continue: Se ogni possibile realizzaione della X è equiprobabile, allora P (X = x) =, per ogni x R. La funzione di probabilità non si può usare, come nel caso discreto per descrivere il comportamento di una var. casuale continua. Con la funzione di ripartizione possiamo calcolare la prob. di un intervallo F (x) = P (X x) Per descrivere la X si utilizza la funzione di densità f X (x) = d dx F (x)

Statistica, CLEA p. 32/55 La funzione di densità f X (x) Data una variabile aleatoria continua X, la funzione di densità f(x) = d dx F (x) è una curva per ogni valore x attribuisce la densità di probabilità probabilità. La probabilità è l area al di sotto della curva P (a X b) = b a f X (x)dx = F (b) F (a) Proprietà: f(x), per ogni x R, ma non necessariamente f(x) 1 + f X(x)dx = 1

Statistica, CLEA p. 33/55 Funzione di ripartizione F (x) = P (X x) = x f(x)dx è non decrescente, continua, lim x F (x) =,lim x F (x) = 1 1 Funzione di ripartizione 4 Funzione di densità.9.8.7 media = 1.6 varianza =.1 3.5 3 media = 1.6 varianza =.1.6 2.5 F(x).5 f(x) 2.4.3.2.1 1 1.2 1.4 1.6 1.8 2 altezza 1.5 1.5 1 1.2 1.4 1.6 1.8 2 2.2 altezza

Statistica, CLEA p. 34/55 Valore atteso e varianza Il valore atteso di una variabile casuale X continua è E(X) = µ X = + xf(x)dx La varianza di una variabile casuale X continua è V(X) = E(X µ X ) 2 = + (x µ X ) 2 f(x)dx oppure + V(X) = E(X 2 ) µ 2 x = x 2 f(x)dx µ 2 X la deviazione standard è SD(X) = V(X)

Statistica, CLEA p. 35/55 Variabili standardizzate Una variabile Z è standardizzata quando E(X) = V(X) = 1 Una variabile X con valore atteso E(X) e varianza V(X) si può standardizzare Z = X E(X) V(X), E(Z) = E(X) E(X) V(X) =, V(Z) = V(X) V(X) = 1 5 4.5 4 Media = 1.6 Varianza =.1.5 Variabile standardizzata Media = 1.6 Varianza =.1 3.5.4 3 densità 2.5 2 densità.3 1.5.2 1.5.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 3 2 1 1 2 3 altezza altezza standardizzata

Statistica, CLEA p. 36/55 Indipendenza e combinazioni lineari Date 2 variabili casuali X e Y rispettivamente con funzione di densità f X (x) e f Y (x), la distribuzione della variabile congiunta (X, Y ) è f XY (x, y) = f X (x) f Y (y) X Y Date n variabili casuali X i ognuna con funzione di densità f Xi (x i ) con un certo valore atteso E(X i ) e una certa varianza V(X i ), consideriamo la variabile casuale Y ottenuta come combinazione lineare Y = n a i X i + b i, dove a i, b i sono costanti i=1 Se le X i sono tutte indipendenti fra loro E(Y ) = n a i E(X i ) + b i, V(Y ) = i=1 n a 2 i V(X i) i=1

Statistica, CLEA p. 37/55 Alcune variabili aleatorie continue X N(µ, σ 2 ) Normale, < x < + X t(r) t-student, < x < + X χ 2 (r) chi-quadrato, x X F (r 1, r 2 ) Fisher x N.B. I valori µ, σ 2, r, r 1 e r 2 sono i parametri che caratterizzano la distribuzione di probabilità che descrive il comportamento della variabile casuale X nella popolazione.

Statistica, CLEA p. 38/55 Distribuzione Normale La variabile casuale X Normale o Gaussiana ha una forma campanulare ed è simmetrica. E caratterizzata da due parametri E(X) = µ la media V(X) = σ 2 la varianza f X (x µ, σ 2 ) = 1 2πσ 2 exp[ (x µ)2 2σ 2 ], x + La probabilità si calcola attraverso l integrale P (a X b) = b a f X (x µ, σ 2 )dx = F (b) F (a) P (X a) = a f X (x µ, σ 2 )dx = F (a), P (X a) = + a f X (x µ, σ 2 )dx = 1 F (a) N.B. Si dimostra che f X (x µ, σ 2 )dx = 1, ma questi integrali non si possono calcolare in forma analitica, ma numerica (uso delle tavole).

Statistica, CLEA p. 39/55 Distribuzione Normale (2) 1.9 P(a < X < b) = F(b) F(a) = =.8.4 =.4 Funzione di ripartizione 4 3.5 P(a < X < b) =.4 media = 1.6 varianza =.1.8 3 F(b).7.6.5 media = 1.6 varianza =.1 2.5 2.4.4 1.5 F(a).3.2.1 a b 1 1.2 1.4 1.6 1.8 2 altezza 1.5 a b 1 1.2 1.4 1.6 1.8 2 altezza

Statistica, CLEA p. 4/55 La media: parametro di posizione 3 3 2.5 Media = 1.6 Varianza =.2 2.5 media = 1.4 varianza =.2 2 2 densità 1.5 1 densità 1.5 1.5.5 1 1.2 1.4 1.6 1.8 2 2.2 altezza.8 1 1.2 1.4 1.6 1.8 2 altezza 1 1.9.8.7 media = 1.6 varianza =.2.9.8.7 media = 1.4 varianza =.2 Funz. ripartizione.6.5.4 Funz. ripartizione.6.5.4.3.3.2.2.1.1 1 1.5 2 2.5 altezza.8 1 1.2 1.4 1.6 1.8 2 altezza

Statistica, CLEA p. 41/55 La varianza: parametro di dispersione 3 9 2.5 Media = 1.6 Varianza =.2 8 7 Media = 1.6 Varianza =.5 2 6 densità 1.5 densità 5 4 1 3.5 2 1 1 1.2 1.4 1.6 1.8 2 2.2 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2 altezza altezza 1 1.9.8 media = 1.6 varianza =.2.9.8 media = 1.6 varianza =.5.7.7 Funz. ripartizione.6.5.4 Funz. ripartizione.6.5.4.3.3.2.2.1.1 1 1.5 2 2.5 altezza 1 1.2 1.4 1.6 1.8 2 altezza

Statistica, CLEA p. 42/55 Combinazioni lineari di Normali Se X 1,..., X n sono var. casuali N(µ i, σi 2 ) indipendenti, la combinazione lineare Y = n a i X i i=1 Y N( i a i µ i, i a 2 i σ2 i ) Se X 1,..., X n sono i.i.d. N(µ, σ 2 ), Y N(nµ, nσ 2 )

Z: la Normale standard La variabile casuale Z normale standardizzata ha la caratteristica di avere µ = σ 2 = 1 f Z (z, 1) = 1 2π exp[ z2 2 ].4 1.35.9.3 media = varianza = 1.8.7 media = varianza = 1 densità.25.2.15 Funz. ripartizione.6.5.4.1.3.2.5.1 3 2 1 1 2 3 Z 3 2 1 1 2 3 Z Statistica, CLEA p. 43/55

Statistica, CLEA p. 44/55 Z: esempio (1) Attraverso le tavole della Normale standard si può calcolare la probabilità P (Z ) =.5, P (Z ) =.5.5.45.4 P(Z <.31) =.62 Normale standard P(Z >.31) = 1 P(Z <.31) = 1.62 =.38.35.3.25.2.15.1.5.62.38 3 2 1.31 1 2 3 P (Z.31) =.62 >.5, P (Z.31) =.38 <.5

Statistica, CLEA p. 45/55 Z: esempio (2).5.45.4 Normale standard P(Z <.45) = P(Z >.45) = 1 P(Z <.45) = = 1.67 =.33 P(Z >.45) = P(Z <.45) =.67.35.3.25.2.15.1.67.33.5.33.67 3 2 1 1 2 3.45.45 P (Z.45) = 1 P (Z.45) = 1.67 =.33 P (Z.45) = P (Z.45) = 1 P (Z.45) = 1.67 =.33

Statistica, CLEA p. 46/55 Distribuzione t-student La variabile casuale X t (r) ha una forma campanulare ed è simmetrica rispetto allo. Rispetto alla Normale standard ha le code più pesanti. E caratterizzata dal parametro r: gradi di libertà f X (x r) = Γ[(r + 1)/2] πrγ(r/2), x +, r N + La probabilità si calcola attraverso l integrale P (a X b) = b a f X (x r)dx = F (b) F (a) N.B. Si dimostra che f X (x r)dx = 1, ma questi integrali non si possono calcolare in forma analitica, ma numerica (uso delle tavole). E(X) =, V(X) = r r 2

Statistica, CLEA p. 47/55 I gradi di libertà.4 t Student 1 t Student.35.3 r = 3 r = 5 r = 1.9.8.7 r = 3 r = 5 r = 1 densità.25.2.15.1.5 2 1.5 1.5.5 1 1.5 2 X Funz. ripartizione.6.5.4.3.2.1 2 1.5 1.5.5 1 1.5 2 X Quando aumentano i gradi di libertà diminuisce la varianza e quindi la dispersione

Statistica, CLEA p. 48/55 t-student: esempio Attraverso le tavole si può calcolare la probabilità P (X ) =.5, P (X ) =.5.4.35.3 r = 1 r = 5 r = 3 P(X > 3.8) =.1 P(X > 1.48) =.1 P(X > 1.31) =.1.25.2.15.1.5 1.31 4 3 2 1 1 2 3 4 1.48 3.8

Statistica, CLEA p. 49/55 t-student Normale standard Quando i gradi di libertà aumentano, la t-student tende ad una Normale standard.4.35.3.25 Normale Standard r = 3 r = 5 r = 1 densità.2.15.1.5 4 3 2 1 1 2 3 4 X

Statistica, CLEA p. 5/55 Distribuzione chi-quadrato La variabile casuale X χ 2 (r) parametro r: gradi di libertà mostra un asimmetria positiva. E caratterizzata dal f X (x r) = 1 2 r/2 Γ(r/2) xr/2 1 e x/2, x, r N + La probabilità si calcola attraverso l integrale P (a X b) = b a f X (x r)dx = F (b) F (a) N.B. Si dimostra che f X (x r)dx = 1, ma questi integrali non si possono calcolare in forma analitica, ma numerica (uso delle tavole). E(X) = r, V(X) = 2r

Statistica, CLEA p. 51/55 I gradi di libertà.25 1 r = 15.9.2 r = 1 r = 3.8.7 r = 15 r = 1 densità.15.1 Funz. ripartizione.6.5.4 r = 3.3.5.2.1 5 1 15 2 25 3 X 5 1 15 2 25 3 X Quando aumentano i gradi di libertà diminuisce l asimmetria

Statistica, CLEA p. 52/55 χ 2 (r) : esempio Attraverso le tavole si può calcolare la probabilità.25.2.15 r = 3 r = 1 r = 15 P(X > 6.25) =.1 P(X > 15.99) =.1 P(X > 22.31) =.1 densità.1.5 5 1 15 2 25 3 6.25 15.99 22.31

Statistica, CLEA p. 53/55 Teorema del limite centrale Se X 1,..., X n sono i.i.d. E(X i ) = µ, V(X i ) = σ 2 allora la loro somma Y = n i=1 X i, Y N(nµ, nσ 2 ) L approssimazione è tanto migliore quanto maggiore è n. Inoltre, la bontà dell approssimazione dipende molto dalla forma della distribuzione di partenza. Esempio. Consideriamo n variabili χ 2 (1) : X 1,..., X n, con E(X i ) = 1 e V(X i ) = 2 Y = n i=1 X i Per le proprietà della distribuzione χ 2, Y χ 2. Per il teorema del limite centrale, (n) quando n è molto grande Y N(n, 2n)

Statistica, CLEA p. 54/55 TLC: esempio (1).16 Chi quadro 5 d.f. e N(5, 1).1 Chi quadro 1 d.f. e N(1, 2).14.12 chi quadro (5) N(5,1).9.8.7 chi quadro (1) N(1,2).1.6 densità.8 densità.5.6.4.4.3.2.2.1 5 1 15 2 25 3 5 1 15 2 25 3

Statistica, CLEA p. 55/55 TLC: esempio (2).8 Chi quadro 15 d.f. e N(15, 3).6 Chi quadro 3 d.f. e N(3, 6).7 chi quadro (15) N(15,3).5 chi quadro (3) N(3,6).6.5.4 densità.4 densità.3.3.2.2.1.1 5 1 15 2 25 3 1 2 3 4 5 6