. Introduzione alla probabilità Carla Seatzu, 8 Marzo 008 Definizioni preliminari: Prova: è un esperimento il cui esito è aleatorio Spazio degli eventi elementari: è l insieme Ω di tutti i possibili esiti (può essere continuo, discreto, finito, infinito) Evento casuale: è un sottoinsieme A di Ω ( A Ω) Un evento casuale può essere impossibile A certo A Ω
Esempi: ) Prova: estrazione di palline da un urna di palline nere e bianche Ω{bb,bn,nb,nn} (spazio discreto finito) Evento casuale: le due palline sono dello stesso colore A {bb,nn} Ω ) Prova: si lancia una moneta fino a che non esce testa Ω{,,3, } (spazio discreto infinito numerabile) numero dei lanci necessari
4) Prova: lancio di un dado Ω{,,3,4,5,6} (spazio discreto finito) Evento casuale: esce un numero pari A {,4,6} Ω Evento casuale: esce un numero > 6 (impossibile) Evento casuale: esce un numero <7 (certo) 3) Prova: si arriva ad una coda e si attende il prossimo arrivo Ω{t t 0 } (spazio continuo) tempi di arrivo 3
Lo spazio degli eventi soddisfa i seguenti assiomi: ) se A è un evento, il suo complemento (Ω\A) è anch esso un evento ) l unione di più eventi A,A, Ωè ancora un evento, ossia U i A i Ω 4
Dato uno spazio di EVENTI DISCRETI Ω { w, w,, w m }, la probabilità è una funzione Pr(. ) : Ω [0,] che associa ad ogni evento elementare w i Ω, i,,, m, la sua probabilità Pr(w i ). In particolare, Pr(w i ) rappresenta la percentuale di volte che l evento elementare può accadere quando il numero di prove eseguite tende all infinito, ossia Nw i Pr(ωi ) lim N N 5
Anche agli eventi casuali (non solo a quelli elementari) è possibile associare la probabilità di occorrenza: NA Pr(A) lim N N Naturalmente, se A { w l, w l,, w lq } : Pr(A) Pr{w } li q i 6
La probabilità è caratterizzata dai seguenti assiomi: ) 0 Pr(A) A Ω ) Pr(Ω) 3) Se A e B sono eventi disgiunti (A B ), allora Pr(A B) Pr(A) + Pr(B) Se invece A e B non sono disgiunti (A B ) Pr(A B) Pr(A) + Pr(B) - Pr(A B) [ Teorema dell unione di eventi ] 7
Esempi: ) Prova: estrazione di palline da un urna di palline nere e bianche Ω {bb,bn,nb,nn} w i Pr(w i ) bb /4 bn /4 Eventi equiprobabili nb /4 nn /4 Tabella delle probabilità Evento casuale: le due palline sono dello stesso colore A {bb,nn} Ω Pr(A) /4 + /4 / 8
) Prova: lancio di una moneta fino a che non esce testa Ω {,,3,...} w i Pr(w i ) / /4 3 /8 4 /6 : : k / k Primo lancio Secondo lancio etc. T C TT TC CT CC 9
Probabilità condizionata Siano dati due eventi casuali A e B Ωe sia Pr(B) > 0. Definiamo probabilità di A condizionata a B, la probabilità che si verifichi A essendosi verificato B: Pr(A B) Pr(A B) Pr(B) 0
Due eventi A e B Ωsono (stocasticamente) indipendenti se Pr(A B) Pr(A) Pr(B) In questo caso risulta Pr(A B) Pr(A) e Pr(B A) Pr(B).
Esempio: lancio di un dado Ω {,,3,4,5,6} Evento casuale A : esce un numero < 4 A {,,3} Evento casuale B : esce un numero pari B {,4,6} I due eventi non sono stocasticamente indipendenti. Pr(A) Pr(B) /, A B {} Pr(A B) /6 Pr(A B) /3 (Suppongo cioè che solo {,4,6} si possano verificare, allora /3 è la prob. che si abbia un numero < 4).
Teorema della probabilità assoluta Sia Ω lo spazio degli eventi elementari e sia A, A,,A k una sua partizione, ossia k UA i i Ω A i A j i j Sia B Ω. Vale la seguente relazione Dimostrazione: Pr(B) k Pr(A ) Pr(B A i i i) A A B A 3 A 4 B (B A k ) (B A Pr(B) Pr(B A i i ) L (B A k ) Pr(A i i k ) ) Pr(B A i ) 3
Variabili aleatorie (o casuali) discrete Ad ogni evento elementare w Ωpuò essere associato in modo univoco un numero intero attraverso una particolare funzione che viene detta variabile aleatoria (v.a.), ossia ℵ(. ) : Ω X Z Nel seguito indicheremo con X le v.a. e con i valori che esse possono assumere. 4
Una variabile aleatoria (o casuale) è completamente definita dalla coppia (X,Π) dove X {,, n } Z e Π{Π,, Π n } dove Π i Pr( i ). Naturalmente Π i X i Esempio: lancio di monete. Il numero di teste è una variabile aleatoria. w i Pr(w i ) i Π i CC /4 0 /4 insieme non numerico CT /4 / TC /4 TT /4 /4 insieme numerico 5
Una variabile aleatoria può essere agevolmente rappresentata mediante un Istogramma Esempio: numero di teste nel lancio di monete Pr() - 3/4 / /4 0 3 6
Esempio: numero di lanci di una moneta fino a quando non esce testa w i Pr(w i ) / /4 / /4 Pr() 3 /8 4 /6 : : k / k 0 3 4 5 6 7
La funzione distribuzione cumulativa di probabilità F X (y) di una v.a. X esprime la probabilità che X assuma un valore minore o uguale ad y: F X (y) Pr ( y) y Pr() Esempio: numero di teste nel lancio di monete F X () - 3/4 / /4 / /4 0 3 8
Valore atteso o media E[X] μ Pr() X Nel caso di probabilità uniformi (ossia in cui tutte le variabili i sono equiprobabili) vale E[X] μ m m i i dove m X. Osservazione: In generale può accadere che E[X] X 9
Varianza Var[X] E[(X -E(X)) ] σ X ( -μ ) Pr() σ èdetta deviazione standard. È una misura della distribuzione della probabilità attorno al valore atteso. Var[X]0 Pr() E[X] 0
Esempio: numero di teste nel lancio di monete w i Pr(w i ) i Π i CC /4 0 /4 CT /4 TC /4 / TT /4 /4 E[X] 0 /4 + / + /4 Var[X] (0-) /4 + (-) / + (-) /4 /4 + /4 /
Distribuzione uniforme Pr() b a 0 + a, a +, L,b altrimenti E[X] Var[X] (a + b) (b a + ) La probabilità è la stessa in tutti i punti dell intervallo.
3 Distribuzione geometrica altrimenti 0 N p) p( Pr() p -p Var[X] p E[X] 0 < p < p) ( p p) p( a a 0 0 N.B.
p( p) (p 0.5) 0 3 4... 0.5 0.5 0.5 0.5 3 0.5 0.5 4 0.065 0.5 5 0.035... 4
Distribuzione di Poisson Pr() e! 0 - N altrimenti R + E[X] Var[X] 5
6 Naturalmente! e e! 0 0 e e k! e )! ( e )! ( e! e! e p() μ 0 k k ) ( N 0 Inoltre è facile verificare che:
- e ( )! 0 3 4 5... 0.367 0.367 0.83 0.06 0.05 0.003... Pr() 0 3 4 7
Pr() > 0 3 4 L importanza di tale distribuzione deriva dal fatto che vi sono diverse situazioni in cui la distribuzione di Poisson appare in modo naturale. 8
Funzione generatrice di probabilità P X (z) z X Pr() Nel caso in cui X N la funzione generatrice di probabilità coincide con la z-trasformata della funzione probabilità. N.B. Perché tale definizione abbia senso, la serie deve naturalmente essere convergente. 9
Se X N possiamo esprimere E[X] e Var[X] in funzione di i P (z) z Pr(i) X i 0 E[X] Var[X] dp d X dz (z) P X dz (z) z z E[X] E [X] 30
Esempio: numero di teste nel lancio di monete i Π i 0 /4 / /4 P X (z) dpx (z) dz i 0 z Pr(i) z + z + z 0 4 z + z + 4z z + 3 z i z z 4 E[X] d P X dz (z) z z + 3 4 z z 5 Var[X] 5 3
Esempio: numero di lanci di una moneta fino a che non esce testa w i Pr(w i ) / i i PX (z) z Pr(i) z i /4 i 0 i i (z) i 3 /8 4 /6 : : k / k N.B. Per i0 la Pr(i)0 non / 0. Ricordiamo che se a <, i 0 a i a P X (z) + (z) i dpx E[X] dz z i (z ) (z) i 0 i z (z) z 3
Variabili aleatorie continue Fino ad ora abbiamo considerato il caso di variabili che assumo al più una infinità numerabile di valori. Vi sono però naturalmente dei casi in cui tali variabili possono assumere qualunque valore in R (o in un intervallo di R). Es. Istante di tempo in cui un certo dispositivo elettronico smette di funzionare Molte delle definizioni prima viste sono ancora valide, quali ad es. quella di evento impossibile, evento certo, probabilità condizionata, etc., alcune vanno tuttavia riformulate. 33
Le v.a. continue sono caratterizzate mediante la funzione densità di probabilità Π(). Π() +d Π()d - Π( )d Pr( [, +d]) 34
La funzione di distribuzione cumulativa F X (y) esprime la probabilità che X assuma un valore minore o uguale ad y: F X (y) Pr( y) y Π()d - Chiaramente la funzione F X (y) è una funzione monotona non decrescente e F X (+ ). 35
Valore atteso o media E[X] μ Π() d Varianza Var[X] E[(X -E(X)) ] σ Π()( -μ ) d 36
Distribuzione uniforme Π() /(b-a) a b E[X](a+b)/ Var[X](b-a) / 37
Distribuzione esponenziale Π() e - R + {0} E[X]/ Var[X] / 38
Distribuzione normale o gaussiana Π () Var[X]σ E[]μ Π() σ π e ( μ) σ 39
Se la distribuzione è normale allora il valore medio èanche il valore più probabile. La somma di v.a. gaussiane indipendenti è ancora una v.a. gaussiana indipendente la cui media èpari alla somma delle medie e la cui varianza è pari alla somma delle varianze. Una v.a. gaussiana èdetta standard se E[X]0 e Var[X]. 40
Funzione generatrice di probabilità P X (s) s e Π()d L[ ()] 0 E[X] Var[X] dp d X ds (s) P X ds (s) s 0 s 0 E [X] 4
4 Esempio: variabile casuale esponenziale negativa 0 s 3 X X X ) (s [X] E ds (s) P d Var[X] E[X] ) (s ds (s) dp s ] e L[ (s) P e Π() + + +