per Scienze Ambientali Variabili aleatorie - Appunti 1 1 Dipartimento di Matematica Sapienza, Università di Roma Roma, Gennaio 2013
Variabili aleatorie Un numero aleatorio è un esempio di variabile aleatoria. Un altro esempio di variabile aleatoria è il risultato del lancio di una moneta cioè un simbolo aleatorio tra Testa e Croce. In generale, una variabile aletoria è un valore aleatorio elementare o indivisibile che può presentarsi come esito di un esperimento, di una misura o di una osservazione. Di una variabile aleatoria si conoscono i valori possibili e la probabilità di osservare tali valori (nel caso discreto) o la probabilità di osservare valori appartenenti a un dato intervallo (nel caso continuo). Più precisamente: Variabile aleatoria discreta; i possibili valori sono un sottoinsieme di un insieme numerabile; la distribuzione di probabilità o funzione frequenza di una variabile aletoria discreta X è definita da una doppia lista dove p i = P(X = ω i ). ω 1 ω 2 p 1 p 2 Variabile aleatoria continue; quando i possibili valori sono un numero reale (o più in generale) un elemento di uno spazio vettoriale; la distribuzione di probabilità di una variabile aleatoria reale X è definita da una funzione g(x) densità di probabilità, tale che P(a X b) = R b a g.
Variabili aleatorie discrete Una variabile aleatoria finita X a valori in {1, 2,..., n} è completamente definita da un vettore (distribuzione di probabilità o funzione frequenza ) π = (p 1,..., p n ) con p i 0 per ogni i e p 1 + + p n = 1. Una variabile aleatoria discreta X a valori in N = {1, 2,... } è completamente definita da una successione (distribuzione di probabilità o funzione frequenza ) π = (p 1, p 2,... ) con p i 0 per ogni i e i=1 p i = 1. Esempi 1 Variabile dicotomica di parametro p: P(X = k) = p k (1 p) 1 k (k = 0, 1). 2 Variabile binomiale di parametri p, n: P(X = k) = p k (1 p) n k( n k),... (k = 0,..., n). 3 Variabile geometrica di parametro p: P(X = k) = p(1 p) k (k = 0, 1,... ). 4 Variabile ipergeometrica di parametri n, k ed r, P(X = m) = (rk m)( r m) n k ( n r) k
Media e varianza di una variabile aleatoria discreta Se X è una variabile aletoria che assume i valori ω 1,..., ω n con probabilità p 1,..., p n rispettivamente, il valor medio di X, indicato E(X) è E(X) = p 1 ω 1 + + ω n x n. La varianza di X è Var(X) = E((X E(X)) 2 ) = p 1 (ω 1 E(X)) 2 + + p n (ω n E(X)) 2. Per esempio, per una variabile dicotomica X tale che P(X = 1) = p, P(X = 0) = 1 p, E(X) = p 1+(1 p) 0 = p Var(X) = (1 p) 2 p+(0 p) 2 (1 p) = p(1 p).
Media e varianza di una variabile aleatoria continua Se X è una variabile aleatoria a valori reali, la cui distribuzione di probabilità è descritta dalla densità g(x) (e quindi P(a X b) = b a g), allora e Var(X) = + E(X) = + x g(x) dx (x E(X)) 2 g(x) dx = E(X 2 ) (E(X)) 2
Proprietà di media e varianza Variabili aleatorie si possono sommare e moltiplicare tra loro per ottenere nuove variabili aleatorie. Se X e Y sono due variabili aleatorie di distribuzione p X (x) e p Y (y) rispettivamente, e se i valori di aspettazione di entrambe le variabili sono finiti, E(X + Y ) = E(X) + E(Y ). Più in generale, se a, b 1,..., b n sono costanti e X 1,..., X n sono variabili aleatorie, allora E(a + b 1 X 1 + + b n X n ) = a + b 1 E(X 1 ) + + b n E(X n ) Se X è una variabile con varianza finita, e se a e b sono due costanti, allora Var(a + bx) = b 2 Var(X). inoltre, DISUGUAGLIANZA DI CHEBYSHEV Var(X) = E(X 2 ) (E(X)) 2 P( X E(X) > t) Var(X) t 2
Distribuzione binomiale Descrive la probabilità di osservare k teste in n lanci di una moneta: Ω sia l insieme di tutte le sequenze di lunghezza n di teste e croci. Nell ipotesi che l evento esce testa all i-esimo lancio sia indipendente da quello che esce agli altri lanci, la probabilità di ogni sequenza è p k (1 p) n k dove p è la probabilità che esca testa in un lancio. L evento E k escono k teste in n lanci è costituito da tutte le sequenze con k teste. Queste sono tante quanti i sottoinsiemi di k elementi che posso estrarre dall insieme {1, 2,..., n} (ogni sottoinseme specifica la posizione delle teste nella sequenza). Quindi ( ) n p(e k ) = p k (1 p) n k k
Distribuzione binomiale (II) p(x = k) = ( n k) p k (1 p) n k, E(X) = np, Var(X) = np(1 p). Distribuzione binomiale: p=0.3 n=7 probabilita' 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0 1 2 3 4 5 6 7 numero delle teste
Distribuzione geometrica P(X = k) = p(1 p) k, E(p) = 1 p p, Var(X) = 1 p p 2. Distribuzione geometrica: p=0.3 probabilita' 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0 2 4 6 8 10 numero di lanci prima di osservare testa
Distribuzione ipergeometrica Descrive la probabilità di m successi in r estrazioni senza reimbussolamento da una popolazione di n individui di cui k sono da considerarsi come successi. P(X = m) = ( m)( k r m) n k, E(X) = ( n r) r k n, Var(X) = rk(n k)(n r) n n(n 1). Distribuzione ipergeometrica: bianche=8 nere=24 estrazioni=7 probabilita' 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0 1 2 3 4 5 6 7 numero delle palline bianche estratte
Distribuzione di Poisson P(X = k) = λk k! e λ, E(X) = λ, Var(X) = λ. Distribuzione di Poisson: lambda=1.3 probabilita' 0.00 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0 2 4 6 8 10 numero di particelle alpha emesse in un intervallo di tempo
Variabile aleatoria uniforme X è una variabile aleatoria uniforme sull intervallo [a, b] se la sua densità di probabilità è 0 x < a 1 g(x) = b a 0 x 1 0 x > b Abbiamo E(X) = + x g(x) = b a x = x 2 2 b a a 2 b 2 2 Var(X) = E(X 2 ) (E(X)) 2 = b a x 2 (E(X)) 2 = 4(b3 a 3 ) 3(b 2 a 2 ) 2 12
Variabile aleatoria normale Densità di probabilità g(x) = 1 σ (x µ) 2 2π e 2σ 2 Distribuzione normale: media=0,sd=1 Distribuzione normale 0.0 0.1 0.2 0.3 0.4-4 -2 0 2 4 x E(X) = µ e Var(X) = σ 2. µ+σ g(x, µ, σ) = 0.683, µ σ µ+2 σ µ 2 σ g(x, µ, σ) = 0.955, µ+3σ g(x, µ, σ) = 0.997 µ 3σ
Variabile aleatoria normale: applicazioni Supponiamo che una variabile statistica abbia distribuzione approssimativamente normale di parametri µ = 165 e λ = 4. Determinare approssimativamente la probabilità che tale variabile assuma valori nell intervallo [161, 169]. Poiché 161 = µ σ e 169 = µ + σ, la probabilità richiesta è approssimativamente 169 161 g(x) = µ+σ µ σ g(x) = 0.683.
Distribuzione congiunta: un esempio Consderiamo lo spazio campionario relativo al lancio ripetuto tre volte di una moneta non truccata, Ω = {ccc, tcc, ctc, cct, ttc, tct, ctt, ttt} e consideriamo le variabili aleatorie X, che conta il il numero delle teste al primo lancio e Y che conta il numero delle teste nei tre lanci. Le corrispondenti tabelle di probabilità sono X 0 1 1/2 1/2 Y 0 1 2 3 1/8 3/8 3/8 1/8 Possiamo considerare, per ogni possibile esito i per X e ogni possibile esito j per Y la probabilità di osservare contemporaneamente l esito i per X e l esito j per Y, cioè P(X = i, Y = j). Abbiamo quindi la seguente distribuzione congiunta 0 1 2 3 0 1/8 2/8 1/8 0 1 0 1/8 2/8 1/8
Variabili aleatorie - definizione formale Per definire la distribuzione congiunta di due variabili aleatorie nell esempio precedente, abbiamo sfruttato il fatto che fossero entrambe definite sullo stesso spazio campionario. Questa non è un limitazione in quanto ogni variabili aleatoria si può pensare definita su un opportuno spazio campionario, e in effetti è possibile definire formalmente una variabile aleatoria nel modo seguente. Una variabile aleatoria è una qualsiasi funzione f misurabile, definita da uno spazio di probabilità (Ω, P, p) a valori in uno spazio di misura (X, Q) (f 1 (Q) P per ogni Q Q). Nel caso di variabile leatoria a valori in uno spazio finito la condizione di misurabilità è automaticamente soddisfatta. Per variabili aleatorie reali è sufficiente, per garantire la misurabilità nei contesti che ci interessano, richiedere che la controimmagine di ogni intervallo aperto appartenga alla sigma-algebra degli eventi aleatori.
Distribuzione congiunta di una coppia di variabili aleatorie finite Siano X e Y due variabili aleatorie definite sullo stesso spazio di probabilità, le cui distribuzioni di probabilità o funzioni frequenza siano e x 1 x 2 x n p X (x 1 ) = P(X = x 1 ) p X (x 2 ) = P(X = x 2 ) p X (x n ) = P(X = x n ) y 1 y 2 y m p Y (y 1 ) = P(Y = y 1 ) p Y (y 2 ) = P(Y = y 2 ) p Y (y m ) = P(Y = y m ) La distribuzione congiunta di X e Y è definita da p XY (x i, y j ) = P(X = x i, Y = y j ). p X e p Y si dicono le marginali di p XY e sono legate ad essa dalle formule m n p X (x) = p XY (x, y j ) p Y (y) = p XY (x i, y) j=1 i=1
Covarianza La covarianza di due variabili aleatorie X e Y è Cov(X, Y ) = E((X E(X))(Y E(Y )). Si noti che Cov(X, X) = Var(X). Cov(X, Y ) = E(XY ) E(X)E(Y ). Cov(a + X, Y ) = Cov(X, Y ). Vale infine Var(X + Y ) = Var(X) + Var(Y ) + 2Cov(X, Y ) Il coefficiente di correlazione si definisce ponendo ρ = Cov(X, Y ) Var(X)Var(Y ) Si ha che 1 ρ 1 e ρ = 1 se e solo se Y = ax + b.
Variabili aleatorie discrete indipendenti Due variabili aleatorie discrete si dicono indipendenti se e solo se per ogni i, j gli eventi X = i e Y = j sono indipendenti, ovvero P(X = i, Y = j) = P(X = i) P(Y = j), ovvero, se e solo se p XY (x, y) = p X (x) p Y (y) In generale abbiamo la formula P(X = i, Y = j) = P(X = i Y = j) P(Y = j), ovvero, introducendo la distribuzione condizionata possiamo scrivere p X Y (x i, y j ) = p XY (x i, y j ) p Y (y j ) p XY (x i, y j ) = p X Y (x i, y j ) p Y (y j ) Se X e Y sono indipendenti, allore E(XY ) = E(X)E(Y ) e quindi Cov(X, Y ) = 0 e Var(X + Y ) = Var(X) + Var(Y ).
Somma di variabili aleatorie indipendenti Siano X 1,..., X n n variabili aleatorie dicotomiche tali che P(X i = 1) = p e P(X i = 0) = 1 p. Allora, la variabile aleatoria B(n, p) = X 1 + + X n ha distribuzione binomiale di parametri n e p in quanto conta il numero di successi nel lancio ripetuto n volte di una moneta. Poiché per ipotesi, le X i sono indipendenti, allora E(B(n, p)) = n E(X i ) = np Var(B(n, p)) = i=1 n Var(X i ) = np(1 p) i=1
Teorema di convergenza di una successione di variabili aleatorie binomiali a una variabile di Poisson La distribuzione di Poisson si può ottenere come limite di distribuzioni binomiali al tendere all infinito del numero n delle prove e al tendere a zero della probabilità p di successo di una singola prova in modo tale che np = λ. La distribuzione binomiale è ponendo np = λ nella distribuzione binomiale abbiamo p(k) = n! k!(n k)! ( ) k ( λ 1 λ ) n k = n n λ k n! 1 k! k!(n k)! n k Al tendere di n all infinito, λ/n tende a zero, n! = (n k)! n(n 1) (n k+1) (n k)!n k (n k)! ( 1 λ n ( 1 λ ) n ( 1 λ ) k n n n k tende a 1, ( 1 λ n ) n tende a e λ e ) k tende a 1 e quindi p(k) tende a λ k e λ k!.
Legge dei grandi numeri Legge dei grandi numeri per una variabile dicotomica X per cui P(X = T ) = p: ( lim P nt ) n n (p ɛ, p + ɛ) = 1.
Realizzazione o valore osservato di una variabile aleatoria In statistica una realizzazione di una variabile aleatoria è il valore effettivamente osservato quando viene fatto l esperimento. Gli indici statistici calcolati da realizzazioni di una variabile aleatoria senza far uso di un modello probabilistico sono detti empirici. Convenzionalmente, lettere maiuscole denotano variabili aleatorie; le corrispondenti lettere minuscole denotano le loro realizzazioni. Un modello probabilistico per un insieme di dati empirici è una collezione di distribuzioni di probabilità. Si dice parametrico se ogni distribuzione del modello è indicata da un vettore di parametri ristretti ad una determinata regione dello spazio dei parametri. Dai dati empirici la statistica descrittiva calcola la distribuzione empirica e numerosi indici riassuntivi quali media, deviazione standard, correlazione, retta di regressione. A partire da un modello probabilistico dei dati si possono calcolare la distribuzione teorica e i corrispondenti indici teorici. È possibile misurare la adeguatezza del modello probabilistico misurando la significatività statistica della deviazione tra grandezze aspettate e grandezze osservate. Un modello teorico serve a ripulire i dati, stimare parametri nascosti, simulare dati omogenei.