VETTOI DI VAIABILI ALEATOIE E. DI NADO 1. Funzioni di ripartizione congiunte e marginali Definizione 1.1. Siano X 1, X 2,..., X n v.a. definite su uno stesso spazio di probabilità (Ω, F, P ). La n-pla (X 1, X 2,..., X n ) viene detta v.a. n-dimensionale o vettore casuale e verrà indicata con X. Le singole v.a. X i vengono dette componenti. Si osservi che per ogni vettore n-dimensionale di numeri reali x = (x 1, x 2,..., x n ) si ha {ω Ω : X 1 (ω) x 1, X 2 (ω) x 2,..., X n (ω) x n } = n {ω Ω : X i (ω) x i }, tale evento, essendo intersezione di elementi in F, appartiene ancora ad F. Definizione 1.2. Si dice funzione di ripartizione congiunta del vettore casuale X la funzione F X : n [0, 1] così definita F X (x) = F X1,X 2,...,X n (x 1, x 2,..., x n ) = P (X 1 x 1, X 2 x 2,..., X n x n ). Si noti che scegliendo una qualsiasi componente del vettore aleatorio X ed effettuando il limite per x i che tende a si ha ed allo stesso modo lim F X x 1,X 2,...,X n (x 1, x 2,..., x n ) = 0 i lim F X 1,X 2,...,X i 1,X i,x i+1,...,x n (x 1, x 2,..., x i 1, x i, x i+1,..., x n ) x i = F X1,X 2,...,X i 1,X i+1,...,x n (x 1, x 2,..., x i 1, x i+1,..., x n ) mentre lim F X x 1,X 2,...,X n (x 1, x 2,..., x n ) = 1. La funzione di ripartizione F X1,X 2,...,X i 1,X i+1,...,x n (x 1, x 2,..., x i 1, x i+1,..., x n ) viene detta marginale. Procedendo allo stesso modo si può determinare la funzione di ripartizione marginale di m variabili aleatorie scelte tra le n del vettore X. La funzione di ripartizione congiunta è non decrescente, ossia x 1,x 2,...,x n x 1,x 2,...,x n F X1,X 2,...,X n (x 1, x 2,..., x n ) 0, utilizzando la medesima notazione del capitolo precedente. Omettiamo la dimostrazione che segue le stesse linee di quella del caso bidimensionale. Come nel caso bidimensionale, scriveremo P [(X 1, X 2,..., X n ) B] = df X1,X 2,...,X n (x 1, x 2,..., x n ) dove B B( n ). Ad integrazione della Lezione 11 - Calcolo delle Probabilità e Statistica Matematica II. B 1
2 E. DI NADO 1.1. Caso discreto. Dato un vettore aleatorio (X 1, X 2,..., X n ) si definisce p r,s,...,t = P (X 1 = x 1,r, X 2 = x 2,s,..., X n = x n,t ) r = 1, 2,..., s = 1, 2,... massa di probabilità congiunta. Ovviamente risulta p r,s,...,t 0 e r,s,...,t p r,s,...,t = 1. I valori che si ottengono sommando su un indice la massa di probabilità congiunta sono detti probabilità marginali. Un esempio di vettore aleatorio discreto è quello con legge multinomiale. 1.2. Caso assolutamente continue. Diremo assolutamente continua una v.a. n- dimensionale con funzione di ripartizione congiunta F X1,X 2,...,X n (x 1, x 2,..., x n ) se esiste una funzione non negativa f X1,X 2,...,X n (x 1, x 2,..., x n ) : n tale che per ogni n-pla (x 1, x 2,..., x n ) di reali distinti si abbia F X1,X 2,...,X n (x 1, x 2,..., x n ) = x1 dv 1 xn dv n f X1,X 2,...,X n (v 1, v 2,..., v n ). La funzione densità f X1,X 2,...,X n (x 1, x 2,..., x n ) viene detta densità di probabilità congiunta del vettore X. Ovviamente risulta n F X1,X x 1 x 2,...,X n (x 1, x 2,..., x n ) = f(x 1, x 2,..., x n ). n Si ha poi e + + P [(X 1, X 2,..., X n ) B] = f(x 1, x 2,..., x n )dx 1 dx n = 1 B f X1,X 2,...,X n (x 1, x 2,..., x n )dx 1 dx n dove B B( n ). Un cenno a parte meritano le densità marginali che si ottengono integrando la densità congiunta su un certo numero di componenti, ossia f X1,X 2,...,X m (x 1, x 2,..., x m ) = dx m+1 f(x 1, x 2,..., x n )dx n. 2. elazioni tra n variabili aleatorie 2.1. Indipendenza. Per vettori di variabili aleatorie valgono le medesime nozioni di somiglianza e di indipendenza di cui al capitolo precedente. Definizione 2.1. Assegnato un vettore aleatorio (X 1, X 2,..., X n ) esso è costituito da v.a. indipendenti, se (2.1) F X1,X 2,...,X n (x 1, x 2,..., x n ) = F X1 (x 1 )F X2 (x 2 ) F Xn (x n ). Dalla definizione precedente segue che comunque scelte k v.a. k {1, 2,..., n}, si ha k F Xi1,X i2,...,x ik (x i1, x i2,..., x ik ) = F Xij (x ij ). j=1 tra le n, con Infatti è sufficiente effettuare il limite per x i che tende a su quelle componenti del vettore che non appartengono all insieme {X i1, X i2,..., X ik }, in modo da eliminarle dal vettore, affinché al primo membro della (2.1) si riottenga la funzione di ripartizione marginale di X nelle X i1, X i2,..., X ik mentre nel prodotto che figura al secondo membro restino le funzioni di ripartizione delle singole X it.
VETTOI DI VAIABILI ALEATOIE 3 2.1.1. Campione casuale. Una delle più importanti applicazioni dei vettori casuali è quella relativa ad osservazioni ripetute di una qualche v.a. X. Supponiamo che il tempo di vita di una lampadina sia descritto da una v.a. X. Un azienda produce queste lampadine in gran quantità e vogliamo testarne n. Sia X i il tempo di vita della i-esima lampadina testata. Allora il vettore (X 1, X 2,, X n ) è un vettore aleatorio. Se assumiamo che le X i sono simili (sono tutte prodotte dalla stessa azienda e quindi dovrebbero avere medesima legge di probabilità) e sono indipendenti (la produzione di una lampadina non dovrebbe influenzare la produzione delle altre) il vettore X prende il nome di campione casuale. 2.1.2. Minimo e massimo. Siano X 1, X 2,..., X n variabili aleatorie indipendenti e somiglianti. Caratterizziamo la legge di probabilità di isulta Y = max 1 i n X i F Y (y) = P (Y y) = P ( max 1 i n X i y) T = min 1 i n X i. = P (X 1 y, X 2 y,..., X n y) = Se le v.a. X i sono assolutamente continue, allora Invece si ha P (X i y) = [F X (y)] n f Y (y) = n[f X (y)] n 1 f X (y). 1 F T (t) = P (T > t) = P ( min 1 i n X i > t) = P (X 1 > t, X 2 > t,..., X n > t) = Se le v.a. X i sono assolutamente continue, allora P (X i > t) = [1 F X (t)] n f T (t) = n[1 F X (t)] n 1 f X (t). Esercizio Siano X i per i = 1, 2,..., n v.a. indipendenti esponenziali di parametro λ. Studiare le v.a. Y = max 1 i n X i e T = min 1 i n X i. Studiare il caso in cui le v.a. sono esponenziali, ciascuna di parametro λ i. Applicazioni in affidabilità dei sistemi composti. 2.2. Condizionamento. Siano X = (X 1, X 2,, X n ) e Y = (Y 1, Y 2,, Y m ) vettori casuali definiti sullo stesso spazio di probabilità (Ω, F, P ) e siano F X, F Y e F X,Y le funzioni di ripartizioni di X, di Y e di (X, Y). Sia B l evento e B = {ω Ω : Y 1 (ω) y 1,..., Y m (ω) y m } A h,k = {ω Ω : x 1 h 1 < X 1 (ω) x 1 + k 1,..., x n h n < X n (ω) x n + k n } dove h = (h 1,, h n ) e k = (k 1,, k n ) con h i, k i costanti non negative. Si scelgano h, k in modo che P (A h,k ) > 0. Pertanto ha senso definire P (B A h,k ) = P (B A h,k) P (A h,k ) = P {(Y y) (x h < X x + k)} P (x h < X x + k) dove con la scrittura U u si intende U i u i per ogni componente.
4 E. DI NADO Definizione 2.2. Dati i vettori casuali X e Y e i vettori costanti h e k tali che P (A h,k ) > 0 se esiste finito il limite P {(Y y) (x h < X x + k)} lim h,k 0 P (x h < X x + k) esso prende il nome di funzione di ripartizione di Y dato X e viene indicato con F Y X (y x). I risultati ottenuti nel capitolo precedente possono estendersi a questo caso e in particolare si potrà scrivere (2.2) f Y X (y x) = f(x, y) f X (x) Se poi i vettori casuali sono indipendenti allora f Y X (y x) = f Y (y) f X Y (x y) = f(x, y) f Y (y). f X Y (x y) = f Y (y). Una generalizzazione della nozione di vettore aleatorio è costituito dal processo stocastico, nozione che verrà esaminata nel paragrafo successivo. 3. Processo stocastico Un processo stocastico è una famiglia di v.a. dipendenti da un parametro t T, che in genere viene denominato tempo. Pertanto può essere considerato come una funzione X(ω, t) con ω Ω e t T. Per un valore fissato t, la funzione di ω X(ω, t ) è una v.a. Invece fissare ω = ω equivale a fissare una prova, si ottiene allora una funzione del tempo X(ω, t) che viene detta traiettoria o realizzazione del processo. Se T è un sottoinsieme finito di con cardinalità n, allora il processo stocastico è un vettore aleatorio n-dimensionale. Se T è l insieme dei numeri naturali, allora il processo stocastico è una successione di v.a. (esempio: processo di Bernoulli) e viene detto discreto nel tempo. Se T è un sottoinsieme non finito di, il processo è detto continuo nel tempo (esempio: processo di Poisson). L insieme dei valori assunti dalle v.a. che costituiscono il processo prende il nome di spazio degli stati. Anche lo spazio degli stati può essere finito, numerabile o avere la potenza del continuo. Nei primi due casi si dice che il processo stocastico è discreto nello spazio, mentre nell ultimo caso si dice che è continuo nello spazio. Definizione 3.1. Un processo stocastico si dice noto quando, comunque fissata una n-pla di istanti in T, ossia t 1 < t 2 < < t n, si conosce la funzione di ripartizione congiunta delle v.a. X(t 1 ), X(t 2 ),..., X(t n ). Se si assume che il processo è costituito da v.a. assolutamente continue, questo equivale a conoscere la funzione densità congiunta, usualmente indicata con n f(x 1, t 1 ; x 2, t 2 ;..., x n, t n ) = F X(t1),...,X(t x 1 x n)(x 1,..., x n ) n con t 1 < t 2 <... < t n. Vale il seguente teorema. Teorema 3.2. Sia {X(t), t T } un processo stocastico costituito da v.a. assolutamente continue. Si ha f(x 1, t 1 ; x 2, t 2 ;..., x n, t n ) = f(x i, t i x i 1, t i 1 ;... ; x 1, t 1 ) dove il termine per i = 1 corrisponde alla densità unidimensionale f(x 1, t 1 ).
VETTOI DI VAIABILI ALEATOIE 5 Proof. Il risultato segue applicando iterativamente la (2.2) Il risultato del teorema dice che il processo stocastico è noto, se si conoscono le densità condizionate di ordine inferiore. Questo perchè lo stato del processo all istante t n dipende da quello che è accaduto in tutti gli stati precedenti. Ovviamente tale studio presenta grosse difficoltà. Un caso speciale è rappresentato dai processi stocastici di Markov. Definizione 3.3. Un processo stocastico si dice di Markov se comunque fissata una n-pla di istanti in T, ossia t 1 < t 2 < < t n, si ha f(x n, t n x n 1, t n 1 ;... ; x 1, t 1 ) = f(x n, t n x n 1, t n 1 ). La funzione densità f(x, t y, τ) con τ < t prende il nome di funzione densità di transizione. Per i processi di Markov, quando si conosce la densità di transizione e la densità unidimensionale, è possibile determinare la densità congiunta di qualsiasi ordine. Si noti che i processi di Markov sono caratterizzati da limitata memoria, in quanto se indichiamo con t n il generico istante futuro, con t n 1 l istante presente e con t i per i = 1, 2,..., n 2 gli istanti passati, la proprietà di markovianità si può enunciare dicendo che il futuro dipende solo dal presente e non dal passato. Quando lo spazio degli stati è discreto o numerabile, si parla di catena di Markov. Un esempio di catena di Markov è il processo di Poisson. Teorema 3.4. Equazione di Chapman-Kolmogorov La densità di transizione di un processo di Markov soddisfa la seguente relazione f(x, t x 0, t 0 ) = f(x, t y, τ)f(y, τ x 0, t 0 )dy. Proof. Si ha f(x, t; x 0, t 0 ) = f(x, t; y, τ; x 0, t 0 )dy = Trattandosi di un processo di Markov si ha f(x, t; x 0, t 0 ) = f(x, t y, τ)f(y, τ; x 0, t 0 )dy = f(x, t y, τ; x 0, t 0 )f(y, τ; x 0, t 0 )dy. Il primo membro della precedente eguaglianza può scriversi come da cui il risultato. f(x, t; x 0, t 0 ) = f(x, t x 0, t 0 )f(x 0, t 0 ) f(x, t y, τ)f(y, τ x 0, t 0 )f(x 0, t 0 )dy. Si chiamano invece processi stocastici senza memoria quei processi di Markov per i quali la densità di transizione soddisfa la seguente proprietà: f(x, t y, τ) = f(x, t) τ < t. Sono ovviamente processi stocastici le cui variabili aleatorie risultano indipendenti. Esempi sono il rumore bianco ed il rumore termico.