Statistica e analisi dei dati Data: 6 Maggio 206 Distribuzioni di due variabili aleatorie Docente: Prof. Giuseppe Boccignone Scriba: Noemi Tentori Distribuzioni congiunte e marginali Consideriamo due variabili aleatorie discrete X e Y. Siamo interessati all evento congiunto {X = } {Y = } e alla probabilitá di tale evento o probabilitá congiunta P XY ({X = } {Y = }) = P XY (X =, Y = ) = p XY (, ) Nel caso discreto la congiunta si puo scrivere in forma tabellare. Un esempio di p. congiunta di due VA che possono assumere valori X = {0,, 2}, Y = {0, } é riportato in Figura. Figura : La distribuzione congiunta P XY ({X = } {Y = }) scritta esplicitamente in forma tabellare. Nell ultima colonna a destra e nell ultima riga in basso (i margini) sono riportati i valori ottenuti sommando su ciascuna colonna fissata la riga i, P Y (Y = i) = p (, = i), e su ciascuna riga fissata la colonna j, P X (X = j) = p ( = j, ). P X e P Y rappresentano le distribuzioni di probabilitá marginali. Dalla probabilitá congiunta possiamo inferire la probabilitá di qualsiasi evento di interesse che riguarda le VA X, Y. Ad esempio, P XY (X + Y > ) = P XY (, ) + P XY (2, ) + P XY (2, 0) = 0.2 + 0 + 0. = 0.3
2 Distribuzioni di due variabili aleatorie Figura 2: Un evento continuo A = {(, ) a X b, c Y d} Per distribuzioni discrete é utile talvolta semplificare la notazione: P XY ({X = i} {Y = j}) = p XY (i, j) = p i,j Notiamo che la congiunta é normalizzata, i,j p i,j = i j p i,j =. Nella tabella riportata in Figura abbiamo anche riportato, a margine, i valori ottenuti sommando su ciascuna colonna fissata la riga i, P Y (Y = i) = p (, = i), e su ciascuna riga fissata la colonna j, P X (X = j) = p ( = j, ). L insieme dei valori P X (X = j) e P Y (Y = i) definiscono rispettivamente le probabilitá marginali di X e Y : P X () = p XY (, ) P Y () = p XY (, ) Si noti che P X e P Y sono normalizzate, P X() =, P Y () =. I concetti introdotti sono ovviamente generalizzabili a VA continue. Se X e Y sono VA (continue o discrete) la finzione di ripartizione congiunta é definita come F XY (, ) = P XY (X, Y ) e per essa valgono tutte le proprietá definite per le funzioni di ripartizione di una singola variabile aleatoria. Nel caso continuo, F XY (, ) é (assolutamente) continua se esiste la funzione densitá di probabilitá congiunta f XY (, ) (non negativa e integrabile) tale che dove f XY (, )dd = e F XY (, ) = f XY (, )dd f XY (, ) = ( (F XY (, ))) 2 F XY (, ) In altri termini la probabilitá congiunta nel caso continuo é definita come prob(, A) = P (a X b, c Y d) = b d a c f XY (, )dd
Distribuzioni di due variabili aleatorie 3 Figura 3: Le figure a), b) e c) sono tre possibili rappresentazioni grafiche di una generica densitá congiunta prob(, ): a) la rappresenta come un volume sul supporto bidimensionale, ; b) come una mappa a livelli; c) come una mappa dove il colore é il valore di probabilitá assunto in ciascun punto (, ) (il nero indica probabilitá nulla). La figura d) mostra le due distribuzioni marginali di, rispetto alla congiunta ottenute accumulando i valori della congiunta sull asse e sull asse. Inoltre: sará la densitá marginale rispetto a X, e f X () = f(, )d f Y () = f(, )d la densitá marginale rispetto a Y. Una rappresentazione grafica di congiunte e marginali nel caso continuo é riportato in Figura 3. Si noti che la funzione di ripartizione marginale F X () é per definizione P X (X ). Esplicitamente, nel caso continuo: F X () = P X (X ) = F XY (, + ) = [ + Esempio. Sia data la densitá congiunta continua: { 6e 2 3 per > 0, > 0 f XY (, ) = 0 altrimenti ] f X,Y (u, v)dv du = f X (u)du
4 Distribuzioni di due variabili aleatorie Calcolare P XY ( 2, 2 3): P XY ( 2, 2 3) = = 6 2 Calcolare la densitá marginale f X : f X () = e 2 d 3 2 e 3 d = 6 2 3 2 [ 2 e 2 = (e 2 e 4 )(e 6 e 9 ) = 0.0003 0 f XY (, )d = = 6e 2 3 [e 3 ] 0 = 6 3 e 2 ( 0) = 2e 2 0 6e 2 3 dd ] 2 [ ] 2 3 e 3 3 6e 2 3 d = 6e 2 e 3 d = 0 Calcolare la CDF congiunta: Ripetendo i calcoli precedenti si ottiene F XY (, ) = 0 0 6e 2u 3v dudv = ( e 2 )( e 3 ). Probabilitá condizionata Nel caso discreto, osservato un valore di Y =, e data la distribuzione congiunta P XY (X, Y ) é possibile definire la probabiitá condizionata di X Y = nello stesso modo in cui avevamo definito la probabilitá condizionata di eventi: P X Y (X Y = ) = P XY (X, Y = ) P Y (Y = ) dove P Y (Y = ) > 0 ed é ricavabile per marginalizzazione da P XY (X, Y ). Esempio 2. Considerando l esempio iniziale di Figura, possiamo calcolare P X Y (X Y = ) P X Y (X = 0 Y = ) = P XY (X=0,Y =) P Y (Y =) = 0.2 0.4 = 0.5 P X Y (X = Y = ) = P XY (X=,Y =) P Y (Y =) = 0.2 0.4 = 0.5 P X Y (X = 2 Y = ) = P XY (X=2,Y =) P Y (Y =) = 0 0.4 = 0 Figura 4: Probabilitá condizionata calcolata nell Esempio 2 (la linea rossa serve solo a guidare l occhio) Nel caso continuo la densitá condizionata é definita come:
Distribuzioni di due variabili aleatorie 5. In termini di CDF: f X Y ( ) = f XY (, ) f Y () F X Y ( ) = f XY (u, )du f XY (u, )du Figura 5: Rappresentazione grafica della densitá condizionata prob(x Y = ): questa é interpretabile come il profilo che si ottiene tagliando la densitá congiunta in Y = Se X e Y sono indipendenti valgono le seguenti P XY (, ) = P X ()P Y () In generale (nei casi discreto e continuo): f XY (, ) = f X ()f Y () F XY (, ) = F X ()F Y () Piú precisamente si dice che X e Y sono statisticamente o marginalmente indipendenti. Un caso immediato é giá stato visto alla fine dell Esempio dove F XY (, ) = ( e 2 )( e 3 ) Si puó facilmente verificare che F X () = ( e 2 ) e F Y () = ( e 3 ), pertanto F XY (, ) = F X ()F Y (). Nell esempio, dunque X e Y sono indipendenti, ed é il motivo per cui l integrazione doppia risulta agevole essendo separabile su e. Riportiamo infine, in Figura 6 un esempio notevole: la distribuzione Normale bivariata che si puó scrivere come [ )( ( µ f(, ) = 2πσ σ ρ 2 e 2( ρ 2 ) σ )2( 2ρ ( µ)( µ µ ) ] 2 σσ σ
6 Distribuzioni di due variabili aleatorie dove ρ = cov(x,y ) σ σ é il coefficiente di correlazione fra le variabili X e Y che vedremo piú avanti. Quando ρ = 0 allora X e Y sono indipendenti e la Normale bivariata é semplicemente il prodotto N ( µ, σ )N ( µ, σ ) di due Normali univariate. Tuttavia anche nel caso piú generale di ρ 0 marginali e condizionate sono sempre distribuzioni Normali. Figura 6: Un caso notevole: per una distribuzione Normale bidimensionale, marginali e condizionate sono ancora distribuzioni Normali (unidimensionali) 2 Valore atteso e varianza Affrontiamo il problema di calcolare valore atteso e varianza per distribuzioni congiunte di VA X e Y. Per brevitá notazionale considereremo il caso continuo, ma i risultati sono estendibili immediatamente al caso discreto. Data la densitá congiunta f XY (, ), il suo valore atteso é: µ = E[X] = f XY (, )dd = dove si é usata la definizione di densitá marginale di Y. Analogamente µ = E[Y ] = f Y ()d d f XY (, )d = f X ()d In generale, se abbiamo una variabile aleatoria Z = g(x, Y ) funzione di X e di Y, di densitá congiunta f XY, avremo che: µ z = E[Z] = g(, )f XY (, )dd
Distribuzioni di due variabili aleatorie 7 Noti i valori di aspettazione µ e µ, le rispettive varianze sono var(x) = ( µ ) 2 f XY (, )dd = ( µ ) 2 f X ()d Analogamente: var(y ) = ( µ ) 2 f Y ()d