INTRODUZIONE ALLE COPPIE DI VARIABILI ALEATORIE Esperimento: lancio di due dadi Frequenze Assolute osservate delle coppie di valori su 100000 Prove Dad1/Dado 2 1 2 3 4 5 6 1 2813 2760 2725 2814 2859 2829 16800 2 2786 2811 2806 2812 2760 2769 16744 3 2693 2700 2722 2737 2838 2768 16458 4 2767 2709 2699 2717 2801 2801 16494 5 2797 2706 2796 2807 2846 2755 16707 6 2886 2795 2657 2776 2858 2825 16797 16742 16481 16405 16663 16962 16747 100000 Frequenze Assolute teoriche dadi non truccati e indipendenti (100000 Prove) Dado1/Dado2 1 2 3 4 5 6 1 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 2 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 3 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 4 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 5 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 6 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 16666.6 16666.6 16666.6 16666.6 16666.6 16666.6 100000 283
Frequenze Assolute relative all esperimento del lancio di una coppia di dadi ripetuta 100000 2777.7 Istogramma bidimensionale 284
INTRODUZIONE ALLE COPPIE DI VARIABILI ALEATORIE Esperimento: lancio di una freccia sul bersaglio (10000 prove) Y 285
Frequenze Assolute delle coppie di valori (,Y) Y Istogramma bidimensionale 286
Istogramma dei valori di (10000 prove) Supponendo che l errore sulla coordinata è indipendente da quello sulla coordinata Y e che è causato dalla somma di numerosi fattori indipendenti, è una v.a. Gaussiana. 287
Istogramma dei valori di Y (10000 prove) Supponendo che l errore sulla coordinata Y è indipendente da quello sulla coordinata e che Y è causato dalla somma di numerosi fattori indipendenti, Y è una v.a. Gaussiana. 288
, COPPIE DI VARIABILI ALEATORIE Distribuzioni di Probabilità Congiunte e Marginali Date due variabili aleatorie ed Y Proprietà statistiche individuali: Funzioni di Distribuzioni (o di Densità) marginali F ( x ), f ( x ) e F ( y ), f ( y ) Proprietà statistiche congiunte, cioè di (,Y ) come coppia di variabili aleatorie: Funzione di Distribuzione Congiunta Y Y FY ( x, y ) 289
Funzione di Distribuzione (cumulativa) Congiunta Dato l evento { x,y y} generato dalla coppia di variabili (,Y ) cioè l'appartenenza di un punto P ( x,y) D a 0 P D 0 y x la Funzione di Distribuzione congiunta è: ( ) = ( ) = { } FY x,y P x,y D0 P x, Y y 290
Densità di Probabilità Congiunta La densità di probabilità congiunta f Y ( ) { < + < + } = ( ) x,y è tale che: P x x dx, y Y y dy f x,y dxdy Y f Y ( x,y ) x y y + dy y x + dx x 291
Densità di Probabilità Congiunta (segue) Per una generica regione D del piano ( x, y ): {( ) } ( ) P, Y D = fy x,y dxdy Applicando l espressione precedente alla regione D 0, si ha: (, ) (, ) (, ) F x y = f α β dαdβ= f α β dαdβ Y Y Y D 0 da cui si ricava il legame tra densità e distribuzione congiunte: f Y ( x,y) = 2 D F Y y x y x ( x,y) P D 0 y x 292
La Distribuzione Marginale o La distribuzione marginale della v.a. è: ( ) = ( + ) F x F x, o Infatti la probabilità dell evento { x} Y eguaglia la massa relativa alla regione a sinistra della retta verticale passante per x, cioè la probabilità dell evento: { x,y + } y x x o Analogamente per Y : F ( y) = F ( +,y) Y Y 293
La Densità Marginale Considerando l evento { x x+δx,y + } che definisce sul piano una striscia Δ D( x) di sviluppo verticale e larghezza Δ x, che poi si farà tendere a zero (dx), si ha: y D () x dx Δ x x x { ( )} (, ) ( ) P Δ D x = f x y dydx f x Δx ΔD( x) Y 294
L integrale (, ) Δ x a zero: La Densità Marginale (segue) f Y x y dydx si può scrivere facendo tendere ΔD( x) y D () x + f ( x) dx = f Y ( x, y) dy dx x dx x Quindi la densità marginale è: + f ( x) = fy ( x,y) dy o Si dice che la densità marginale di si ottiene saturando Y. o Analogamente per la v.a. Y : + ( ) ( ) fy y = fy x,y dx 295
Massa di Probabilità Congiunta Se e Y sono variabili aleatorie discrete, si definisce la massa di x,y : probabilità congiunta sui diversi punti di coordinate ( ) { } P = x,y = y = p i k ik Massa di Probabilità Marginale { } { } P = x = p ; P Y = y = q i i k k Si ottengono per saturazione dell altra variabile aleatoria: pi = pik q k k = i p ik i k 296
Esempio: densità di probabilità gaussiana bidimensionale Y 1 x y f ( x, y) = exp + 2 2 Y 2 2 2πσ σy 2σ 2σY, σ = σy = 2 297
f Esempio: densità di probabilità gaussiana bidimensionale o In generale Y ( x,y) = ( x η ) ( x η )( y η ) ( y η ) 1 1 = exp 2ρ + 2 1 con: 2 2 Y Y 2 2 2 2 πσ σy ρ 21 ( ρ ) σ σσy σy ( x η ) 2 1 f ( x) = exp 2 2π σ 2σ, ( ) ( y η ) 2 1 Y fy y = exp 2 2π σ 2σ Y Y o Densità di probabilità marginali di e Y. o ρ definisce il coefficiente di correlazione tra la variabile aleatoria e la variabile aleatoria Y. 298
Curve di livello Funzione densità di probabilità gaussiana bidimensionale nel caso di σ = 0.3, σ Y = 0.15, ρ Y = 0 299
Curve di livello Funzione densità di probabilità gaussiana bidimensionale nel caso di σ = 0.3, σ Y = 0.3, ρ Y = 0 300
Curve di livello Funzione densità di probabilità gaussiana bidimensionale nel caso di σ = 0.3, σ Y = 0.3, ρ Y = 0.7 301
Indipendenza statistica di due variabili aleatorie La proprietà di indipendenza di due variabili aleatorie si basa su quella di indipendenza tra due eventi A e B: P( A B) = P( A) P( B) Definizione: Due variabili e Y sono statisticamente indipendenti, se sono indipendenti gli eventi { Y y} e { x} cioè: P{ x, Y y} = P{ x } P{ Y y } x, y F x,y = F x F y ( ) ( ) ( ) Y Y da f ( x,y) ( ) ( ) df x dfy y fy ( x,y) = f x fy y dx dy = Y = 2 F ( ) ( ) Y x y ( x,y), 302
Indipendenza statistica di due variabili aleatorie (segue) Nel caso di variabili aleatorie discrete e Y, definendo gli eventi: { = x i } e { Y = Y k } con le masse di probabilità marginali i = { = } e q = P{ Y = Y } p P x allora e Y sono indipendenti se: i pik = pi qk k k 303
Esempio di Variabili Indipendenti Esperimento: doppio lancio di un dado non truccato con sei facce. Risultati: 36 del tipo fi f j, dove i ( j ) indica la faccia del dado. Variabili aleatorie: e Y associate al numero che compare sulla faccia superiore rispettivamente al primo ed al secondo lancio: ( ) f f = i con i 1,2,...,6 i j = ( ) Y f f = j con j = 1,2,...,6 1 1 P( = i) = PY ( = j) = 6 6 1 P{ = i, Y = j} = = P{ = i} P{ Y = j} 36 Nello spazio S dei due lanci indipendenti e Y sono indipendenti. i j 304
Teoria dei Fenomeni Aleatori Esempio di Variabili Indipendenti AA 2012/13 e Y sonoo indipendenti, uniforme in (0, a) e Y uniforme in (0, b) Densità marginali Densità congiunta 1 ab f Y ( x,y) b y x a 305
Funzione di una Coppia di variabili aleatorie o Data la funzione z g( x,y) costruisce la v.a. Z: o La densità di probabilità ( ) Z. o Calcolo del valore atteso di Z: = e data la coppia di vv.aa. ( ) Z = ( ) g,y,y si f z risulta assegnata nota f ( x,y) [ ] ( ) E Z = z fz z dz o NB: Non occorre ricavare la fz ( z ): + + + E Z E g,y g x,y f x,y dxdy { } ( ) { } ( ) ( ) = =. Y Y 306
Covarianza e Correlazione Se si prende z = g( x,y) = x y, il prodotto di due variabili aleatorie e Y forma una terza variabile aleatoria Z Z = Y Definizione: o Si definisce CORRELAZIONE tra le v.a. ed Y il valore atteso del loro prodotto Cor,Y = E Y ( ) [ ] Definizione: o Date due variabili aleatorie ed Y la loro COVARIANZA è: ( ) ( )( ) μ = Cov,Y = E η Y η Y Y dove η ed η Y sono i valori attesi di ed Y rispettivamente. 307
Relazione tra Covarianza e Correlazione Cov(,Y ) = Cor (,Y ) ηη Y Verifica: ( ) ( )( ) Cov,Y = E η Y η = Y [ ] [ ] [ ] = E Y η E Y η E +η η = Y Y = E[ Y] ηη Y 308
Coefficiente di Correlazione Definizione: o Si definisce coefficiente di correlazione di ed Y la covarianza normalizzata : Y r μ Y = σ σ dove σ ed σ Y sono le deviazioni standard di ed Y. o A volte il coefficiente di correlazione si indica con: o semplicemente con ρ. ρ Y Y 309
Variabili Aleatorie Centrate e Normalizzate Date le variabili aleatorie ed Y si definiscono: η Y ηy 0 =, Y0 = σ σ 0 e Y 0 sono dette v.a. standardizzate e hanno per definizione: Y [ ] [ ] E = E Y = 0 0 0 σ =σ = 2 2 Y 1 0 0 Ne segue che: η Y η Cov(,Y ) E[ Y ] E Y 0 0 = 0 0 = = σ σy ( ) 1 Cov Y = E ( η )( Y η ) = = r σ σ Y Y Y σσy 310
Disuguaglianza di Schwartz Data la coppia di vv.aa. e Y, vale la seguente disuguaglianza: [ ] { } 2 2 2 E Y E E Y Verifica: se c è una costante, per la variabile aleatoria differenza: Y c 2 deve essere: ( ) ( ) E Y c = Q c 0 ( ) 2 [ ] 2 2 2 La forma quadratica Q( c ) risulta non negativa se: quindi [ ] Q c = E Y 2c E Y + c E =αc 2β c+γ 0 { } 2 2 2 2 β E Y E E Y 0 γα [ ] 0 { } 2 2 2 E Y E E Y 311
Disuguaglianza di Schwartz Graficamente se la parabola non interseca l asse delle ascisse (cioè non ci sono radici reali dell equazione di 2 grado nell incognita c): ( ) Q c ( ) Q c Sì No 0 c 0 c Il che prova l ineguaglianza di Schwartz: [ ] A volte si trova la notazione: [ ] 2 2 2 E Y E E Y { } 2 2 2 E Y E E Y 312
Proprietà del Coefficiente di Correlazione o Il coefficiente di correlazione tra due v.a. e Y è compreso in modulo tra -1 e +1: 1 ry + 1 Dimostrazione: (si fa uso della disuguaglianza di Schwartz) Se η = E[ ] ed η = EY [ ] Y c, indicando con = η e Y c = Y η Y ed applicando la disuguaglianza di Schwartz a [ Y ] [ ] 2 2 E c c ry = 1 2 2 E c E Y c 2 2 2 E Y c c E c E Y c c e Y c, si ha: [ ] E Y c c ry = 1 2 2 E c E Y c 313
Proprietà del Coefficiente di Correlazione (segue) Il coefficiente di correlazione r Y = 1 se Y è funzione lineare di : Y = α +β con α, β costanti Verifica: Infatti sostituendo nella definizione e ricordando che Y [ ] η = E α +β =αη +β ( ) ( ) ( ) 2 2 2 2 σ Y = E α +β αη +β = E α η = 2 ( ) 2 2 2 =α E η =α σ E{ [ η ][ ]} {[ ] ( ) } Y η E η Y α +β αη +β ry = = = σ σ α σ σ Y E{ η 2 } 1 2 2 σ [ η ] α[ η ] { } [ ] E = = = α σ 314
Esempio di Variabili Correlate o Data la coppia di v.a. ( 1, 2 ) indipendenti con Masse marginali: P( 1 = i) = 1/6 P( 2 = j) = 1/6 i, j = 1, 2,,6 Massa congiunta: P( 1 = i, 2 = j) = P( 1 = i)p( 2 = j) = 1/36 o Se definiamo la v.a. somma: S = 1 + 2 o Le v.a. 1 ed S sono correlate. 315
Infatti essendo Esempio di Variabili Correlate 2 2 2 η = η 1 = η 2 e σ = σ 1 = σ 2 η = η + η = 2η 1 2 S 1 2 * 2 2 2 2 S = + =2 * per l'indipendenza tra 1 e 2 σ σ σ σ ( ) [ ] ( ) Cor 1,S = E 1S = E 1 1 + 2 = * [ ] 1 1 1 1 = E + E = σ + η + η η = σ + 2η 2 2 2 2 2 1 1 2 ( ) Cor (,S ) 1 1 1 ( ) 2 2 Cov 1,S 1 η ηs σ + 2η η2η 1 r = = = = 0.707 σ σ σ σ 2σ σ 2 S S 316
Dominio della coppia ( 1, S) Somma S Su ogni ( ) la massa di probabilità vale: P( i,s j) P( i,j) 12 Massa Marginale ( ) ( ) 1 P 1 = i = P i, j = i = 1,2,...,6 6 j= 2 Dado 1 Massa Marginale P( S j) P( i,j) 1 = = = = 6 j 1 j = 2,...,7 36 = = = 13 j j = 8,...,12 i= 1 36 1 36 317
Simulazione su 100000 Prove di ( 1, S) 318
Simulazione su 100000 Prove di ( 1, S) Massa di Probabilità congiunta di ( 1, S) i/j 2 3 4 5 6 7 8 9 10 11 12 1 0,0282 0,0275 0,0277 0,0279 0,0286 0,0278 0,0000 0,0000 0,0000 0,0000 0,0000 0,1677 1/6 2 0,0000 0,0279 0,0284 0,0282 0,0280 0,0274 0,0279 0,0000 0,0000 0,0000 0,0000 0,1678 1/6 3 0,0000 0,0000 0,0265 0,0272 0,0272 0,0274 0,0282 0,0276 0,0000 0,0000 0,0000 0,1641 1/6 4 0,0000 0,0000 0,0000 0,0274 0,0273 0,0273 0,0270 0,0287 0,0278 0,0000 0,0000 0,1654 1/6 5 0,0000 0,0000 0,0000 0,0000 0,0279 0,0272 0,0282 0,0281 0,0284 0,0272 0,0000 0,1668 1/6 6 0,0000 0,0000 0,0000 0,0000 0,0000 0,0289 0,0281 0,0267 0,0275 0,0288 0,0282 0,1682 1/6 0,0282 0,0554 0,0825 0,1107 0,1391 0,1660 0,1393 0,1110 0,0836 0,0560 0,0282 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36 319
Definizione: Variabili Aleatorie Scorrelate o Le variabili aleatorie e Y sono scorrelate (o incorrelate) se la loro correlazione eguaglia il prodotto dei loro valori attesi: E[ Y ] = E[ ] E[ Y ] o Dalla relazione tra covarianza e correlazione ( ) ( ) μ = Cov,Y = Cor,Y η η per variabili scorrelate si ha: Y Y μ Y = 0 ry = 0 320
Varianza della Differenza di v.a. Correlate Data la v.a.: Y 2 ( ) [ ] { } 2 2 σ Y = E Y E Y = [ ] [ ] [ ] [ ] [ ] ( ) 2 2 2 2 = E + E Y 2E Y E + E Y 2E E Y = { 2 2[ ]} 2 2 [ ] { } [ ] [ ] [ ] { } = E E + E Y E Y 2 E Y E E Y = ( ) 2 2 =σ +σ = Y 2Cov,Y =σ +σ 2r σ σ 2 2 Y Y Y In particolare se: ry = 1 σ = 2 Y 0 σ =σ 2 2 Y 321
Varianza della Somma di v.a. Correlate Data la v.a.: + Y procedendo come fatto per la differenza si ottiene: σ =σ +σ + 2r σ σ Se e Y sono scorrelate ( r 0) 2 2 2 + Y Y Y Y Y = : σ =σ +σ 2 2 2 ± Y Y o Se le variabili sono scorrelate, a varianza della somma (differenza) è uguale alla somma delle varianze. o Le fluttuazioni si sommano quadraticamente se le loro cause sono indipendenti. 322
Variabili Aleatorie Ortogonali Definizione: o Due variabili aleatorie e Y sono ortogonali se E[ Y ] = 0 Segue che se e Y sono ortogonali: ( ) 2 2 2 + = + E Y E E Y 323
Indipendenza e Scorrelazione o Due variabili aleatorie indipendenti sono anche scorrelate. Verifica: ( )( ) μ Y = E η Y η Y = + + ( )( ) ( ) = x η y η f x,y dxdy = Y Y per l indipendenza: f ( x,y) = f ( x) f ( y) + + = x η f x dx y η f y dy = ( ) ( ) ( ) ( ) Y Y [ ] [ ] = E η E Y η = 0 Y Y Y Indipendenti Scorrelate 324
Andamenti empirici (scatter plots) di due variabili aleatorie y y r = 1 0 x x 325
Andamenti empirici (scatter plots) di due variabili aleatorie y y r > 0 0 x x 326
Andamenti empirici (scatter plots) di due variabili aleatorie y y r < 0 0 x x 327
Andamenti empirici (scatter plots) di due variabili aleatorie y y r < 0 0 x x 328
Il Concetto di Regressione o La regressione si può intendere come un problema di stima di una v.a. Y nota la v.a.. Ovvero determinare una funzione: y = Φ ( x) tale che l'errore di stima ε definito come: ε = Y Φ ( ) sia minimo secondo qualche criterio statistico. 329
Regressione Lineare Se si assume una funzione lineare per Φ ( x) : si parla di regressione lineare. Φ ( x) = a+ bx o Nel caso della regressione lineare di due variabili e Y, l errore diviene: ε = Y ( a+ b) o Si vuole scegliere i coefficienti a e b in modo da minimizzare il valore quadratico medio di ε: + + 2 2 2 e= E E Y ( a b) ε = + = y ( a+ bx) fy ( x,y) dxdy 330
y Regressione Lineare (segue) x,y ( ) i i ε y = a + bx η Y 0 η Errore di stima della regressione lineare x 331
Regressione Lineare (segue) Calcolo dei coefficienti a e b tali che: { 2 } ( ) = ( + ) min e min E Y a b e = 0 a e = 0 b e = 2E Y ( a + b ) = 0 E[ Y ] = a + be[ ] a e 2 = 2E Y ( a+ b) = 0 E[ Y] ae[ ] be = 0 b 332
Regressione Lineare (segue) Dalla prima equazione, cioè E[ Y] = a+ be[ ] si ottiene: η = a+ bη Sottraendo quest'ultima espressione all equazione Y = a+ b si ha: Y η = b η Y Y ( ) o La retta di regressione passa per il punto (, ) centroide η η detto Y 333
e Dalla seconda equazione = 0 b si ottiene: [ ] ( 2 2 ) E Y aη b σ +η = 0 Regressione Lineare (segue) E Y ae be = 0 : [ ] [ ] 2 E = σ +η 2 2 2 2 2 [ ] η η σ = 2 [ ] η ( + η ) σ = η Y = a+ bη 2 [ ] ηηy σ = Cov(,Y ) = E[ Y ] ηη Y 2 ( ) σ = E Y a b b 0 E Y a b b 0 E Y b 0 Cov,Y b 0 r b 0 2 Y Y σ σ σ = Cov(,Y ) = ryσ σ Y 334
b= r Y σ σ Y da cui essendo a= ηy bη a σ = η r η Y Y Y σ Regressione Lineare (segue) o L'approssimazione lineare che minimizza l errore quadratico medio (LSM, Least Mean Square) di Y su è la retta di regressione : σy y η Y = ry ( x η ) σ σy che passa per il punto ( η, η Y) e ha pendenza ry σ. 335
y η Y tg Y ( α ) = r Y σ σ α η x Momenti Congiunti di una Coppia di v.a. o Data una coppia di variabili aleatorie (,Y ) i momenti congiunti sono: + + k r k r mkr = E Y = x y fy ( x,y) dxdy o Momenti congiunti centrali: 336
+ + k r k r ( ) ( ) ( ) ( ) ( ) μ = E η Y η = x η y η f x,y dxdy kr Y Y Y Momenti Congiunti di una Coppia di v.a. (segue) Casi particolari: m = η ; m =η 10 01 Y m = η +σ ; m =η +σ 2 2 2 2 20 02 Y Y μ 10 = 0; μ 01 = 0 337
( ) μ =μ = Cov,Y = r σ σ 11 Y Y Y μ =σ ; μ = σ 2 2 20 02 Y Distribuzione di una Funzione di una Coppia di v.a. Z = g,y, la distribuzione marginale: Data la variabile aleatoria ( ) Z ( ) { } ( ) dove D( z ) è la proiezione sul piano ( ) superficie g ( x,y ) sotto il piano z = costante. {, } {(, ) ( )} F z = P Z z = P g Y z = P Y D z x, y della porzione di 338
z Piano z = cost ( ) z = g x,y x y ( ) D z Esempi di Funzione di una Coppia di v.a. Massimo tra due variabili aleatorie: Z = g(,y) = max(,y) ( ) ( ) tali che ( ) { } {( ) ( )} D z = x,y max x,y z = x z y z 339
y z 0 D(z) z x Si ha pertanto: F ( z) = F ( z,z) Z Y Esempi di Funzione di una Coppia di v.a. (segue) Minimo tra due variabili aleatorie: Z = g(,y) = min(,y) D ( z) = ( x,y ) tali che min( x,y) z = x z y z { } {( ) ( )} 340
Y z D(z) 0 z x Si ha pertanto: F ( z) = F ( +,z) + F ( z, + ) F ( z,z) Z Y Y Y Esempi di Funzione di una Coppia di v.a. (segue) Somma di due variabili aleatorie: Z = + Y Calcolo della funzione di Distribuzione 341
L equazione ( ) l intersezione col piano z x, y: Z z = g x,y = x+ y definisce un piano nello spazio; = costante definisce una retta sul piano y = z x ( oppure x = z y) ( ) = { } = ( ) o ( ) F z P Z z { } = P x, y al semipian D z ( ) D z y y = x z 0 x Somma di variabili aleatorie discrete Siano e Y v.a. discrete con massa di probabilità congiunta: ( ), P = i Y = j = p i, j interi, i j 342
se: si ha: Z = + Y ( = ) = δ ( + ) P Z k p i j k essendo δ ( n) il simbolo di Kronecker: ( n) Pertanto i j i,j + P Z = k = p ( ) i,k i i= 1 n = 0 δ =. 0 n 0 Somma di variabili aleatorie discrete Masse da sommare nel caso di k = 4 e k = -1. 343
j 6 5 4 3 2 1-2 -1 0 1 2 3 4 5 6 7 8-1 -2-3 k=-1 k=4 i Nel caso particolare in cui: Somma di variabili aleatorie discrete 344
p 0 solo per i 0, i N e j 0, j N si ha: i,j ( ) k P Z = k = pi,k i per 0 k N ( ) i= 0 N P Z = k = pi,k i per N < k 2N i= k N P( Z = k) = 0 fuori degli intervalli suddetti. Somma di variabili aleatorie discrete In figura è mostrato il caso N =3, con k = 1 e k = 4. 345
j 6 5 4 3 2 1 0 1 2 3 4 5 6 i k=1 k=4 Se e Y sono indipendenti, le espressioni precedenti si fattorizzano dando luogo alla convoluzione discreta della massa di probabilità di con la massa di probabilità di Y: P( Z = k) = pi pk i Somma di due variabili aleatorie Caso Discreto Lancio di due dadi: 1,2,...,6 e Y 1,2,...,6 i 346
Z = + Y Z 2,3,4,...,11,12 Calcolo della massa di probabilità P( Z = 2) = P( 1,1) P( Z = 3) = P( 1,2) + P( 2,1) P( Z = 4) = P( 1,3) + P( 2,2) + P( 3,1) P( Z = 11) = P( 5,6) + P( 6,5) P( Z = 12) = P( 6,6) Somma di due variabili aleatorie Caso Discreto Masse di probabilità relative al lancio di due dadi 347
Teoria dei Fenomeni Aleatori : 1 dado, Y: 2 dado, Z = + Y AA 2012/13, ( = k ) P Z,, 1 2 3 4 k 1 = P( = i, Y = k i ) k = 2,3,4,...,11,12 i= 1 Esempio A: v.a. indipendenti equidistribuite con Masse di Probabilità: 348
1 P ( i = k ) = per k = 1,2,3 P ( i = k ) = 0 altrove 3 0.8 0.7 0.6 Massa di Probabilità 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 i (i = 1, 2, 3, 4) Esempio A: Massa di Probabilità della Somma: 1 + 2 ottenuta per convoluzione delle masse di probabilità di 1 e di 2. 349
0.35 Somma di 2 variabili aleatorie 0.3 Massa di Probabilità di 1+2 0.25 0.2 0.15 0.1 0.05 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1 + 2 Esempio A: Massa di Probabilità della Somma: 1 2 3 convoluzione delle masse di probabilità di ( 1+ 2) e di 3. + + ottenuta per 350
0.35 Somma di 3 variabili aleatorie 0.3 Massa di Probabilità di 1+2+3 0.25 0.2 0.15 0.1 0.05 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1 + 2 + 3 + + + ottenuta 1+ 2 + 3 e di 4 Esempio A: Massa di Probabilità della Somma: 1 2 3 4. per convoluzione delle masse di probabilità di ( ) 351
0.35 Somma di 4 variabili aleatorie 0.3 Massa di Probabilità di 1+2+3+4 0.25 0.2 0.15 0.1 0.05 [ ] 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1 + 2 + 3 + 4 8 8 σ = + + + = σ = 1.633 3 3 η = E 1+ 2 + 3 + 4 = 8 2 Var [ 1 2 3 4] 352
Esempio A: Densità di Probabilità Gaussiana: + + + confrontare con la massa di probabilità di 1 2 3 4 N η = 8; σ = 8 3 da 0.35 Variabile Gaussiana: eta = 8, sigma = 1.633 0.3 0.25 Densità di Probabilità 0.2 0.15 0.1 0.05 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 Z 353
Densità della Somma di due variabili aleatorie continue La densità di probabilità di Z Y Z = g,y ) = + (o in generale di ( ) nota la densità congiunta f ( ) una variabile aleatoria Y x,y, si può ricavare prendendo W = Y e calcolando prima (mediante il teorema fondamentale per trasformazioni di coppie di variabili aleatorie) z,w e poi fzw ( ) + fz ( z) = fzw ( z,w) dw Si userà qui un procedimento più semplice. 354
Densità della Somma di due variabili aleatorie continue y dz x y z dz Z = + Y z < Z z+ dz se e solo se { } { z < + Y z+ dz} cioè se ( x, y) Δ D( z) dz D(Z) x Z ( ) ( ) ( ) ( ) f z dz = P z< Z z+ dz = = P x,y Δ D z = + = fy ( z y,y) dy dz Z + ( ) ( ) f z f z y, y dy = Y 355
Somma di due variabili aleatorie Indipendenti Se le v.a. e Y sono indipendenti, per Z = + Y dal risultato precedente: si ottiene, per l'indipendenza: Z + ( ) ( ) f z f z y, y dy = Y + ( ) ( ) ( ) f z = f z y f y dy Z Y la quale è la convoluzione delle densità di probabilità di e di Y. 356
Concetto di Convoluzione Date due funzioni f ( x ) ed h( x ) si definisce convoluzione di f ( x ) con h( x ), e si indica con: il seguente integrale: g ( x) = f ( x) h( x) + ( ) ( ) ( ) g x = h x t f t dt 357
Somma di due v.a. Indipendenti Esponenziali Se e Y sono v.a. con densità esponenziale di uguale valore atteso: ( ) =α ( α ) ( ) ( ) =α ( α ) ( ) f x exp x U x f y exp y U y allora per la densità della loro somma Z si ottiene: 2 ( ) ( ) ( ) z 0 fz z = α exp α z t exp α t dt = z exp ( z ) dt α 2 z exp ( α z) U ( z) 2 =α α = 0 Y 358
Somma di due v.a. Indipendenti Esponenziali 1.00 0.40 0.80 0.30 0.60 f() f(z) 0.20 0.40 0.20 0.10 0.00 0.00 0.00 2.00 4.00 6.00 8.00 10.00 Y ( ) = α ( α ) ( ) ( ) =α ( α ) ( ) f x exp x U x f y exp y U y 0.00 2.00 4.00 6.00 8.00 10.00 Z Z 2 ( ) = α ( α ) ( ) f z z exp z U z 359
Somma di due v.a. Indipendenti Uniformi Se e Y sono distribuite uniformemente nell'intervallo ( 0,c ), la densità della loro somma Z è un triangolo. Si ottiene per convoluzione di due rettangoli eguali: y f (w) = f (w) x y f (z) z 2c - z c 1 c 1 c ( 2c - z ) dz zdz S z = x + y 0 z c z x 0 c w c 2c z dz 360
Convoluzione di un triangolo con un rettangolo ft () 0.5 ht () 0.5 0 2 4 t 0 2 t 0.5 0.25 0.125 R x A C B D 0 1 2 3 4 5 6 x triangolare rettangolare convoluzione tra f ( t ) e ht ( ) R( x ) è costituita dai tre rami di parabola: OA, AB,BD 361
Convoluzione di un triangolo con un rettangolo (segue) hxt (-) 0.5 ft () x=1 x=2 x=3 0 2 4 t t t 0 0 x=5 x=6 t 0 0 R( x ) è interpretabile come la densità della somma di tre variabili aleatorie uniformi in ( 0,2 ). t 362
Densità di Probabilità della Somma Z di due v.a. indipendenti e Y Uniformi in (a, b) Z = + Y ( ) = ( ) f x f y Y 1 b a -b -a 0 a b 2a a+b 2b x,y Intervalli di definizione per la v.a. Z Z < 2a Evento impossibile 2a < Z < 2b Z > 2b Evento impossibile 363
Calcolo della densità di Z ( ) ( ) ( ) ( ) ( ) f z = f x f y = f τ f z τ dτ Z Y Y + f f dτ z 2a Z ( z) = z = 2 2 2a ( b a) ( b a) dτ 2b z Z ( z) = 2b = 2 2 z Z ( ) f z = 0 altrove f Z ( b a) ( b a) ( z ) per 2a < z a + b per a+ b< z < 2b b 1 a 0 a b 2a a+b 2b z 364
Funzioni di una Coppia di Variabili Aleatorie Date due v.a. e Y e due funzioni g ( x,y ) e h( x,y ) le variabili aleatorie così definite: Z = g(,y) e W = h(,y) sono una coppia la cui distribuzione congiunta FZW ( z,w ) può essere espressa in funzione di FY ( x,y ) 365
Il Teorema Fondamentale per Coppie di v.a. Considerata la trasformazione: la densità di ( Z,W ) è data da: ( ) Z = g,y W = h,y ( ) ( ) ( ) ( ) ( ) ( ) ( ) f x,y f x,y f x,y fzw ( z,w )... J x,y J x,y J x,y Y 1 1 Y 2 2 Y N N = + + + (a) 1 1 2 2 N N con: J( x,y ) determinante dello Jacobiano della trasformazione; ( x, y ) per i= 1,2,...,N sono le coppie che soddisfano: i i ( ) g x,y i i = z e h( x,y ) i i = w (b) 366
Il Teorema Fondamentale per Coppie di v.a. (segue) Si riporta la definizione dello Jacobiano: ( ) J x, y ( ) g( x,y) g x,y x = h x,y y ( ) h( x,y) x y 367
Il Teorema Fondamentale per Coppie di v.a. (segue) Dimostrazione: g (x,y) = z y dz g (x,y) = z +dz w A dw y i B i h (x, y )=w 0 z 0 Trasformazione dell'elemento di superficie del piano z,w al piano x,y. P{ ( z,w) A} P{ ( x,y) B} i = ( < + < + ) = ( ) = i 1,2,...,N P z Z z dz, w W w dw f z,w dzdw ZW x i x 368
Il Teorema Fondamentale per Coppie di v.a. (segue) L area di B i è pari a: dato che: Area ( A) si ha: area ( A) Area ( Bi ) = J( x i,yi) = dzdw, e che ( ) { } = ( ) P z,w A f z,w dzdw fy ( x i,yi ) P (,Y ) Bi = dzdw (c) J( x i,yi) Essendo l'evento { z < Z z + dz,w < W w + dw} unione degli eventi disgiunti ( ), dalla relazione (c) segue la (a): { },Y B i ( ) ( ) ( ) ( ) ZW ( ) ( ) f x,y f x,y f x,y fzw ( z,w ) = + +... + J x,y J x,y J x,y Y 1 1 Y 2 2 Y N N 1 1 2 2 N N 369
Uso della variabile ausiliaria La densità fz ( z ) di una sola funzione Z g(,y) = di due v.a. e Y può essere determinata ricorrendo al Teorema fondamentale ed W = h,y, come segue: introducendo una variabile ausiliaria ( ) 1) si determina f ( ) 2) si determina ( ) ( ) ZW Z z,w (Teorema Fondamentale) + f z = f z,w dw (si satura W) ZW La variabile aleatoria W è scelta opportunamente, di solito si sceglie: W = oppure W = Y 370
Trasformazioni Lineari Data la trasformazione con a,b,c,d costanti: Z = a + b W = cy + d Si ha un unica soluzione per ogni valore di ( z,w ): z b w d x 1 = y1 = a c Lo Jacobiano vale: J( x,y) Applicando il Teorema Fondamentale: z b w d f Y, a c fzw ( z, w) = ac = ac 371
Somma di due variabili aleatorie Date le v.a. e Y si consideri la variabile aleatoria Z = + Y Per determinare la densità di Z, si introduce la variabile ausiliaria in questo caso: ( ) W = Y 1 1 J x,y = = 1 0 1 Dal Teorema Fondamentale risulta, con ZW saturando rispetto alla W: Z x 1 ( ) = ( ) f z,w f z w,w Y + ( ) ( ) f z f z w,w dw = Y = z w e y 1 = w 372
Densità del Prodotto di Due Variabili Aleatorie Z usando la variabile ausiliaria: pertanto z = xy w = y saturando la v.a. W = Y W = Y y x J x, y = = y 0 1 con ( ) 1 z fzw ( z,w) = f Y,w w w + 1 z fz ( z) = f Y,w dw w w 373
Densità del Rapporto di Due Variabili Aleatorie Z = Y usando la variabile ausiliaria: W = Y x 1 x z = 2 1 y con J( x,y) = y y = y w = y 0 1 pertanto saturando la v.a. W ZW ( ) = ( ) f z,w w f zw,w Y + f Z ( z) = w fy ( zw,w) dw 374