INTRODUZIONE ALLE COPPIE DI VARIABILI ALEATORIE

Documenti analoghi
INTRODUZIONE ALLE COPPIE DI VARIABILI ALEATORIE

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Sequenze (Sistemi) di Variabili Aleatorie Se consideriamo un numero di variabili aleatorie, generalmente dipendenti si parla equivalentemente di:

Teoria dei Fenomeni Aleatori AA 2012/13. Il Concetto di Distribuzione Condizionata

Lezione 2: Descrizione dei Da0. h2p://

con distribuzione gaussiana standard e si ponga

Corso di Fondamenti di Telecomunicazioni

Calcolo delle probabilità (3/7/2001) (Ing. Elettronica, Informatica, Telecomunicazioni - Latina)

I appello di calcolo delle probabilità e statistica

Funzioni di 2 variabili

Costruzione di macchine. Modulo di: Progettazione probabilistica e affidabilità. Marco Beghini. Lezione 6: Combinazioni di variabili aleatorie

CORSO DI STATISTICA (parte 2) - ESERCITAZIONE 3

Nel modello omoschedastico la varianza dell errore non dipende da i ed è quindi pari a σ 0.

Distribuzione normale multidimensionale

Teoria dei segnali terza edizione

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

{ } { } { } {( ) ( ) ( ) { } { } ( ) ( { } ( ) Valor medio statistico (o valore atteso): Se g(x) è una funzione di V.A., si ha:

Corsi di Laurea in Ingegneria Civile e Edile Analisi Matematica II e Probabilita Lezioni A.A. 2000/01, prof. G. Stefani 9 Ottobre Gennaio 2001

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

Materiale didattico per il corso di Statistica I Quinta esercitazione SOLUZIONI

Matematica e Statistica per Scienze Ambientali

Introduzione al modello Uniforme

Statistica Corso di laurea in Biotecnologie I esonero - 19 aprile 2010

Coppie di variabili aleatorie

Esercizi Svolti. 2. Costruire la distribuzione delle frequenze cumulate del tempo di attesa

IL CRITERIO DELLA MASSIMA VEROSIMIGLIANZA

Variabili aleatorie continue

1) Entropia di variabili aleatorie continue. 2) Esempi di variabili aleatorie continue. 3) Canali di comunicazione continui. 4) Canale Gaussiano

LA DISTRIBUZIONE NORMALE o DI GAUSS

Richiami di probabilità e statistica

Esercizi 6 - Variabili aleatorie vettoriali, distribuzioni congiunte

Calcolo delle Probabilità e Statistica Matematica previsioni 2003/04

I VETTORI GAUSSIANI E. DI NARDO

Ulteriori Conoscenze di Informatica e Statistica

Esame di Teoria dei Segnali A Ing. Informatica, Elettronica e Telecomunicazioni. 12 luglio 2004

Statistica. Esercitazione 4 17 febbraio 2011 Medie condizionate. Covarianza e correlazione

PROBABILITÀ SCHEDA N. 5 SOMMA E DIFFERENZA DI DUE VARIABILI ALEATORIE DISCRETE

Esercizi di Calcolo delle Probabilità

Esame di AM2 & EAP (270/04) a.a. 2009/10

Variabili aleatorie discrete. Giovanni M. Marchetti Statistica Capitolo 5 Corso di Laurea in Economia

SCHEDA DIDATTICA N 7

Distribuzione Gaussiana o Normale. 1 Distribuzione Normale come limite della Binomiale

Significato probabilistico di σ: su 100 misure, 68.3 hanno probabilità di cadere nell intervallo x σ, x +σ, 95.5 nell intervallo

Analisi Matematica 2. Prove Parziali A.A. 2012/2017

CP110 Probabilità: Esonero 2. Testo e soluzione

Corso di Laurea in Scienze dell Organizzazione Facoltà di Sociologia, Università degli Studi di Milano-Bicocca a.a. 2009/2010.

Regressione lineare. Lucio Demeio Dipartimento di Ingegneria Industriale e Scienze Matematiche Università Politecnica delle Marche.

CAPITOLO 9. Vettori Aleatori

Esercizi su leggi Gaussiane

Ulteriori Conoscenze di Informatica e Statistica

CALCOLO DELLE PROBABILITÀ - 9 giugno 1998 Scrivere le risposte negli appositi spazi Motivare dettagliatamente le risposte su fogli allegati

Calcolo delle Probabilità 2

Elaborazione statistica di dati

LE VARIABILI CASUALI A 1, A 2.,..., A k., p 2.,..., p k. generati da una specifica prova sono necessari ed incompatibili:

Teoria dei Fenomeni Aleatori AA 2012/13. Il Modello Lognormale La funzione di densità di probabilità lognormale è data:

Distribuzioni di due variabili aleatorie

Distribuzioni di Probabilità

Esercitazione N. 1 (11 ottobre 2016)

Probabilità e Statistica

PROVA SCRITTA DI STATISTICA. CLEA/CLEFIN/CLEMIT (cod. 5047/4038/371/377) 3 Novembre 2004 MOD. A

Richiami di statistica e loro applicazione al trattamento di osservazioni topografiche e geodetiche

Calcolo delle Probabilità e Statistica, Ingegneria Civile e A&T e Informatica I prova finale a.a. 2016/17

Analisi della disponibilità d acqua. Valutazione dell impianto attraverso il calcolo di un indice economico (criterio)

Variabili aleatorie. Variabili aleatorie e variabili statistiche

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Teoria della probabilità A.A

Università di Siena. Corso di STATISTICA. Parte seconda: Teoria della stima. Andrea Garulli, Antonello Giannitrapani, Simone Paoletti

Variabili casuali multidimensionali

UNIVERSITA` di ROMA TOR VERGATA

STATISTICA A K (60 ore)

Esercitazioni di Statistica

Dispensa di Statistica

Computazione per l interazione naturale: fondamenti probabilistici (2)

Distribuzioni di probabilità nel continuo

Foglio di esercizi 4-12 Aprile 2019 Probabilità e statistica Ingegneria Meccanica Alessandro Ciallella

Calcolo delle Probabilità e Statistica Matematica Fisciano, 10/1/2012

Corso Integrato di Statistica Informatica e Analisi dei Dati Sperimentali. Esercitazione E

Laboratorio di Chimica Fisica. Analisi Statistica

Università degli Studi Roma Tre Anno Accademico 2016/2017 ST410 Statistica 1

Matematica e Statistica per Scienze Ambientali

Corso in Statistica Medica

Dipartimento di Sociologia e Ricerca Sociale. Corso di Laurea in Sociologia. Insegnamento di Statistica (a.a ) dott.ssa Gaia Bertarelli

Capitolo 5. Variabili casuali discrete

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

Calcolo delle Probabilità: esercitazione 11

Università degli Studi Roma Tre Anno Accademico 2014/2015 ST410 Statistica 1

Presentazione dell edizione italiana

Lezione 6 Richiami di Geometria Analitica

Distribuzione Normale. Dott. Claudio Verona

Teoria dei Segnali Trasmissione binaria casuale; somma di processi stocastici

Disuguaglianza di Cramér-Rao

Distribuzione Normale. Dott. Claudio Verona

Teoria della probabilità Variabili casuali

Nozioni preliminari... 1 Notazioni... 1 Alcunirichiamidianalisimatematica... 3 Sommeinfinite... 3

Variabili aleatorie multiple. X = (X 1,..., X n ) vettore aleatorio

Vettore (o matrice) casuale (o aleatorio): vettore (o matrice) i cui elementi sono variabili aleatorie

RELAZIONI e CORRISPONDENZE

Statistica. Alfonso Iodice D Enza

CP110 Probabilità: Esonero 2. Testo e soluzione

Eventi numerici e variabili aleatorie

Transcript:

INTRODUZIONE ALLE COPPIE DI VARIABILI ALEATORIE Esperimento: lancio di due dadi Frequenze Assolute osservate delle coppie di valori su 100000 Prove Dad1/Dado 2 1 2 3 4 5 6 1 2813 2760 2725 2814 2859 2829 16800 2 2786 2811 2806 2812 2760 2769 16744 3 2693 2700 2722 2737 2838 2768 16458 4 2767 2709 2699 2717 2801 2801 16494 5 2797 2706 2796 2807 2846 2755 16707 6 2886 2795 2657 2776 2858 2825 16797 16742 16481 16405 16663 16962 16747 100000 Frequenze Assolute teoriche dadi non truccati e indipendenti (100000 Prove) Dado1/Dado2 1 2 3 4 5 6 1 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 2 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 3 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 4 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 5 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 6 2777.7 2777.7 2777.7 2777.7 2777.7 2777.7 16666.6 16666.6 16666.6 16666.6 16666.6 16666.6 16666.6 100000 283

Frequenze Assolute relative all esperimento del lancio di una coppia di dadi ripetuta 100000 2777.7 Istogramma bidimensionale 284

INTRODUZIONE ALLE COPPIE DI VARIABILI ALEATORIE Esperimento: lancio di una freccia sul bersaglio (10000 prove) Y 285

Frequenze Assolute delle coppie di valori (,Y) Y Istogramma bidimensionale 286

Istogramma dei valori di (10000 prove) Supponendo che l errore sulla coordinata è indipendente da quello sulla coordinata Y e che è causato dalla somma di numerosi fattori indipendenti, è una v.a. Gaussiana. 287

Istogramma dei valori di Y (10000 prove) Supponendo che l errore sulla coordinata Y è indipendente da quello sulla coordinata e che Y è causato dalla somma di numerosi fattori indipendenti, Y è una v.a. Gaussiana. 288

, COPPIE DI VARIABILI ALEATORIE Distribuzioni di Probabilità Congiunte e Marginali Date due variabili aleatorie ed Y Proprietà statistiche individuali: Funzioni di Distribuzioni (o di Densità) marginali F ( x ), f ( x ) e F ( y ), f ( y ) Proprietà statistiche congiunte, cioè di (,Y ) come coppia di variabili aleatorie: Funzione di Distribuzione Congiunta Y Y FY ( x, y ) 289

Funzione di Distribuzione (cumulativa) Congiunta Dato l evento { x,y y} generato dalla coppia di variabili (,Y ) cioè l'appartenenza di un punto P ( x,y) D a 0 P D 0 y x la Funzione di Distribuzione congiunta è: ( ) = ( ) = { } FY x,y P x,y D0 P x, Y y 290

Densità di Probabilità Congiunta La densità di probabilità congiunta f Y ( ) { < + < + } = ( ) x,y è tale che: P x x dx, y Y y dy f x,y dxdy Y f Y ( x,y ) x y y + dy y x + dx x 291

Densità di Probabilità Congiunta (segue) Per una generica regione D del piano ( x, y ): {( ) } ( ) P, Y D = fy x,y dxdy Applicando l espressione precedente alla regione D 0, si ha: (, ) (, ) (, ) F x y = f α β dαdβ= f α β dαdβ Y Y Y D 0 da cui si ricava il legame tra densità e distribuzione congiunte: f Y ( x,y) = 2 D F Y y x y x ( x,y) P D 0 y x 292

La Distribuzione Marginale o La distribuzione marginale della v.a. è: ( ) = ( + ) F x F x, o Infatti la probabilità dell evento { x} Y eguaglia la massa relativa alla regione a sinistra della retta verticale passante per x, cioè la probabilità dell evento: { x,y + } y x x o Analogamente per Y : F ( y) = F ( +,y) Y Y 293

La Densità Marginale Considerando l evento { x x+δx,y + } che definisce sul piano una striscia Δ D( x) di sviluppo verticale e larghezza Δ x, che poi si farà tendere a zero (dx), si ha: y D () x dx Δ x x x { ( )} (, ) ( ) P Δ D x = f x y dydx f x Δx ΔD( x) Y 294

L integrale (, ) Δ x a zero: La Densità Marginale (segue) f Y x y dydx si può scrivere facendo tendere ΔD( x) y D () x + f ( x) dx = f Y ( x, y) dy dx x dx x Quindi la densità marginale è: + f ( x) = fy ( x,y) dy o Si dice che la densità marginale di si ottiene saturando Y. o Analogamente per la v.a. Y : + ( ) ( ) fy y = fy x,y dx 295

Massa di Probabilità Congiunta Se e Y sono variabili aleatorie discrete, si definisce la massa di x,y : probabilità congiunta sui diversi punti di coordinate ( ) { } P = x,y = y = p i k ik Massa di Probabilità Marginale { } { } P = x = p ; P Y = y = q i i k k Si ottengono per saturazione dell altra variabile aleatoria: pi = pik q k k = i p ik i k 296

Esempio: densità di probabilità gaussiana bidimensionale Y 1 x y f ( x, y) = exp + 2 2 Y 2 2 2πσ σy 2σ 2σY, σ = σy = 2 297

f Esempio: densità di probabilità gaussiana bidimensionale o In generale Y ( x,y) = ( x η ) ( x η )( y η ) ( y η ) 1 1 = exp 2ρ + 2 1 con: 2 2 Y Y 2 2 2 2 πσ σy ρ 21 ( ρ ) σ σσy σy ( x η ) 2 1 f ( x) = exp 2 2π σ 2σ, ( ) ( y η ) 2 1 Y fy y = exp 2 2π σ 2σ Y Y o Densità di probabilità marginali di e Y. o ρ definisce il coefficiente di correlazione tra la variabile aleatoria e la variabile aleatoria Y. 298

Curve di livello Funzione densità di probabilità gaussiana bidimensionale nel caso di σ = 0.3, σ Y = 0.15, ρ Y = 0 299

Curve di livello Funzione densità di probabilità gaussiana bidimensionale nel caso di σ = 0.3, σ Y = 0.3, ρ Y = 0 300

Curve di livello Funzione densità di probabilità gaussiana bidimensionale nel caso di σ = 0.3, σ Y = 0.3, ρ Y = 0.7 301

Indipendenza statistica di due variabili aleatorie La proprietà di indipendenza di due variabili aleatorie si basa su quella di indipendenza tra due eventi A e B: P( A B) = P( A) P( B) Definizione: Due variabili e Y sono statisticamente indipendenti, se sono indipendenti gli eventi { Y y} e { x} cioè: P{ x, Y y} = P{ x } P{ Y y } x, y F x,y = F x F y ( ) ( ) ( ) Y Y da f ( x,y) ( ) ( ) df x dfy y fy ( x,y) = f x fy y dx dy = Y = 2 F ( ) ( ) Y x y ( x,y), 302

Indipendenza statistica di due variabili aleatorie (segue) Nel caso di variabili aleatorie discrete e Y, definendo gli eventi: { = x i } e { Y = Y k } con le masse di probabilità marginali i = { = } e q = P{ Y = Y } p P x allora e Y sono indipendenti se: i pik = pi qk k k 303

Esempio di Variabili Indipendenti Esperimento: doppio lancio di un dado non truccato con sei facce. Risultati: 36 del tipo fi f j, dove i ( j ) indica la faccia del dado. Variabili aleatorie: e Y associate al numero che compare sulla faccia superiore rispettivamente al primo ed al secondo lancio: ( ) f f = i con i 1,2,...,6 i j = ( ) Y f f = j con j = 1,2,...,6 1 1 P( = i) = PY ( = j) = 6 6 1 P{ = i, Y = j} = = P{ = i} P{ Y = j} 36 Nello spazio S dei due lanci indipendenti e Y sono indipendenti. i j 304

Teoria dei Fenomeni Aleatori Esempio di Variabili Indipendenti AA 2012/13 e Y sonoo indipendenti, uniforme in (0, a) e Y uniforme in (0, b) Densità marginali Densità congiunta 1 ab f Y ( x,y) b y x a 305

Funzione di una Coppia di variabili aleatorie o Data la funzione z g( x,y) costruisce la v.a. Z: o La densità di probabilità ( ) Z. o Calcolo del valore atteso di Z: = e data la coppia di vv.aa. ( ) Z = ( ) g,y,y si f z risulta assegnata nota f ( x,y) [ ] ( ) E Z = z fz z dz o NB: Non occorre ricavare la fz ( z ): + + + E Z E g,y g x,y f x,y dxdy { } ( ) { } ( ) ( ) = =. Y Y 306

Covarianza e Correlazione Se si prende z = g( x,y) = x y, il prodotto di due variabili aleatorie e Y forma una terza variabile aleatoria Z Z = Y Definizione: o Si definisce CORRELAZIONE tra le v.a. ed Y il valore atteso del loro prodotto Cor,Y = E Y ( ) [ ] Definizione: o Date due variabili aleatorie ed Y la loro COVARIANZA è: ( ) ( )( ) μ = Cov,Y = E η Y η Y Y dove η ed η Y sono i valori attesi di ed Y rispettivamente. 307

Relazione tra Covarianza e Correlazione Cov(,Y ) = Cor (,Y ) ηη Y Verifica: ( ) ( )( ) Cov,Y = E η Y η = Y [ ] [ ] [ ] = E Y η E Y η E +η η = Y Y = E[ Y] ηη Y 308

Coefficiente di Correlazione Definizione: o Si definisce coefficiente di correlazione di ed Y la covarianza normalizzata : Y r μ Y = σ σ dove σ ed σ Y sono le deviazioni standard di ed Y. o A volte il coefficiente di correlazione si indica con: o semplicemente con ρ. ρ Y Y 309

Variabili Aleatorie Centrate e Normalizzate Date le variabili aleatorie ed Y si definiscono: η Y ηy 0 =, Y0 = σ σ 0 e Y 0 sono dette v.a. standardizzate e hanno per definizione: Y [ ] [ ] E = E Y = 0 0 0 σ =σ = 2 2 Y 1 0 0 Ne segue che: η Y η Cov(,Y ) E[ Y ] E Y 0 0 = 0 0 = = σ σy ( ) 1 Cov Y = E ( η )( Y η ) = = r σ σ Y Y Y σσy 310

Disuguaglianza di Schwartz Data la coppia di vv.aa. e Y, vale la seguente disuguaglianza: [ ] { } 2 2 2 E Y E E Y Verifica: se c è una costante, per la variabile aleatoria differenza: Y c 2 deve essere: ( ) ( ) E Y c = Q c 0 ( ) 2 [ ] 2 2 2 La forma quadratica Q( c ) risulta non negativa se: quindi [ ] Q c = E Y 2c E Y + c E =αc 2β c+γ 0 { } 2 2 2 2 β E Y E E Y 0 γα [ ] 0 { } 2 2 2 E Y E E Y 311

Disuguaglianza di Schwartz Graficamente se la parabola non interseca l asse delle ascisse (cioè non ci sono radici reali dell equazione di 2 grado nell incognita c): ( ) Q c ( ) Q c Sì No 0 c 0 c Il che prova l ineguaglianza di Schwartz: [ ] A volte si trova la notazione: [ ] 2 2 2 E Y E E Y { } 2 2 2 E Y E E Y 312

Proprietà del Coefficiente di Correlazione o Il coefficiente di correlazione tra due v.a. e Y è compreso in modulo tra -1 e +1: 1 ry + 1 Dimostrazione: (si fa uso della disuguaglianza di Schwartz) Se η = E[ ] ed η = EY [ ] Y c, indicando con = η e Y c = Y η Y ed applicando la disuguaglianza di Schwartz a [ Y ] [ ] 2 2 E c c ry = 1 2 2 E c E Y c 2 2 2 E Y c c E c E Y c c e Y c, si ha: [ ] E Y c c ry = 1 2 2 E c E Y c 313

Proprietà del Coefficiente di Correlazione (segue) Il coefficiente di correlazione r Y = 1 se Y è funzione lineare di : Y = α +β con α, β costanti Verifica: Infatti sostituendo nella definizione e ricordando che Y [ ] η = E α +β =αη +β ( ) ( ) ( ) 2 2 2 2 σ Y = E α +β αη +β = E α η = 2 ( ) 2 2 2 =α E η =α σ E{ [ η ][ ]} {[ ] ( ) } Y η E η Y α +β αη +β ry = = = σ σ α σ σ Y E{ η 2 } 1 2 2 σ [ η ] α[ η ] { } [ ] E = = = α σ 314

Esempio di Variabili Correlate o Data la coppia di v.a. ( 1, 2 ) indipendenti con Masse marginali: P( 1 = i) = 1/6 P( 2 = j) = 1/6 i, j = 1, 2,,6 Massa congiunta: P( 1 = i, 2 = j) = P( 1 = i)p( 2 = j) = 1/36 o Se definiamo la v.a. somma: S = 1 + 2 o Le v.a. 1 ed S sono correlate. 315

Infatti essendo Esempio di Variabili Correlate 2 2 2 η = η 1 = η 2 e σ = σ 1 = σ 2 η = η + η = 2η 1 2 S 1 2 * 2 2 2 2 S = + =2 * per l'indipendenza tra 1 e 2 σ σ σ σ ( ) [ ] ( ) Cor 1,S = E 1S = E 1 1 + 2 = * [ ] 1 1 1 1 = E + E = σ + η + η η = σ + 2η 2 2 2 2 2 1 1 2 ( ) Cor (,S ) 1 1 1 ( ) 2 2 Cov 1,S 1 η ηs σ + 2η η2η 1 r = = = = 0.707 σ σ σ σ 2σ σ 2 S S 316

Dominio della coppia ( 1, S) Somma S Su ogni ( ) la massa di probabilità vale: P( i,s j) P( i,j) 12 Massa Marginale ( ) ( ) 1 P 1 = i = P i, j = i = 1,2,...,6 6 j= 2 Dado 1 Massa Marginale P( S j) P( i,j) 1 = = = = 6 j 1 j = 2,...,7 36 = = = 13 j j = 8,...,12 i= 1 36 1 36 317

Simulazione su 100000 Prove di ( 1, S) 318

Simulazione su 100000 Prove di ( 1, S) Massa di Probabilità congiunta di ( 1, S) i/j 2 3 4 5 6 7 8 9 10 11 12 1 0,0282 0,0275 0,0277 0,0279 0,0286 0,0278 0,0000 0,0000 0,0000 0,0000 0,0000 0,1677 1/6 2 0,0000 0,0279 0,0284 0,0282 0,0280 0,0274 0,0279 0,0000 0,0000 0,0000 0,0000 0,1678 1/6 3 0,0000 0,0000 0,0265 0,0272 0,0272 0,0274 0,0282 0,0276 0,0000 0,0000 0,0000 0,1641 1/6 4 0,0000 0,0000 0,0000 0,0274 0,0273 0,0273 0,0270 0,0287 0,0278 0,0000 0,0000 0,1654 1/6 5 0,0000 0,0000 0,0000 0,0000 0,0279 0,0272 0,0282 0,0281 0,0284 0,0272 0,0000 0,1668 1/6 6 0,0000 0,0000 0,0000 0,0000 0,0000 0,0289 0,0281 0,0267 0,0275 0,0288 0,0282 0,1682 1/6 0,0282 0,0554 0,0825 0,1107 0,1391 0,1660 0,1393 0,1110 0,0836 0,0560 0,0282 1/36 1/18 1/12 1/9 5/36 1/6 5/36 1/9 1/12 1/18 1/36 319

Definizione: Variabili Aleatorie Scorrelate o Le variabili aleatorie e Y sono scorrelate (o incorrelate) se la loro correlazione eguaglia il prodotto dei loro valori attesi: E[ Y ] = E[ ] E[ Y ] o Dalla relazione tra covarianza e correlazione ( ) ( ) μ = Cov,Y = Cor,Y η η per variabili scorrelate si ha: Y Y μ Y = 0 ry = 0 320

Varianza della Differenza di v.a. Correlate Data la v.a.: Y 2 ( ) [ ] { } 2 2 σ Y = E Y E Y = [ ] [ ] [ ] [ ] [ ] ( ) 2 2 2 2 = E + E Y 2E Y E + E Y 2E E Y = { 2 2[ ]} 2 2 [ ] { } [ ] [ ] [ ] { } = E E + E Y E Y 2 E Y E E Y = ( ) 2 2 =σ +σ = Y 2Cov,Y =σ +σ 2r σ σ 2 2 Y Y Y In particolare se: ry = 1 σ = 2 Y 0 σ =σ 2 2 Y 321

Varianza della Somma di v.a. Correlate Data la v.a.: + Y procedendo come fatto per la differenza si ottiene: σ =σ +σ + 2r σ σ Se e Y sono scorrelate ( r 0) 2 2 2 + Y Y Y Y Y = : σ =σ +σ 2 2 2 ± Y Y o Se le variabili sono scorrelate, a varianza della somma (differenza) è uguale alla somma delle varianze. o Le fluttuazioni si sommano quadraticamente se le loro cause sono indipendenti. 322

Variabili Aleatorie Ortogonali Definizione: o Due variabili aleatorie e Y sono ortogonali se E[ Y ] = 0 Segue che se e Y sono ortogonali: ( ) 2 2 2 + = + E Y E E Y 323

Indipendenza e Scorrelazione o Due variabili aleatorie indipendenti sono anche scorrelate. Verifica: ( )( ) μ Y = E η Y η Y = + + ( )( ) ( ) = x η y η f x,y dxdy = Y Y per l indipendenza: f ( x,y) = f ( x) f ( y) + + = x η f x dx y η f y dy = ( ) ( ) ( ) ( ) Y Y [ ] [ ] = E η E Y η = 0 Y Y Y Indipendenti Scorrelate 324

Andamenti empirici (scatter plots) di due variabili aleatorie y y r = 1 0 x x 325

Andamenti empirici (scatter plots) di due variabili aleatorie y y r > 0 0 x x 326

Andamenti empirici (scatter plots) di due variabili aleatorie y y r < 0 0 x x 327

Andamenti empirici (scatter plots) di due variabili aleatorie y y r < 0 0 x x 328

Il Concetto di Regressione o La regressione si può intendere come un problema di stima di una v.a. Y nota la v.a.. Ovvero determinare una funzione: y = Φ ( x) tale che l'errore di stima ε definito come: ε = Y Φ ( ) sia minimo secondo qualche criterio statistico. 329

Regressione Lineare Se si assume una funzione lineare per Φ ( x) : si parla di regressione lineare. Φ ( x) = a+ bx o Nel caso della regressione lineare di due variabili e Y, l errore diviene: ε = Y ( a+ b) o Si vuole scegliere i coefficienti a e b in modo da minimizzare il valore quadratico medio di ε: + + 2 2 2 e= E E Y ( a b) ε = + = y ( a+ bx) fy ( x,y) dxdy 330

y Regressione Lineare (segue) x,y ( ) i i ε y = a + bx η Y 0 η Errore di stima della regressione lineare x 331

Regressione Lineare (segue) Calcolo dei coefficienti a e b tali che: { 2 } ( ) = ( + ) min e min E Y a b e = 0 a e = 0 b e = 2E Y ( a + b ) = 0 E[ Y ] = a + be[ ] a e 2 = 2E Y ( a+ b) = 0 E[ Y] ae[ ] be = 0 b 332

Regressione Lineare (segue) Dalla prima equazione, cioè E[ Y] = a+ be[ ] si ottiene: η = a+ bη Sottraendo quest'ultima espressione all equazione Y = a+ b si ha: Y η = b η Y Y ( ) o La retta di regressione passa per il punto (, ) centroide η η detto Y 333

e Dalla seconda equazione = 0 b si ottiene: [ ] ( 2 2 ) E Y aη b σ +η = 0 Regressione Lineare (segue) E Y ae be = 0 : [ ] [ ] 2 E = σ +η 2 2 2 2 2 [ ] η η σ = 2 [ ] η ( + η ) σ = η Y = a+ bη 2 [ ] ηηy σ = Cov(,Y ) = E[ Y ] ηη Y 2 ( ) σ = E Y a b b 0 E Y a b b 0 E Y b 0 Cov,Y b 0 r b 0 2 Y Y σ σ σ = Cov(,Y ) = ryσ σ Y 334

b= r Y σ σ Y da cui essendo a= ηy bη a σ = η r η Y Y Y σ Regressione Lineare (segue) o L'approssimazione lineare che minimizza l errore quadratico medio (LSM, Least Mean Square) di Y su è la retta di regressione : σy y η Y = ry ( x η ) σ σy che passa per il punto ( η, η Y) e ha pendenza ry σ. 335

y η Y tg Y ( α ) = r Y σ σ α η x Momenti Congiunti di una Coppia di v.a. o Data una coppia di variabili aleatorie (,Y ) i momenti congiunti sono: + + k r k r mkr = E Y = x y fy ( x,y) dxdy o Momenti congiunti centrali: 336

+ + k r k r ( ) ( ) ( ) ( ) ( ) μ = E η Y η = x η y η f x,y dxdy kr Y Y Y Momenti Congiunti di una Coppia di v.a. (segue) Casi particolari: m = η ; m =η 10 01 Y m = η +σ ; m =η +σ 2 2 2 2 20 02 Y Y μ 10 = 0; μ 01 = 0 337

( ) μ =μ = Cov,Y = r σ σ 11 Y Y Y μ =σ ; μ = σ 2 2 20 02 Y Distribuzione di una Funzione di una Coppia di v.a. Z = g,y, la distribuzione marginale: Data la variabile aleatoria ( ) Z ( ) { } ( ) dove D( z ) è la proiezione sul piano ( ) superficie g ( x,y ) sotto il piano z = costante. {, } {(, ) ( )} F z = P Z z = P g Y z = P Y D z x, y della porzione di 338

z Piano z = cost ( ) z = g x,y x y ( ) D z Esempi di Funzione di una Coppia di v.a. Massimo tra due variabili aleatorie: Z = g(,y) = max(,y) ( ) ( ) tali che ( ) { } {( ) ( )} D z = x,y max x,y z = x z y z 339

y z 0 D(z) z x Si ha pertanto: F ( z) = F ( z,z) Z Y Esempi di Funzione di una Coppia di v.a. (segue) Minimo tra due variabili aleatorie: Z = g(,y) = min(,y) D ( z) = ( x,y ) tali che min( x,y) z = x z y z { } {( ) ( )} 340

Y z D(z) 0 z x Si ha pertanto: F ( z) = F ( +,z) + F ( z, + ) F ( z,z) Z Y Y Y Esempi di Funzione di una Coppia di v.a. (segue) Somma di due variabili aleatorie: Z = + Y Calcolo della funzione di Distribuzione 341

L equazione ( ) l intersezione col piano z x, y: Z z = g x,y = x+ y definisce un piano nello spazio; = costante definisce una retta sul piano y = z x ( oppure x = z y) ( ) = { } = ( ) o ( ) F z P Z z { } = P x, y al semipian D z ( ) D z y y = x z 0 x Somma di variabili aleatorie discrete Siano e Y v.a. discrete con massa di probabilità congiunta: ( ), P = i Y = j = p i, j interi, i j 342

se: si ha: Z = + Y ( = ) = δ ( + ) P Z k p i j k essendo δ ( n) il simbolo di Kronecker: ( n) Pertanto i j i,j + P Z = k = p ( ) i,k i i= 1 n = 0 δ =. 0 n 0 Somma di variabili aleatorie discrete Masse da sommare nel caso di k = 4 e k = -1. 343

j 6 5 4 3 2 1-2 -1 0 1 2 3 4 5 6 7 8-1 -2-3 k=-1 k=4 i Nel caso particolare in cui: Somma di variabili aleatorie discrete 344

p 0 solo per i 0, i N e j 0, j N si ha: i,j ( ) k P Z = k = pi,k i per 0 k N ( ) i= 0 N P Z = k = pi,k i per N < k 2N i= k N P( Z = k) = 0 fuori degli intervalli suddetti. Somma di variabili aleatorie discrete In figura è mostrato il caso N =3, con k = 1 e k = 4. 345

j 6 5 4 3 2 1 0 1 2 3 4 5 6 i k=1 k=4 Se e Y sono indipendenti, le espressioni precedenti si fattorizzano dando luogo alla convoluzione discreta della massa di probabilità di con la massa di probabilità di Y: P( Z = k) = pi pk i Somma di due variabili aleatorie Caso Discreto Lancio di due dadi: 1,2,...,6 e Y 1,2,...,6 i 346

Z = + Y Z 2,3,4,...,11,12 Calcolo della massa di probabilità P( Z = 2) = P( 1,1) P( Z = 3) = P( 1,2) + P( 2,1) P( Z = 4) = P( 1,3) + P( 2,2) + P( 3,1) P( Z = 11) = P( 5,6) + P( 6,5) P( Z = 12) = P( 6,6) Somma di due variabili aleatorie Caso Discreto Masse di probabilità relative al lancio di due dadi 347

Teoria dei Fenomeni Aleatori : 1 dado, Y: 2 dado, Z = + Y AA 2012/13, ( = k ) P Z,, 1 2 3 4 k 1 = P( = i, Y = k i ) k = 2,3,4,...,11,12 i= 1 Esempio A: v.a. indipendenti equidistribuite con Masse di Probabilità: 348

1 P ( i = k ) = per k = 1,2,3 P ( i = k ) = 0 altrove 3 0.8 0.7 0.6 Massa di Probabilità 0.5 0.4 0.3 0.2 0.1 0 0 1 2 3 4 5 6 i (i = 1, 2, 3, 4) Esempio A: Massa di Probabilità della Somma: 1 + 2 ottenuta per convoluzione delle masse di probabilità di 1 e di 2. 349

0.35 Somma di 2 variabili aleatorie 0.3 Massa di Probabilità di 1+2 0.25 0.2 0.15 0.1 0.05 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1 + 2 Esempio A: Massa di Probabilità della Somma: 1 2 3 convoluzione delle masse di probabilità di ( 1+ 2) e di 3. + + ottenuta per 350

0.35 Somma di 3 variabili aleatorie 0.3 Massa di Probabilità di 1+2+3 0.25 0.2 0.15 0.1 0.05 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1 + 2 + 3 + + + ottenuta 1+ 2 + 3 e di 4 Esempio A: Massa di Probabilità della Somma: 1 2 3 4. per convoluzione delle masse di probabilità di ( ) 351

0.35 Somma di 4 variabili aleatorie 0.3 Massa di Probabilità di 1+2+3+4 0.25 0.2 0.15 0.1 0.05 [ ] 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 1 + 2 + 3 + 4 8 8 σ = + + + = σ = 1.633 3 3 η = E 1+ 2 + 3 + 4 = 8 2 Var [ 1 2 3 4] 352

Esempio A: Densità di Probabilità Gaussiana: + + + confrontare con la massa di probabilità di 1 2 3 4 N η = 8; σ = 8 3 da 0.35 Variabile Gaussiana: eta = 8, sigma = 1.633 0.3 0.25 Densità di Probabilità 0.2 0.15 0.1 0.05 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 Z 353

Densità della Somma di due variabili aleatorie continue La densità di probabilità di Z Y Z = g,y ) = + (o in generale di ( ) nota la densità congiunta f ( ) una variabile aleatoria Y x,y, si può ricavare prendendo W = Y e calcolando prima (mediante il teorema fondamentale per trasformazioni di coppie di variabili aleatorie) z,w e poi fzw ( ) + fz ( z) = fzw ( z,w) dw Si userà qui un procedimento più semplice. 354

Densità della Somma di due variabili aleatorie continue y dz x y z dz Z = + Y z < Z z+ dz se e solo se { } { z < + Y z+ dz} cioè se ( x, y) Δ D( z) dz D(Z) x Z ( ) ( ) ( ) ( ) f z dz = P z< Z z+ dz = = P x,y Δ D z = + = fy ( z y,y) dy dz Z + ( ) ( ) f z f z y, y dy = Y 355

Somma di due variabili aleatorie Indipendenti Se le v.a. e Y sono indipendenti, per Z = + Y dal risultato precedente: si ottiene, per l'indipendenza: Z + ( ) ( ) f z f z y, y dy = Y + ( ) ( ) ( ) f z = f z y f y dy Z Y la quale è la convoluzione delle densità di probabilità di e di Y. 356

Concetto di Convoluzione Date due funzioni f ( x ) ed h( x ) si definisce convoluzione di f ( x ) con h( x ), e si indica con: il seguente integrale: g ( x) = f ( x) h( x) + ( ) ( ) ( ) g x = h x t f t dt 357

Somma di due v.a. Indipendenti Esponenziali Se e Y sono v.a. con densità esponenziale di uguale valore atteso: ( ) =α ( α ) ( ) ( ) =α ( α ) ( ) f x exp x U x f y exp y U y allora per la densità della loro somma Z si ottiene: 2 ( ) ( ) ( ) z 0 fz z = α exp α z t exp α t dt = z exp ( z ) dt α 2 z exp ( α z) U ( z) 2 =α α = 0 Y 358

Somma di due v.a. Indipendenti Esponenziali 1.00 0.40 0.80 0.30 0.60 f() f(z) 0.20 0.40 0.20 0.10 0.00 0.00 0.00 2.00 4.00 6.00 8.00 10.00 Y ( ) = α ( α ) ( ) ( ) =α ( α ) ( ) f x exp x U x f y exp y U y 0.00 2.00 4.00 6.00 8.00 10.00 Z Z 2 ( ) = α ( α ) ( ) f z z exp z U z 359

Somma di due v.a. Indipendenti Uniformi Se e Y sono distribuite uniformemente nell'intervallo ( 0,c ), la densità della loro somma Z è un triangolo. Si ottiene per convoluzione di due rettangoli eguali: y f (w) = f (w) x y f (z) z 2c - z c 1 c 1 c ( 2c - z ) dz zdz S z = x + y 0 z c z x 0 c w c 2c z dz 360

Convoluzione di un triangolo con un rettangolo ft () 0.5 ht () 0.5 0 2 4 t 0 2 t 0.5 0.25 0.125 R x A C B D 0 1 2 3 4 5 6 x triangolare rettangolare convoluzione tra f ( t ) e ht ( ) R( x ) è costituita dai tre rami di parabola: OA, AB,BD 361

Convoluzione di un triangolo con un rettangolo (segue) hxt (-) 0.5 ft () x=1 x=2 x=3 0 2 4 t t t 0 0 x=5 x=6 t 0 0 R( x ) è interpretabile come la densità della somma di tre variabili aleatorie uniformi in ( 0,2 ). t 362

Densità di Probabilità della Somma Z di due v.a. indipendenti e Y Uniformi in (a, b) Z = + Y ( ) = ( ) f x f y Y 1 b a -b -a 0 a b 2a a+b 2b x,y Intervalli di definizione per la v.a. Z Z < 2a Evento impossibile 2a < Z < 2b Z > 2b Evento impossibile 363

Calcolo della densità di Z ( ) ( ) ( ) ( ) ( ) f z = f x f y = f τ f z τ dτ Z Y Y + f f dτ z 2a Z ( z) = z = 2 2 2a ( b a) ( b a) dτ 2b z Z ( z) = 2b = 2 2 z Z ( ) f z = 0 altrove f Z ( b a) ( b a) ( z ) per 2a < z a + b per a+ b< z < 2b b 1 a 0 a b 2a a+b 2b z 364

Funzioni di una Coppia di Variabili Aleatorie Date due v.a. e Y e due funzioni g ( x,y ) e h( x,y ) le variabili aleatorie così definite: Z = g(,y) e W = h(,y) sono una coppia la cui distribuzione congiunta FZW ( z,w ) può essere espressa in funzione di FY ( x,y ) 365

Il Teorema Fondamentale per Coppie di v.a. Considerata la trasformazione: la densità di ( Z,W ) è data da: ( ) Z = g,y W = h,y ( ) ( ) ( ) ( ) ( ) ( ) ( ) f x,y f x,y f x,y fzw ( z,w )... J x,y J x,y J x,y Y 1 1 Y 2 2 Y N N = + + + (a) 1 1 2 2 N N con: J( x,y ) determinante dello Jacobiano della trasformazione; ( x, y ) per i= 1,2,...,N sono le coppie che soddisfano: i i ( ) g x,y i i = z e h( x,y ) i i = w (b) 366

Il Teorema Fondamentale per Coppie di v.a. (segue) Si riporta la definizione dello Jacobiano: ( ) J x, y ( ) g( x,y) g x,y x = h x,y y ( ) h( x,y) x y 367

Il Teorema Fondamentale per Coppie di v.a. (segue) Dimostrazione: g (x,y) = z y dz g (x,y) = z +dz w A dw y i B i h (x, y )=w 0 z 0 Trasformazione dell'elemento di superficie del piano z,w al piano x,y. P{ ( z,w) A} P{ ( x,y) B} i = ( < + < + ) = ( ) = i 1,2,...,N P z Z z dz, w W w dw f z,w dzdw ZW x i x 368

Il Teorema Fondamentale per Coppie di v.a. (segue) L area di B i è pari a: dato che: Area ( A) si ha: area ( A) Area ( Bi ) = J( x i,yi) = dzdw, e che ( ) { } = ( ) P z,w A f z,w dzdw fy ( x i,yi ) P (,Y ) Bi = dzdw (c) J( x i,yi) Essendo l'evento { z < Z z + dz,w < W w + dw} unione degli eventi disgiunti ( ), dalla relazione (c) segue la (a): { },Y B i ( ) ( ) ( ) ( ) ZW ( ) ( ) f x,y f x,y f x,y fzw ( z,w ) = + +... + J x,y J x,y J x,y Y 1 1 Y 2 2 Y N N 1 1 2 2 N N 369

Uso della variabile ausiliaria La densità fz ( z ) di una sola funzione Z g(,y) = di due v.a. e Y può essere determinata ricorrendo al Teorema fondamentale ed W = h,y, come segue: introducendo una variabile ausiliaria ( ) 1) si determina f ( ) 2) si determina ( ) ( ) ZW Z z,w (Teorema Fondamentale) + f z = f z,w dw (si satura W) ZW La variabile aleatoria W è scelta opportunamente, di solito si sceglie: W = oppure W = Y 370

Trasformazioni Lineari Data la trasformazione con a,b,c,d costanti: Z = a + b W = cy + d Si ha un unica soluzione per ogni valore di ( z,w ): z b w d x 1 = y1 = a c Lo Jacobiano vale: J( x,y) Applicando il Teorema Fondamentale: z b w d f Y, a c fzw ( z, w) = ac = ac 371

Somma di due variabili aleatorie Date le v.a. e Y si consideri la variabile aleatoria Z = + Y Per determinare la densità di Z, si introduce la variabile ausiliaria in questo caso: ( ) W = Y 1 1 J x,y = = 1 0 1 Dal Teorema Fondamentale risulta, con ZW saturando rispetto alla W: Z x 1 ( ) = ( ) f z,w f z w,w Y + ( ) ( ) f z f z w,w dw = Y = z w e y 1 = w 372

Densità del Prodotto di Due Variabili Aleatorie Z usando la variabile ausiliaria: pertanto z = xy w = y saturando la v.a. W = Y W = Y y x J x, y = = y 0 1 con ( ) 1 z fzw ( z,w) = f Y,w w w + 1 z fz ( z) = f Y,w dw w w 373

Densità del Rapporto di Due Variabili Aleatorie Z = Y usando la variabile ausiliaria: W = Y x 1 x z = 2 1 y con J( x,y) = y y = y w = y 0 1 pertanto saturando la v.a. W ZW ( ) = ( ) f z,w w f zw,w Y + f Z ( z) = w fy ( zw,w) dw 374