VARIABILI ALEATORIE E VALORE ATTESO Variabili aleatorie Variabili discrete e continue Coppie e vettori di variabili aleatorie Valore atteso Proprietà del valore atteso Varianza Covarianza e varianza della somma di variabili aleatorie 92
Variabili aleatorie Quando si realizza un esperimento casuale non sempre si è interessati in ugual modo a tutte le informazioni ricavabili dal suo esito. Spesso si può individuare una singola quantità numerica che racchiude tutto ciò che in realtà vogliamo sapere. Quantità di interesse che sono determinate dal risultato di un esperimento casuale sono dette variabili aleatorie. Siccome il valore di una variabile aleatoria è determinato dall esito dell esperimento, possiamo assegnare delle probabilità ai suoi valori possibili. 93
Variabili aleatorie 94
Variabili aleatorie 95
Variabili aleatorie Variabili aleatorie con un numero finito o numerabile di valori possibili sono dette discrete. Esistono anche variabili aleatorie dette continue, che possono assumere un insieme continuo di valori possibili, come può essere un intervallo di numeri reali. DEFINIZIONE La funzione di ripartizione F di una variabile aleatoria X è definita, per ogni numero reale x, tramite F( x) = P( X x) Quindi F(x) esprime la probabilità che la variabile aleatoria X assuma un valore minore o uguale a x. Useremo la notazione X~F per indicare che F è la funzione di ripartizione di X. Tutte le questioni di probabilità che si possano sollevare su una variabile aleatoria, ammettono una risposta in termini della sua funzione di ripartizione. Ad esempio, volendo calcolare P(a<X b), basta notare che {X b} è l unione dei due eventi disgiunti {X b} e {a<x b}. Quindi per l Assioma 3 da cui P( X b) = P( X a) + P( a < X b) P( a < X b) = P( X b) P( X a) = F( b) F( a) 96
Variabili aleatorie 97
Variabili discrete e continue Si dice discreta una variabile aleatoria che può assumere una quantità finita o numerabile di valori. DEFINIZIONE Se X è una variabile aleatoria discreta, la sua funzione di massa di probabilità o funzione di massa si definisce nel modo seguente, p( a) = P( X = a) La funzione p(a) è non nulla su un insieme al più numerabile di valori. Infatti se x 1,x 2, sono i valori possibili di X, allora p( x ) > 0 i = 1,2,... i p( x) = 0 tutti gli altri valori di x Siccome X deve assumere uno dei valori x 1,x 2, necessariamente la funzione di massa di probabilità deve soddisfare la seguente equazione p( x ) = 1 i= 1 i 98
Variabili discrete e continue 99
Variabili discrete e continue Per una variabile aleatoria discreta, la funzione di ripartizione F può essere espressa in funzione della funzione di massa di probabilità p, tramite F( a) = p( x) x a dove si intende che la serie è limitata ai soli valori possibili di X minori o uguali ad a. Si noti che la F che ne risulta è una funzione a gradini. Supponendo che X abbia la stessa funzione di massa di probabilità dell esempio precedente con La funzione di ripartizione F di X è data da 100
Variabili discrete e continue Una variabile aleatoria si dice continua se esiste una funzione non negativa f, definita su tutti i reali, avente la proprietà che per ogni insieme B di numeri reali DEFINIZIONE P( X B) = f ( x) dx B La funzione f che compare nell equazione sopra è la funzione di densità di probabilità o più semplicemente la densità della variabile aleatoria X. Tale equazione dice che la probabilità che una variabile aleatoria continua X appartenga a un insieme B si può trovare integrando la sua densità su tale insieme. Poiché X deve assumere un qualche valore reale, la sua densità deve soddisfare + 1 = P( X R) = f ( x) dx Tutte le probabilità che riguardano una variabile continua possono essere espresse in termini di integrali della sua densità. Ad esempio se poniamo B=[a,b] b a P( a X b) = f ( x) dx a a P( X = a) = f ( x) dx = 0 101
Variabili discrete e continue Una relazione che lega la funzione di ripartizione F alla densità f è la seguente F( a) = P( X (, a]) = f ( x) dx Derivando entrambi i membri si ottiene allora la relazione fondamentale d F ( a ) = f ( a ) da cioè la densità è la derivata della funzione di ripartizione. a 102
Variabili discrete e continue 103
Variabili discrete e continue Quando conosciamo la funzione di massa di probabilità di variabile discreta, o la funzione di densità di probabilità di una continua, o la funzione di ripartizione di una variabile aleatoria qualsiasi, abbiamo abbastanza informazioni da poter calcolare la probabilità di ogni evento che dipende solo da tale variabile aleatoria. Si dice in questo caso che conosciamo la distribuzione o legge della variabile aleatoria considerata. Perciò affermare che X e Y hanno la stessa distribuzione, vuol dire che le rispettive funzioni di ripartizione sono identiche, X~F X F Y ~Y e quindi anche che P(X œa) = P(YœA) per ogni insieme A R. 104
Coppie e vettori di variabili aleatorie Ci sono situazioni in cui la scelta di ridurre un esperimento casuale allo studio di una sola variabile aleatoria, è destinata a fallire a priori, perché l oggetto di interesse sono proprio le relazioni presenti tra due o più grandezze numeriche. Per specificare la relazione tra due variabili aleatorie X e Y, il punto di partenza è estendere il concetto di funzione di ripartizione. DEFINIZIONE Siano X e Y due variabili aleatorie che riguardano lo stesso esperimento casuale. Si dice funzione di ripartizione congiunta di X e Y, e si indica con la lettera F, la funzione di due variabili seguente F( x, y) = P( X x, Y y) dove la virgola nell argomento di P() denota l intersezione tra eventi. 105
Coppie e vettori di variabili aleatorie La conoscenze di questa funzione permette di calcolare le probabilità di tutti gli eventi che dipendono, singolarmente o congiuntamente, da X e Y. Ad esempio la funzione di ripartizione di X (indicata con F X ) può essere ottenuta dalla funzione di ripartizione congiunta F così FX ( x ) = P ( X x ) = P ( X x, Y < ) = F ( x, ) e analogamente la funzione di ripartizione di Y FY ( y ) = F (, y ) 106
Coppie e vettori di variabili aleatorie Distribuzione congiunta per variabili discrete DEFINIZIONE Se X e Y sono variabili aleatorie discrete che assumono i valori x 1,x 2, e y 1,y 2, rispettivamente, la funzione p( x, y ) = P( X = x, Y = y ) i = 1,2,... j = 1,2,... i j i j è la loro funzione di massa di probabilità congiunta. Le funzioni di massa individuali di X e Y si possono ricavare da quella congiunta con alcune osservazioni. { X = x } = { X = x, Y = y } i i j j px ( xi ) = P( X = xi ) = P { X = xi, Y = y j} = P( X = xi, Y = y j ) = p( xi, y j ) j j j py ( y j ) = p( xi, y j ) i N.B. Conoscere le funzioni di massa individuali non permette di ricavare la 107 funzione di massa congiunta
Coppie e vettori di variabili aleatorie Distribuzione congiunta per variabili discrete 108
Coppie e vettori di variabili aleatorie Distribuzione congiunta per variabili continue Due variabili aleatorie X e Y sono congiuntamente continue se esiste una funzione non negativa f(x,y), definita per tutti gli x e y, avente la proprietà che per ogni sottoinsieme C del piano cartesiano P(( X, Y ) C) = f ( x, y) dxdy ( x, y) C DEFINIZIONE La funzione di due variabili f, che compare nell equazione sopra, è la densità congiunta delle variabili aleatorie X e Y. 109
Coppie e vettori di variabili aleatorie Distribuzione congiunta per variabili continue Se A e B sono sottoinsiemi qualsiasi dei reali e se si denota con C=A x B il loro prodotto cartesiano in R 2, ovvero 2 la densità congiunta f soddisfa C = {( x, y) R : x A, y B} P( X A, Y B) = f ( x, y) dxdy B A e quindi ponendo A=(-,a] e B=(-,b] si può scrivere la funzione di ripartizione congiunta di X e Y come F( a, b) = P( X a, Y b) = P( X A, Y B) = = f ( x, y) dxdy = f ( x, y) dxdy B A da cui derivando, nelle due direzioni in tutti i punti in cui le derivate parziali sono definite. b f ( a, b) a 2 F( a, b) = a b 110
Coppie e vettori di variabili aleatorie Distribuzione congiunta per variabili continue 111
Coppie e vettori di variabili aleatorie Variabili aleatorie indipendenti In analogia a quanto definito precedentemente per gli eventi, due variabili aleatorie sono indipendenti se tutti gli eventi relativi alla prima sono indipendenti da tutti quelli relativi alla seconda. DEFINIZIONE Due variabili aleatorie che riguardano lo stesso esperimento casuale si dicono indipendenti se, per ogni coppia di insiemi di numeri reali A e B, è soddisfatta l equazione P( X A, Y B) = P( X A) P( Y B) ovvero, se per ogni scelta di A e B, gli eventi {X A} e {Y B} risultano indipendenti. In caso contrario X e Y si dicono dipendenti. 112
Coppie e vettori di variabili aleatorie Variabili aleatorie indipendenti Usando gli assiomi della probabilità è possibile dimostrare che questa definizione è equivalente alla richiesta che per ogni coppia di reali a e b, P( X a, Y b) = P( X a) P( Y b) ovvero che la funzione di ripartizione congiunta sia il prodotto delle marginali F( a, b) = F ( a) F ( b) a, b R X Y Se le variabili aleatorie considerate sono discrete, l indipendenza è anche equivalente a chiedere che la funzione di massa congiunta sia il prodotto delle marginali p( x, y) = p ( x) p ( y) x, y R X Y Nel caso di variabili aleatorie congiuntamente continue, invece, X e Y sono indipendenti se e solo se la densità congiunta è il prodotto delle marginali f ( x, y) = f ( x) f ( y) x, y R X Y N.B. Il senso della definizione e delle forme equivalenti date è che due variabili aleatorie sono indipendenti se conoscere il valore di una non cambia la 113 distribuzione dell altra
Coppie e vettori di variabili aleatorie Variabili aleatorie indipendenti 114
Coppie e vettori di variabili aleatorie Generalizzazione a più di 2 variabili aleatorie Tutti gli argomenti di tale sezione si possono estendere in maniera più o meno naturale ad un numero arbitrario n di variabili aleatorie. La funzione di ripartizione congiunta di X 1,..,X n è la funzione di n variabili F, data da F( a, a,..., a ) = P( X a, X a,..., X a ) 1 2 n 1 1 2 2 n n Se queste variabili aleatorie sono discrete è possibile definire la funzione di massa di probabilità congiunta p, che è data da p( x, x,..., x ) = P( X = x, X = x,..., X = x ) 1 2 n 1 1 2 2 n n Altrimenti le variabili aleatorie X 1,X 2,..,X n sono congiuntamente continue se esiste una densità di probabilità congiunta f, funzione di n variabili a valori positivi tale, per ogni sottoinsieme C di R n, P(( X, X,..., X ) C) = f ( x, x,..., x ) dx dx dx 1 2 n 1 2 n 1 2 n ( x,..., x ) C 1 n 115
Coppie e vettori di variabili aleatorie Generalizzazione a più di 2 variabili aleatorie Anche il concetto di indipendenza si estende a più di due dimensioni. In generale n variabili aleatorie X 1,X 2,..,X n si dicono indipendenti se per ogni n-upla A 1,A 2,..,A n di sottoinsiemi di R, è soddisfatta l equazione n P( X A,..., X A ) = P( X A ) 1 1 n n i i i= 1 116
Coppie e vettori di variabili aleatorie Generalizzazione a più di 2 variabili aleatorie 117
Coppie e vettori di variabili aleatorie Distribuzioni condizionali Le relazioni esistenti tra due variabili aleatorie possono essere chiarite dallo studio della distribuzione condizionata di una delle due, dato il valore dell altra. Si ricorda che presi comunque due eventi E e F con P(E)>0, la probabilità di E condizionata a F è data dall espressione P( E F) = P( E F) P( F) E naturale applicare questo schema alle variabili aleatorie discrete. DEFINIZIONE Siano X e Y due variabili aleatorie discrete con funzione di massa congiunta p(.,.). Si dice funzione di massa di probabilità condizionata di X dato Y, e si indica con p X Y (..), la funzione di due variabili così definita P( X = x, Y = y) px Y ( x y) = P( X = x Y = y) = = P( Y = y) p( x, y) = x, y con py ( y) > 0 p ( y) Y 118
Coppie e vettori di variabili aleatorie Distribuzioni condizionali 119
Coppie e vettori di variabili aleatorie Distribuzioni condizionali 120
Coppie e vettori di variabili aleatorie Distribuzioni condizionali Se X e Y sono variabili congiuntamente continue, non è possibile usare la definizione condizionata valida per quelle discrete, infatti si sa che P(Y=y)=0 per tutti i valori di y. DEFINIZIONE Siano X e Y due variabili aleatorie con funzione di densità congiunta f. Si dice densità condizionata di X rispetto a Y, e si indica con f X Y (.,.), la funzione di due variabili seguente, che è definita per ogni x e per tutte le y per le quali f Y (y)>0: f X Y ( x y) = f ( x, y) f ( y) Y 121
Coppie e vettori di variabili aleatorie Distribuzioni condizionali 122
Valore atteso DEFINIZIONE Sia X una variabile aleatoria discreta che può assumere i valori x 1,x 2, ; il valore atteso di X, che si indica con E[X] è, se esiste, il numero E[ X ] = µ = x P( X = x ) X i i i Si tratta della media pesata dei valori possibili di X, usando come pesi le probabilità che tali valori vengano assunti da X. Per questo E[X] è anche detta media di X oppure aspettazione. 123
Valore atteso 124
Valore atteso 125
Valore atteso E anche possibile definire il valore atteso di una variabile aleatoria continua. DEFINIZIONE Sia X una variabile aleatoria continua con funzione di densità f; il valore atteso di X, che si indica con E[X], è se esiste la quantità + E[ X ] = x f ( x) dx 126
Valore atteso 127
Proprietà del valore atteso Consideriamo una variabile aleatoria X di cui conosciamo la distribuzione. Se anziché voler calcolare il valore atteso di X, ci interessasse determinare quello di una sua qualche funzione g(x), come si fa? Una prima strada è notare che g(x) stessa è una variabile aleatoria e quindi ha una sua distribuzione che in qualche modo si può ricavare; dopo averla ottenuta il valore atteso E[g(X)] si calcola con la definizione usuale applicata alla nuova variabile aleatoria. 128
Proprietà del valore atteso 129
Proprietà del valore atteso 130
Proprietà del valore atteso d N.B. F ( a ) = f ( a ) da 131
Proprietà del valore atteso PROPOSIZIONE (Valore atteso di una funzione di variabile aleatoria) 1.Se X è una variabile aleatoria discreta con funzione di massa di probabilità p, allora, per ogni funzione reale g, E[ g( X )] = g( x) p( x) 2.Se X è una variabile aleatoria continua con funzione di densità di probabilità f, allora, per ogni funzione reale g, + x E[ g( X )] = g( x) f ( x) dx 132
Proprietà del valore atteso 133
Proprietà del valore atteso 134
Proprietà del valore atteso COROLLARIO: Per ogni coppia di costanti reali a e b, E[ ax + b] = ae[ X ] + b Se nel corollario si pone a=0, si scopre che E[ b] In altri termini, il valore atteso di una costante è semplicemente il suo valore stesso. Se invece si pone b=0 si ottiene che Ovvero il valore atteso di un fattore costante moltiplicato per una variabile aleatoria è pari alla costante per il valore atteso della variabile aleatoria. = b E[ ax ] = ae[ X ] 135
Proprietà del valore atteso Come già accennato il termine valore atteso ha tra i suoi sinonimi aspettazione e media. Un ulteriore denominazione è quella di momento primo. DEFINIZIONE: Se n=1,2,, la quantità E[X n ], quando esiste, è detta momento n-esimo della variabile aleatoria X. Volendo essere più espliciti, si può applicare il corollario per ricavare n x p( x) se X è discreta n x E[ X ] = + n x f ( x) dx se X è continua 136
Proprietà del valore atteso Valore atteso della somma di variabili aleatorie La versione in due dimensioni della Proposizione afferma che se X e Y sono due variabili aleatorie e g è una qualunque funzione di due variabili allora E[g(X,Y)] esiste g( x, y) p( x, y) nel caso discreto x y E[ g( X, Y )] = + + g( x, y) f ( x, y) dxdy nel caso continuo Si può applicare questo enunciato a g(x,y)=x+y, ottenendo che E[ X + Y ] = E[ X ] + E[ Y ] Tale risultato è valido sia nel caso discreto sia in quello continuo. Applicando ricorsivamente tale equazione si può estendere la portata alla somma di un numero finito di variabili aleatorie. In generale, per ogni n, E[ X + X +... + X ] = E[ X ] + E[ X ] +... + E[ X ] 1 2 n 1 2 n 137
Proprietà del valore atteso Valore atteso della somma di variabili aleatorie 138
Proprietà del valore atteso Valore atteso della somma di variabili aleatorie 139
Proprietà del valore atteso Valore atteso della somma di variabili aleatorie 140
Varianza DEFINIZIONE: Sia X una variabile aleatoria con media µ. La varianza di X, che si denota con Var(X) è, se esiste, la quantità Var( X ) = E[( X µ ) ] 2 Esiste una formula alternativa per la varianza, che si ricava in questo modo: 2 2 2 Var( X ) = E[( X µ ) ] = E[ X 2 µ X + µ ] = 2 2 2 2 = E[ X ] 2 µ E[ X ] + µ = E[ X ] µ ovvero 2 2 Var( X ) = E[ X ] E[ X ] In altri termini la varianza di X è uguale al valore atteso del quadrato di X (anche detto il momento secondo) meno il quadrato della media di X. 141
Varianza 142
Varianza 143
Varianza Una utile identità che riguarda la varianza è la seguente. Per ogni coppia di costanti reali a e b, Var( ax + b) = a Var( X ) 2 DEFINIZIONE: La radice quadrata della varianza è detta deviazione standard della variabile aleatoria X 144
Covarianza e varianza della somma di variabili aleatorie La media della somma di variabili aleatorie coincide con la somma delle loro medie. Per la varianza questo in generale non è vero. Ad esempio 2 Var( X + X ) = Var(2 X ) = 2 Var( X ) = 4 Var( X ) Var( X ) + Var( X ) Vi è tuttavia un caso importante in cui la varianza della somma di due variabili aleatorie è pari alla somma delle loro varianze, ovvero quando le variabili aleatorie sono indipendenti. DEFINIZIONE: Siano assegnate due variabili aleatorie X e Y di media µ X e µ Y rispettivamente. La loro covarianza, che si indica con Cov(X,Y) è, se esiste, la quantità Cov( X, Y ) = E[( X µ )( Y µ )] X Y Si può ottenere anche una formula alternativa più semplice, analoga alla varianza. Si trova espandendo il prodotto al secondo membro Cov( X, Y ) = E[ XY µ Y µ X + µ µ ] = X Y X Y = E[ XY ] µ E[ Y ] µ E[ X ] + µ µ = X Y X Y = E[ XY ] µ µ µ µ + µ µ = E[ XY ] E[ X ] E[ Y ] X Y X Y X Y 145
Covarianza e varianza della somma di variabili aleatorie Dalla definizione della covarianza si deducono alcune semplici proprietà, quali: la simmetria il fatto che la covarianza generalizza il concetto di varianza e per ogni costante a Cov( X, Y ) = Cov( Y, X ) Cov( X, X ) = Var( X ) (*) Cov( ax, Y ) = acov( X, Y ) = Cov( X, ay ) N.B. Come la media anche la covarianza è additiva. LEMMA: Se X, Y e Z sono variabili aleatorie qualsiasi Cov( X + Y, Z) = Cov( X, Z) + Cov( Y, Z) 146
Covarianza e varianza della somma di variabili aleatorie Il lemma può essere generalizzato a più di due variabili aleatorie, ottenendo che se X 1,,X n sono variabili aleatorie qualsiasi n Cov( X, Y ) = Cov( X, Y ) n i i= 1 i= 1 i PROPOSIZIONE: Se X 1,,X n e Y 1,,Y m sono variabili aleatorie qualsiasi n m n m Cov( X, Y ) = Cov( X, Y ) i j i j i= 1 j= 1 i= 1 j= 1 147
Covarianza e varianza della somma di variabili aleatorie Usando l equazione (*) sulla variabile aleatoria Σ i X i si ottiene finalmente la formula che fornisce la varianza di una somma di variabili aleatorie. n n n n n Var( X ) = Cov( X, X ) = Cov( X, X ) = i i j i j i= 1 i= 1 j= 1 i= 1 j= 1 n n n = Var( X ) + Cov( X, X ) i= 1 i i= 1 j= 1 i j j i Nel caso in cui n=2, la formula si riduce a Var( X + Y ) = Var( X ) + Var( Y ) + Cov( X, Y ) + Cov( Y, X ) = = Var( X ) + Var( Y ) + 2 Cov( X, Y ) Cov( X, X ) = Var( X ) (*) 148
Covarianza e varianza della somma di variabili aleatorie TEOREMA: Se X e Y sono variabili aleatorie indipendenti allora questo inoltre implica che E[ XY ] = E[ X ] E[ Y ] Cov( X, Y ) = 0 e quindi che, se X 1,,X n sono indipendenti n n Var( X ) = Var( X ) i i= 1 i= 1 i 149
Covarianza e varianza della somma di variabili aleatorie 150
Covarianza e varianza della somma di variabili aleatorie 151
Covarianza e varianza della somma di variabili aleatorie Se due variabili aleatorie non sono indipendenti, la loro covarianza è un importante indicatore della relazione che sussiste tra loro. Come esempio si consideri la situazione in cui X e Y sono le funzioni indicatrici di due eventi A e B, ovvero Si noti intanto che anche XY è una funzione indicatrice Si ottiene quindi che da cui si deduce che Cov( X, Y ) = E[ XY ] E[ X ] E[ Y ] = = P( X = 1, Y = 1) P( X = 1) P( Y = 1) Cov( X, Y ) > 0 P( X = 1, Y = 1) > P( X = 1) P( Y = 1) P( X = 1, Y = 1) > P( X = 1) P( X = 1 Y = 1) > P( X = 1) P( Y = 1) Perciò la covarianza di X e Y è positiva se condizionando a {Y=1} è più probabile che X=1. 152
Covarianza e varianza della somma di variabili aleatorie In generale si può mostrare che un valore positivo di Cov(X,Y) indica che X e Y tendenzialmente assumono valori grandi o piccoli contemporaneamente. La forza della relazione tra X e Y è misurata dal coefficiente di correlazione lineare, un numero puro che tiene conto anche delle deviazioni standard di X e Y. Esso si indica con Corr(X,Y) ed è definito come Corr( X, Y ) = Cov( X, Y ) Var( X ) Var( Y ) Si può dimostrare che questa quantità è sempre compresa tra -1 e +1. 153
Problemi 1. Si supponga che un dado truccato, formato da sei facce contrassegnate dai numeri da 1 a 6, sia costruito in modo tale che la probabilità di ottenere 6 è doppia rispetto a quella degli altri punteggi. Indicata con X la variabile casuale punteggio ottenuto in un lancio del dado, si determini: a) la legge di probabilità della variabile casuale X; b) il valore atteso e la varianza della variabile casuale X. Svolgimento a) La variabile casuale X può assumere i valori 1, 2, 3, 4, 5, 6. Per quanto specificato nel testo dell esercizio si ha che la funzione di probabilità della variabile casuale X ha la seguente forma: Affinché P(X = x) sia effettivamente una funzione di probabilità per la variabile casuale X, il valore di p deve essere tale da assicurare che: 154
Problemi La prima condizione impone che p 0. Osservando che la seconda condizione prescrive che 7p = 1. Quest ultima equazione è soddisfatta solo se p = 1/7 0. La funzione di probabilità della variabile casuale X è di conseguenza data da: 155
Problemi b) Il valore atteso E(X) della variabile casuale X è dato da: La varianza Var(X) della variabile casuale X è data da: Al fine del calcolo di Var(X), si ricava il valore atteso E(X 2 ). 156
Si ha dunque: Problemi 157
Problemi 2. Un gioco consiste nel lanciare un dado ed una moneta non truccati. Come risultato del lancio del dado si considera il numero riportato sulla faccia superiore, mentre per il lancio della moneta si considera il punteggio 0 se si presenta testa, punteggio 1 se si presenta croce. Determinare il valore atteso e la varianza della variabile casuale che descrive la somma dei punteggi riportati nel lancio del dado e della moneta. Svolgimento Si indichi con X la variabile casuale che interpreta l esito del lancio del dado e con Y la variabile casuale che interpreta il punteggio associato all esito del lancio della moneta. La variabile casuale X può assumere i valori appartenenti all insieme {1, 2, 3, 4, 5, 6} mentre la variabile casule Y può assumere i valori 0 o 1. Si ha inoltre che: 158
Problemi La variabile casuale che descrive la somma dei punteggi ottenuti lanciando il dado e la moneta è Z = X + Y. Si ha che: Le variabili casuali X e Y sono indipendenti in quanto interpreti di esperimenti fisicamente separati. In questo caso si ha: 159
Problemi Per comodità, si ricavano dapprima le varianze Var(X) e Var(Y). Concludendo si ha: 160
Problemi 3. Data la distribuzione di probabilità congiunta delle variabili casuali X e Y : a) stabilire se le variabili X e Y sono indipendenti; b) calcolare Pr{Y 2,X > 0} e Pr{Y 2 X > 0}; c) calcolare il valore atteso e la varianza della variabile casuale Z = X 2Y ; Svolgimento a) Di seguito si riportano la distribuzione congiunta e le distribuzioni marginali delle v.c. X e Y : 161
Problemi Se le variabili casuali X e Y fossero indipendenti si avrebbe che: Si osservi che, secondo la distribuzione congiunta fornita dal testo dell esercizio, si ha: Di conseguenza le variabili casuali X e Y non sono indipendenti. b) 162
Problemi c) Dalle proprietà del valore atteso si ha che: quindi Si ha dunque che: 163
Problemi d) Dalle proprietà della varianza e della covarianza si ha che: quindi 164
Problemi Questo ultimo risultato informa che le variabili casuali X e Y, pur non essendo indipendenti, risultano essere incorrelate. Alla luce di tali risultati si ha che: 165
MODELLI DI VARIABILI ALEATORIE Variabili di Bernoulli e binomiali Variabili di Poisson Variabili normali o gaussiane Variabili esponenziali Distribuzioni chi-quadro Distribuzioni t 166
Variabili di Bernoulli e binomiali Supponiamo che venga realizzata una prova il cui esito può essere solo un «successo» o un «fallimento». Se definiamo la variabile aleatoria X in modo che sia X=1 nel primo caso e X=0 nel secondo, la funzione di massa di probabilità X è data da P(X=0)=1-p P(X=1)=p dove con p abbiamo indicato la probabilità che l esperimento registri un successo. Ovviamente dovrà essere 0 p 1. DEFINIZIONE: Una variabile aleatoria X si dice di Bernoulli o bernoulliana se la sua funzione di massa di probabilità è del tipo P( X = 0) = 1 P( X = 1) = p per una scelta opportuna del parametro p. p In altri termini una variabile aleatoria è bernoulliana se può assumere solo i valori 0 e 1. Il suo valore atteso è dato da E[ X ] = 1 P( X = 1) + 0 P( X = 0) = p (*) ed è quindi pari alla probabilità che la variabile aleatoria assuma il valore 1. 167
Variabili di Bernoulli e binomiali DEFINIZIONE: La funzione di massa di probabilità per una variabile aleatoria binomiale di parametri (n,p) è data da n i n i dove il coefficiente binomiale Supponiamo di realizzare n ripetizioni di un esperimento, ciascuna delle quali può concludersi in un successo con probabilità p, o in un fallimento con probabilità 1-p. Se X denota il numero totale di successi, X si dice variabile aleatoria binomiale di parametri (n,p). P( X = i) = p (1 p) i = 0,1,..., n i n n! i = i!( n i)! rappresenta il numero di combinazioni differenti che possiamo ottenere scegliendo i elementi da un insieme di n oggetti. Funzioni di massa di probabilità per 3 variabili aleatorie binomiali 168
Variabili di Bernoulli e binomiali 169
Variabili di Bernoulli e binomiali 170
Variabili di Bernoulli e binomiali 171
Variabili di Bernoulli e binomiali Per come è stata definita la variabile aleatoria binomiale di parametri (n,p) (il numero di esperimenti con esito positivo, su n ripetizioni indipendenti, ciascuna con probabilità di successo p), essa può essere rappresentata come la somma di bernoulliane. Se X è binomiale di parametri (n,p) si può scrivere n X = i= 1 X (**) dove X i è la funzione indicatrice del successo dell i-esimo esperimento i X i 1 se la prova i-esima ha successo = 0 altrimenti E evidente che le X i sono tutte bernoulliane di parametro p, quindi abbiamo che E[ X ] = p per (*) i 2 i = i 2 i i 2 i i 2 2 E[ X ] p infatti X X Var( X ) = E[ X ] E[ X ] = p p = p(1 p) 172
Variabili di Bernoulli e binomiali Per quanto riguarda X, dalle proprietà di media e varianza e dalla (**), si ha n E[ X ] = E[ X ] = np i= 1 n Var( X ) = Var( X ) per l'indipendenza delle X i= 1 = np(1 p) i i i N.B. Se X 1 e X 2 sono binomiali di parametri (n 1,p) e (n 2,p) e sono indipendenti, la loro somma X 1 +X 2 è binomiale di parametri (n 1 +n 2,p) 173
Variabili di Bernoulli e binomiali Calcolo esplicito della distribuzione binomiale Supponiamo che X sia binomiale di parametri (n,p). Per poter calcolare operativamente la funzione di ripartizione o la funzione di massa i n k n k P( X i) = p (1 p) i=0,1,...,n k= 0 k n i n-i P( X = i) = p (1 p) i=0,1,...,n i è molto utile la seguente relazione tra P(X=k+1) e P(X=k): p n k P( X = k + 1) = P( X = k) 1 p k + 1 174
Variabili di Bernoulli e binomiali 175
Variabili aleatorie di Poisson E un altra importante variabile aleatoria discreta che assume solo valori interi non negativi. DEFINIZIONE: Una variabile aleatoria X che assuma i valori 0,1,2, è una variabile aleatoria di Poisson o poissoniana di parametro λ, λ>0, se la funzione di massa di probabilità è data da i λ λ P( X = i) = e i=0,1,2,... i! L equazione rappresenta una funzione di massa accettabile, infatti i λ λ λ λ P( X = i) = e = e e =1 i=0,1,2,... i! i= 0 i= 0 Funzione di massa di probabilità della distribuzione di Poisson con λ=4 176
Variabili aleatorie di Poisson La media e la varianza di una variabile aleatoria di Poisson X coincidono con il parametro λ. E[ X ] = λ Var( X ) = λ La variabile aleatoria di Poisson ha un vasto campo di applicazioni, anche perché può essere usata come approssimazione di una binomiale di parametri (n,p) quando n è molto grande e p molto piccolo. In altri termini il totale dei successi in un gran numero n di ripetizioni indipendenti di un esperimento che ha una piccola probabilità di riuscita p è una variabile aleatoria con distribuzione approssimativamente di Poisson con media λ=np. 177
Variabili aleatorie di Poisson 178
Variabili aleatorie di Poisson 179
Variabili aleatorie di Poisson 180
Variabili aleatorie di Poisson 181
Variabili aleatorie di Poisson La distribuzione di Poisson è riproducibile, nel senso che la somma di due poissoniane indipendenti è ancora una poissoniana. 182
Variabili aleatorie di Poisson Calcolo esplicito della distribuzione di Poisson Se X è una variabile aleatoria di Poisson di media λ, allora i+ 1 λ P( X = i + 1) λ e i! λ = = P( X = i) ( i + 1)! i λ λ e i + 1 E possibile usare tale equazione ricorsivamente, a partire da P(X=0)=e -λ per calcolare successivamente P( X = 1) = λp( X = 0) λ P( X = 2) = P( X = 1) 2 λ P( X = i + 1) = P( X = i) i + 1 183
Variabili aleatorie normali o gaussiane DEFINIZIONE: Una variabile aleatoria X si dice normale o gaussiana di parametri µ e σ 2 e si scrive X N(µ,σ 2 ) se X ha funzione di densità data da 2 1 ( x µ ) f ( x) = exp x 2πσ 2 R 2σ La densità normale è una curva a campana simmetrica rispetto all asse x=µ, dove ha il massimo pari a 1 0.399 ( σ 2 π ) σ 184
Variabili aleatorie normali o gaussiane La media e la varianza di una variabile aleatoria gaussiana sono E[ X ] = µ Var( X ) = σ N.B. Se X è una gaussiana e Y è una trasformazione lineare di X, allora Y è a sua volta gaussiana. PROPOSIZIONE: Sia X N(µ,σ 2 ) e sia Y=aX+b dove a e b sono due costanti reali e a 0. Allora Y è una variabile aleatoria normale con media aµ+b e varianza a 2 σ 2. Un corollario della precedente proposizione è che se X~N( µ,σ 2 ) allora Z = X µ σ è una variabile aleatoria normale con media 0 e varianza 1. Una tale variabile aleatoria si dice normale standard; la sua funzione di ripartizione riveste un ruolo importante in statistica ed è normalmente indicata con il simbolo Φ 2 1 x y /2 Φ ( x) = e dy x R 2π 2 185
Variabili aleatorie normali o gaussiane Il fatto che Z=(X-µ)/σ abbia distribuzione normale standard quando X è gaussiana di media µ e varianza σ 2 ci permette di esprimere le probabilità relative a X in termini di probabilità di Z. Ad esempio per trovare P(X<b) notiamo che X<b se e solo se così che X µ b µ < σ σ X µ b µ b µ b µ P( X < b) = P < = P Z < = Φ σ σ σ σ Analogamente, per ogni a<b si ha che a µ X µ b µ P( a < X < b) = P < < = σ σ σ b µ a µ b µ a µ = P Z < P Z < = Φ Φ σ σ σ σ In entrambi i casi ci siamo ricondotti a determinare un valore di Φ(x). L integrale dell equazione (*) che definisce questa funzione non si può risolvere analiticamente; è quindi possibile calcolare Φ(x) usando le approssimazioni della tabella A.1. 186
Variabili aleatorie normali o gaussiane 187
Variabili aleatorie normali o gaussiane Nonostante la tabella riporti Φ(x) solo per valori non negativi di x, è possibile ottenere Φ(-x) usando la simmetria della distribuzione rispetto a 0. Infatti sia x>0 e supponiamo che Z rappresenti una variabile aleatoria normale standard, allora Così che ad esempio Φ( x) = P( Z < x) = = P( Z > x) per simmetria = 1 P( Z < X ) = 1 Φ( x) P( Z < 1) = Φ( 1) = 1 Φ(1) 1 0.8413 0.1587 188
Variabili aleatorie normali o gaussiane 189
Variabili aleatorie normali o gaussiane 190
Variabili aleatorie normali o gaussiane 191
Variabili aleatorie normali o gaussiane La distribuzione normale è riproducibile, nel senso che la somma di variabili aleatorie normali e indipendenti ha essa stessa distribuzione normale. 192
Variabili aleatorie normali o gaussiane 193
Variabili aleatorie normali o gaussiane Introduciamo ora una notazione che semplificherà molte delle formule che seguiranno. Per ogni α œ(0,1) definiamo il numero z α in modo che sia P( Z > z ) = 1 Φ ( z ) = (**) α α α ovvero definiamo z α = Φ 1 (1 α ) in modo che la probabilità che una normale standard assuma un valore maggiore di z α sia esattamente α. Il valore di z α al variare di α può essere ottenuto dalla tabella A.1. Ad esempio essendo 1 Φ(1.645) 0.05 z 1.645 0.05 1 Φ(1.96) 0.025 z 1.96 0.025 1 Φ(2.33) 0.01 z 2.33 0.01 194
Variabili aleatorie esponenziali DEFINIZIONE: Una variabile aleatoria continua la cui funzione di densità di probabilità è data da f ( x) x λe λ se x 0 = 0 se x < 0 per un opportuno valore della costante λ>0, si dice esponenziale con parametro (o intensità) λ. La funzione di ripartizione di una tale variabile aleatoria è data da x λ y λ 0 λx F( x) = P( X x) = e dy = 1 e x 0 Nella pratica la distribuzione esponenziale può rappresentare il tempo di attesa che si verifichi un certo evento casuale. 195
Variabili aleatorie esponenziali La media e la varianza di tale variabile sono E[ X ] = 1/ λ Var( X ) = 1/ λ La proprietà centrale della distribuzione esponenziale è la sua assenza di memoria. Con questa espressione riferita ad una variabile aleatoria positiva X si intende che P( X > s + t X > t) = P( X > s) s, t 0 2 196
Variabili aleatorie esponenziali 197
Variabili aleatorie esponenziali 198
Variabili aleatorie esponenziali PROPOSIZIONE: Se X 1,X 2,,X n sono variabili aleatorie esponenziali e indipendenti di parametri λ 1,λ 2,,λ n rispettivamente, allora la variabile aleatoria Y=min(X 1,X 2,,X n ) è esponenziale di parametri n λ i= 1 i 199
Distribuzioni chi-quadro DEFINIZIONE: Se Z 1,Z 2,,Z n sono variabili aleatorie normali standard e indipendenti, allora la somma dei loro quadrati 2 2 2 X = Z1 + Z2 +... + Zn è una variabile aleatoria che prende il nome di chi-quadro a n gradi di libertà. La notazione che useremo per indicare questo fatto è la seguente 2 X χ n Tale distribuzione è riproducibile, nel senso che se X 1 e X 2 sono due chi-quadro indipendenti con n 1 e n 2 gradi di libertà rispettivamente allora la loro somma X 1 +X 2 è un chi-quadro con n 1 +n 2 gradi di libertà. In analogia con l equazione (**), per la distribuzione normale standard, se X è una chi-quadro con n gradi di libertà e α è un reale compreso tra 0 e 1, si definisce la quantità χ 2 α,n tramite l equazione seguente 2 α, n P( X χ ) = α In tabella A.2 sono tabulati i valori di χ 2 α,n parametri α e n. per numerose combinazioni dei 200
Distribuzioni chi-quadro 201
Distribuzioni chi-quadro 202
Distribuzioni chi-quadro 203
Distribuzioni chi-quadro Se X χ n2 allora il valore atteso e la varianza sono dati da E[ X ] = n Var( X ) = 2n 204
Distribuzioni t DEFINIZIONE: Se Z e C n sono variabili aleatorie indipendenti, la prima normale standard e la seconda chi-quadro con n gradi di libertà, allora la variabile aleatoria T n, definita come T = Z n Cn / n si dice avere distribuzione t (o t di Student) con n gradi di libertà, cosa che si denota sinteticamente con T n t n 205
Distribuzioni t La densità delle distribuzioni t, proprio come quella normale standard, è simmetrica rispetto all asse di ascissa 0. E possibile mostrare che al crescere di n, la densità di t n converge a quella della normale standard. La figura mette a confronto la densità di una distribuzione t con 5 gradi di libertà con quella della normale standard. Si noti che la t è caratterizzata da code più spesse, a indicare una variabilità maggiore rispetto alla gaussiana. Valore atteso e varianza di T n sono dati da E[ T ] = 0 n 2 n n Var( Tn ) = n 3 n 2 Si noti che, al crescere di n, la varianza di t n decresce, convergendo a 1 dall alto. 206
Distribuzioni t In analogia con quanto fatto in precedenza, se T n è una t con n gradi di libertà e αœ(0,1), si definisce la quantità t α,n in modo che sia P( T t α ) = α n, n Dalla simmetria rispetto allo zero della densità t, segue che T n ha la stessa distribuzione di T n cosicché α = P( T t ) = P( T t ) = 1 P( T > t ) n α, n n α, n n α, n quindi da cui si ottiene che P( T t α ) = 1 α n, n t = t α, n 1 α, n I valori di t α,n per diverse combinazioni di α e n sono tabulati in tabella A.3. 207
Distribuzioni t 208
Distribuzioni t 209
Problemi 1. In una scuola ci sono 100 studenti, di cui 30 più alti di 180 cm. a) Campionando con reinserimento n=10 studenti, qual è la probabilità di estrarne almeno uno più alto di 180 cm? b) Qual è la probabilità di estrarne esattamente due? c) Qual è la probabilità di estrarne meno di quattro? Svolgimento a) Sia A l evento essere più alti di 180 cm. P(A) = 30/100 = 0.3 Sia X la variabile che definisce il numero di ragazzi più alti di 180 cm (successi), con X ~ Bin(10,0.3) 10! 0 10 b) c) P( X 1) = 1 P( X = 0) = 1 (0.3) (1 0.3) = 0.97 0!10! 10! 2 8 P( X = 2) = (0.3) (1 0.3) = 0.23 2!8! P( X < 4) = P( X = 3) + P( X = 2) + P( X = 1) + P( X = 0) = = 0.27 + 0.23 + 0.12 + 0.03 = 0.65 210
Problemi 2. Si supponga che al Pronto Soccorso di un piccolo ospedale si presentino in media 3 pazienti ogni ora. Allo scopo di predisporre il giusto personale medico, si vuole valutare qual è la probabilità che nello stesso intervallo di tempo arrivino esattamente due pazienti e che arrivino più di due pazienti. Svolgimento 2 3 3 9 P( X = 2) = e = = 0.224 2! 3 2 (2.71828) P( X > 2) = P( X = 3) + P( X = 4) +... + P( X = ) = = 1 P( X 2) = 1 [ P( X = 0) + P( X = 1) + P( X = 2)] = 1 0.423 = 0.577 211
Problemi 3. Sia X il numero di casi di distrofia all anno. Sapendo che il numero medio di casi all anno è 10.5, si vuole calcolare Svolgimento a) a) la probabilità di registrare più di tre casi l anno b) la probabilità di registrarne esattamente 10. P( X > 3) = 1 P( X 3) = 1 [ P( X = 0) + P( X = 1) + P( X = 2) + P( X = 3)] = = 1 (0 + 0.0003 + 0.0015 + 0.005) = 0.99 b) 10 10.5 10.5 P( X = 10) = e = 0.12 10! 212
Problemi 4. Sia X una variabile aleatoria che rappresenta la pressione sistolica. Per la popolazione maschile italiana di età compresa tra i 18 e i 74 anni la pressione sistolica è approssimativamente distribuita secondo un modello normale con media 129 (millimetri di mercurio) e deviazione standard 19.8 (millimetri di mercurio). Si vuole conoscere la probabilità che un individuo selezionato casualmente presenti un livello di pressione sistolica minore di 140. Svolgimento X µ 140 µ 140 129 P( X < 140) = P < = P Z < = σ σ 19.8 = P( Z < 0.556) = Φ(0.556) 0.71 213
Problemi 5. Sia X una variabile causale che misura la glicemia nel sangue. Un precedente studio ha dimostrato che X si distribuisce approssimativamente come una N(4,0.4). Calcolare: Svolgimento a) a) P(X>7) b) P(X 3) c) P(3 X 6) X µ 7 µ 7 4 P( X > 7) = P > = P Z > = σ σ 0.6 = P( Z > 5) = 1 Φ (5) = 1 1 = 0 b) c) X µ 3 µ 3 4 P( X 3) = P = P Z = σ σ 0.6 = P( Z 1.6) = P( Z 1.6) = 1 P( Z 1.6) = 1 Φ (1.6) = 1 0.9452 = 0.05 3 4 X µ 6 4 P(3 X 6) = P = P( Z 3.33) P( Z 1.7) = 0.6 σ 0.6 214 = Φ(3.33) (1 Φ (1.7)) = 0.9996 (1 0.9554) = 0.955
Svolgimento Problemi 6. Il voto ottenuto dagli studenti alla prova scritta di un esame universitario segue una distribuzione normale di media µ = 20 ed è inoltre noto che P(X >18) = 0.7, ossia che con una probabilità pari a 70% si supera l esame. Stabilire quale voto viene superato dal 10% degli studenti. Serve σ 2 e sfruttiamo l informazione P(X > 18) = 0.7. X 20 18 20 0.7 = P( X > 18) = P > = 1 Φ( 2 / σ ) = Φ(2 / σ ) σ σ Dalle tavole si trova 0.52=2/σ. Quindi σ=3.846. Perciò N N(20,14.792). Poiché vale 0.10 = P(X > x) ( 0.90 = P(X < x), si trova X 20 x 20 0.9 = P( X < x) = P < = Φ(( x 20) / 3.846) 3.846 3.846 Dalle tavole si trova 1.28 = (x-20)/3.846. Quindi x = 20 + 1.28 3.846 = 24.923 Concludendo, è circa pari a 10% la probabilità di prendere un voto superiore a 25 all esame universitario. 215
Svolgimento Problemi 7. Due componenti hanno tempi di durata T1 e T2 indipendenti e con funzione di densità esponenziale con valore medio 200 ore. Determinare la probabilità che un dispositivo composto da entrambi i componenti duri almeno 100 ore. La probabilità che il dispositivo duri almeno 100 ore è la probabilità che la durata minima di funzionamento dei due componenti sia almeno 100 ore. Ricordando la proposizione riguardante la funzione di densità del minimo di variabili aleatorie esponenziali indipendenti e identicamente distribuite e ricordando che la media di una distribuzione esponenziale è pari a 1/λ si ha: P(min( T1, T 2) > 100) = P(( T1, T 2) > 100) = 1 P(( T1, T 2) 100) = 1 1 100 100 λt1 λt 2 200 200 1 1 [1 e e ] = 1 [1 e e ] = e 216
Problemi 8. Un prodotto si ottiene dall assemblaggio di tre componenti, le cui lunghezze si distribuiscono come segue: X 1 N(2, 0.01) X 2 N(4, 0.02) X 3 N(3, 0.02) Si assuma che le tre lunghezze siano tra loro indipendenti. Gli standard qualitativi del prodotto prevedono che la lunghezza sia compresa nell intervallo (8.75, 9.25). a) Si determini la probabilità che il prodotto stia negli standard qualitativi; b) Qual è la probabilità che il secondo pezzo sia più lungo del terzo? Svolgimento a) Sia Y = X1 + X2 + X3 la lunghezza del prodotto. Per la proprietà riproduttiva della normale, 2 Y N( µ, σ ) E[ Y ] = E[ X1] + E[ X 2] + E[ X3] = 2 + 4 + 3 = 9 Var( Y ) = Var( X ) + Var( X ) + Var( X ) + 2 Cov( X, X ) + Quindi la probabilità richiesta 1 2 3 1 2 + 2 Cov( X, X ) + 2 Cov( X, X ) = 0.01+ 0.02 + 0.02 = 0.05 1 3 2 3 8.75 9 9.25 9 P(8.75 < Y < 9.25) = P < Z < = P( 1.12 < Z < 1.12) = 0.05 0.05 = 1 2 P( Z > 1.12) = 1 2(1 P( Z < 1.12)) = 2 P( Z < 1.12) 1 = = 2 0.8686 1 = 0.7372 217
b) Vogliamo calcolare la probabilità che il secondo pezzo sia più lungo del terzo, ossia P(X 2 > X 3 ) = P(X 2 X 3 > 0). Sappiamo che Quindi Problemi X X N( E[ X ] E[ X ], Var( X ) + Var( X )) = N(1,0.04) 2 3 2 3 2 3 0 1 P( X 2 X3 > 0) = P( Z > ) = P( Z > 5) = P( Z < 5) 1 0.04 218
Problemi 9. Determinare: a) il valore della t di Student di parametro 24 che si lascia a destra una probabilità pari a 0.05; b) quale valore di una variabile aleatoria χ 2 di parametro 5 si lascia a destra una probabilità pari a 0.025; Svolgimento a) P( T t ) = 0.05 t = 1.711 24 0.05,24 0.05,24 b) 2 2 0.025,5 0.025,5 P( X χ ) = 0.025 χ = 12.833 219
Svolgimento Problemi 10. Un apparecchiatura contiene 2000 componenti ugualmente affidabili, con una probabilità di guastarsi, per ognuno di essi, uguale a p = 0.0005. Sia E i questo evento. Se anche un solo componente si guasta, l apparecchiatura si ferma: valutare la probabilità di quest ultimo evento, supponendo indipendenti i 2000 eventi E i. Con questi valori di p e n si può utilizzare la variabile aleatoria di Poisson con λ = np=1. Allora la probabilità che nessun componente si guasti è e 1, e quindi la probabilità che l apparecchiatura si fermi è uguale a 1 e 1 = 0.632 220