I Esonero Complementi di Probabilità a.a. 204/205 Esercizio. Sia (X n ) n una successione di variabili aleatorie indipendenti, X n Be(p), con p (0, ). Sia H n = {X n = } (l n-esima prova è un successo), a) Per ogni n sia B n = n l= H n+l. Calcolare P(lim sup n + B n ). b) Per ogni n sia C n = 9 l= H n+l. b) Gli eventi (C n ) n sono indipendenti? E gli eventi (C 0n ) n? b2) Calcolare P(lim sup n + C 0n ). Dedurre che P(lim sup n + C n ) =. Esercizio 2. Su (Ω, F, P) sia (X n ) n una successione di variabili aleatorie reali con legge Λ n definita da: Λ n (F ) = α n δ {0} (F ) + β n δ {} (F ) + ( α n β n )µ n (F ), F B(R), dove δ {c} denota la massa di Dirac in c e µ n denota la legge assolutamente continua con densità p n (x) = 2n2 x 3 [n,+ ) (x). a) Verificare che (X n ) n è tight se e solo se lim n + (α n + β n ) =. b) Verificare che (X n ) n converge in distribuzione se e solo se lim n + α n = α e lim n + β n = α. In tal caso a cosa converge? Trovare un esempio di successione tight che non converga in distribuzione. c) Nel caso α n = n 2 e β n = n 2 studiare la convergenza in probabilità, quasi certa e in L p (Ω, F, P) di (X n ) n. Esercizio 3. Su (Ω, F, P), sia X una variabile aleatoria con legge Exp(β), β > 0. a) Determinare una variabile aleatoria integrabile, non negativa della forma f(x), tale che se Q è la misura di probabilità su (Ω, F ) definita da dq dp = f(x) allora X Γ(2, 2β) 2 su (Ω, F, Q). b) Sia Y = e X. Dire se per qualche p si ha Y L p (Ω, F, P) e/o Y L p (Ω, F, Q). c) Su (Ω, F, P) sia (X n ) n una successione di variabili aleatorie indipendenti e indipendenti da X, identicamente distribuite con la stessa legge di X. Poniamo Y n = e X n. Studiare il comportamento asintotico della media empirica Ȳn 3 in (Ω, F, P) e in (Ω, F, Q). ovvero con densità p(x) = βe βx (0,+ ) (x) 2 ovvero con densità q(x) = 4β 2 xe 2βx (0,+ ) (x) 3 Ȳ n = n (Y +... + Y n )
Soluzioni Esercizio. Quindi si ha a) Gli eventi (H n ) n sono indipendenti in quanto le (X n ) n lo sono. P(B n ) = Π n l= P(H n+l) = p n, Dal momento che n P(B n) = n pn < +, per BC, P(lim sup n + B n ) = 0 b) Ovviamente gli eventi (C n ) n non sono indipendenti (facile da far vedere!) mentre gli eventi (C 0n ) n lo sono (anche questo facile da far vedere!). Inoltre per ogni n, P(C n ) = Π 9 l= P(H n+l) = p 9. b2) Dal momento che n P(C 0n) = n p9 = +, per BC2, P(lim sup n + C 0n ) =. Ma {lim sup C n } {lim sup C 0n }, n + n + quindi P(lim sup n + C n ) = Esercizio 2. a) Si tratta di provare che per ogni ε > 0 esiste M > 0 tale che Λ n ([ M, M]) > ε definitivamente. Sia M >, allora, per n > M, Λ n ([ M, M]) = α n + β n, Pertanto la successione è tight se e solo se lim n + (α n + β n ) =. b) Calcoliamo la funzione di ripartizione relativa di X n. Osserviamo che per x n, µ n (, x] = x 2n 2 n dx = n2. x 3 x 2 0 x < 0 α n 0 x < F n (x) = P(X n x) = α n + β n ( α n + β n + ( α n β n ) n2 x 2 ) x < n x n Già sappiamo dal punto precedente che deve essere lim n + (α n + β n ) =, pertanto affinché si abbia convergenza in distribuzione deve essere anche lim n + α n = α e quindi lim n + β n = α. In questo caso lim F n(x) = n + 0 x < 0 α 0 x < x, ovvero X n X, X Be( α). Perché la successione sia tight ma non converga in legge occorre trovare due successioni (α n ) n e (β n ) n, tali che la loro somma converga, ma i
non convergano separatamente. Per esempio α n = per n dispari e α n = 0 per n pari e β n = 0 per n dispari e β n = 0 per n pari. In questo modo la successione X 2n δ 0 e X 2n+ δ. c) Nel caso proposto abbiamo X n Be( n 2 ) e la convergenza in distribuzione è alla variabile aleatoria costante X =. Quindi anche la convergenza in probabilità è a X =. La convergenza quasi certa, se avviene è anch essa a X =. Osserviamo che P( X n > ε) = n 2, quindi n P( X n > ε) = n n 2 < +, per BC, la successione converge anche quasi certamente. Essendo X n limitata, è in L p (Ω, F, P) per ogni p. La convergenza, se avviene è sempre a X =. E[ X n p ] = 0. n2 Esercizio 3. a) Sappiamo che in (Ω, F, P) X ha densità p(x) = βe βx (0,+ ) (x) mentre in (Ω, F, Q) X ha densità q(x) = β 2 xe 2βx (0,+ ) (x). Dato che per ogni F B(R), deve essere Q(X F ) = F {X F } q(x)dx = dq = F {X F } f(x)p(x)dx, f(x)dp, da cui f(x) = q(x)/p(x) e quindi la variabile aleatoria richiesta è f(x) = 4βXe βx. b) Y è una variabile aleatoria quasi certamente positiva in entrambi gli spazi. In (Ω, F, P), E P [Y p ] = + 0 e px βe βx dx < +, se e soltanto se p < β. Quindi se β non appartiene ad alcun L p (Ω, F, P), se β > allora appartiene a L p (Ω, F, P) per p < β. In (Ω, F, Q), E Q [Y p ] = + 0 e px β 2 xe 2βx dx < +, se e soltanto se p < 2β. Quindi se β /2 non appartiene ad alcun L p (Ω, F, Q), se β > /2 allora appartiene a L p (Ω, F, Q) per p < 2β. c) Osserviamo che le variabili (Y n ) n restano indipendenti e identicamente distribuite con legge Exp(β) anche in (Ω, F, Q). Quindi per la LFGN di Kolmogorov Q-q.c. e P-q.c., se β > allora lim n + Ȳ n = E[Y ] = β β. Mentre sempre per la legge di Kolmogorov, se β, si può dire, dato che le variabili sono positive, che lim sup n + Ȳ n = + ii
II Esonero Complementi di Probabilità a.a. 204/205 Esercizio 4. Su (Ω, F, P) siano X e Y due variabili aleatorie reali. Supponiamo X L 2 (Ω, F, P) e definiamo la sua varianza condizionale Var(X Y ) def = E[X 2 Y ] E[X Y ] 2. a) Mostrare che Var(X) = E[Var(X Y )] + Var(E[X Y ]). b) Sia (Z n ) n una successione di variabili aleatorie reali indipendenti ed identicamente distribuite con media µ e varianza σ 2 e sia Y L 2 (Ω, F, P) una variabile aleatoria a valori interi positivi indipendente dalla successione (Z n ) n. Posto X = Y n= Z n calcolare E[X Y ], Var(X Y ) e Var(X). Esercizio 5. Su (Ω, F, P) per ogni n sia (X n, Y ) una variabile aleatoria a valori in R 2 con funzione caratteristica ( n ) 2. φ (Xn,Y )(t, t 2 ) = n i(t + nt 2 ) a) Individuare la legge di Y ; dedurre che Y 0 quasi certamente e che E[Y ] = 2. b) Verificare che la successione ((X n, Y )) n converge in legge (in R 2 ) ed individuare il limite. Sia Q la misura di probabilità su (Ω, F, P) definita da dq dp = 2 Y. c) Scrivere la funzione caratteristica di X n in (Ω, F, Q) e studiare, sempre in (Ω, F, Q) la convergenza in legge della successione (X n ) n Esercizio 6. Su (Ω, F, P) sia (Z n ) n una successione di variabili aleatorie indipendenti ed identicamente distribuite tali che Z n Be(p) con p (0, ). Fissato un intero a > 0, sia τ = inf{n 0 : S n = a}, dove S 0 = 0 e per n, S n = Z + + Z n. Definiamo F 0 = {, Ω} e per n, F n = σ(z,..., Z n ). Per θ > 0 e c(p, θ) > 0, sia X θ n = e θsn c(p, θ) n, n 0. a) Verificare che il processo (X θ n) n 0 è adattato e integrabile quindi determinare la costante c(p, θ) che lo rende una F n -martingala. b) Nel caso in cui (X θ n) n 0 sia una martingala dimostrare che converge quasi certamente, per n +, ed individuare il limite. Si tratta di una martingala uniformemente integrabile? iii
c) Dimostrare che τ è un F n -tempo di arresto e che (X θ n τ ) n converge quasi certamente e in L p (Ω, F, P), per n + a una variabile W θ da determinare. d) Verificare che P(τ < + ) = e calcolare E[c(p, θ) τ ] per ogni θ > 0. iv
Soluzioni Esercizio 4. a) E[Var(X Y )] + Var(E[X Y ]) = E[E[X 2 Y ] E[X Y ] 2 ] + (E[E[X Y ] 2 ] E[E[X Y ]] 2 ) = E[E[X 2 Y ]] E[E[X Y ] 2 ] + E[E[X Y ] 2 ] E[E[X Y ]] 2 = E[X 2 ] E[X] 2 = Var(X). b) Per le proprietà della speranza condizionale [ Y [ Y y ] y=y E[X Y ] = E Z l ] = E Z l = µy. l= l= [( Y ) 2 Y ] [ Y ] 2 [( y ) 2 ] [ y=y y ] 2 y=y Var(X Y ) = E Z l E Z l Y = E Z l E Z l = l= ( [ y E Per il punto a) si ha l= Z 2 l l j l= l= ] [ ] + E Z l Z j (µy) 2) y=y = = Y (µ 2 + σ 2 ) + Y 2 µ 2 Y µ 2 Y 2 µ 2 = Y σ 2. l= ( ye[z 2 ] + y(y )µ 2 y 2 µ 2) y=y Var(X) = E[Var(X Y )] + Var(E[X Y ]) = E[Y σ 2 ] + Var(µY ) = µ 2 Var(Y ) + E[Y ]σ 2. Esercizio 5. ( a) Ricordiamo che φ (Xn,Y )(t, t 2 ) = E[e i(t X n +t 2 Y ) n 2, ] = n i(t +nt 2 )) pertanto la funzione ( ) 2 caratteristica della variabile aleatoria Y è φ Y (t) = E[e ty ] = φ (Xn,Y )(0, t) = it 2 da cui si evince che Y Γ(2, ). Quindi Y 0 quasi certamente e E[Y ] = 2. b) Per la convergenza in legge osserviamo che lim φ (X n + n,y )(t, t 2 ) = quindi in legge (X n, Y ) tende a (0, Y ). ( lim n + n n i(t + nt 2 ) ) 2 = ( ) 2, it 2 c) Per le proprietà di Y Q è ancora una misura di probabilità su (Ω, F ). La funzione caratteristica di X n in (Ω, F, Q) è φ Q X n (t) = E Q [e itxn ] = 2 E[eitXn Y ] = 2i i φ (Xn,Y )(t, t 2 ) t 2 t =0,t 2 =t,
dove l ultima uguaglianza è giustificata dal fatto che la funzione φ (Xn,Y ) è derivabile infinite volte. Pertanto, semplici conti, mostrano che Quindi X n 0 in (Ω, F, Q) φ Q X n (t) = n 3, (n it) 3 Esercizio 6. a) Per ogni n 0, X n è funzione di S n quindi F n misurabile. Inoltre è integrabile dato che 0 S n n e quindi X n è limitato. Veniamo al calcolo di c(p, θ). E[X θ n+ F n ] = E[e θs n+ c(p, θ) (n+) F n ] = E[e θ(s n+x n+ ) c(p, θ) (n+) F n ] = X θ nc(p, θ) E[e θ X n+ ], pertanto c(p, θ) = E[e θ X n+ ] = p + pe θ. Osserviamo subito che c(p, θ) > per θ > 0 e c(p, θ) = per θ = 0. ( ) b) Xn θ = e S n n n c(p, θ) Sn 0 per n +, infatti e n c(p, θ) e p c(p, θ) <. (DIMOSTRARE che vale questa disuguaglianza!!) La martingala non può essere uniformemente integrabile perché non converge in L (Ω, F, P). La media della martingala è, il limite è nullo. c) {τ = n} = {S a,..., S n a, S n = a} F n. (Xn τ θ ) n è una martingala positiva arrestata di una martingala positiva quindi converge quasi certamente. Inoltre Xn τ θ e θa c(p, θ) (n τ) e θa, quindi converge anche in L p (Ω, F, P) per ogni p. Veniamo al calcolo del limite lim n + Xθ n τ = lim n + (Xθ τ {τ n} + Xn θ {τ>n} ) = e θa c(p, θ) τ {τ<+ }. Quindi W θ = e θa c(p, θ) τ {τ<+ }. d) Osserviamo W θ quasi certamente per θ 0. Quindi per DOM (W θ e θa ) lim θ 0 E[W θ ] = E[ {τ<+ } ] = P(τ < + ) =. Dato che la martingala arrestata ha media la convergenza in L (Ω, F, P) assicura che = E[W θ ] = E[e θa c(p, θ) τ ], da cui E[c(p, θ) τ ] = e θa ii
I appello I Sessione - 26 gennaio 205 Complementi di Probabilità a.a. 204/205 Esercizio 7. Sia dato (Ω, F, P), con Ω = R, F = B(R) e per A F, P(A) = e 4 x2 dx. 4π Sia X(ω) = ω e Q la misura su (Ω, F ) definita da dq dp = ex. a) Verificare che X N(0, 2) e che 4 Q è una misura di probabilità su (Ω, F ). b) Su (Ω, F, P), siano Y e Y 2 variabili aleatorie indipendenti tra loro e con X. Dimostrare che Y e Y 2 rimangono indipendenti anche in (Ω, F, Q). Come cambia la legge congiunta? c) Su (Ω, F, P), sia (Y n ) n una successione di variabili aleatorie indipendenti e identicamente distribuite e indipendente da X. Supponiamo Y L 2 (Ω, F, P) e che E[Y ] = 0, Var(Y ) = σ 2. Discutere la convergenza debole, per n, di { n n α k= Y k} n nello spazio (Ω, F, Q), al variare di α 2. A Esercizio 8. Su (Ω, F, P) sia X N(µ, σ 2 ). Calcolare a) E[sin X], E[cos X]; b) Var(cos X), Cov(sin X, cos X). Esercizio 9. Su (Ω, F, P) sia Z una variabile aleatoria X Exp(λ), λ > 0. Poniamo Y n = e λn {X n} F n = σ({y 0,..., Y n }), n 0. a) Verificare che E[Y n+ F n ] = E[Y n+ Y n ]. b) Dedurre che (Y n ) n 0 è una F n -martingala. Converge quasi certamente? È limitata in L (Ω, F, P)? Si tratta di una martingala uniformemente integrabile? Sia τ = inf{n 0 : Y n = 0} (con la convenzione inf = + ). c) Dimostrare che τ è un F n -tempo di arresto quasi certamente finito. d) Discutere la convergenza quasi certa e in L (Ω, F, P) del processo arrestato (Y τ n ) n 0 4 Ricordiamo che se Z N(0, ), allora E(e λz ) = e λ2 /2. iii
Soluzioni Esercizio 7. Osserviamo che g(x) = 4π e 4 x2 è la densità di una N(0, 2) e che P(X A) = P(A) = A g(x)dx dunque, X N(0, 2). Poi, essendo Q(A) = E(e X A ), si ha Q(Ω) = E(e X ) = e 2/2 e = perché E(e λz ) = e λ2 /2 se Z N(0, ), quindi E(e λx ) = e λ2 σ 2 /2 se X N(0, σ 2 ) b) Prendiamo Y, Y 2 indipendenti tra loro e con X. Allora, per ogni boreliano A e A 2, Q(Y A, Y 2 A 2 ) = E Q ( Y A,Y 2 A 2 ) = E( Y A,Y 2 A 2 e X ) Prendendo poi A 2 = R, otteniamo = E( Y A,Y 2 A 2 )E(e X ) = E( Y A Y2 A 2 ) = E( Y A )E( Y2 A 2 ) = P(Y A )P(Y 2 A 2 ) Q(Y A ) = Q(Y A, Y 2 R) = P(Y A )P(Y 2 R) = P(Y A ) e analogamente troviamo Q(Y 2 A 2 ) = P(Y 2 A 2 ) Dunque, sotto Q si ha: ) la legge congiunta è la misura prodotto delle leggi marginali, quindi Y e Y 2 rimangono indipendenti; 2) la legge congiunta è uguale a quella sotto P. c) Per quanto appena visto, {Y k } k rimangono i.i.d. anche sotto Q e ancora di media nulla e varianza σ 2. Se α = /2, possiamo applicare il TLC: n α n k= Y k w N(0, σ 2 ), n Se invece α > /2 abbiamo una situazione del tipo con γ n = n /2 α 0 e Z n W n = n α n Y k = γ n Z n k= w N(0, σ 2 w ). Dunque, dovrebbe essere W n 0. Infatti, ( E Q ( W n 2 ) = E( W n 2 ) = γnvar 2 n n k= ) Y k = γn 2 n n Var ( ) Y k = γ 2 n σ 2 0, k= n Dunque, W n 0 in L 2 (Ω, F, Q) e quindi W n w 0. i
Esercizio 8. a) Ricordiamo che se XN(µ, σ 2 ), allora la sua funzione caratteristica è D altra parte, in generale, quindi e ϕ X (t) = e iµt 2 σ2 t 2 = e 2 σ2 t 2 cos µt + i e 2 σ2 t 2 sin µt. ϕ X (t) = E[e itx ] = E[cos tx] + i E[sin tx], E[cos tx] = Re(ϕ X (t)) = e 2 σ2 t 2 cos µt E[cos X] = Re(ϕ X ()) = e 2 σ2 cos µ. E[sin tx] = I m(ϕ X (t)) = e 2 σ2 t 2 sin µt E[sin X] = I m(ϕ X ()) = e 2 σ2 sin µ. b) Per calcolare Var(cos X) occorre calcolare E[cos 2 X]. Ma cos 2 x = 2 ( cos 2x), quindi E[cos 2 X] = 2 ( E[cos 2X]) = 2 ( e2σ2 cos 2µ), da cui Var(cos X) = 2 ( e 2σ2 cos 2µ) (e 2 σ2 cos µ) 2. Analogamente per calcolare Cov(cos X, sin X) occorre calcolare E[cos X sin X]. Ma cos x sin x = 2 sin 2x, quindi E[cos X sin X] = 2 E[sin 2X]) = 2 e 2σ2 sin 2µ, da cui Cov(cos X, sin X) = 2 e 2σ2 sin 2µ (e 2 σ2 sin µ) 2. Esercizio 9. a) Le Y n assumono solo due valori 0 e e λn. Osserviamo che se esiste j 0,,..., n tale che x j = 0 (che vuol dire X < j) allora l evento {Y 0 = x 0,..., Y n = x n } ha probabilità non nulla se e solo se x j+ = 0,..., x n = 0 (in quanto X < j +,... X < n), pertanto in questo caso E[Y n+ Y 0 = x 0,..., Y j = 0,..., Y n = 0] = 0 = E[Y n+ Y n = 0]. Resta da vedere cosa accade quando gli x j sono tutti non nulli. E[Y n+ Y 0 =,..., Y n = e λn ] = E[Y n+ X 0,..., X n] = E[Y n+ X n] = E[Y n+ Y n = e λn ]. b) (Y n ) n 0 è un processo adattato per come è definita la filtrazione. Integrabile in quanto E[ Y n ] = E[Y n ] =. Verifichiamo la proprietà di martingala. Calcoliamo la legge di Y n+ Y n. Si ha P(Y n+ = 0 Y n = 0) =, E[Y n+ Y n = 0] = 0. ii
quindi P(Y n+ = 0 Y n = e λn ) = P (X < n + X n) = e λ P(Y n+ = e λ(n+) Y n = e λn ) = P (X n + X n) = e λ E[Y n+ Y n ] = E[Y n+ Y n = e λn ] {X n} = e λn {X n} = Y n. Si tratta di una martingala positiva, (quindi) limitata in L (Ω, F, P), che quindi converge quasi certamente. Il limite quasi certo è banalmente Y = 0, in quanto è immediato vedere che Y n 0 in probabilità. Non è pertanto uniformemente integrabile perché in tal caso convergerebbe in L (Ω, F, P), mentre le medie non convergono. c) {τ = n} = {Y 0 0,..., Y n 0, Y n = 0} F n. Inoltre P(τ = n) = P(X 0,..., X n, X < n) = P(n X < n) = e λn ( e λ ), quindi τ Ge(e λ ), quindi è quasi certamente finito. d) (Y n τ ) n è una martingala positiva arrestata di una martingala positiva quindi converge quasi certamente. Veniamo al calcolo del limite lim Y n τ = Y τ {τ + } + Y {τ=+ } = 0. n + Quindi anche in questo caso trattandosi di una martingala positiva che converge a 0 quasi certamente non può esserci convergenza in L (Ω, F, P). iii
II appello I Sessione - 6 febbraio 205 Complementi di Probabilità a.a. 204/205 Esercizio 0. Su (Ω, F, P) sia (X, Y ) una variabile aleatoria a valori in R 2 con funzione caratteristica ϕ (X,Y ) di classe C 2 (R 2 ). Supponiamo esista g : R C tale che per ogni a, b R tali che a 2 + b 2 =, ϕ (X,Y ) (at, bt) = g(t). Dimostrare che a) X ed Y sono identicamente distribuite a media nulla; b) X ed Y sono scorrelate. Esercizio. Su (Ω, F, P) sia (X n ) n una successione di variabili aleatorie identicamente distribuite, assolutamente continue, con densità p(x) = α x α (,+ ) (x), α >. Poniamo Y n = X n /n. a) Studiare la convergenza in distribuzione, in probabilità e in L p (Ω, F, P) della successione (Y n ) n al variare di α >. b) Nell ipotesi ulteriore che le (X n ) n siano indipendenti, calcolare, sempre al variare di α >, lim sup n + Y n e lim inf n + Y n. La successione converge quasi certamente? Esercizio 2. Su (Ω, F, P) sia (ξ n ) n una successione di variabili aleatorie indipendenti e identicamente distribuite, ξ n Be(p), con p (0, ). Per a, b R definiamo la funzione f : {0, } R ponendo f(0) = a f() = b. Definiamo, quindi, ricorsivamente una successione di variabili aleatorie reali, X 0 =, X n+ = X n f(ξ n+ ). Poniamo poi F 0 = {, Ω} e F n = σ(ξ,..., ξ n ) per n. a) Si mostri che il processo (X n ) n 0 è una martingala se e solo se b = a( p) p. D ora in avanti b = a( p) p b) Si discuta l esistenza del limite quasi certo del processo (X n ) n 0 per 0 a ( p) c) Dimostrare che per a = 0 quasi certamente lim n + X n = 0. d) Supponiamo ora a < 0. Si mostri che il processo (X n ) n 0 non è limitato in L (Ω, F, P). Converge in L p (Ω, F, P) per qualche p >? iv
Soluzioni Esercizio 0. La regolarità assegnata della funzione caratteristica garantisce che le due variabili X e Y siano in L 2 (Ω, F, P) e che quindi esistano i loro momenti secondi e la loro covarianza. a) Ricordiamo che ϕ (X,Y ) (s, t) = E[e i(sx+ty ], pertanto per a, b R tali che a 2 + b 2 = ϕ (X,Y ) (at, bt) = E[e it(ax+by ] = ϕ ax+by (t) = g(t), da cui si evince che la legge della variabile aleatoria ax +by per a, b R tali che a 2 +b 2 = non dipende da a e da b, in quanto la funzione caratteristica è sempre la stessa. Scegliendo a = 0, b = e successivamente a =, b = 0 si ottiene ϕ X (t) = g(t) = E[e itx ], ϕ Y t) = g(t) = E[e ity ], ovvero X e Y sono identicamente distribuite. Quindi hanno la stessa media. Per quanto sopra osservato per a, b R tali che a 2 + b 2 = quindi deve essere E[X] = E[Y ] = 0. E[aX + by ] = ae[x] + be[y ] = (a + b)e[x] = E[X], b) Sempre perché sono identicamente distribuite anche i momenti secondi coincidono. Per la precisione per a, b R tali che a 2 + b 2 =, Quindi E[(aX + by ) 2 ] = E[X 2 ] = E[Y 2 ]. a 2 E[X 2 ]+b 2 E[Y 2 ]+2abE[XY ] = (a 2 +b 2 )E[X 2 ]+2abE[XY ] = E[X 2 ]+2abE[XY ] = E[X 2 ], Quindi E[XY ] = 0, ovvero dato che le variabili sono centrate Cov(X, Y ) = 0. Esercizio. a) Per la convergenza in distribuzione cominciamo col calcolare la funzione di ripartizione F (comune) delle X n. Semplici conti mostrano che { 0 x < F (x) = x α x Quindi detta F n la funzione di ripartizione di Y n = X n /n si ha, per y R, { 0 y < /n F n (y) = F (n α y) = y /n (ny) α i
Passando al limite si ha Per ogni y 0, lim F n(y) = n + 0 y < 0 0 y = 0 y > 0. { 0 x < 0 lim F n(x) = G(x) = n + x 0. Quindi X n n = 0 per ogni α >. Si osservi che F n (0) NON converge a G(0), ma questo non è rilevante dato che la funzione limite non è continua in zero. Dato che la convergenza debole è ad una costante la successione converge anche in probabilità a zero. Veniamo alla convergenza in L p (Ω, F, P). Se converge il limite deve essere zero. E[ Y n p ] = E[Y p n ] = n p + x p α x α dx = n p + α dx, xα p Questo conto dimostra che Y n L p (Ω, F, P) solo se α p >, ovvero p < α ed in tal caso si ha anche la convergenza in L p (Ω, F, P) a zero. b) Veniamo alla convergenza quasi certa. Ovviamente se converge converge a zero. Per ogni ε > 0 definitivamente nε >, quindi P( Y n > ε) = P(Y n > ε) = (nε) α. Se α > 2 la serie + n= P( Y n > ε) converge quindi la successione converge a zero q.c. (per BC, qui l indipendenza non è necessaria), mentre se α 2 la serie diverge, quindi la successione non converge a zero quasi certamente (per BC2, qui l indipendenza è necessaria). In quest ultimo caso si possono andare a studiare il limite superiore ed il limite inferiore della successione che esistono sempre, e vista l ipotesi di indipendenza, sono quasi certamente costanti. A tale scopo andiamo a studiare il comportamento asintotico delle seguenti probabilità: P(Y n > a) e P(Y n < a). Semplici conti mostrano che, definitivamente, { a 0 P(Y n > a) = In ogni caso n P(Y n > a) = +, quindi Segue (na) α a > 0 P(lim sup{y n > a}) = P(Y n > a i.o.) =. n + P(lim sup Y n = + ) =. n + Semplici conti mostrano che, definitivamente, { 0 a 0 P(Y n < a) = a > 0 (na) α ii
Da cui si evince n P(Y n < ε) < +, n P(Y n ε) = + Segue P(lim inf n + Y n = 0) =. Esercizio 2. a) Verifichiamo che il processo (X n ) n 0 sia adattato e integrabile. X 0 è F 0 adattato in quanto costante. Per induzione se supponiamo X n F n -misurabile segue che X n+ è il prodotto di X n (F n -misurabile) per una funzione misurabile di ξ n+, quindi F n+ misurabile. Anche l integrabilità si ottiene per induzione. X 0 è integrabile. Supponiamo X n integrabile, allora Passiamo alla proprietà di martingala. E[ X n+ ] max{ a, b }E[ X n ] < +. E[X n+ F n ] = E[X n f(ξ n+ ) F n ] = X n E[f(ξ n+ )], quindi deve essere E[f(ξ n+ )] = bp + a( p) =, che è vero se e solo se b = a( p) p. b) Per 0 a ( p), la funzione f è non negativa quindi la martingala (X n ) n 0 è non negativa, pertanto è limitata in L (Ω, F, P) quindi converge quasi certamente. c) Per a = 0, b = /p, quindi abbiamo X 0 =, X = p {}(ξ ), X 2 = X p {}(ξ 2 ) = p 2 {} (ξ ) {} (ξ 2 ) e iterando, X n = p n {}(ξ ) {} (ξ 2 )... {} (ξ n ). È immediato verificare che per ogni ε > 0, P( X n > ε) = P(ξ =,..., ξ n = ) = p n 0. Quindi in probabilità lim n + X n = 0 e dal punto precedente la convergenza è quasi certa. La martingala non può convergere in L (Ω, F, P) perché non c è convergenza delle medie. d) Calcoliamo E[ f(ξ n ) ] = a ( p)+ b p = a( p)+bp = a( p)+ a( p) = 2a( p) = α >. Quindi E[ X n+ ] = E[ X n f(ξ n+ ) ] = E[ X n ]E[ f(ξ n+ ) ] = αe[ X n ] =... = α n Pertanto sup n E[ X n ] = +. In questo caso la martingale non è uniformemente integrabile, quindi non converge in L (Ω, F, P), quindi in nessun L p (Ω, F, P) iii
III appello II Sessione - 2 luglio 205 Complementi di Probabilità a.a. 204/205 Esercizio 3. Siano X, Z variabili aleatorie reali con densità congiunta f X,Z (x, z) = e z 0 x z. Calcolare a) E[X Z]; b) E[Z X]. Esercizio 4. Su (Ω, F, P) sia (X n ) n una successione di variabili aleatorie identicamente distribuite, assolutamente continue, con densità p(x) = x 2 (,+ ) (x). Poniamo Y n = Xn n con α > 0. α a) Studiare la convergenza in distribuzione, in probabilità e in L p (Ω, F, P) della successione (Y n ) n al variare di α > 0. b) Nell ipotesi ulteriore che le (X n ) n siano indipendenti, calcolare, sempre al variare di α > 0, lim sup n + Y n e lim inf n + Y n. La successione converge quasi certamente? Esercizio 5. Su (Ω, F, P) sia (ξ n ) n una successione di variabili aleatorie indipendenti uniformi (discrete) in {,..., n+} ovvero tali che P(ξ n = j) = n+, con j {,..., n+}, n. Poniamo X 0 = e per n, X n = X n + {ξn X n }. Poniamo poi F 0 = {, Ω} e F n = σ(ξ,..., ξ n ) per n. a) Si mostri che il processo (X n ) n 0 è adattato rispetto alla filtrazione (F n ) n 0 e integrabile. b) Dimostrare che E[ {ξn+ X n} F n ] = X n /(n + 2) per n 0. c) Dimostrare che il processo (X n ) n 0 è una submartingala e trovare il suo compensatore. d) Determinare α > 0 tale che posto Y n = αx n /(n + 2), il processo (Y n ) n 0 sia una martingala. Dimostrare che in questo caso (Y n ) n 0 converge quasi certamente ad una variabile aleatoria Y L (Ω, F, P). iv
Soluzioni Esercizio 3. Ricordiamo, che avendo la coppia (X, Z) densità congiunta, allora E[X Z] = Ψ(Z) dove Ψ(z) è la media della legge condizionale, ovvero Ψ(z) = R xf X Z(x z)dx. Analogamente E[Z X] = Φ(X) dove Φ(z) è la media della legge condizionale, ovvero Φ(x) = R zf Z X(z x)dz. Determiniamo le densità marginali di X e Z. f X (x) = R f Z (z) = R f X,Z (x, z)dz = R f X,Z (x, z)dx = a) Calcoliamo la densità condizionale. R + e z 0 x z dz = 0 x e z dz = e x x 0, z e z 0 x z dx = 0 z e z dz = ze z z 0, x 0 f X Z (x z) = f X,Z(x, z) f Z (z) = z 0 x z. Quindi la legge condizionale è uniforme su [0, z]. Quindi E[X Z] = Ψ(Z) = Z 2. b) Come nel caso precedente calcoliamo la densità condizionale. f Z X (z x) = f X,Z(x, z) f X (x) = e (z x) 0 x z. Semplici conti mostrano che Φ(x) = quindi E[Z X] = X +. R ze (z x) 0 x z dz = x +, Esercizio 4. a) Per la convergenza in distribuzione cominciamo col calcolare la funzione di ripartizione F n delle Y n. Semplici conti mostrano che { 0 y < /n α F n (y) = P(Y n y) = P(X n n α y) = n α y y /n α Passando al limite si ha Per ogni y 0, lim F n(y) = n + 0 y < 0 0 y = 0 y > 0. { 0 x < 0 lim F n(x) = G(x) = n + x 0. i
Quindi Y n = 0 per ogni α > 0. Si osservi che F n (0) NON converge a G(0), ma questo non è rilevante dato che la funzione limite non è continua in zero. Dato che la convergenza debole è ad una costante la successione converge anche in probabilità a zero. Veniamo alla convergenza in L p (Ω, F, P). Se converge il limite deve essere zero. E[ Y n p ] = E[Y p n ] = n αp + x p x 2 dx. Questo conto dimostra che Y n L p (Ω, F, P) solo se 2 p >, ovvero p <. Quindi non si ha mai anche la convergenza in L p (Ω, F, P) a zero. b) Veniamo alla convergenza quasi certa. Ovviamente se converge converge a zero. Per ogni ε > 0 definitivamente ε > /n α, quindi P( Y n > ε) = P(Y n > ε) = n α ε. Se α > la serie + n= P( Y n > ε) converge quindi la successione converge a zero q.c. (per BC, qui l indipendenza non è necessaria), mentre se α la serie diverge, quindi la successione non converge a zero quasi certamente (per BC2, qui l indipendenza è necessaria). In quest ultimo caso si possono andare a studiare il limite superiore ed il limite inferiore della successione che esistono sempre, e vista l ipotesi di indipendenza, sono quasi certamente costanti. A tale scopo andiamo a studiare il comportamento asintotico delle seguenti probabilità: P(Y n > a) e P(Y n < a). Semplici conti mostrano che, definitivamente, { a 0 P(Y n > a) = In ogni caso n P(Y n > a) = +, quindi Segue n α a a > 0 P(lim sup{y n > a}) = P(Y n > a i.o.) =. n + P(lim sup Y n = + ) =. n + Semplici conti mostrano che, definitivamente, { 0 a 0 P(Y n < a) = n α a a > 0 Da cui si evince n P(Y n < ε) < +, n P(Y n ε) = + Segue P(lim inf n + Y n = 0) =. Esercizio 5. a) Verifichiamo che il processo (X n ) n 0 sia adattato e integrabile. X 0 è F 0 adattato in quanto costante. Per induzione se supponiamo X n F n -misurabile segue che X n+ è la ii
somma di X n (F n -misurabile) per una funzione misurabile di ξ n+ e X n, quindi F n+ misurabile. L integrabilità è ovvia dato X n n. b) Dal momento che X n è F n misurabile e ξ n+ indipendente da F n, si ha E[ {ξn+ X n } F n ] = E[ {ξn+ x}] = P(ξ n+ x). x=xn x=xn Ma ξ n+ è uniforme discreta su {, 2,..., n + 2}, quindi Dato che X n è a valori interi, P(ξ n+ x) = [x] n + 2 E[ {ξn+ X n } F n ] = X n n + 2 c) La misurabilità e l integrabilità le abbiamo già provate. D altra parte E[X n+ X n F n ] = E[ {ξn+ X n} F n ] = X n n + 2 0, quindi il processo è una submartingala. Il compensatore (A n ) n 0 è definito da A 0 = 0 e A n+ = A n + E[X n+ X n F n ] = n k=0 E[X k+ X k F k ], in questo caso A n+ = n X k k=0 k+2. d) La misurabilità l integrabilità del processo (Y n ) n 0 seguono banalmente dalle analoghe proprietà del processo (X n ) n 0. Passiamo alla proprietà di martingala. [ E[Y n+ F n ] = E α X n+ = α n + 3 ] F n = α n + 3 n + 3 E[X n + {ξn+ X n } F n ] ( ) X n + X n n + 2 = α X n n + 2 = Y n. Quindi queste proprietà è verificata per ogni α > 0, dal momento che la martingala deve avere media costante e X 0 = deve essere E[X n ] = E[X 0 ] = α/2 =, da cui α = 2. Essendo (Y n ) n 0 una martingala limitata converge quasi certamente e in L (Ω, F, P). iii
IV appello III Sessione - 22 settembre 205 Complementi di Probabilità a.a. 204/205 Esercizio 6. Su (Ω, F, P), sia (X n ) n una successione di variabili aleatorie indipendenti X n Be(/n α ), α > 0. Poniamo W n = min{x,..., X n }. a) Studiare la convergenza in legge, in probabilità e in L p (Ω, F, P) di (X n ) n e (W n ) n al variare di α > 0. b) Studiare la convergenza quasi certa di (X n ) n e (W n ) n al variare di α > 0. Calcolare lim sup n + X n e lim inf n + X n al variare di α > 0. Esercizio 7. Su (Ω, F, P), sia X una variabile aleatoria assolutamente continua con densità f(x) = 2 e x per x R. a) Scrivere la legge di X + = max(x, 0). X + è assolutamente continua? X + e X = max( X, 0) sono indipendenti? Sia Q la misura su (Ω, F ) definita da Q(A) = ce(e X + A ), A F, con c > 0. b) Calcolare c affinché Q sia una misura di probabilità. c) Posto g(x) = e x, siano Y = g(x + ) e Z = g(x ). Dire per quali p si ha Y L p (Ω, F, P) e/o Z L p (Ω, F, Q). Esercizio 8. Sia (X n ) n una successione di variabili aleatorie indipendenti e identicamente distribuite tali che P(X n = +) = p = P(X n = ) con p = /(e+). Definiamo X 0 = 0 e per n 0, F n = σ(x 0,..., X n ), S n = X 0 + X + + X n e Y n = e Sn. a) Dimostrare che (Y n ) n 0 è una F n -martingala che converge quasi certamente ma non in L ad una variabile aleatoria da determinare. Poniamo τ = inf{n : X n = +} e per n 0, Y τ n = Y τ n. b) Dimostrare che τ è un F n -tempo d arresto quasi certamente finito e che (Y τ n ) n 0 è un processo limitato 5. c) Dimostrare che (Y τ n ) n 0 converge quasi certamente e in L p per ogni p alla variabile aleatoria Z = e τ+2. d) Dedurre che E[e τ ] = e 2. 5 Cioè, esiste L > 0 tale che sup n Y τ n L quasi certamente iv
Soluzioni Esercizio 6. a) Osserviamo che per x R, quindi quindi detta µ la legge Exp(). P(X + x) = P(X x, X > 0) + P(0 x, X 0), P(X + x) = 0 x < 0 2 x = 0 2 ( e x ) + 2 x > 0. Λ X+ = 2 µ + 2 δ {0}. Ovviamente X + non è assolutamente continua: preso A = {0}, Leb (A) = 0 ma Λ X+ (A) = 2 > 0. Infine, X + e X non sono indipendenti: P(X + > 0, X > 0) = 0 ma P(X + > 0) > 0 e P(X > 0) = P(X + > 0) > 0. b) Dev essere Calcoliamo la media: Quindi c = 4/3. c) Si ha = Q(Ω) = ce(e X + ). E(e X + ) = E(e X + X>0 ) + E( e X + X 0 ) = E(e X X>0 ) + E( X 0 ) }{{} X + =0 su {X 0} = 2 + 0 e 2x dx + P(X 0) = 3 }{{} 4. =/2 E( Y p ) = E(e px + ) = E(e px + X>0 ) + E(e px + X 0 ) = E(e px X>0 ) + E( X 0 ) = 2 + 0 e (p )x dx + 2 ed il primo integrale è finito se e solo se p < 0, cioè p <. Dunque, Y / L p (Ω, F, P) per ogni p. Vediamo Z: E Q ( Z p ) = E(e px e X + ) = ce(e px X + X>0 ) + ce(e px X + X 0 ) Ora, la prima media abbiamo, = ce(e X X>0 ) + ce(e px X 0 ) E(e X X>0 ) = 2 i + 0 e 2x dx,
che è senz altro finito. Per la seconda: E(e px X 0 ) = 2 0 e x(p+) dx che è finito per ogni p >. Dunque, Z L p (Ω, F, Q) per ogni p. Esercizio 7. Cominciamo con l osservare che anche W n è una variabile aleatoria di Bernoulli di parametro p n = P(W n = ) = 2... α n = α (n!). Ricordiamo che la funzione caratteristica di una α Bernoulli di parametro p è φ p (ϑ) = e iϑ p + ( p), e che per p 0 φ p (ϑ), quindi entrambe le successioni tendono a zero in legge (il parametro di entrambe va a zero). Dato che entrambe le successioni tendono ad una costante (zero) in legge ci tendono anche in probabilità. b) La convergenza quasi certa, se avviene, è a zero. P( X n > ε) = P( X n = ) = n α. La serie n n < + converge se e solo se α > ed i lemmi di Borel Cantelli (entrambi!) α mi dicono che la successione converge a zero quasi certamente se e solo se α >. Per quanto riguarda lim sup n + X n e lim inf n + X n sappiamo essere costanti (quasi certamente) e in {0, }. Pertanto per 0 < α si ha lim sup n + X n = e lim inf n + X n = 0 mentre per α > lim sup n + X n = lim inf n + X n = 0 (n!) α P( W n > ε) = P( W n = ) = (n!) α. La serie n < + converge per ogni α > 0 ed il primo lemma di Borel Cantelli mi dice che la successione converge a zero quasi certamente per ogni α > 0. c) Per ogni p, lim E[ X n p ] = E[X n ] = n + n α = 0, lim E[ W n p ] = E[W n ] = n + 2 α... n α = 0, quindi le due successioni convergono in L p (Ω, F, P) per ogni p Esercizio 8. a) S n è F n -misurabile e Y n è una funzione boreliana di S n, quindi F n - misurabile. Inoltre, n E[ Y n ] = E[e Sn ] = E(e X k ). Ma k= E(e X k ) = e + p + e ( p) = ii
quindi Y n L per ogni n. Infine, E[Y n+ F n ] = E[ F n -mis. {}}{ Y n e X n+ }{{} ind. da F n F n ] = Y n E[e Xn+ ] = Y n quindi (Y n ) n è una F n -martingala. Ora, Y n 0 per ogni n e (Y n ) n è ovviamente limitata in L. Quindi, per il teorema di convergenza q.c. per martingale, esiste il limite q.c. e tale limite è in L. Osserviamo che Y n = exp ( n n S ) n e per la LFGN, n S n E[X ] = p ( p) = 2p < 0 q.c. per n. Ma allora, S n q.c. e quindi Y n 0 q.c. Tale convergenza non è vera in L : se così fosse, si dovrebbe avere E[Y n ] E[0] = 0, il che è falso. b) Si ha {τ > n} = {X =,..., X n = } = {X = } {X n = } F n quindi τ è un F n -t.a. Inoltre, essendo le X k indipendenti, P(τ > N) = P(X = ) P(X N = ) = ( p) N 0 per N, dunque P(τ < ) =. Mostriamo la limitatezza di {Y τ n } n. Si ha 0 Y τ n = Y τ {τ n} + Y n {τ>n}. Osserviamo che X = = X τ = e X τ = +, quindi Y τ = e (τ )+ = e τ+2. Inoltre, su {τ > n} si ha X = = X n =, quindi Y n = e n. Quindi, 0 Y τ n = e τ+2 {τ n} + e n {τ>n} e 2 +. c) Sappiamo che (Y τ n ) n è una martingala, quindi ne studieremo la convergenza usando i risultati che riguardano le martingale. Poiché la martingala (Y τ n ) n è limitata, è limitata in L p per ogni p, e quindi converge q.c. ed in L p ad una v.a. Z. Ora, il che dà Z = e τ+2. Yn τ = e τ+2 {τ n} + e n {τ>n} e τ+2 q.c. }{{}}{{} q.c. 0 q.c. d) Poiché tale convergenza è vera anche in L, dev essere E[Yn τ ] E[e τ+2 ]. Ma E[Yn τ ] = E[Y0 τ ] = E[Y 0 ] =, e quindi E[e τ+2 ] = o equivalentemente E[e τ ] = e 2. iii