I Esonero Complementi di Probabilità a.a. 2014/2015

Documenti analoghi
I Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 2014/15 Nome: 23 Giugno

Calcolo delle Probabilità 2

CP410: Esame 2, 3 febbraio 2015

Prima prova in itenere di Istituzioni di Probabilità

V Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2014/15 Nome: 7 gennaio

II Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2013/14 Nome: 20 febbraio

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

CP410: Esonero 1, 31 ottobre 2013

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

III Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 2014/15 Nome: 15 Settembre

X (o equivalentemente rispetto a X n ) è la

III Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2013/14 Nome: 16 luglio

Primo appello prova scritta di Calcolo delle probabilità Laurea Triennale in Matematica 01/02/2016

ESERCIZI DATI A LEZIONE TPA - anno 2006 CAPITOLO 2

Istituzioni di Probabilità - A.A

Esercizi di Calcolo delle Probabilità

II Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

Primo appello di Calcolo delle probabilità Laurea Triennale in Matematica 01/02/2019

III Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2014/15 Nome: 14 luglio

Condizionamento e martingale

III Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2018/19

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

Esercizi - Fascicolo V

CP410: Esame 2, 30 gennaio Testo e soluzione

V Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2012/13 Nome: 18 ottobre

Esercizi su leggi Gaussiane

Matematica con elementi di Informatica

Esame di Calcolo delle Probabilità del 11 dicembre 2007 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

COMPLEMENTI DI ANALISI MATEMATICA DI BASE. Prova scritta del 26 gennaio 2005

Esercizi - Fascicolo V

Esercitazione del 28/02/2012 Istituzioni di Calcolo delle Probabilità

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

CP110 Probabilità: Esonero 2. Testo e soluzione

Esercitazione del 19/02/2013 Istituzioni di Calcolo delle Probabilità

Calcolo delle Probabilità e Statistica Matematica: definizioni prima parte. Cap.1: Probabilità

CP410: Esonero 1, 7 novembre, 2018

Esame di Calcolo delle Probabilità del 11 gennaio 2006 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

Esame di Calcolo delle Probabilità del 12 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

1. Si scelga a caso un punto X dell intervallo [0, 2], con distribuzione uniforme di densità. f X (x) = [0,2](x)

CP110 Probabilità: Esame del 6 giugno Testo e soluzione

X n = αx n 1 + Y n. Si dimostri che. Usando la precedente relazione si dimostri che. e che. e si determini il limite di media e varianza quando n +.

Calcolo delle Probabilità 2017/18 Foglio di esercizi 8

Istituzioni di Probabilità Laurea magistrale in Matematica prova scritta del 14/2/2013

! X (92) X n. P ( X n X ) =0 (94)

11. Misure con segno.

Diario Complementi di Probabilità a.a. 2017/2018

Esercitazione del 16/04/2019 Istituzioni di Calcolo delle Probabilità

Alcuni complementi di teoria dell integrazione.

CP110 Probabilità: Esonero 2

Diario Complementi di Probabilità a.a. 2018/2019

I Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2013/14 Nome: 6 febbraio

Traccia della soluzione degli esercizi del Capitolo 4

CP110 Probabilità: Esonero 2. Testo e soluzione

Raccolta degli Scritti d Esame di ANALISI MATEMATICA U.D. 2 assegnati nei Corsi di Laurea di Fisica, Fisica Applicata, Matematica

Analisi Stocastica Programma del corso 2008/09

Esercizi: fascicolo 4

PROVA SCRITTA ANALISI II

Esonero di Analisi Matematica II (A)

Prova I Calcolo delle Probabilit a, II modulo a.a. 2002/2003 Note Per il recupero del I esonero: esercizi 1, 2, 3, 4 (2 ore a disposizione). Per il re

Esercizi di Calcolo delle Probabilità Foglio 3

SOLUZIONI DEL TEST DI PREPARAZIONE ALLA 2 a PROVA INTERMEDIA

Appello febbraio. Vero o falso. Es 1 Es 2 Es 3 Es 4 Tot

Istituzioni di Probabilità Laurea magistrale in Matematica prova scritta del 22/7/2013

Esercizi - Fascicolo IV

ESERCIZI HLAFO ALFIE MIMUN

ANALISI VETTORIALE COMPITO IN CLASSE DEL 8/11/2013

CORSO DI ANALISI MATEMATICA 2 SOLUZIONI ESERCIZI PROPOSTI 15/04/2013

Prova Scritta di Probabilità e Statistica Cognome: Laurea in Matematica. 10 settembre 2012 Matricola: Nome:

Sessione Live 4 V.a. n-dimensionali. Funzioni di variabili aleatorie.

Esame di Calcolo delle Probabilità del 4 luglio 2006 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

ANALISI MATEMATICA 1 Commissione F. Albertini, V. Casarino e M. Motta Ingegneria Gestionale, Meccanica, Meccatronica, Vicenza

PROVE SCRITTE DI MATEMATICA APPLICATA, ANNO 2006/07

ANALISI MATEMATICA 4. Prova scritta del 24 gennaio 2013

Esercizi su leggi condizionali e aspettazione condizionale

I Sessione I Prova Scritta o Recupero Esonero di Probabilità e Statistica a.a. 2012/ Giugno 2013

Studente: Matricola: Soluzione. V usando la disuguaglianza di Chebyschev, per n sucientemente grande segue,

Diario Complementi di Probabilità a.a. 2007/2008

Esercitazione del 21/02/2012 Istituzioni di Calcolo delle Probabilità

ANALISI MATEMATICA 4. Prova scritta del 24 gennaio 2013

CP110 Probabilità: Esame 30 gennaio Testo e soluzione

Massimo limite e minimo limite di una funzione

Facoltà di Scienze MM.FF.NN. Corso di Laurea in Matematica - A.A Prova scritta di Analisi Matematica II del

CP210 Introduzione alla Probabilità: Esonero 2

Es.: una moneta viene lanciata 3 volte. X = n. di T nei primi 2 lanci Y = n. di T negli ultimi 2 lanci

Tutorato III Probabilità e Statistica a.a. 2015/2016

Analisi Stocastica Programma del corso 2009/10

Facoltà di Scienze MM.FF.NN. Corso di Laurea in Matematica - A.A Prova scritta di Analisi Matematica I del c.

Matematica e Statistica per Scienze Ambientali

CP110 Probabilità: Esame 13 settembre Testo e soluzione

Cognome:... Nome:... Matricola:

1 Polinomio minimo e ampliamenti

I Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2012/13 Nome: 30 gennaio

f n (x) 3 1. x Essendo g(x) = 3 1

Analisi II. Foglio di esercizi n.2 10/10/2017 (Aggiornamento del 17/10/2017)

CALCOLO DELLE PROBABILITÀ 2 (Laurea Specialistica) 28 giugno Motivare dettagliatamente le risposte su fogli allegati

0 se y c 1 (y)) se c < y < d. 1 se y d

Teoria della misura Esercizi. 1. Teoremi di convergenza sotto il segno di integrale. n 1 + n 2 x 2. f n (x) =

Transcript:

I Esonero Complementi di Probabilità a.a. 204/205 Esercizio. Sia (X n ) n una successione di variabili aleatorie indipendenti, X n Be(p), con p (0, ). Sia H n = {X n = } (l n-esima prova è un successo), a) Per ogni n sia B n = n l= H n+l. Calcolare P(lim sup n + B n ). b) Per ogni n sia C n = 9 l= H n+l. b) Gli eventi (C n ) n sono indipendenti? E gli eventi (C 0n ) n? b2) Calcolare P(lim sup n + C 0n ). Dedurre che P(lim sup n + C n ) =. Esercizio 2. Su (Ω, F, P) sia (X n ) n una successione di variabili aleatorie reali con legge Λ n definita da: Λ n (F ) = α n δ {0} (F ) + β n δ {} (F ) + ( α n β n )µ n (F ), F B(R), dove δ {c} denota la massa di Dirac in c e µ n denota la legge assolutamente continua con densità p n (x) = 2n2 x 3 [n,+ ) (x). a) Verificare che (X n ) n è tight se e solo se lim n + (α n + β n ) =. b) Verificare che (X n ) n converge in distribuzione se e solo se lim n + α n = α e lim n + β n = α. In tal caso a cosa converge? Trovare un esempio di successione tight che non converga in distribuzione. c) Nel caso α n = n 2 e β n = n 2 studiare la convergenza in probabilità, quasi certa e in L p (Ω, F, P) di (X n ) n. Esercizio 3. Su (Ω, F, P), sia X una variabile aleatoria con legge Exp(β), β > 0. a) Determinare una variabile aleatoria integrabile, non negativa della forma f(x), tale che se Q è la misura di probabilità su (Ω, F ) definita da dq dp = f(x) allora X Γ(2, 2β) 2 su (Ω, F, Q). b) Sia Y = e X. Dire se per qualche p si ha Y L p (Ω, F, P) e/o Y L p (Ω, F, Q). c) Su (Ω, F, P) sia (X n ) n una successione di variabili aleatorie indipendenti e indipendenti da X, identicamente distribuite con la stessa legge di X. Poniamo Y n = e X n. Studiare il comportamento asintotico della media empirica Ȳn 3 in (Ω, F, P) e in (Ω, F, Q). ovvero con densità p(x) = βe βx (0,+ ) (x) 2 ovvero con densità q(x) = 4β 2 xe 2βx (0,+ ) (x) 3 Ȳ n = n (Y +... + Y n )

Soluzioni Esercizio. Quindi si ha a) Gli eventi (H n ) n sono indipendenti in quanto le (X n ) n lo sono. P(B n ) = Π n l= P(H n+l) = p n, Dal momento che n P(B n) = n pn < +, per BC, P(lim sup n + B n ) = 0 b) Ovviamente gli eventi (C n ) n non sono indipendenti (facile da far vedere!) mentre gli eventi (C 0n ) n lo sono (anche questo facile da far vedere!). Inoltre per ogni n, P(C n ) = Π 9 l= P(H n+l) = p 9. b2) Dal momento che n P(C 0n) = n p9 = +, per BC2, P(lim sup n + C 0n ) =. Ma {lim sup C n } {lim sup C 0n }, n + n + quindi P(lim sup n + C n ) = Esercizio 2. a) Si tratta di provare che per ogni ε > 0 esiste M > 0 tale che Λ n ([ M, M]) > ε definitivamente. Sia M >, allora, per n > M, Λ n ([ M, M]) = α n + β n, Pertanto la successione è tight se e solo se lim n + (α n + β n ) =. b) Calcoliamo la funzione di ripartizione relativa di X n. Osserviamo che per x n, µ n (, x] = x 2n 2 n dx = n2. x 3 x 2 0 x < 0 α n 0 x < F n (x) = P(X n x) = α n + β n ( α n + β n + ( α n β n ) n2 x 2 ) x < n x n Già sappiamo dal punto precedente che deve essere lim n + (α n + β n ) =, pertanto affinché si abbia convergenza in distribuzione deve essere anche lim n + α n = α e quindi lim n + β n = α. In questo caso lim F n(x) = n + 0 x < 0 α 0 x < x, ovvero X n X, X Be( α). Perché la successione sia tight ma non converga in legge occorre trovare due successioni (α n ) n e (β n ) n, tali che la loro somma converga, ma i

non convergano separatamente. Per esempio α n = per n dispari e α n = 0 per n pari e β n = 0 per n dispari e β n = 0 per n pari. In questo modo la successione X 2n δ 0 e X 2n+ δ. c) Nel caso proposto abbiamo X n Be( n 2 ) e la convergenza in distribuzione è alla variabile aleatoria costante X =. Quindi anche la convergenza in probabilità è a X =. La convergenza quasi certa, se avviene è anch essa a X =. Osserviamo che P( X n > ε) = n 2, quindi n P( X n > ε) = n n 2 < +, per BC, la successione converge anche quasi certamente. Essendo X n limitata, è in L p (Ω, F, P) per ogni p. La convergenza, se avviene è sempre a X =. E[ X n p ] = 0. n2 Esercizio 3. a) Sappiamo che in (Ω, F, P) X ha densità p(x) = βe βx (0,+ ) (x) mentre in (Ω, F, Q) X ha densità q(x) = β 2 xe 2βx (0,+ ) (x). Dato che per ogni F B(R), deve essere Q(X F ) = F {X F } q(x)dx = dq = F {X F } f(x)p(x)dx, f(x)dp, da cui f(x) = q(x)/p(x) e quindi la variabile aleatoria richiesta è f(x) = 4βXe βx. b) Y è una variabile aleatoria quasi certamente positiva in entrambi gli spazi. In (Ω, F, P), E P [Y p ] = + 0 e px βe βx dx < +, se e soltanto se p < β. Quindi se β non appartiene ad alcun L p (Ω, F, P), se β > allora appartiene a L p (Ω, F, P) per p < β. In (Ω, F, Q), E Q [Y p ] = + 0 e px β 2 xe 2βx dx < +, se e soltanto se p < 2β. Quindi se β /2 non appartiene ad alcun L p (Ω, F, Q), se β > /2 allora appartiene a L p (Ω, F, Q) per p < 2β. c) Osserviamo che le variabili (Y n ) n restano indipendenti e identicamente distribuite con legge Exp(β) anche in (Ω, F, Q). Quindi per la LFGN di Kolmogorov Q-q.c. e P-q.c., se β > allora lim n + Ȳ n = E[Y ] = β β. Mentre sempre per la legge di Kolmogorov, se β, si può dire, dato che le variabili sono positive, che lim sup n + Ȳ n = + ii

II Esonero Complementi di Probabilità a.a. 204/205 Esercizio 4. Su (Ω, F, P) siano X e Y due variabili aleatorie reali. Supponiamo X L 2 (Ω, F, P) e definiamo la sua varianza condizionale Var(X Y ) def = E[X 2 Y ] E[X Y ] 2. a) Mostrare che Var(X) = E[Var(X Y )] + Var(E[X Y ]). b) Sia (Z n ) n una successione di variabili aleatorie reali indipendenti ed identicamente distribuite con media µ e varianza σ 2 e sia Y L 2 (Ω, F, P) una variabile aleatoria a valori interi positivi indipendente dalla successione (Z n ) n. Posto X = Y n= Z n calcolare E[X Y ], Var(X Y ) e Var(X). Esercizio 5. Su (Ω, F, P) per ogni n sia (X n, Y ) una variabile aleatoria a valori in R 2 con funzione caratteristica ( n ) 2. φ (Xn,Y )(t, t 2 ) = n i(t + nt 2 ) a) Individuare la legge di Y ; dedurre che Y 0 quasi certamente e che E[Y ] = 2. b) Verificare che la successione ((X n, Y )) n converge in legge (in R 2 ) ed individuare il limite. Sia Q la misura di probabilità su (Ω, F, P) definita da dq dp = 2 Y. c) Scrivere la funzione caratteristica di X n in (Ω, F, Q) e studiare, sempre in (Ω, F, Q) la convergenza in legge della successione (X n ) n Esercizio 6. Su (Ω, F, P) sia (Z n ) n una successione di variabili aleatorie indipendenti ed identicamente distribuite tali che Z n Be(p) con p (0, ). Fissato un intero a > 0, sia τ = inf{n 0 : S n = a}, dove S 0 = 0 e per n, S n = Z + + Z n. Definiamo F 0 = {, Ω} e per n, F n = σ(z,..., Z n ). Per θ > 0 e c(p, θ) > 0, sia X θ n = e θsn c(p, θ) n, n 0. a) Verificare che il processo (X θ n) n 0 è adattato e integrabile quindi determinare la costante c(p, θ) che lo rende una F n -martingala. b) Nel caso in cui (X θ n) n 0 sia una martingala dimostrare che converge quasi certamente, per n +, ed individuare il limite. Si tratta di una martingala uniformemente integrabile? iii

c) Dimostrare che τ è un F n -tempo di arresto e che (X θ n τ ) n converge quasi certamente e in L p (Ω, F, P), per n + a una variabile W θ da determinare. d) Verificare che P(τ < + ) = e calcolare E[c(p, θ) τ ] per ogni θ > 0. iv

Soluzioni Esercizio 4. a) E[Var(X Y )] + Var(E[X Y ]) = E[E[X 2 Y ] E[X Y ] 2 ] + (E[E[X Y ] 2 ] E[E[X Y ]] 2 ) = E[E[X 2 Y ]] E[E[X Y ] 2 ] + E[E[X Y ] 2 ] E[E[X Y ]] 2 = E[X 2 ] E[X] 2 = Var(X). b) Per le proprietà della speranza condizionale [ Y [ Y y ] y=y E[X Y ] = E Z l ] = E Z l = µy. l= l= [( Y ) 2 Y ] [ Y ] 2 [( y ) 2 ] [ y=y y ] 2 y=y Var(X Y ) = E Z l E Z l Y = E Z l E Z l = l= ( [ y E Per il punto a) si ha l= Z 2 l l j l= l= ] [ ] + E Z l Z j (µy) 2) y=y = = Y (µ 2 + σ 2 ) + Y 2 µ 2 Y µ 2 Y 2 µ 2 = Y σ 2. l= ( ye[z 2 ] + y(y )µ 2 y 2 µ 2) y=y Var(X) = E[Var(X Y )] + Var(E[X Y ]) = E[Y σ 2 ] + Var(µY ) = µ 2 Var(Y ) + E[Y ]σ 2. Esercizio 5. ( a) Ricordiamo che φ (Xn,Y )(t, t 2 ) = E[e i(t X n +t 2 Y ) n 2, ] = n i(t +nt 2 )) pertanto la funzione ( ) 2 caratteristica della variabile aleatoria Y è φ Y (t) = E[e ty ] = φ (Xn,Y )(0, t) = it 2 da cui si evince che Y Γ(2, ). Quindi Y 0 quasi certamente e E[Y ] = 2. b) Per la convergenza in legge osserviamo che lim φ (X n + n,y )(t, t 2 ) = quindi in legge (X n, Y ) tende a (0, Y ). ( lim n + n n i(t + nt 2 ) ) 2 = ( ) 2, it 2 c) Per le proprietà di Y Q è ancora una misura di probabilità su (Ω, F ). La funzione caratteristica di X n in (Ω, F, Q) è φ Q X n (t) = E Q [e itxn ] = 2 E[eitXn Y ] = 2i i φ (Xn,Y )(t, t 2 ) t 2 t =0,t 2 =t,

dove l ultima uguaglianza è giustificata dal fatto che la funzione φ (Xn,Y ) è derivabile infinite volte. Pertanto, semplici conti, mostrano che Quindi X n 0 in (Ω, F, Q) φ Q X n (t) = n 3, (n it) 3 Esercizio 6. a) Per ogni n 0, X n è funzione di S n quindi F n misurabile. Inoltre è integrabile dato che 0 S n n e quindi X n è limitato. Veniamo al calcolo di c(p, θ). E[X θ n+ F n ] = E[e θs n+ c(p, θ) (n+) F n ] = E[e θ(s n+x n+ ) c(p, θ) (n+) F n ] = X θ nc(p, θ) E[e θ X n+ ], pertanto c(p, θ) = E[e θ X n+ ] = p + pe θ. Osserviamo subito che c(p, θ) > per θ > 0 e c(p, θ) = per θ = 0. ( ) b) Xn θ = e S n n n c(p, θ) Sn 0 per n +, infatti e n c(p, θ) e p c(p, θ) <. (DIMOSTRARE che vale questa disuguaglianza!!) La martingala non può essere uniformemente integrabile perché non converge in L (Ω, F, P). La media della martingala è, il limite è nullo. c) {τ = n} = {S a,..., S n a, S n = a} F n. (Xn τ θ ) n è una martingala positiva arrestata di una martingala positiva quindi converge quasi certamente. Inoltre Xn τ θ e θa c(p, θ) (n τ) e θa, quindi converge anche in L p (Ω, F, P) per ogni p. Veniamo al calcolo del limite lim n + Xθ n τ = lim n + (Xθ τ {τ n} + Xn θ {τ>n} ) = e θa c(p, θ) τ {τ<+ }. Quindi W θ = e θa c(p, θ) τ {τ<+ }. d) Osserviamo W θ quasi certamente per θ 0. Quindi per DOM (W θ e θa ) lim θ 0 E[W θ ] = E[ {τ<+ } ] = P(τ < + ) =. Dato che la martingala arrestata ha media la convergenza in L (Ω, F, P) assicura che = E[W θ ] = E[e θa c(p, θ) τ ], da cui E[c(p, θ) τ ] = e θa ii

I appello I Sessione - 26 gennaio 205 Complementi di Probabilità a.a. 204/205 Esercizio 7. Sia dato (Ω, F, P), con Ω = R, F = B(R) e per A F, P(A) = e 4 x2 dx. 4π Sia X(ω) = ω e Q la misura su (Ω, F ) definita da dq dp = ex. a) Verificare che X N(0, 2) e che 4 Q è una misura di probabilità su (Ω, F ). b) Su (Ω, F, P), siano Y e Y 2 variabili aleatorie indipendenti tra loro e con X. Dimostrare che Y e Y 2 rimangono indipendenti anche in (Ω, F, Q). Come cambia la legge congiunta? c) Su (Ω, F, P), sia (Y n ) n una successione di variabili aleatorie indipendenti e identicamente distribuite e indipendente da X. Supponiamo Y L 2 (Ω, F, P) e che E[Y ] = 0, Var(Y ) = σ 2. Discutere la convergenza debole, per n, di { n n α k= Y k} n nello spazio (Ω, F, Q), al variare di α 2. A Esercizio 8. Su (Ω, F, P) sia X N(µ, σ 2 ). Calcolare a) E[sin X], E[cos X]; b) Var(cos X), Cov(sin X, cos X). Esercizio 9. Su (Ω, F, P) sia Z una variabile aleatoria X Exp(λ), λ > 0. Poniamo Y n = e λn {X n} F n = σ({y 0,..., Y n }), n 0. a) Verificare che E[Y n+ F n ] = E[Y n+ Y n ]. b) Dedurre che (Y n ) n 0 è una F n -martingala. Converge quasi certamente? È limitata in L (Ω, F, P)? Si tratta di una martingala uniformemente integrabile? Sia τ = inf{n 0 : Y n = 0} (con la convenzione inf = + ). c) Dimostrare che τ è un F n -tempo di arresto quasi certamente finito. d) Discutere la convergenza quasi certa e in L (Ω, F, P) del processo arrestato (Y τ n ) n 0 4 Ricordiamo che se Z N(0, ), allora E(e λz ) = e λ2 /2. iii

Soluzioni Esercizio 7. Osserviamo che g(x) = 4π e 4 x2 è la densità di una N(0, 2) e che P(X A) = P(A) = A g(x)dx dunque, X N(0, 2). Poi, essendo Q(A) = E(e X A ), si ha Q(Ω) = E(e X ) = e 2/2 e = perché E(e λz ) = e λ2 /2 se Z N(0, ), quindi E(e λx ) = e λ2 σ 2 /2 se X N(0, σ 2 ) b) Prendiamo Y, Y 2 indipendenti tra loro e con X. Allora, per ogni boreliano A e A 2, Q(Y A, Y 2 A 2 ) = E Q ( Y A,Y 2 A 2 ) = E( Y A,Y 2 A 2 e X ) Prendendo poi A 2 = R, otteniamo = E( Y A,Y 2 A 2 )E(e X ) = E( Y A Y2 A 2 ) = E( Y A )E( Y2 A 2 ) = P(Y A )P(Y 2 A 2 ) Q(Y A ) = Q(Y A, Y 2 R) = P(Y A )P(Y 2 R) = P(Y A ) e analogamente troviamo Q(Y 2 A 2 ) = P(Y 2 A 2 ) Dunque, sotto Q si ha: ) la legge congiunta è la misura prodotto delle leggi marginali, quindi Y e Y 2 rimangono indipendenti; 2) la legge congiunta è uguale a quella sotto P. c) Per quanto appena visto, {Y k } k rimangono i.i.d. anche sotto Q e ancora di media nulla e varianza σ 2. Se α = /2, possiamo applicare il TLC: n α n k= Y k w N(0, σ 2 ), n Se invece α > /2 abbiamo una situazione del tipo con γ n = n /2 α 0 e Z n W n = n α n Y k = γ n Z n k= w N(0, σ 2 w ). Dunque, dovrebbe essere W n 0. Infatti, ( E Q ( W n 2 ) = E( W n 2 ) = γnvar 2 n n k= ) Y k = γn 2 n n Var ( ) Y k = γ 2 n σ 2 0, k= n Dunque, W n 0 in L 2 (Ω, F, Q) e quindi W n w 0. i

Esercizio 8. a) Ricordiamo che se XN(µ, σ 2 ), allora la sua funzione caratteristica è D altra parte, in generale, quindi e ϕ X (t) = e iµt 2 σ2 t 2 = e 2 σ2 t 2 cos µt + i e 2 σ2 t 2 sin µt. ϕ X (t) = E[e itx ] = E[cos tx] + i E[sin tx], E[cos tx] = Re(ϕ X (t)) = e 2 σ2 t 2 cos µt E[cos X] = Re(ϕ X ()) = e 2 σ2 cos µ. E[sin tx] = I m(ϕ X (t)) = e 2 σ2 t 2 sin µt E[sin X] = I m(ϕ X ()) = e 2 σ2 sin µ. b) Per calcolare Var(cos X) occorre calcolare E[cos 2 X]. Ma cos 2 x = 2 ( cos 2x), quindi E[cos 2 X] = 2 ( E[cos 2X]) = 2 ( e2σ2 cos 2µ), da cui Var(cos X) = 2 ( e 2σ2 cos 2µ) (e 2 σ2 cos µ) 2. Analogamente per calcolare Cov(cos X, sin X) occorre calcolare E[cos X sin X]. Ma cos x sin x = 2 sin 2x, quindi E[cos X sin X] = 2 E[sin 2X]) = 2 e 2σ2 sin 2µ, da cui Cov(cos X, sin X) = 2 e 2σ2 sin 2µ (e 2 σ2 sin µ) 2. Esercizio 9. a) Le Y n assumono solo due valori 0 e e λn. Osserviamo che se esiste j 0,,..., n tale che x j = 0 (che vuol dire X < j) allora l evento {Y 0 = x 0,..., Y n = x n } ha probabilità non nulla se e solo se x j+ = 0,..., x n = 0 (in quanto X < j +,... X < n), pertanto in questo caso E[Y n+ Y 0 = x 0,..., Y j = 0,..., Y n = 0] = 0 = E[Y n+ Y n = 0]. Resta da vedere cosa accade quando gli x j sono tutti non nulli. E[Y n+ Y 0 =,..., Y n = e λn ] = E[Y n+ X 0,..., X n] = E[Y n+ X n] = E[Y n+ Y n = e λn ]. b) (Y n ) n 0 è un processo adattato per come è definita la filtrazione. Integrabile in quanto E[ Y n ] = E[Y n ] =. Verifichiamo la proprietà di martingala. Calcoliamo la legge di Y n+ Y n. Si ha P(Y n+ = 0 Y n = 0) =, E[Y n+ Y n = 0] = 0. ii

quindi P(Y n+ = 0 Y n = e λn ) = P (X < n + X n) = e λ P(Y n+ = e λ(n+) Y n = e λn ) = P (X n + X n) = e λ E[Y n+ Y n ] = E[Y n+ Y n = e λn ] {X n} = e λn {X n} = Y n. Si tratta di una martingala positiva, (quindi) limitata in L (Ω, F, P), che quindi converge quasi certamente. Il limite quasi certo è banalmente Y = 0, in quanto è immediato vedere che Y n 0 in probabilità. Non è pertanto uniformemente integrabile perché in tal caso convergerebbe in L (Ω, F, P), mentre le medie non convergono. c) {τ = n} = {Y 0 0,..., Y n 0, Y n = 0} F n. Inoltre P(τ = n) = P(X 0,..., X n, X < n) = P(n X < n) = e λn ( e λ ), quindi τ Ge(e λ ), quindi è quasi certamente finito. d) (Y n τ ) n è una martingala positiva arrestata di una martingala positiva quindi converge quasi certamente. Veniamo al calcolo del limite lim Y n τ = Y τ {τ + } + Y {τ=+ } = 0. n + Quindi anche in questo caso trattandosi di una martingala positiva che converge a 0 quasi certamente non può esserci convergenza in L (Ω, F, P). iii

II appello I Sessione - 6 febbraio 205 Complementi di Probabilità a.a. 204/205 Esercizio 0. Su (Ω, F, P) sia (X, Y ) una variabile aleatoria a valori in R 2 con funzione caratteristica ϕ (X,Y ) di classe C 2 (R 2 ). Supponiamo esista g : R C tale che per ogni a, b R tali che a 2 + b 2 =, ϕ (X,Y ) (at, bt) = g(t). Dimostrare che a) X ed Y sono identicamente distribuite a media nulla; b) X ed Y sono scorrelate. Esercizio. Su (Ω, F, P) sia (X n ) n una successione di variabili aleatorie identicamente distribuite, assolutamente continue, con densità p(x) = α x α (,+ ) (x), α >. Poniamo Y n = X n /n. a) Studiare la convergenza in distribuzione, in probabilità e in L p (Ω, F, P) della successione (Y n ) n al variare di α >. b) Nell ipotesi ulteriore che le (X n ) n siano indipendenti, calcolare, sempre al variare di α >, lim sup n + Y n e lim inf n + Y n. La successione converge quasi certamente? Esercizio 2. Su (Ω, F, P) sia (ξ n ) n una successione di variabili aleatorie indipendenti e identicamente distribuite, ξ n Be(p), con p (0, ). Per a, b R definiamo la funzione f : {0, } R ponendo f(0) = a f() = b. Definiamo, quindi, ricorsivamente una successione di variabili aleatorie reali, X 0 =, X n+ = X n f(ξ n+ ). Poniamo poi F 0 = {, Ω} e F n = σ(ξ,..., ξ n ) per n. a) Si mostri che il processo (X n ) n 0 è una martingala se e solo se b = a( p) p. D ora in avanti b = a( p) p b) Si discuta l esistenza del limite quasi certo del processo (X n ) n 0 per 0 a ( p) c) Dimostrare che per a = 0 quasi certamente lim n + X n = 0. d) Supponiamo ora a < 0. Si mostri che il processo (X n ) n 0 non è limitato in L (Ω, F, P). Converge in L p (Ω, F, P) per qualche p >? iv

Soluzioni Esercizio 0. La regolarità assegnata della funzione caratteristica garantisce che le due variabili X e Y siano in L 2 (Ω, F, P) e che quindi esistano i loro momenti secondi e la loro covarianza. a) Ricordiamo che ϕ (X,Y ) (s, t) = E[e i(sx+ty ], pertanto per a, b R tali che a 2 + b 2 = ϕ (X,Y ) (at, bt) = E[e it(ax+by ] = ϕ ax+by (t) = g(t), da cui si evince che la legge della variabile aleatoria ax +by per a, b R tali che a 2 +b 2 = non dipende da a e da b, in quanto la funzione caratteristica è sempre la stessa. Scegliendo a = 0, b = e successivamente a =, b = 0 si ottiene ϕ X (t) = g(t) = E[e itx ], ϕ Y t) = g(t) = E[e ity ], ovvero X e Y sono identicamente distribuite. Quindi hanno la stessa media. Per quanto sopra osservato per a, b R tali che a 2 + b 2 = quindi deve essere E[X] = E[Y ] = 0. E[aX + by ] = ae[x] + be[y ] = (a + b)e[x] = E[X], b) Sempre perché sono identicamente distribuite anche i momenti secondi coincidono. Per la precisione per a, b R tali che a 2 + b 2 =, Quindi E[(aX + by ) 2 ] = E[X 2 ] = E[Y 2 ]. a 2 E[X 2 ]+b 2 E[Y 2 ]+2abE[XY ] = (a 2 +b 2 )E[X 2 ]+2abE[XY ] = E[X 2 ]+2abE[XY ] = E[X 2 ], Quindi E[XY ] = 0, ovvero dato che le variabili sono centrate Cov(X, Y ) = 0. Esercizio. a) Per la convergenza in distribuzione cominciamo col calcolare la funzione di ripartizione F (comune) delle X n. Semplici conti mostrano che { 0 x < F (x) = x α x Quindi detta F n la funzione di ripartizione di Y n = X n /n si ha, per y R, { 0 y < /n F n (y) = F (n α y) = y /n (ny) α i

Passando al limite si ha Per ogni y 0, lim F n(y) = n + 0 y < 0 0 y = 0 y > 0. { 0 x < 0 lim F n(x) = G(x) = n + x 0. Quindi X n n = 0 per ogni α >. Si osservi che F n (0) NON converge a G(0), ma questo non è rilevante dato che la funzione limite non è continua in zero. Dato che la convergenza debole è ad una costante la successione converge anche in probabilità a zero. Veniamo alla convergenza in L p (Ω, F, P). Se converge il limite deve essere zero. E[ Y n p ] = E[Y p n ] = n p + x p α x α dx = n p + α dx, xα p Questo conto dimostra che Y n L p (Ω, F, P) solo se α p >, ovvero p < α ed in tal caso si ha anche la convergenza in L p (Ω, F, P) a zero. b) Veniamo alla convergenza quasi certa. Ovviamente se converge converge a zero. Per ogni ε > 0 definitivamente nε >, quindi P( Y n > ε) = P(Y n > ε) = (nε) α. Se α > 2 la serie + n= P( Y n > ε) converge quindi la successione converge a zero q.c. (per BC, qui l indipendenza non è necessaria), mentre se α 2 la serie diverge, quindi la successione non converge a zero quasi certamente (per BC2, qui l indipendenza è necessaria). In quest ultimo caso si possono andare a studiare il limite superiore ed il limite inferiore della successione che esistono sempre, e vista l ipotesi di indipendenza, sono quasi certamente costanti. A tale scopo andiamo a studiare il comportamento asintotico delle seguenti probabilità: P(Y n > a) e P(Y n < a). Semplici conti mostrano che, definitivamente, { a 0 P(Y n > a) = In ogni caso n P(Y n > a) = +, quindi Segue (na) α a > 0 P(lim sup{y n > a}) = P(Y n > a i.o.) =. n + P(lim sup Y n = + ) =. n + Semplici conti mostrano che, definitivamente, { 0 a 0 P(Y n < a) = a > 0 (na) α ii

Da cui si evince n P(Y n < ε) < +, n P(Y n ε) = + Segue P(lim inf n + Y n = 0) =. Esercizio 2. a) Verifichiamo che il processo (X n ) n 0 sia adattato e integrabile. X 0 è F 0 adattato in quanto costante. Per induzione se supponiamo X n F n -misurabile segue che X n+ è il prodotto di X n (F n -misurabile) per una funzione misurabile di ξ n+, quindi F n+ misurabile. Anche l integrabilità si ottiene per induzione. X 0 è integrabile. Supponiamo X n integrabile, allora Passiamo alla proprietà di martingala. E[ X n+ ] max{ a, b }E[ X n ] < +. E[X n+ F n ] = E[X n f(ξ n+ ) F n ] = X n E[f(ξ n+ )], quindi deve essere E[f(ξ n+ )] = bp + a( p) =, che è vero se e solo se b = a( p) p. b) Per 0 a ( p), la funzione f è non negativa quindi la martingala (X n ) n 0 è non negativa, pertanto è limitata in L (Ω, F, P) quindi converge quasi certamente. c) Per a = 0, b = /p, quindi abbiamo X 0 =, X = p {}(ξ ), X 2 = X p {}(ξ 2 ) = p 2 {} (ξ ) {} (ξ 2 ) e iterando, X n = p n {}(ξ ) {} (ξ 2 )... {} (ξ n ). È immediato verificare che per ogni ε > 0, P( X n > ε) = P(ξ =,..., ξ n = ) = p n 0. Quindi in probabilità lim n + X n = 0 e dal punto precedente la convergenza è quasi certa. La martingala non può convergere in L (Ω, F, P) perché non c è convergenza delle medie. d) Calcoliamo E[ f(ξ n ) ] = a ( p)+ b p = a( p)+bp = a( p)+ a( p) = 2a( p) = α >. Quindi E[ X n+ ] = E[ X n f(ξ n+ ) ] = E[ X n ]E[ f(ξ n+ ) ] = αe[ X n ] =... = α n Pertanto sup n E[ X n ] = +. In questo caso la martingale non è uniformemente integrabile, quindi non converge in L (Ω, F, P), quindi in nessun L p (Ω, F, P) iii

III appello II Sessione - 2 luglio 205 Complementi di Probabilità a.a. 204/205 Esercizio 3. Siano X, Z variabili aleatorie reali con densità congiunta f X,Z (x, z) = e z 0 x z. Calcolare a) E[X Z]; b) E[Z X]. Esercizio 4. Su (Ω, F, P) sia (X n ) n una successione di variabili aleatorie identicamente distribuite, assolutamente continue, con densità p(x) = x 2 (,+ ) (x). Poniamo Y n = Xn n con α > 0. α a) Studiare la convergenza in distribuzione, in probabilità e in L p (Ω, F, P) della successione (Y n ) n al variare di α > 0. b) Nell ipotesi ulteriore che le (X n ) n siano indipendenti, calcolare, sempre al variare di α > 0, lim sup n + Y n e lim inf n + Y n. La successione converge quasi certamente? Esercizio 5. Su (Ω, F, P) sia (ξ n ) n una successione di variabili aleatorie indipendenti uniformi (discrete) in {,..., n+} ovvero tali che P(ξ n = j) = n+, con j {,..., n+}, n. Poniamo X 0 = e per n, X n = X n + {ξn X n }. Poniamo poi F 0 = {, Ω} e F n = σ(ξ,..., ξ n ) per n. a) Si mostri che il processo (X n ) n 0 è adattato rispetto alla filtrazione (F n ) n 0 e integrabile. b) Dimostrare che E[ {ξn+ X n} F n ] = X n /(n + 2) per n 0. c) Dimostrare che il processo (X n ) n 0 è una submartingala e trovare il suo compensatore. d) Determinare α > 0 tale che posto Y n = αx n /(n + 2), il processo (Y n ) n 0 sia una martingala. Dimostrare che in questo caso (Y n ) n 0 converge quasi certamente ad una variabile aleatoria Y L (Ω, F, P). iv

Soluzioni Esercizio 3. Ricordiamo, che avendo la coppia (X, Z) densità congiunta, allora E[X Z] = Ψ(Z) dove Ψ(z) è la media della legge condizionale, ovvero Ψ(z) = R xf X Z(x z)dx. Analogamente E[Z X] = Φ(X) dove Φ(z) è la media della legge condizionale, ovvero Φ(x) = R zf Z X(z x)dz. Determiniamo le densità marginali di X e Z. f X (x) = R f Z (z) = R f X,Z (x, z)dz = R f X,Z (x, z)dx = a) Calcoliamo la densità condizionale. R + e z 0 x z dz = 0 x e z dz = e x x 0, z e z 0 x z dx = 0 z e z dz = ze z z 0, x 0 f X Z (x z) = f X,Z(x, z) f Z (z) = z 0 x z. Quindi la legge condizionale è uniforme su [0, z]. Quindi E[X Z] = Ψ(Z) = Z 2. b) Come nel caso precedente calcoliamo la densità condizionale. f Z X (z x) = f X,Z(x, z) f X (x) = e (z x) 0 x z. Semplici conti mostrano che Φ(x) = quindi E[Z X] = X +. R ze (z x) 0 x z dz = x +, Esercizio 4. a) Per la convergenza in distribuzione cominciamo col calcolare la funzione di ripartizione F n delle Y n. Semplici conti mostrano che { 0 y < /n α F n (y) = P(Y n y) = P(X n n α y) = n α y y /n α Passando al limite si ha Per ogni y 0, lim F n(y) = n + 0 y < 0 0 y = 0 y > 0. { 0 x < 0 lim F n(x) = G(x) = n + x 0. i

Quindi Y n = 0 per ogni α > 0. Si osservi che F n (0) NON converge a G(0), ma questo non è rilevante dato che la funzione limite non è continua in zero. Dato che la convergenza debole è ad una costante la successione converge anche in probabilità a zero. Veniamo alla convergenza in L p (Ω, F, P). Se converge il limite deve essere zero. E[ Y n p ] = E[Y p n ] = n αp + x p x 2 dx. Questo conto dimostra che Y n L p (Ω, F, P) solo se 2 p >, ovvero p <. Quindi non si ha mai anche la convergenza in L p (Ω, F, P) a zero. b) Veniamo alla convergenza quasi certa. Ovviamente se converge converge a zero. Per ogni ε > 0 definitivamente ε > /n α, quindi P( Y n > ε) = P(Y n > ε) = n α ε. Se α > la serie + n= P( Y n > ε) converge quindi la successione converge a zero q.c. (per BC, qui l indipendenza non è necessaria), mentre se α la serie diverge, quindi la successione non converge a zero quasi certamente (per BC2, qui l indipendenza è necessaria). In quest ultimo caso si possono andare a studiare il limite superiore ed il limite inferiore della successione che esistono sempre, e vista l ipotesi di indipendenza, sono quasi certamente costanti. A tale scopo andiamo a studiare il comportamento asintotico delle seguenti probabilità: P(Y n > a) e P(Y n < a). Semplici conti mostrano che, definitivamente, { a 0 P(Y n > a) = In ogni caso n P(Y n > a) = +, quindi Segue n α a a > 0 P(lim sup{y n > a}) = P(Y n > a i.o.) =. n + P(lim sup Y n = + ) =. n + Semplici conti mostrano che, definitivamente, { 0 a 0 P(Y n < a) = n α a a > 0 Da cui si evince n P(Y n < ε) < +, n P(Y n ε) = + Segue P(lim inf n + Y n = 0) =. Esercizio 5. a) Verifichiamo che il processo (X n ) n 0 sia adattato e integrabile. X 0 è F 0 adattato in quanto costante. Per induzione se supponiamo X n F n -misurabile segue che X n+ è la ii

somma di X n (F n -misurabile) per una funzione misurabile di ξ n+ e X n, quindi F n+ misurabile. L integrabilità è ovvia dato X n n. b) Dal momento che X n è F n misurabile e ξ n+ indipendente da F n, si ha E[ {ξn+ X n } F n ] = E[ {ξn+ x}] = P(ξ n+ x). x=xn x=xn Ma ξ n+ è uniforme discreta su {, 2,..., n + 2}, quindi Dato che X n è a valori interi, P(ξ n+ x) = [x] n + 2 E[ {ξn+ X n } F n ] = X n n + 2 c) La misurabilità e l integrabilità le abbiamo già provate. D altra parte E[X n+ X n F n ] = E[ {ξn+ X n} F n ] = X n n + 2 0, quindi il processo è una submartingala. Il compensatore (A n ) n 0 è definito da A 0 = 0 e A n+ = A n + E[X n+ X n F n ] = n k=0 E[X k+ X k F k ], in questo caso A n+ = n X k k=0 k+2. d) La misurabilità l integrabilità del processo (Y n ) n 0 seguono banalmente dalle analoghe proprietà del processo (X n ) n 0. Passiamo alla proprietà di martingala. [ E[Y n+ F n ] = E α X n+ = α n + 3 ] F n = α n + 3 n + 3 E[X n + {ξn+ X n } F n ] ( ) X n + X n n + 2 = α X n n + 2 = Y n. Quindi queste proprietà è verificata per ogni α > 0, dal momento che la martingala deve avere media costante e X 0 = deve essere E[X n ] = E[X 0 ] = α/2 =, da cui α = 2. Essendo (Y n ) n 0 una martingala limitata converge quasi certamente e in L (Ω, F, P). iii

IV appello III Sessione - 22 settembre 205 Complementi di Probabilità a.a. 204/205 Esercizio 6. Su (Ω, F, P), sia (X n ) n una successione di variabili aleatorie indipendenti X n Be(/n α ), α > 0. Poniamo W n = min{x,..., X n }. a) Studiare la convergenza in legge, in probabilità e in L p (Ω, F, P) di (X n ) n e (W n ) n al variare di α > 0. b) Studiare la convergenza quasi certa di (X n ) n e (W n ) n al variare di α > 0. Calcolare lim sup n + X n e lim inf n + X n al variare di α > 0. Esercizio 7. Su (Ω, F, P), sia X una variabile aleatoria assolutamente continua con densità f(x) = 2 e x per x R. a) Scrivere la legge di X + = max(x, 0). X + è assolutamente continua? X + e X = max( X, 0) sono indipendenti? Sia Q la misura su (Ω, F ) definita da Q(A) = ce(e X + A ), A F, con c > 0. b) Calcolare c affinché Q sia una misura di probabilità. c) Posto g(x) = e x, siano Y = g(x + ) e Z = g(x ). Dire per quali p si ha Y L p (Ω, F, P) e/o Z L p (Ω, F, Q). Esercizio 8. Sia (X n ) n una successione di variabili aleatorie indipendenti e identicamente distribuite tali che P(X n = +) = p = P(X n = ) con p = /(e+). Definiamo X 0 = 0 e per n 0, F n = σ(x 0,..., X n ), S n = X 0 + X + + X n e Y n = e Sn. a) Dimostrare che (Y n ) n 0 è una F n -martingala che converge quasi certamente ma non in L ad una variabile aleatoria da determinare. Poniamo τ = inf{n : X n = +} e per n 0, Y τ n = Y τ n. b) Dimostrare che τ è un F n -tempo d arresto quasi certamente finito e che (Y τ n ) n 0 è un processo limitato 5. c) Dimostrare che (Y τ n ) n 0 converge quasi certamente e in L p per ogni p alla variabile aleatoria Z = e τ+2. d) Dedurre che E[e τ ] = e 2. 5 Cioè, esiste L > 0 tale che sup n Y τ n L quasi certamente iv

Soluzioni Esercizio 6. a) Osserviamo che per x R, quindi quindi detta µ la legge Exp(). P(X + x) = P(X x, X > 0) + P(0 x, X 0), P(X + x) = 0 x < 0 2 x = 0 2 ( e x ) + 2 x > 0. Λ X+ = 2 µ + 2 δ {0}. Ovviamente X + non è assolutamente continua: preso A = {0}, Leb (A) = 0 ma Λ X+ (A) = 2 > 0. Infine, X + e X non sono indipendenti: P(X + > 0, X > 0) = 0 ma P(X + > 0) > 0 e P(X > 0) = P(X + > 0) > 0. b) Dev essere Calcoliamo la media: Quindi c = 4/3. c) Si ha = Q(Ω) = ce(e X + ). E(e X + ) = E(e X + X>0 ) + E( e X + X 0 ) = E(e X X>0 ) + E( X 0 ) }{{} X + =0 su {X 0} = 2 + 0 e 2x dx + P(X 0) = 3 }{{} 4. =/2 E( Y p ) = E(e px + ) = E(e px + X>0 ) + E(e px + X 0 ) = E(e px X>0 ) + E( X 0 ) = 2 + 0 e (p )x dx + 2 ed il primo integrale è finito se e solo se p < 0, cioè p <. Dunque, Y / L p (Ω, F, P) per ogni p. Vediamo Z: E Q ( Z p ) = E(e px e X + ) = ce(e px X + X>0 ) + ce(e px X + X 0 ) Ora, la prima media abbiamo, = ce(e X X>0 ) + ce(e px X 0 ) E(e X X>0 ) = 2 i + 0 e 2x dx,

che è senz altro finito. Per la seconda: E(e px X 0 ) = 2 0 e x(p+) dx che è finito per ogni p >. Dunque, Z L p (Ω, F, Q) per ogni p. Esercizio 7. Cominciamo con l osservare che anche W n è una variabile aleatoria di Bernoulli di parametro p n = P(W n = ) = 2... α n = α (n!). Ricordiamo che la funzione caratteristica di una α Bernoulli di parametro p è φ p (ϑ) = e iϑ p + ( p), e che per p 0 φ p (ϑ), quindi entrambe le successioni tendono a zero in legge (il parametro di entrambe va a zero). Dato che entrambe le successioni tendono ad una costante (zero) in legge ci tendono anche in probabilità. b) La convergenza quasi certa, se avviene, è a zero. P( X n > ε) = P( X n = ) = n α. La serie n n < + converge se e solo se α > ed i lemmi di Borel Cantelli (entrambi!) α mi dicono che la successione converge a zero quasi certamente se e solo se α >. Per quanto riguarda lim sup n + X n e lim inf n + X n sappiamo essere costanti (quasi certamente) e in {0, }. Pertanto per 0 < α si ha lim sup n + X n = e lim inf n + X n = 0 mentre per α > lim sup n + X n = lim inf n + X n = 0 (n!) α P( W n > ε) = P( W n = ) = (n!) α. La serie n < + converge per ogni α > 0 ed il primo lemma di Borel Cantelli mi dice che la successione converge a zero quasi certamente per ogni α > 0. c) Per ogni p, lim E[ X n p ] = E[X n ] = n + n α = 0, lim E[ W n p ] = E[W n ] = n + 2 α... n α = 0, quindi le due successioni convergono in L p (Ω, F, P) per ogni p Esercizio 8. a) S n è F n -misurabile e Y n è una funzione boreliana di S n, quindi F n - misurabile. Inoltre, n E[ Y n ] = E[e Sn ] = E(e X k ). Ma k= E(e X k ) = e + p + e ( p) = ii

quindi Y n L per ogni n. Infine, E[Y n+ F n ] = E[ F n -mis. {}}{ Y n e X n+ }{{} ind. da F n F n ] = Y n E[e Xn+ ] = Y n quindi (Y n ) n è una F n -martingala. Ora, Y n 0 per ogni n e (Y n ) n è ovviamente limitata in L. Quindi, per il teorema di convergenza q.c. per martingale, esiste il limite q.c. e tale limite è in L. Osserviamo che Y n = exp ( n n S ) n e per la LFGN, n S n E[X ] = p ( p) = 2p < 0 q.c. per n. Ma allora, S n q.c. e quindi Y n 0 q.c. Tale convergenza non è vera in L : se così fosse, si dovrebbe avere E[Y n ] E[0] = 0, il che è falso. b) Si ha {τ > n} = {X =,..., X n = } = {X = } {X n = } F n quindi τ è un F n -t.a. Inoltre, essendo le X k indipendenti, P(τ > N) = P(X = ) P(X N = ) = ( p) N 0 per N, dunque P(τ < ) =. Mostriamo la limitatezza di {Y τ n } n. Si ha 0 Y τ n = Y τ {τ n} + Y n {τ>n}. Osserviamo che X = = X τ = e X τ = +, quindi Y τ = e (τ )+ = e τ+2. Inoltre, su {τ > n} si ha X = = X n =, quindi Y n = e n. Quindi, 0 Y τ n = e τ+2 {τ n} + e n {τ>n} e 2 +. c) Sappiamo che (Y τ n ) n è una martingala, quindi ne studieremo la convergenza usando i risultati che riguardano le martingale. Poiché la martingala (Y τ n ) n è limitata, è limitata in L p per ogni p, e quindi converge q.c. ed in L p ad una v.a. Z. Ora, il che dà Z = e τ+2. Yn τ = e τ+2 {τ n} + e n {τ>n} e τ+2 q.c. }{{}}{{} q.c. 0 q.c. d) Poiché tale convergenza è vera anche in L, dev essere E[Yn τ ] E[e τ+2 ]. Ma E[Yn τ ] = E[Y0 τ ] = E[Y 0 ] =, e quindi E[e τ+2 ] = o equivalentemente E[e τ ] = e 2. iii