Condizionamento e martingale

Documenti analoghi
I Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 2014/15 Nome: 23 Giugno

Primo appello di Calcolo delle probabilità Laurea Triennale in Matematica 01/02/2019

Probabilità e Finanza

Probabilità e Finanza

Probabilità e Finanza

11. Misure con segno.

Primo appello prova scritta di Calcolo delle probabilità Laurea Triennale in Matematica 01/02/2016

CP410: Esame 2, 3 febbraio 2015

20. Prodotto di spazi di misura. I teoremi di Tonelli e di Fubini.

Prima prova in itenere di Istituzioni di Probabilità

Si noti che questa definizione dice esattamente che

CP410: Esonero 1, 31 ottobre 2013

V Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2014/15 Nome: 7 gennaio

III Appello di Processi Stocastici Cognome: Laurea Magistrale in Matematica 2014/15 Nome: 15 Settembre

12. Funzioni numeriche misurabili.

Variabili casuali multidimensionali

Diario Complementi di Probabilità a.a. 2017/2018

Istituzioni di Probabilità Laurea magistrale in Matematica prova scritta del 14/2/2013

Misure e loro proprietà (appunti per il corso di Complementi di Analisi Matematica per Fisici, a.a )

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

III Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2013/14 Nome: 16 luglio

COPPIE DI VARIABILI ALEATORIE

Esercitazione del 21/02/2012 Istituzioni di Calcolo delle Probabilità

Note di Teoria della Probabilità.

Calcolo delle Probabilità 2

8. Completamento di uno spazio di misura.

X (o equivalentemente rispetto a X n ) è la

Massimo limite e minimo limite di una funzione

ESERCIZI DATI A LEZIONE TPA - anno 2006 CAPITOLO 2

Esercitazione del 16/04/2019 Istituzioni di Calcolo delle Probabilità

Matematica con elementi di Informatica

Esercizi di Calcolo delle Probabilità

3. Successioni di insiemi.

Esame di Calcolo delle Probabilità del 12 dicembre 2005 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

Analisi Stocastica Programma del corso 2008/09

Analisi Stocastica Programma del corso 2009/10

10 Proprietà di Equipartizione Asintotica

P ( X n X > ɛ) = 0. ovvero (se come distanza consideriamo quella euclidea)

II Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2013/14 Nome: 20 febbraio

Riassumiamo le proprietà dei numeri reali da noi utilizzate nel corso di Geometria.

8 Derivati dell entropia

Alcuni complementi sulla misura di Lebesgue in R N

Prova scritta di Probabilità e Statistica Appello unico, II sessione, a.a. 2015/ Settembre 2016

ELEMENTI DI LOGICA MATEMATICA LEZIONE VII

10. Il gruppo Speciale Lineare SL(V )

! X (92) X n. P ( X n X ) =0 (94)

Definizione 1.1. Sia A un sottoinsieme dei numeri reali. Diciamo che A è un insieme induttivo se

Analisi II, a.a Soluzioni 1. j j + 1 ; ( 1)j

I Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2016/17

1 PRELIMINARI 1.1 NOTAZIONI. denota l insieme vuoto. a A si legge a appartiene a A oppure a è elemento di A.

(2) se A A, allora A c A; (3) se {A n } A, allora +

Generalizzazioni del Teorema di Weierstrass

Tutorato III Probabilità e Statistica a.a. 2015/2016

Esercitazione del 28/10/2011 Calcolo delle probabilità

Istituzioni di Probabilità Laurea magistrale in Matematica prova scritta del 2/12/2013

Esame di Probabilità e Statistica del 27 giugno 2007 (Corso di Laurea Triennale in Matematica, Università degli Studi di Padova).

CORSO DI GEOMETRIA DETERMINANTE A.A. 2018/2019 PROF. VALENTINA BEORCHIA

1. Si scelga a caso un punto X dell intervallo [0, 2], con distribuzione uniforme di densità. f X (x) = [0,2](x)

Esercizi di Elementi di Teoria degli Insiemi, Parte 1 Fabrizio Anelli

non solo otteniamo il valore cercato per la validità della (1.4), ma anche che tale valore non dipende da

Primi elementi di combinatoria Federico Lastaria, Analisi e Geometria 1

INDUZIONE E NUMERI NATURALI

p(ϕ) = a 0 Id + a 1 ϕ + + a n ϕ n,

5.3 Alcune classi di funzioni integrabili

Esercizi su leggi condizionali e aspettazione condizionale

19. L integrale di Lebesgue: un breve riassunto, I

La media campionaria. MEDIA CAMPIONARIA Date n v.a. X 1,..., X n indipendenti e identicamente distribuite (in breve i.i.d.), la v.a.

Esercizi sul Calcolo Proposizionale

CP410: Esame 2, 30 gennaio Testo e soluzione

III Appello di Calcolo delle Probabilità Cognome: Laurea Triennale in Matematica 2014/15 Nome: 14 luglio

APPUNTI DI TEORIA DEGLI INSIEMI. L assioma della scelta e il lemma di Zorn Sia {A i } i I

Tutorato V Probabilità e Statistica a.a. 2015/2016

f(x) := lim f n (x) Se introduciamo la norma uniforme di una funzione f (sull insieme A) mediante := sup f(x)

III Appello di Calcolo delle Probabilità Laurea Triennale in Matematica 2018/19

Istituzioni di Probabilità Laurea magistrale in Matematica prova scritta del 22/7/2013

Dimostrazione. Indichiamo con α e β (finiti o infiniti) gli estremi dell intervallo I. Poniamo

ESISTENZA DELLA VERSIONE REGOLARE DELLA PROBABILITÀ CONDIZIONATA

Appello febbraio. Vero o falso. Es 1 Es 2 Es 3 Es 4 Tot

Indici di posizione e dispersione per distribuzioni di variabili aleatorie

9. Test del χ 2 e test di Smirnov-Kolmogorov. 9.1 Stimatori di massima verosimiglianza per distribuzioni con densità finita

Istituzioni di Probabilità - A.A

17. Il teorema di Radon-Nikodym.

NOTE DI ALGEBRA LINEARE v = a 1 v a n v n, w = b 1 v b n v n

Elementi di Teoria degli Insiemi

CP410: Esonero 1, 7 novembre, 2018

Analisi Reale. Anno Accademico Roberto Monti. Versione del 13 Ottobre 2014

CLASSE LIMITE DI UNA SUCCESSIONE DI NUMERI REALI C. MADERNA, G. MOLTENI, M. VIGNATI

LEZIONE 30. Se x = 1 si dice che x è un versore. Se poi y = (y 1,..., y n ) R n poniamo. Ricordiamo che vale la cosiddetta disuguaglianza triangolare

NOTE SULLE FUNZIONI CONVESSE DI UNA VARIABILE REALE

Cosa dobbiamo già conoscere?

6. Boreliani di uno spazio topologico.

Esercizi di Matematica per la prova di ammissione alla Scuola Galileiana /16

Il metodo diretto del Calcolo delle Variazioni

Sviluppi e derivate delle funzioni elementari

CP110 Probabilità: Esame 13 settembre Testo e soluzione

Notazione: nel seguito, dato un insieme A, P(A) indicherà l insieme delle parti di A.

ESERCIZI HLAFO ALFIE MIMUN

Complementi di Analisi Matematica Ia. Carlo Bardaro

1 Principio di Induzione

Transcript:

Capitolo 3 Condizionamento e martingale 31 Condizionamento Sia (Ω, F, P) uno spazio di probabilità Dunque, ricordiamo, Ω è un insieme (lo spazio campionario); F è una σ-algebra di sottoinsiemi di Ω (gli eventi) ; P è una probabilità su (Ω, F), cioè P è un applicazione F [0, 1] tc P(Ω) = 1, ( ) se A n A m =, n m, P A n = n=1 P(A n ) (σ-additività) Ricordiamo che, dati due eventi A, B F con P(B) > 0, la probabilità condizionata di A dato B è definita da P(A B) = n=1 P(A B) P(B) Intuitivamente, P(A B) rappresenta la probabilità del verificarsi dell evento A, una volta noto il fatto che l evento B si è verificato Vogliamo ora definire la media condizionale di una va X data una σ- algebra G F e, in seguito, la probabilità condizionale di un evento qualsiasi A F data una σ-algebra G Poiché si tratta di oggetti alquanto delicati e spesso inizialmente di difficile comprensione, procederemo per gradi 311 Media condizionale: il caso discreto Cominciamo con un caso semplice, anche se tipico di condizionamento 41

Esempio 311 Supponiamo che (X, Y ) sia una coppia di va discrete, con densità (discreta) congiunta p X Y e densità marginali p X e p Y Siano E X ed E Y i possibili valori per X e Y rispettivamente, e supponiamo che p Y (y) > 0 per ogni y E Y Per X, supponiamo che abbia speranza matematica finita Abbiamo visto che la densità discreta di X condizionata a {Y = y}, è data da p X Y (x y) = p XY (x, y), purché y E Y p Y (y) La media condizionale di X dato {Y = y} è semplicemente la media di X quando per X si consideri la distribuzione condizionale: E(X Y = y) = x E X x p X Y (x y) = 1 x p X Y (x, y) p Y (y) x E X 1 = x p X Y (x, y) p Y (y) = (x,y) E X {y} 1 p Y (y) E(X 1 {Y =y}) Se poniamo, per y E Y, h X (y) = E(X 1 {Y =y} )/p Y (y), la va Z = h X (Y ) dà la media di X dato il risultato (aleatorio) Y Ad essa può quindi essere dato il significato di media condizionale di X dato Y Osserviamo che Z = h X (Y ) verifica le seguenti proprietà 1 Z = h X (Y ) è σ(y )-misurabile Infatti è una funzione (misurabile) di Y 2 Per ogni B E Y, si ha Infatti, E(h X (Y )1 {Y B} )= y B E(h X (Y )1 {Y B} ) = E(X 1 {Y B} ) h X (y)p Y (y)= y B E(X 1 {Y =y} ) =E(X 1 {Y B} ) Infine, osserviamo che la va Z = h X (Y ) è l unica va che soddisfa alle condizioni 1 e 2 Infatti, supponiamo che Z sia un altra va che soddisfa a 1 e 2 Poiché da 1 Z è σ(y )-misurabile dev essere (cfr Proposizione 2116) Z = h(y ), per qualche funzione (misurabile) h Ora, usando 2 con la scelta B = {Y = y} = Y 1 (y) = {Y = y}( σ(y )), si ha E(X 1 {Y =y} ) = E( Z 1 {Y =y} ) = E( h(y )1 {Y =y} ) = h(y) E(1 {Y =y} ) e cioè h(y) = E(X 1 {Y =y} )/P(Y = y) = h X (y) Analizziamo ora un caso un po più generale 42

Esempio 312 Sia X una va con speranza matematica finita e sia G una σ-algebra, con G F Supponiamo che G sia generata da una partizione al più numerabile: G = σ(c ), con C = {C i } i I Supponiamo anche che P(C i ) > 0 per ogni i I Osserviamo che nell Esempio 311 abbiamo implicitamente lavorato con questo tipo di ingredienti Infatti, σ(y ) = G = σ(c Y ), C C Y se e solo se C = Y 1 ({y}), con y E Y Ricordiamo inoltre che la media condizionale di X dato Y è Z(ω) = h X (Y (ω)) = E(X 1 {Y =y}), quando ω {Y = y} P(Y = y) Ora, gli eventi {Y = y}, con y E Y, sono gli atomi della partizione C Y che genera G = σ(y ) Volendo quindi generalizzare ad una qualsiasi σ-algebra G generata da una partizione C, viene naturale considerare la va Z(ω) = i I E(X 1 Ci ) P(C i ) 1 {ω Ci } = E(X 1 C k ) P(C k ) quando ω C k Come vedremo in seguito, la va Z è la media condizionale di X data la σ- algebra G Osserviamo che abbiamo fatto un paio di passi in avanti rispetto all Esempio 311: abbiamo una σ-algebra G (almeno apparentemente) più generale e, soprattutto, non stiamo facendo ipotesi speciali sulla va X: l importante è che abbia senso la quantità E(X 1 Ck ), dunque l importante è che X abbia media La va Z verifica le seguenti proprietà, analoghe a quelle già viste nell Esempio 311 1 Z è G -misurabile Infatti, 1 Ci è G -misurabile per ogni i, ed essendo Z una combinazione lineare delle funzioni 1 Ci, è G -misurabile 2 Per ogni G G, si ha E(Z 1 G ) = E(X 1 G ) Infatti, preso G G, sia I G I tale che G = i IG C i Allora, Z 1 G = E(X 1 Ci ) 1 Ci e quindi P(C i ) i I G E(Z 1 G ) = i I G E(X 1 Ci ) P(C i ) P(C i ) = i I G E(X 1 Ci ) = E(X 1 i IG C i ) = E(X 1 G ) 43

Infine, osserviamo che anche in questo caso la va Z è l unica va che soddisfa alle condizioni 1 e 2 Infatti, da 1 Z è G -misurabile, dunque per la Proposizione 2118 è costante sugli elementi della partizione: Z(ω) = z i per ogni ω C i Allora, da 2 si ha E(X 1 Ci ) = E(Z 1 Ci ) = z i E(1 Ci ) = z i P(C i ), cioè z i = E(X 1 Ci )/P(C i ), da cui la tesi 312 Il caso generale Negli Esempi 311 e 312, abbiamo visto che le proprietà 1 e 2 si rivelano caratteristiche della va Z, che intuitivamente abbiamo chiamato speranza condizionale di X data la va Y oppure data la σ-algebra G La definizione generale prende infatti in considerazione proprio queste due proprietà caratteristiche: Definizione 313 Siano (Ω, F, P) uno spazio di probabilità, X una va avente speranza matematica finita e G una sotto σ-algebra di F Una versione E(X G ) della media (o speranza) condizionale di X dato G è una va tale che: (i) E(X G ) è G -misurabile e integrabile; (ii) per ogni G G, E(E(X G )1 G ) = E(X 1 G ) Qualora G = σ(y ), con Y va, allora E(X σ(y )) prende il nome di speranza condizionale di X dato Y ed è denotata con il simbolo E(X Y ) Abbiamo visto negli esempi che la speranza condizionale esiste se la σ- algebra G è generata da una partizione al più numerabile Lasceremo a corsi più avanzati la dimostrazione dell esistenza quando la σ-algebra è più generale Del resto, in questo corso il caso di σ-algebre generate da una partizione sarà quello che interessa Nella Definizione 313 si parla di versione perché è abbastanza chiaro che non c è unicità Infatti, se Z è una va G -misurabile e avente speranza matematica finita e tale che E(1 G Z) = E(1 G X) per ogni G G e Z è un altra va, sempre G -misurabile, ma che differisce da Z solo su un evento di probabilità 0, allora si ha anche E(1 G Z ) = E(1 G X) per ogni G G Quando G = σ(y ), il calcolo della speranza condizionale prende un aspetto particolare Abbiamo infatti visto (Proposizione 2120) che ogni va σ(y )- misurabile è della forma h(y ), dove h è un opportuna funzione misurabile Quindi esiste una funzione misurabile Ψ X tale che E(X Y ) = Ψ X (Y ) 44

Il calcolo della speranza condizionale, in questo caso, si riconduce quindi a quello della funzione Ψ X Con abuso di linguaggio, denoteremo Ψ X (y) = E(X Y = y), ma attenzione a non confondere la notazione E(X Y = y) con la media condizionale di X dato l evento {Y = y} (che, osserviamo, in molti casi di interesse è un evento di probabilità nulla ) Nell Esempio 311, abbiamo visto che Ψ X (y) = h X (y) = E(X 1 {Y =y}) P(Y = y) In generale, la funzione Ψ X resta determinata dalla relazione E(X1 {Y B} ) = E(Ψ X (Y )1 {Y B} ), per ogni boreliano B (31) (ricordiamo infatti che σ(y ) = {Y 1 (B); B B(E)}) Osserviamo che, se X, Y sono va a valori reali, allora siamo in grado di calcolare le due speranze matematiche che compaiono nella (31) non appena conosciamo le distribuzioni congiunte di X e Y Vediamo, nel prossimo esempio, come questo fatto si può sfruttare per calcolare E(X Y ) Esempio 314 Siano X e Y due va reali congiuntamente assolutamente continue, con X avente speranza matematica finita Indichiamo con f la densità di probabilità congiunta e con f X e f Y le due densità marginali Supponiamo, ma solo per semplicità, che f Y (y) > 0 La speranza matematica a destra nella (31) vale dunque E(X1 {Y B} ) = dy xf(x, y)dx mentre B E(Ψ X (Y )1 {Y B} ) = B R Ψ X (y)f Y (y)dy Queste due quantità risultano uguali per ogni scelta del boreliano B se scegliamo Ψ X (y) = 1 xf(x, y)dx = xf f Y (y) X Y (x y)dx R R dove f(x, y) f X Y (x y) = f Y (y) è la (vecchia!) densità condizionale Per concludere dobbiamo solo verificare che la va Ψ X (Y ) ha speranza matematica finita Infatti Ψ X (y) f Y (y)dy dx x f(x, y)dy = x f X (x)dx < R R R poiché supponiamo che X abbia speranza matematica finita In conclusione, la media di X condizionata a Y è la media di X fatta sotto la densità condizionale f X Y (x y), sostituendo poi ad y il suo valore generico (aleatorio) Y : esattamente come vorrebbe l intuizione! R 45

313 Proprietà della speranza condizionale Vediamo ora alcune proprietà delle speranze condizionali Avvertenza: nel seguito l abbreviazione qc sta per quasi certamente Significa che le proprietà in questione (uguaglianze, disuguaglianze etc) sono verificate per ω Ω \ N, dove N denota un evento tale che P(N) = 0 1 Se X = c, allora E(X G ) = c qc Immediato! 2 E(E(X G )) = E(X) Infatti basta prendere G = Ω G nel punto (ii) della Definizione 313 3 (Linearità) Se X e Y hanno media allora E(αX +βy G ) = αe(x G )+ βe(y G ) qc, per ogni α, β R Per ipotesi E(X G ) e E(Y G ) sono G -misurabili ed hanno speranza matematica finita Quindi lo stesso vale per Z := αe(x G ) + βe(y G ) Inoltre, se G G, E(Z 1 G ) = αe(e(x G )1 G ) + βe(e(y G )1 G ) = αe(x 1 G ) + βe(y 1 G ) = E((αX + βy )1 G ), dunque Z := αe(x G ) + βe(y G ) è una versione della speranza condizionale di αx + βy dato G 4 (Monotonia) Se P(X Y ) = 1 allora E(X G ) E(Y G ) qc Poniamo G = {ω ; E(X G ) < E(Y G )} Evidentemente G G Se fosse P(G) > 0 allora si avrebbe 0 > E((E(X G ) E(Y G ))1 G ), mentre invece si ha E((E(X G ) E(Y G ))1 G ) = E(E(X Y G )1 G ) = E((X Y )1 G ) 0, il che è assurdo 5 (Disuguaglianza di Jensen) Se Φ è una funzione continua convessa e tale che Φ(X) abbia speranza matematica finita, allora E(Φ(X) G ) Φ(E(X G )) qc In particolare, se p 1 e E( X p ) < +, allora possiamo scegliere Φ(x) = x p e dunque E( X p G ) E(X G ) p, qc 46

Figura 31 Una funzione convessa e continua è sempre inviluppo superiore delle funzioni lineari affini che la minorano Se Φ è convessa allora si può dimostrare che Φ(x) = sup f AΦ f(x), dove A Φ è l insieme delle funzioni lineari affini f che minorano Φ: A Φ = {f ; f(x) = ax + b e f(x) Φ(x)} (vedi figura) Allora, da cui segue che E(Φ(X) G ) E(f(X) G ) = f(e(x G )), E(Φ(X) G ) sup f A Φ f(e(x G )) = Φ(E(X G )) 6 Se Y è G-misurabile allora E(XY G ) = Y E(X G ), qc In particolare, E(Y G ) = Y, qc Faremo la dimostrazione solo nel caso in cui Y è prende un numero finito di valori, y 1,,y n : Y = i n y i 1 {Y =yi } Se poniamo G i = {Y = y i }, allora G i G perché Y è G -misurabile Ora, preso G G, si ha: E(XY 1 G ) = y i E(X 1 Gi G) = y i E(E(X G )1 Gi G) i n i n ( ) = E y i 1 Gi E(X G )1 G = E(Y E(X G )1 G ) i n 7 Siano A, G F due σ-algebre tali che A G Allora: E(X A ) = E(E(X A ) G ) = E(E(X G ) A ), qc E(X A ) è A -misurabile e quindi è G -misurabile perché A G Dunque, per il punto precedente, E(X A ) = E(E(X A ) G ) Dimostriamo ora che E(X A ) = E(E(X G ) A ): preso A A, allora A appartiene anche a G e E(E(X G )1 A ) = E(X 1 A ) 47

8 Sia X indipendente da G Allora, E(X G ) = E(X), qc Se G G allora X e Y = 1 G sono indipendenti, quindi E(X 1 G ) = E(X)E(1 G ) = E(E(X)1 G ) Ora sappiamo che la speranza condizionale E(X G ) si calcola facilmente se X è indipendente da G (vedi 8) oppure se X è già G -misurabile C è un altra situazione, molto frequente e che combina queste due situazioni, in cui il calcolo è abbastanza facile 9 Siano X una va G-misurabile e Y una va indipendente da G Per ogni f misurabile tale che f(x, Y ) ha speranza finita si ha E(f(X, Y ) G ) = f(x) qc, dove f(x) = E(f(x, Y )) Lo dimostreremo solo nel caso in cui la funzione f è della forma f(x, y) = f 1 (x)f 2 (y) Il caso generale si dimostra usando il fatto che ogni funzione f(x, y) si può approssimare con delle combinazioni lineari di funzioni del tipo f 1 (x)f 2 (y) e ne lasceremo la dimostrazione ad un corso più avanzato Se f è della forma indicata, allora f(x) = f 1 (x)e(f 2 (Y )) Usando 6 e 8, E(f(X, Y ) G ) = E(f 1 (X)f 2 (Y ) G ) = f 1 (X) E(f 2 (Y ) G ) = = f 1 (X) E(f 2 (Y )) = f(x) 10 Si ha, per ogni va Z che sia G-misurabile e di quadrato integrabile, E[(X E(X G )) 2 ] E[(X Z) 2 ] (32) e, per di più la disuguaglianza precedente è stretta a meno che non sia Z = E(X G ) qc In altre parole E(X G ) è la va G-misurabile che meglio approssima X nel senso dei minimi quadrati È questa una delle proprietà più importanti della speranza condizionale Si noti l analogia con E(X): sia E(X) che E(X G ) sono le migliori stime di X nel senso dei minimi quadrati, nel primo caso nella classe delle costanti mentre nel secondo caso nello spazio delle va con momento secondo finito e G -misurabili Dimostriamo la (32) Sia X una va con momento secondo finito Intanto, osserviamo che grazie alla disuguaglianza di Jensen, sappiamo che anche E(X G ) ha momento secondo finito (si scelga p = 2 nel punto 5) Ora, presa una qualunque va Z che sia G -misurabile e di quadrato integrabile, si ha E[(X Z) 2 ] = E[(X E(X G )) 2 ] + E[(Z E(X G )) 2 ] 2E[(X E(X G ))(Z E(X G ))] 48

Ma Z E(X G ) è una va G -misurabile e dunque Dunque, E[(X E(X G ))(Z E(X G ))] = E [ E[(X E(X G ))(Z E(X G ))] G ] = (Z E(X G ))E [ E[X E(X G ) G ] ] = 0 E[(X Z) 2 ] E[(X E(X G )) 2 ] e si ha uguaglianza se e solo se Z = E(X G ), da cui la tesi 314 Probabilità condizionale Definizione 315 Sia A F e sia G una una sotto-σ-algebra di F Una versione della probabilità condizionale di A dato G è data da P(A G ) = E(1 A G ) Così come nel caso della media condizionale, quando G = σ(y ) useremo la notazione P(A Y ) Ricordiamo che, anche in questo caso, occorre parlare di versione : analogamente alla media condizionale, la probabilità condizionale è definita a meno di insiemi di probabilità nulla, ovvero è definita qc Esempio 316 Riprendendo gli esempi 311, 312 e 314, possiamo scrivere: - se (X, Y ) è una coppia di va discrete, di densità discreta congiunta p X Y e densità (discrete) marginali p X e p Y allora qc P(X B Y ) = h B (Y ), dove h B (y) = P(X B Y = y) = p X Y (x, y) p Y (y) x B per ogni B E X (abbiamo scelto in particolare A = {X B}); - se G = σ(c ), con C = {C i } i I partizione al più numerabile di Ω, e se A F allora qc P(A G ) = i P(A C i ) P(C i ) 1 Ci ; - se (X, Y ) è una coppia di va assolutamente continue, di densità continua congiunta p X Y e densità (continue) marginali p X e p Y allora qc P(X B Y ) = Ψ B (Y ), dove Ψ B (y) = B p X Y (x, y) p Y (y) per ogni B E (abbiamo scelto in particolare A = {X B}) 49 dy,

La probabilità condizionale verifica le due proprietà basilari della probabilità: (i) per ogni A F, P(A c G ) = 1 P(A G ), qc: immediata conseguenza del fatto che 1 = 1 A + 1 A c (ii) per ogni A 1, A 2, F tali che A n A m = per n m allora P( n A n G ) = n P(A n G), qc Lo dimostriamo solo nel caso in cui G è generata da una partizione C = {C i } i I al più numerabile In tal caso, ponendo I N = {i I : P(C i = 0)}, allora ovviamente P( i IN C i ) = 0 ed è quindi immediato vedere che E(X G ) = E(X 1 ) Ci 1 Ci, qc P(C i ) i/ I N Ma allora, qc si hanno le seguenti uguaglianze: P( n A n G )(ω) = P(( n A n ) C i ) 1 Ci = P(A n C i ) P(C i ) P(C i/ I N i/ I N n i ) = P(A n C i ) 1 Ci = P(A n G ), P(C n i ) i/ I N n da cui la tesi Si potrebbe allora pensare di poter costruire una va tale che P(, ) : F Ω R 1 fissato A F, ω P(A, ω) è una versione di P(A G )(ω); 2 fissato ω Ω, A P(A, ω) è una probabilità su (Ω, F) Qualora sia possibile, P(A, ω) prende il nome di versione regolare della probabilità condizionata In generale però, tale funzione P(A, ω) non si può costruire Infatti, abbiamo visto che, fissato A F, P(A G ) è definita qc: esiste N A F tale che P(N A ) = 0 e P(A F)(ω) è ben definita per ω / N A Ne segue che, in generale, ω P(A F)(ω) è ben definita per ω / N = A F N A Ora, perché il tutto abbia senso occorre che N sia trascurabile, cioè P(N) = 0 Ma, poiché F non è in generale numerabile e dunque N = A F N A non è in generale un unione numerabile di eventi, - non è detto che N sia un evento, ovvero N F; 1 Ci 50

- se anche N F, non è detto che P(N) = 0 Osserviamo infine che, poiché la probabilità condizionale di A è data dalla media condizionale della va X = 1 A, molte delle proprietà viste per le medie condizionali valgono anche in questo caso Ad esempio, se A G allora ovviamente P(A G ) = 1 A qc, così come se A è indipendente da G allora P(A G ) = P(A), qc 32 Martingale 321 Definizioni e generalità Sia (Ω, F, P) uno spazio di probabilità Una filtrazione è una successione (F n ) n crescente di sotto-σ-algebre di F, cioè tale che F F n+1 F n Presa una successione (X n ) n, diremo che è adattata alla filtrazione (F n ) n, o anche che è F n -adattata, se X n è F n -misurabile, per ogni n In questo paragrafo ci collocheremo sempre in questo contesto Definizione 321 Una successione (X n ) n di va è una martingala (risp una supermartingala, una submartingala ) rispetto alla filtrazione (F n ) n se (X n ) n è F n -adattata, la va X n ha speranza matematica finita per ogni n e se, per ogni n, E(X n+1 F n ) = X n qc (risp, ) Esercizio 31 Verificare che (X n ) n è una martingala (risp una supermartingala, una submartingala) se e solo se, per ogni A F n, E(1 A X n+1 ) = E(1 A X n ) (risp, ) (33) Si noti che (X n ) n è una supermartingala se e solo se ( X n ) n è una submartingala e (X n ) n è una martingala se e solo se (X n ) n è simultaneamente una supermartingala e una submartingala Esempio 322 Sia (Y n ) n una successione di va indipendenti e sia F n = σ(y 1,,Y n ) Supponiamo inoltre che le Y n abbiano tutte speranza matematica finita ed = 0 (risp 0, 0) Allora: X n = Y 0 + Y 1 + + Y n è una F n -martingala (risp una supermartingala, una submartingala) Infatti E(X n+1 F n ) = E(X n + Y n F n ) = E(X n F n ) + E(Y n F n ) = X n + E(Y n ) = (risp 0, 0) X n poiché X n è F n -misurabile, mentre Y n è indipendente da F n Esercizio 32 Sia X una va avente speranza matematica finita e {F n } n una filtrazione Mostrare che X n = E(X F n ) è una martingala 51

Esercizio 33 Siano Y 0, Y 1, va iid, tali che P(Y n = 1) = p = 1 q = P(Y n = 1) Siano F n = σ(y 0,,Y n ) e X n = Y 0 + + Y n Poniamo ( q ) Xn ( p ) Xn Z n = e W n = p q Dire se (Z n ) n e/o (W n ) n sono delle F n martingale o submartingale o supermartingale Esercizio 34 Siano Y 0, Y 2, va iid, con media µ Poniamo F n = σ(y 0,,Y n ) e X n = Y 0 Y n Dimostrare che (X n ) n è una F n -martingala se e solo se µ = 1 Supponiamo quindi µ = 1 e che le (Y n ) n abbiano varianza σ 2 : verificare che Z n = X 2 n σ 2 n 1 k=0 X2 k è una F n-martingala 322 Prime proprietà - Se (X n ) n è una martingala (risp una supermartingala, una submartingala), la successione (E(X n )) n è costante (risp decrescente, crescente) Basta infatti applicare la (33) con A = Ω - Se (X n ) n è una martingala (risp una supermartingala, una submartingala), per m < n si ha E(X n F m ) = X m qc (risp, ) Infatti, per ricorrenza, E[X n F m ] = E[E(X n F n 1 ) F m ] = E[X n 1 F m ] = = E[X m+1 F m ] = X m - Se (X n ) n e (Y n ) n sono supermartingale, lo stesso vale per X n +Y n Anche X n Y n è una supermartingala Infatti E(X n+1 Y n+1 F n ) E(X n+1 F n ) X n E(X n+1 Y n+1 F n ) E(Y n+1 F n ) Y n e dunque E(X n+1 Y n+1 F n ) X n Y n - Se (X n ) n è una martingala (risp una submartingala) e f : R R è una funzione convessa (risp convessa e crescente) tale che f(x n ) è integrabile per ogni n 0, allora Y n = f(x n ) è una submartingala La dimostrazione segue direttamente applicando la disuguaglianza di Jensen (per la speranza condizionale) 52

323 La decomposizione di Doob Si dice che (A n ) n è un processo prevedibile crescente se A 0 = 0, A n A n+1 per ogni n 0 e A n+1 è F n -misurabile Sia (X n ) n una F n -submartingala Definiamo n A 0 = 0, A n+1 = A n + E(X n+1 X n F n ) = E(X k+1 X k F k ) Per costruzione, (A n ) n è un processo prevedibile crescente e M n = X n A n verifica E(M n+1 M n F n ) = 0 (perché A n+1 è F n -misurabile!) Quindi, (M n ) n è una F n -martingala ed inoltre X n = M n A n Questa decomposizione è, per di più, unica Infatti, se X n = M n + A n è un altra decomposizione di questo tipo, allora A 0 = 0 e k=0 A n+1 A n = X n+1 X n (M n+1 M n) da cui, condizionando rispetto a F n, A n+1 A n = E(X n+1 X n F n ) Dunque, A n = A n e M n = M n Abbiamo quindi dimostrato che Teorema 323 (Decomposizione di Doob) Ogni submartingala (X n ) n si può scrivere, in maniera unica, nella forma X n = M n + A n, dove (M n ) n è una martingala e (A n ) n è un processo prevedibile crescente integrabile Il processo prevedibile crescente (A n ) n del Teorema (323) si chiama il compensatore della submartingala (X n ) n Presa una supermartingala (risp martingala) (X n ) n, allora ( X n ) n è una submartingala (risp martingala) Applicando a ( X n ) n il Teorema 323, otteniamo la seguente decomposizione di Doob per supermartingale: Teorema 324 Ogni supermartingala (X n ) n si può scrivere, in maniera unica, nella forma X n = M n A n, dove (M n ) n è una martingala e (A n ) n è un processo prevedibile crescente integrabile Esercizio 35 Sia (X n ) n la martingala dell Esempio 322: X n = Y 0 + Y n, con Y 1, iid, di media 0, e F n = σ(y 0,,Y n ) Supponiamo che le Y i abbiano varianza σ 2 Verificare che X 2 n è una submartingala e determinarne il compensatore 324 Martingale trasformate Proposizione 325 Sia (M n ) n una F n -martingala e (H n ) n un processo prevedibile, cioè tale che H n+1 sia F n misurabile Sia n X 0 = 0 e per n > 0, X n = H j (M j M j 1 ) Allora (X n ) n è ancora una martingala rispetto alla stessa filtrazione F n 53 j=1

La martingala (X n ) n definita nella Proposizione 325 è detta la martingala trasformata di (M n ) n tramite (H n ) n Dimostrazione della Proposizione 325 X n è chiaramente F n -misurabile e poiché H n+1 è F n -misurabile, si ha E(H n+1 (M n+1 M n ) F n ) = H n+1 E((M n+1 M n ) F n ) = 0 Essendo X n+1 = H n+1 (M n+1 M n ) + X n, si ha E(X n+1 F n ) = E(H n+1 (M n+1 M n ) F n ) + E(X n F n ) = H n+1 E(M n+1 M n F n ) + X n = X n Presentiamo infine un utile caratterizzazione delle martingale, che fa uso delle martingale trasformate Proposizione 326 Sia (M n ) n un processo F n -adattato (M n ) 0 n N è una martingala se e solo se per ogni processo prevedibile (H n ) 0 n N si ha ( N ) E H n (M n M n 1 ) = 0 n=1 Dimostrazione Se (M n ) 0 n N è una martingala, dalla Proposizione 325 anche (X n ) 0 n N è una martingala, con X n = n j=1 H j (M j M j 1 ) per n 1 e X 0 = 0 Quindi, ( N ) E H n (M n M n 1 ) = E(X N ) = E(X 0 ) = 0 n=1 Viceversa, per dimostrare che (M n ) 0 n N è una martingala basta far vedere che E(M n+1 1 A ) = E(M n 1 A ), per ogni fissato n = 0, 1,,N 1 e A F n Fissiamo quindi n = 0, 1,,N 1 e A F n Sia { 1A se j = n + 1 H j = 0 altrimenti H è ovviamente prevedibile e ( N ) ( ) 0 = E H j (M j M j 1 ) = E 1 A (M n+1 M n ) j=1 cioè E(M n+1 1 A ) = E(M n 1 A ) 54

33 Tempi d arresto Definizione 331 (i) Un tempo d arresto rispetto alla filtrazione (F n ) n, anche detto un F n -tempo d arresto, è una va τ : Ω N (quindi può anche prendere il valore + ) tale che, per ogni n 0, {τ n} F n (ii) Se τ è un F n -tempo d arresto, si chiama σ-algebra degli eventi antecedenti al tempo τ, in simboli F τ, la σ-algebra F τ = {A F ; per ogni n 0, A {τ n} F n }, dove F denota la σ-algebra generata da n F n Esercizio 36 Verificare che F τ è effettivamente una σ-algebra È utile osservare che nelle (i) e (ii) della Definizione 331, si possono sostituire le condizioni {τ n} F n e A {τ n} F n con {τ = n} F n e A {τ = n} F n, rispettivamente, perché {τ n} = n {τ = k}, quindi {τ = n} = {τ n} {τ n 1} c k=0 Esempio 332 (Esempio fondamentale) Sia (X n ) n un processo a valori in (E, E ) e adattato alla filtrazione (F n ) n Poniamo, per A E, τ A (ω) = inf{n 0; X n (ω) A}, (34) con l intesa che inf = + Allora τ A è un tempo d arresto, poichè {τ A = n} = {X 0 / A, X 1 / A,,X n 1 / A, X n A} F n ; τ A si chiama tempo di passaggio o d ingresso in A Siano τ 1, τ 2 due tempi d arresto della filtrazione (F n ) n Vediamo ora alcune proprietà interessanti, di cui ci serviremo nel seguito La loro verifica può apparire complicata a prima vista (soprattutto le σ-algebre F τ fanno un po di paura) ma si rivela poi abbastanza semplice e scolastica Lasciamo per esercizio la dimostrazione Esercizio 37 Siano τ 1 e τ 2 due F n -tempi d arresto Dimostrare che τ 1 +τ 2, τ 1 τ 2, τ 1 τ 2 sono tempi d arresto, rispetto alla stessa filtrazione Esercizio 38 Siano τ 1 e τ 2 due F n -tempi d arresto Dimostrare che se τ 1 τ 2, allora F τ1 F τ2 Esercizio 39 Siano τ 1 e τ 2 due F n -tempi d arresto Mostrare che F τ1 τ 2 = F τ1 F τ2 55

Esercizio 310 Siano τ 1 e τ 2 due F n -tempi d arresto Dimostrare che {τ 1 < τ 2 } e {τ 1 = τ 2 } appartengono entrambi a F τ1 F τ2 Sia (X n ) n un processo adattato; spesso avremo bisogno di considerare la posizione del processo al tempo τ, cioè X τ (ω) = X τ(ω) (ω) Possiamo quindi dire che X τ = X n sull evento {τ = n}, n N Osserviamo che la va X τ è F τ -misurabile perché {X τ A} {τ = n} = {X n A} {τ = n} F n Il risultato che segue è molto utile per calcolare la speranza condizionale rispetto alla σ-algebra F τ Proposizione 333 Sia X una va integrabile e sia τ un tempo d arresto Si ponga, per ogni n N, X n = E(X F n ) Allora sull evento {τ = n}, si ha E(X F τ ) = E(X F n ), cioè E(X F τ ) = X τ (35) Dimostrazione Se A F τ, allora 1 A 1 {τ=n} = 1 A {τ=n} è F n -misurabile Quindi, E(1 A X τ ) = n N E[1 A X n 1 {τ=n} ] = n N E[1 A X 1 {τ=n} ] = E(1 A X), e dunque E(X F τ ) = X τ Concludiamo con il prossimo risultato, molto semplice da dimostrare ma, come vedremo in seguito, particolarmente utile Proposizione 334 Se (X n ) n è una martingala (risp una supermartingala, una submartingala), lo stesso è vero anche per il processo arrestato X τ n = X n τ, dove τ è una tempo d arresto della filtrazione (F n ) n Dimostrazione Per la definizione di tempo d arresto, {τ n+1} = {τ n} c F n ; dunque E(X τ n+1 X τ n F n ) = E((X n+1 X n )1 {τ n+1} F n ) = 1 {τ n+1} E(X n+1 X n F n ) = (risp, )0 (36) 56

331 Il teorema d arresto Sia (X n ) n una supermartingala Quindi, per m < n, si ha E(X n F m ) X m qc Questa proprietà resta vera se si sostituiscono m e n con dei tempi d arresto? Cioè: se τ 1 e τ 2 sono due tempi d arresto con τ 1 τ 2, è vero che E(X τ2 F τ1 ) X τ1? (37) Supponiamo che τ 1 e τ 2 siano limitati: esiste k N tale che τ 1 τ 2 k Poiché A {τ 1 = j} F j e (X τ 2 n ) n = (X τ2 n) n è una supermartingala, E(X τ2 1 A ) = k E(X τ2 k 1 A {τ1 =j}) j=0 Ma X τ2 j = j su {τ 1 = j}, dunque E(X τ2 1 A ) k E(X τ2 j 1 A {τ1 =j}) j=0 k E(X j 1 A {τ1 =j}) = E(X τ1 1 A ) j=0 Quindi abbiamo dimostrato che Teorema 335 (Teorema d arresto) Siano (X n ) n una martingala (risp supermartingala, submartingala) e τ 1, τ 2 due tempi d arresto limitati tali che τ 1 τ 2 Allora E(X τ2 F τ1 ) = X τ1 (risp, ) Prendendo le speranze matematiche, Corollario 336 Siano (X n ) n una martingala (risp supermartingala, submartingala) e τ un tempo d arresto limitato Allora E(X τ ) = E(X 0 ) (risp, ) 57

34 Soluzioni Soluzione dell esercizio 31 La dimostrazione è immediata conseguenza della definizione di media condizionata: posto Y n = E(X n+1 F n ) allora dev essere E(1 A Y n ) = E(1 A X n+1 ) per ogni A F n Dunque, Y n = X n (risp, ) se e solo se per ogni A F n si ha E(1 A X n+1 ) = E(1 A X n ) (risp, ) Soluzione dell esercizio 32 Usando il fatto che F n F n+1 e la proprietà 7 del Paragrafo 313, si ha ( ) E(X n+1 F n ) = E E(X F n+1 ) F n = E(X F n ) = X n, dunque (X n ) n è una martingala Soluzione dell esercizio 33 Intanto, è immediato verificare che sia Z n che W n sono integrabili Studiamo dapprima (Z n ) n : (( q Xn+Y n+1 ) ( q ) Xn (( q Yn+1 ) E(Z n+1 F n ) = E Fn = E Fn p) p p) ( q = Z n p P(Y n+1 = 1) + p ) ( q q P(Y n+1 = 1) = Z n p p + p ) q q = Z n, dunque (Z n ) n è una martingala Ora, essendo W n = 1/Z n, con f(z) = 1/z convessa, (W n ) n è una submartingala Verifichiamolo anche direttamente: (( p Xn+Y n+1 ) ( p ) Xn (( p Yn+1 ) E(W n+1 F n ) = E Fn = E Fn q) q q) ( p = W n q P(Y n+1 = 1) + q ) ( p p P(Y n+1 = 1) = W n q p + q ) p q = c W n, dove c = (p 3 +q 3 )/(pq) = (p 2 pq+q 2 )/(pq) Osserviamo che c 1 per ogni p, q, con c = 1 se e solo se p = q = 1/2 Dunque, (W n ) n è una submartingala (e in particolare una-banale-martingala se p = q) Soluzione dell esercizio 34 Poiché X n+1 = X n Y n+1, si ha: E(X n+1 F n ) = E(X n Y n+1 F n ) = X n E(Y n+1 F n ) = X n E(Y n+1 ) = µx n, dunque (X n ) n è una martingala se e solo se µ = 1 Supponiamo ora che E(Y n ) = µ e Var(Y n ) = σ 2, per ogni n Allora, usando che Xn+1 2 = X2 n Yn+1 2 : n ) E(Z n+1 F n ) = E (Xn+1 2 σ 2 F n k=0 X 2 k n n = Xn 2 E(Yn+1 2 F n ) σ 2 Xk 2 = X2 n E(Yn+1) 2 σ 2 k=0 k=0 n n 1 = Xn(σ 2 2 + 1) σ 2 Xk 2 = X2 n σ 2 Xk 2 = Z n k=0 58 k=0 X 2 k

Soluzione dell esercizio 35 X 2 n è una submartingala perché X 2 n = f(x n ), con f(x) = x 2 convessa e f(x n ) è integrabile Il compensatore è A n = n 1 k=0 E(X2 k+1 X2 k F k) Ora, E(Xk+1 2 X2 k F k) = E((X k + Y k+1 ) 2 Xk 2 F k) = E(Yk+1 2 + 2X ky k+1 F k ) = E(Yk+1 2 ) + 2X ke(y k+1 ) = σ 2, dunque A n = n σ 2 Soluzione dell esercizio 36 1 Ω F τ : infatti, Ω F (F è una σ-algebra) e, per ogni n, Ω {τ n} = {τ n} F n perché τ è F n -misurabile 2 Se A F τ allora A c F τ : se A F τ allora A c F e A c {τ n} = {τ n} (A {τ n}) c F n per ogni n (perchè sia {τ n} che A {τ n} stanno in F n ) 3 Se {A k } F τ allora k A k F τ : in tal caso, ovviamente k A k F ed inoltre ( k A k ) {τ n} = k (A k {τ n}) F n Soluzione dell esercizio 37 Per la prima, abbiamo visto che basta verificare che, per ogni n, {τ 1 + τ 2 = n} F n Ma si può scrivere {τ 1 + τ 2 = n} = n {τ 1 = k, τ 2 n k} k=0 Ma, se 0 k n, gli eventi {τ 1 = k} e {τ 2 n k} appartengono a F n (ricordiamo che le σ-algebre F n sono crescenti) Dunque, nell unione a destra tutti gli eventi appartengono a F n Per la seconda, osserviamo che Infine, {τ 1 τ 2 n} = {τ 1 n} {τ }{{} 2 n} F }{{} n F n F n {τ 1 τ 2 > n} = {τ 1 > n} {τ }{{} 2 > n} F }{{} n, F n F n dunque {τ 1 τ 2 n} = {τ 1 τ 2 > n} c F n Soluzione dell esercizio 38 Intuitivamente questa relazione è evidente: se il tempo τ 1 precede τ 2, allora gli eventi antecedenti a τ 1 sono anche antecedenti τ 2 Verifichiamo formalmente la proprietà Sia A F τ1 Vogliamo verificare che A F τ2, quindi che A {τ 2 n} F n, per ogni n Ma, poiché τ 1 τ 2, {τ 2 n} {τ 1 n} Dunque possiamo scrivere A {τ 2 n} = A {τ 1 n} {τ }{{} 2 n} F }{{} n F n F n 59

Soluzione dell esercizio 39 Infatti, τ 1 τ 2 è un tempo d arresto tale che τ 1 τ 2 τ i, i = 1, 2, dunque F τ1 τ 2 F τi, i = 1, 2, e quindi F τ1 τ 2 F τ1 F τ2 Viceversa, dimostriamo che F τ1 τ 2 F τ1 F τ2 Preso A F τ1 F τ2, allora A {τ i n} F n, per ogni n e i = 1, 2 Quindi, ( ) A {τ 1 τ 2 n} = A {τ 1 n} {τ 2 n} ( ) ( ) = A {τ 1 n} A {τ 2 n} F n, cioè A F τ1 τ 2 Soluzione dell esercizio 310 Osserviamo dapprima che Inoltre, per ogni n, {τ 1 < τ 2 } = k {τ 1 < k} {τ 2 = k} }{{} F k F F e {τ 1 = τ 2 } = k {τ 1 = k} {τ 2 = k} }{{} F k F {τ 1 < τ 2 } {τ 1 = n} = {τ 1 = n} {τ 2 n} c F n e {τ 1 < τ 2 } {τ 2 = n} = {τ 1 < n} {τ 2 = n} c F n Dunque, {τ 1 < τ 2 } F τ1 e {τ 1 < τ 2 } F τ2, cioè {τ 1 < τ 2 } F τ1 F τ2 60