Metodi Monte Carlo sequenziali per modelli a volatilità stocastica con distribuzioni a code spesse

Documenti analoghi
Capitolo 13: L offerta dell impresa e il surplus del produttore

Dimensione di uno Spazio vettoriale

Automazione Industriale (scheduling+mms) scheduling+mms.

E naturale chiedersi alcune cose sulla media campionaria x n

Capitolo 12 La regressione lineare semplice

Regressione Mario Guarracino Data Mining a.a. 2010/2011

Statistica. Lezione 6

1. Distribuzioni campionarie

La distribuzione Normale. La distribuzione Normale


2. Leggi finanziarie di capitalizzazione

1) Si consideri un esperimento che consiste nel lancio di 5 dadi. Lo spazio campionario:

Come visto precedentemente l equazione integro differenziale rappresentativa dell equilibrio elettrico di un circuito RLC è la seguente: 1 = (1)

Computazione per l interazione naturale: Modelli dinamici

Elementi di Psicometria con Laboratorio di SPSS 1

Macroeconomia, Esercitazione 2. 1 Esercizi. 1.1 Moneta/ Moneta/ Moneta/3. A cura di Giuseppe Gori (giuseppe.gori@unibo.

LE FUNZIONI A DUE VARIABILI

Indice di rischio globale

SPC e distribuzione normale con Access

Controlli Automatici T. Trasformata di Laplace e Funzione di trasferimento. Parte 3 Aggiornamento: Settembre Prof. L.

Analisi di scenario File Nr. 10

Calcolo del Valore Attuale Netto (VAN)

Consideriamo due polinomi

Dato il Mercato, è possibile individuare il valore e la duration del portafoglio:

Capitolo 25: Lo scambio nel mercato delle assicurazioni

IL RISCHIO D IMPRESA ED IL RISCHIO FINANZIARIO. LA RELAZIONE RISCHIO-RENDIMENTO ED IL COSTO DEL CAPITALE.

Inferenza statistica. Statistica medica 1

1 Serie di Taylor di una funzione

11. Analisi statistica degli eventi idrologici estremi

VALORE DELLE MERCI SEQUESTRATE

ESERCIZI DI MATEMATICA FINANZIARIA DIPARTIMENTO DI ECONOMIA E MANAGEMENT UNIFE A.A. 2015/ Esercizi: lezione 24/11/2015

Introduzione all analisi dei segnali digitali.

AND NON CAP WEIGHTED PORTFOLIO

CAPITOLO 10 I SINDACATI

LA DISTRIBUZIONE DI PROBABILITÀ DEI RITORNI AZIONARI FUTURI SARÀ LA MEDESIMA DEL PASSATO?

LEZIONE 23. Esempio Si consideri la matrice (si veda l Esempio ) A =

Elementi di Psicometria con Laboratorio di SPSS 1

Per studio di funzione intendiamo un insieme di procedure che hanno lo scopo di analizzare le proprietà di una funzione f ( x) R R

Corso di Psicometria Progredito

Elementi di Psicometria con Laboratorio di SPSS 1

Abbiamo costruito il grafico delle sst in funzione del tempo (dal 1880 al 1995).

Ottimizzazione Multi Obiettivo

Matematica generale CTF

Il Capital asset pricing model è un modello di equilibrio dei mercati, individua una relazione tra rischio e rendimento, si fonda sulle seguenti

Test statistici di verifica di ipotesi

Fondamenti e didattica di Matematica Finanziaria

Corso di Laurea a Distanza in Ingegneria Elettrica Corso di Comunicazioni Elettriche Processi casuali A.A Alberto Perotti, Roberto Garello

Domande a scelta multipla 1

Metodi statistici per l economia (Prof. Capitanio) Slide n. 9. Materiale di supporto per le lezioni. Non sostituisce il libro di testo

Probabilità condizionata: p(a/b) che avvenga A, una volta accaduto B. Evento prodotto: Evento in cui si verifica sia A che B ; p(a&b) = p(a) x p(b/a)

Il concetto di valore medio in generale

Corso di. Dott.ssa Donatella Cocca

Elementi di Psicometria con Laboratorio di SPSS 1

STATISTICA IX lezione

VERIFICA DELLE IPOTESI

Psicometria (8 CFU) Corso di Laurea triennale STANDARDIZZAZIONE

Analisi sensitività. Strumenti per il supporto alle decisioni nel processo di Valutazione d azienda

ROI, WACC e EVA: strumenti di pianificazione economico finanziaria Di : Pietro Bottani Dottore Commercialista in Prato

(a cura di Francesca Godioli)

INTEGRATORE E DERIVATORE REALI

~ Copyright Ripetizionando - All rights reserved ~ STUDIO DI FUNZIONE

CONTROLLO IN TENSIONE DI LED

APPUNTI DI MATEMATICA LE FRAZIONI ALGEBRICHE ALESSANDRO BOCCONI

risulta (x) = 1 se x < 0.

Ottimizazione vincolata

( x) ( x) 0. Equazioni irrazionali

Serie Storiche Trasformazioni e Aggiustamenti

Il mercato di monopolio

Federico Laschi. Conclusioni

Modelli di Programmazione Lineare e Programmazione Lineare Intera

PROGETTO INDAGINE DI OPINIONE SUL PROCESSO DI FUSIONE DEI COMUNI NEL PRIMIERO

Fondamenti di Automatica

Premesse alla statistica

Capitolo II. La forma del valore. 7. La duplice forma in cui si presenta la merce: naturale e di valore.

Analisi di dati di frequenza

La variabile casuale Binomiale

La categoria «ES» presenta (di solito) gli stessi comandi

LA MASSIMIZZAZIONE DEL PROFITTO ATTRAVERSO LA FISSAZIONE DEL PREZZO IN FUNZIONE DELLE QUANTITÀ

ALLEGATO 1 Analisi delle serie storiche pluviometriche delle stazioni di Torre del Lago e di Viareggio.

GESTIONE DELLE TECNOLOGIE AMBIENTALI PER SCARICHI INDUSTRIALI ED EMISSIONI NOCIVE LEZIONE 10. Angelo Bonomi

Più processori uguale più velocità?

LE SUCCESSIONI 1. COS E UNA SUCCESSIONE

Capitolo 26. Stabilizzare l economia: il ruolo della banca centrale. Principi di economia (seconda edizione) Robert H. Frank, Ben S.

Verifica di ipotesi

f(x) = 1 x. Il dominio di questa funzione è il sottoinsieme proprio di R dato da

Ricerca Operativa Esercizi sul metodo del simplesso. Luigi De Giovanni, Laura Brentegani

Verifica di ipotesi e intervalli di confidenza nella regressione multipla

u 1 u k che rappresenta formalmente la somma degli infiniti numeri (14.1), ordinati al crescere del loro indice. I numeri u k

Pro e contro delle RNA

Finanza Aziendale. Lezione 13. Introduzione al costo del capitale

Statistiche campionarie

Aspettative, consumo e investimento

Teoria dei Giochi. Anna Torre

Note su quicksort per ASD (DRAFT)

L ANALISI ABC PER LA GESTIONE DEL MAGAZZINO

INDICE PREFAZIONE VII

Indice. Le curve di indifferenza sulla frontiera di Markowitz UNIVERSITA DI PARMA FACOLTA DI ECONOMIA

LEZIONE 7. Esercizio 7.1. Quale delle seguenti funzioni è decrescente in ( 3, 0) e ha derivata prima in 3 che vale 0? x x2. 2, x3 +2x +3.

Principi di analisi causale Lezione 2

Analisi dei margini: componenti e rischi

Transcript:

Corso di Laurea magistrale (ordinamento ex D.M. 270/2004) in Economia e Finanza Tesi di Laurea Metodi Monte Carlo sequenziali per modelli a volatilità stocastica con distribuzioni a code spesse Relatore Ch. Prof. Roberto Casarin Laureando Denny Salmaso Matricola 821161 Anno Accademico 2012 / 2013

ii Ai miei genitori, che mi hanno permesso di arrivare fin qui

iii Sommario In questa tesi si stimano tre differenti modelli a volatilità stocastica con distribuzioni a code spesse utilizzando i metodi Monte Carlo sequenziali per la stima congiunta di parametri e stati. I modelli stimati vengono applicati a dati reali riguardanti i metalli preziosi, rame e petrolio, con lo scopo di combinare le tre densità di previsione ottenute per ciascuna serie ed utilizzare tale combinazione a fini previsivi. Viene proposta inoltre un applicazione in tema di portfolio composition analizzando le differenze tra l uso della combinazione di modelli diversi e del singolo modello migliore.

Indice Introduzione 1 Struttura della tesi............................. 2 1 Il modello a volatilità stocastica 3 1.1 Modellare la volatilità........................ 3 1.2 Inferenza nei modelli state space................... 5 1.2.1 Il Filtro di Hamilton..................... 7 1.2.2 Il Filtro di Kalman...................... 8 1.2.3 Metodi Monte Carlo sequenziali............... 9 2 Modelli con distribuzioni a code spesse 19 2.1 Filtraggio congiunto di parametri e stato.............. 19 2.2 Il modello............................... 22 2.2.1 Errori ɛ t N(0,1)....................... 23 2.2.2 Errori ɛ t t-student(ν)................... 26 2.2.3 Errori ɛ t GEV(0,1,ξ).................... 32 3 Stima della volatilità su dati reali 39 3.1 Metodologia applicata........................ 39 3.2 Dati utilizzati e risultati....................... 41 3.2.1 Platino............................. 41 3.2.2 Oro............................... 43 3.2.3 Argento............................ 45 3.2.4 Rame............................. 47 3.2.5 Petrolio............................ 49 3.2.6 Riepilogo risultati....................... 51 3.3 Volatilità stocastica e selezione di portafoglio............ 51 Conclusioni 61 v

vi INDICE A Grafici e stime numeriche 63 B Codici utilizzati 71 Riferimenti bibliografici 79

Elenco delle figure 1.1 Schema di ricampionamento..................... 14 2.1 Istogramma serie simulata normale................. 23 2.2 Livelli serie simulata normale.................... 24 2.3 Parametri serie simulata normale.................. 25 2.4 Log-volatilità serie simultata normale................ 25 2.5 RMSE serie simultata normale.................... 26 2.6 Istogramma serie simultata t-student................ 28 2.7 Livelli serie simultata t-student................... 28 2.8 Parametri serie simulata t-student.................. 30 2.9 Log-volatilità serie simultata t-student............... 31 2.10 RMSE serie simultata t-student................... 31 2.11 Istogramma serie simultata GEV.................. 33 2.12 Livelli serie simultata GEV..................... 33 2.13 Parametri serie simulata GEV.................... 35 2.14 Log-volatilità serie simultata GEV................. 35 2.15 RMSE serie simultata GEV..................... 36 3.1 RMSPE platino, prezzi spot..................... 41 3.2 Volatilità platino, prezzi spot.................... 42 3.3 RMSPE platino, prezzi futures.................... 42 3.4 Volatilità platino, prezzi futures................... 42 3.5 RMSPE oro, prezzi spot....................... 43 3.6 Volatilità oro, prezzi spot....................... 44 3.7 RMSPE oro, prezzi futures...................... 44 3.8 Volatilità oro, prezzi futures..................... 44 3.9 RMSPE argento, prezzi spot..................... 45 3.10 Volatilità argento, prezzi spot.................... 46 3.11 RMSPE argento, prezzi futures................... 46 3.12 Volatilità argento, prezzi futures................... 46 vii

viii ELENCO DELLE FIGURE 3.13 RMSPE rame, prezzi spot...................... 47 3.14 Volatilità rame, prezzi spot...................... 48 3.15 RMSPE rame, prezzi futures..................... 48 3.16 Volatilità rame, prezzi futures.................... 48 3.17 RMSPE petrolio, prezzi spot..................... 49 3.18 Volatilità petrolio, prezzi spot.................... 50 3.19 RMSPE petrolio, prezzi futures................... 50 3.20 Volatilità petrolio, prezzi futures................... 50 3.21 Selezione su serie futures oro combinata............... 54 3.22 Selezione su serie futures oro GEV................. 54 3.23 Selezione su serie futures petrolio combinata............ 55 3.24 Selezione su serie futures petrolio GEV............... 55 3.25 Densità previsiva, serie futures oro combinata........... 56 3.26 Densità previsiva, serie futures oro GEV.............. 56 3.27 Densità previsiva, serie futures petrolio combinata......... 57 3.28 Densità previsiva, serie futures petrolio GEV............ 57 A.1 Grafici delle serie storiche, rendimenti spot............. 64 A.2 Istogrammi delle serie storiche, rendimenti spot.......... 64 A.3 Grafici delle serie storiche, rendimenti futures........... 65 A.4 Istogrammi delle serie storiche, rendimenti futures......... 65 A.5 Grafico del discount rate....................... 66 A.6 Prezzo teorico T-Bill......................... 66 A.7 Grafico del tasso risk free...................... 67

Elenco delle tabelle 2.1 Stime numeriche dei modelli simulati................ 36 3.1 Selezione di portafoglio su oro e petrolio, serie futures combinata. 58 3.2 Selezione di portafoglio su oro e petrolio, serie futures GEV.... 58 A.1 Statistiche descrittive delle serie spot................ 63 A.2 Statistiche descrittive delle serie futures............... 67 A.3 Stime dei parametri delle serie spot................. 68 A.4 Stime dei parametri delle serie futures............... 69 ix

Lista degli algoritmi 1 Sequential Importance Sampling (SIS)................ 12 2 Sequential Importance Resampling (SIR).............. 14 3 Auxiliary Particle Filter (APF)................... 16 1 Filtro di Liu e West per la stima di parametri e stati (LWF)... 22 1 Algoritmo per la simulazione del modello gaussiano........ 71 2 Algoritmo per la simulazione del modello t-student........ 71 3 Algoritmo per la simulazione del modello GEV........... 72 4 Filtro LW per la stima del modello GEV.............. 72 xi

Introduzione L uso della volatilità nelle strategie ed analisi finanziarie riveste un ruolo cruciale. Tuttavia ampio è il dibattito su come questa vada considerata e se sia o meno un indicatore che possa essere utilizzato come misura di rischio. Grazie alle ricerche di Bollerslev (1987) ed Engle (1982), si è passati da una forma di volatilità costante ad una dinamica. I modelli a volatilità stocastica si propongono di modellare la variabilità del fenomeno studiato tramite un processo casuale non osservabile con una propria componente di errore. Una rappresentazione possibile per questo tipo di modelli è quella state space, in cui un equazione descrive l evoluzione della variabile che si può osservare (equazione di misurazione) e un altra descrive l andamento della variabile non osservabile. La rappresentazione state space è naturale poichè il modello è generalmente definito in questa forma ed è altresì utile a fini econometrici in quanto diversi metodi di inferenza utilizzano questa rappresentazione. In questo tipo di specificazione e per i modelli non lineari trova naturale applicazione una metodologia di stima fondata sui metodi Monte Carlo sequenziali. Il lavoro sviluppato in questa sede di pone l obiettivo si verificare se l assunzione di normalità dei rendimenti di determinate attività finanziarie sia effettivamente la migliore ipotesi possibile o possa essere modificata al fine di migliorare eventuali strategie finanziarie di investimento. A tal fine, verranno stimati tre differenti modelli a volatilità stocastica che includono distribuzioni a code spesse e verranno utilizzati in previsione. Come bontà di previsione si utilizza il RMSPE che verrà utilizzato per determinare il modello migliore. Poichè i modelli forniscono in ogni caso informazioni aggiuntive sia sulla volatilità latente che sui rendimenti futuri attesi, non verrà considerato solamente il modello migliore bensì verrà implementato un modo per combinare le stime con finalità previsive. Si propone quindi un metodo per combinare le densità di previsione fornite dai modelli in modo da ottenere una distribuzione che tenga conto di tutte le informazioni disponibili. Per concludere si verifica l utilità del metodo 1

2 Introduzione presentato sul piano economico attraverso un esercizio di selezione di portafoglio. Per condurre l analisi fin qui esposta si è scelto di basarsi sui mercati dei metalli preziosi ed energetici in cui la elevata volatilità e la sua dinamica sono caratteristiche proprie degli assets scambiati. In particolar modo si sono analizzate le serie storiche dei prezzi sia spot che future di platino, oro, argento, rame e petrolio. La frequenza è giornaliera ed il periodo di analisi va da fine gennaio 2010 a dicembre 2013, per un totale di 1000 osservazioni per serie. Struttura della tesi Questa tesi è articolata nel seguente modo: Il primo capitolo fornisce una rapida rassegna della letteratura in tema di modelli state space e metodi Monte Carlo sequenziali. Il secondo capitolo presenta la metodologia di stima dei tre modelli utilizzati in questa tesi e verranno forniti i risultati riguardanti l applicazione dei modelli a dati simulati. Il terzo capitolo mostra i risultati dell applicazione a dati reali e propone un applicazione in tema di selezione di portafoglio. L appendice A contiene ulteriori dati e grafici che completano il lavoro presentato. L appendice B riporta i codici degli algoritmi Matlab utilizzati in questa tesi.

Capitolo 1 Il modello a volatilità stocastica 1.1 Modellare la volatilità L analisi dei rendimenti delle attività finanziarie ha più volte confermato che queste serie storiche presentano il fenomeno del volatility clustering, come affermato da Mandelbrot e Fama, a periodi di alta volatilità tenderanno a seguire periodi con volatilità altrettanto alta e viceversa nel caso in cui si osservi una variabilità moderata. Grazie ai contributi di Bollerslev (1987) ed Engle (1982), in letteratura si iniziò ad utilizzare una particolare classe di modelli che riesce a catturare determinate caratteristiche delle serie dei rendimenti, come le code più spesse rispetto a quelle di una normale standard ed il volatility clustering. Si ipotizzò quindi la seguente dinamica per i rendimenti r t = σ t ɛ t (1.1) in cui la serie r t è definita tramite una serie di variabili i.i.d. distribuite come una normale standard, ɛ t, e dalla volatilità σ t. Da questo modello è chiaro che la specificazione della dinamica per la volatilità abbia un ruolo importante in questa rappresentazione. Una prima dinamica utilizzata per σ t è quella di un processo autoregressivo di ordine p sui valori passati di r t al quadrato: α 2 t = α 0 + α 1 r 2 t 1 + + α p r 2 t p Questo modello prende il nome di ARCH di ordine p (AutoRegressive Conditional Heteroskedacity) poiché la varianza condizionale dei rendimenti, data questa specificazione, risulta variabile nel tempo e non più costante V ar[r t D t ] = V ar[σ t ɛ t D t ] = E[σ 2 t D t ]E[ɛ 2 t D t ] = E[σ 2 t D t ] 3

4 CAPITOLO 1. IL MODELLO A VOLATILITÀ STOCASTICA dato che la distribuzione di ɛ t ha varianza unitaria, e D t indica tutta l informazione disponibile al tempo t. Tuttavia sono necessarie alcune assunzioni riguardo i parametri di tale processo affinché la varianza sia positiva e si può verificare che le condizioni sufficienti sono α 0 > 0 α k 0 k = 1, 2,..., k con almeno un termine α k strettamente maggiore di zero perché si produca eteroschedasticità nella serie. Uno dei principali problemi dei modelli ARCH consiste nel fatto che il numero di parametri da stimare potrebbe essere molto elevato a causa della persistenza nella volatilità. Una soluzione a questo problema è stata raggiunta generalizzando il modello ARCH seguendo le orme dei processi ARMA, dando vita ai cosiddetti modelli GARCH (Generalized ARCH). Essi assumono la stessa dinamica per i rendimenti, ma aggiungono un altra componente alla dinamica per la volatilità α 2 t = α 0 + α 1 r 2 t 1 + + α p r 2 t p + β 1 σ 2 t 1 + + β q σ 2 t q ed anche in questo caso è necessario imporre determinate condizioni sui parametri affinché si verifichi eteroschedasticità ed σ 2 sia positiva α 0 > 0 α k, β j 0 k = 1, 2,..., p j = 1, 2,..., q Come avviene anche per i processi AR ed MA infine, anche il processo GARCH(p,q) può essere scritto come un processo ARCH(p) di ordine infinito, se le soluzioni del polinomio in β sono tutte esterne al cerchio unitario. 1 Il vantaggio di questi modelli consiste nel fatto che il più delle volte la stima di un GARCH (1,1) porta ad un modello accettabile dal punto di vista statistico ed utilizzabile a fini previsionali. Uno sviluppo di tali modelli ha introdotto una dinamica aleatoria della volatilità. La volatilità stocastica è un processo latente di tipo autoregressivo e 1 Se l equazione caratteristica 1 β 1 z β 2 z 2 β q z q = 0 presenta soluzioni z i che sono tutte in modulo maggiori dell unità, allora il modello GARCH(p,q) può essere scritto come: αt 2 = α0 + αi rt i 2 i=1

1.2. INFERENZA NEI MODELLI STATE SPACE 5 non osservabile. La classe più semplice di modelli a volatilità stocastica usa la specificazione r t = exp (h t /2)ɛ t (1.2) h t = β 0 + β 1 h t 1 + η t (1.3) ɛ t η t ɛ t, η t N(0, 1) (1.4) che prende il nome di modello di Taylor (1986) (vedi anche Taylor (1994)) ed è la specificazione di riferimento che si userà nel corso di questa tesi. 2 In questo caso, r t rappresenta i log-rendimenti e conseguentemente h t rappresenta la log-volatilità, come si può osservare dalla seguente: V ar[r t D t, h t ] = E[e ht D t, h t ] = e ht (1.5) E da notare che, se nei modelli ARCH e GARCH sono necessarie ulteriori ipotesi sui parametri per permettere che il modello sia stabile, in questo caso basta imporre che il coefficiente β 1 sia in modulo strettamente minore di uno per garantire la stazionarietà dei rendimenti, in quanto questa deriva esclusivamente dalla stazionarietà della log-volatilità h t. E stato dimostrato in letteratura che tale specificazione generalmente funziona meglio dei modelli GARCH e dà risultati maggiormente soddisfacenti, tuttavia la sua diffusione è stata inizialmente frenata dalle complessità che derivano in sede di inferenza per tali modelli. In letteratura sono stati sviluppati numerosi strumenti per la stima del processo latente e dei parametri ignoti, utilizzando essenzialmente una rappresentazione state space del processo osservabile (log-rendimento) e del processo latente (log-volatilità) detto anche variabile di stato. Nella sezione successiva si riprendono quindi i passi essenziali affrontati in letteratura su questo argomento. 1.2 Inferenza nei modelli state space Diversi problemi che riguardano l analisi di un sistema dinamico richiedono la stima di un processo latente a partire da misurazioni effettuate sul sistema, 2 Utilizzando diverse specificazioni per gli errori nell equazione dei rendimenti.

6 CAPITOLO 1. IL MODELLO A VOLATILITÀ STOCASTICA caratterizzate dal fatto che esse sono in qualche modo soggette ad un errore di misurazione (disturbo). L analisi bayesiana trova in questi problemi una naturale collocazione, in quanto il teorema di Bayes funziona particolarmente bene con la rappresentazione state space ed in particolare con la stima di variabili non osservabili. Nella rappresentazione state space si definiscono un equazione di misurazione e una di stato: y t = f t (x t, ɛ t ) (1.6) x t = g t (x t 1, η t ) (1.7) dove la prima relazione definisce l evoluzione del sistema, la seconda la dinamica degli stati latenti ed ɛ t, η t sono i disturbi che possono essere anche non normali e correlati. Le funzioni definite da f t e g t possono essere di qualsiasi tipo. In questa rappresentazione gli stati dipendono esclusivamente dal valore assunto dalla variabile stessa al momento immediatamente precedente a quello corrente: si dice che il sistema è di tipo markoviano di primo ordine. Questo implica tuttavia che se al tempo t lo stato x t è noto, questo non fornisce nessuna ulteriore informazione né sugli stati né sulle misurazioni future. Il sistema definito dalle equazioni (1.5) e (1.6) può essere rivisto in termini di distribuzioni condizionali (Lopes and Tsay (2011)): y t x t p(y t x t ) (1.8) x t x t 1 p(x t x t 1 ) (1.9) con le leggi di probabilità note e determinate dalle assunzioni sui termini di disturbo. Se definiamo x 1:t = {x 1, x 2,..., x t } e similarmente per y 1:t, il problema di inferenza si riconduce alla stima della distribuzione di x 1:t y 1:t, che prende il nome di distribuzione a posteriori, o posterior distribution. Abbiamo pertanto: p(x 1:t y 1:t ) = p(x 1:t, y 1:t ) p(y 1:t ) (1.10) p(x 1:t, y 1:t ) = p(x 1:t )p(y 1:t x 1:t ) (1.11) p(y 1:t ) = p(x 1:t, y 1:t )dx 1:t (1.12)

1.2. INFERENZA NEI MODELLI STATE SPACE 7 dove, secondo le proprietà delle probabilità condizionali t p(x 1:t ) = p(x 0 ) p(x k x k 1 ) (1.13) p(y 1:t x 1:t ) = k=1 t p(y k x k ) (1.14) p(x 0 ) P ( ) con p( ) che indica una generica distribuzione di probabilità. Se il modello è lineare e gaussiano, anche la probabilità a posteriori sarà gaussiana ed una volta generato il valore di partenza da x 0 = P ( ) si potrà facilmente calcolarne la forma analitica tramite il Filtro di Kalman, di cui si tratterà brevemente nella prossima sezione. Rilassando le ipotesi di normalità e linearità, le precedenti distribuzioni generalmente non sono più note in forma chiusa e si crea la necessità di implementare metodi numerici diversi dal Filtro di Kalman. Una delle poche eccezioni è data dai sistemi non lineari a stati discreti, con numero finito di stati: in questo caso si applica il filtro di Hamilton. Questi strumenti generalmente prendono il nome di filtri particellari, o particle filters, poiché il problema di inferenza di una variabile latente da una serie di variabili di misurazione prende il nome di filtraggio stocastico. Generalmente si fa rifermento a due grandi classi di strumenti numerici: metodi che fanno perno sulle Catene di Markov e sulle loro distribuzioni di equilibrio, ovvero i metodi Markov Chain Monte Carlo, MCMC ; metodi che utilizzando prevalentemente l importance sampling e l integrazione Monte Carlo in maniera sequenziale, ovvero metodi Sequential Monte Carlo (SMC), detti anche appunto filtri particellari. In questa tesi si farà riferimento ai metodi SMC, mentre per i metodi MCMC si rinvia a Robert and Casella (2004). k=1 1.2.1 Il Filtro di Hamilton Se si assume che le equazioni definite in (1.8) e (1.9) siano y t x t f t (y t x t ) (1.15) x t x t 1 P (x t = i x t 1 = j) = P ij (1.16)

8 CAPITOLO 1. IL MODELLO A VOLATILITÀ STOCASTICA con i, j (1, 2,..., k) e k <, allora f t (y t x t ) definisce la densità di misura che può essere anche non normale mentre P (x t = i x t 1 = j) rappresenta invece la matrice di transizione di una catena di Markov a tempo discreto. Lo strumento ottimale per l inferenza su questo tipo di sistemi è il filtro di Hamilton (Hamilton (1994)), che è dato dalle seguenti equazioni: p(x t y 1:t 1 ) = k k δ i (x t )P (x t x t 1 = j)p(x t 1 = j y 1:t 1 ) (1.17) j=1 i=1 per la fase di predizione, dove δ x è una massa di Dirac in x ed utilizzando le equazioni di Chapman e Kolmogorov 3 otteniamo: p(x t y 1:t ) = k i=1 δ i(x t )p(x t y 1:t 1 )p(y t x t ) k j=1 p(x t = j y 1:t 1 )p(y t x t = j) (1.18) per la fase di aggiornamento. Nessuna assunzione in particolare è fatta per p(x t x t 1 ) e p(y t x t ), l unico requisito è che siano note (si veda Arulampalam et al. (2002), p.175-176). 1.2.2 Il Filtro di Kalman Se le funzioni g t ( ) e f t ( ) nelle equazioni (1.6) e (1.7) sono note e lineari ed disturbi ɛ t e η t sono estratti da distribuzioni gaussiane, anche la posterior sarà gaussiana e quindi completamente definita da una media e da una matrice di covarianza. Quello che fa il filtro di Kalman è calcolare ricorsivamente media e matrice di covarianza della probabilità a posteriori delle variabili di stato. Le formule (1.5) e (1.6) che descrivono il sistema possono essere riviste come x t = F t x t 1 + η t (1.19) y t = H t x t + ɛ t (1.20) con F t e H t matrici note che definiscono il sistema lineare ed i disturbi ɛ t e η t caratterizzati da matrici di covarianza rispettivamente R t e Q t. Il procedimento per il calcolo della probabilità a posteriori vieni quindi spezzato in due passi, il 3 Se la densità p(x t 1 y 1:t 1 ) è disponibile al tempo t 1, la fase di predizione utilizza p(x t, y 1:t 1 p(x t x t 1 )p(x t 1 y 1:t 1 dx t 1 per determinare la densità degli stati al tempo t, e tale relazione è chiamata equazione di Chapman-Kolmogorov

1.2. INFERENZA NEI MODELLI STATE SPACE 9 primo chiamato fase di predizione ed il secondo fase di aggiornamento. Nel primo step troviamo la probabilità condizionale ad y 1:t 1, nel secondo passo modifichiamo tale probabilità fino ad includere nel condizionamento l osservazione y t. Se consideriamo il caso in cui i disturbi siano non correlati, si ha che p(x t y 1:t 1 ) N(m t t 1, P t t 1 ) (1.21) dove m t t 1 = F t m t 1 t 1 (1.22) P t t 1 = Q t 1 + F t P t 1 t 1 F t (1.23) per la fase di predizione, mentre per la fase di aggiornamento p(x t y 1:t ) N(m t t, P t t ) (1.24) dove m t t = m t t 1 + K t (y t H t m t t 1 (1.25) P t t = P t t 1 K t H t P t t 1 (1.26) dove K t e S t prendono il nome rispettivamente di guadagno di Kalman e covarianza del termine di innovazione (y t H t m t t 1 ) e sono definite da K t = P t t 1 H ts 1 t (1.27) S t = H t P t t 1 H t + R t (1.28) Queste ricorsioni forniscono il filtro bayesiano ottimo se le condizioni di normalità e gaussianità sussistono, ovvero non esiste metodo che produca risultati migliori sotto queste ipotesi. Partendo da un valore generato da una prior scelta opportunamente, l algoritmo di Kalman permette di ottenere una stima ricorsiva ottima degli stati. Tuttavia tali condizioni sono particolarmente restrittive e non realistiche, sopratutto per quanto riguarda le serie storiche finanziarie, in cui difficilmente le ipotesi di linearità e normalità sono soddisfatte. 1.2.3 Metodi Monte Carlo sequenziali Strumenti diversi sono necessari se ad esempio l equazione di misurazione o degli stati non sono più lineari o le assunzioni di normalità non sussistono più. Si è dovuto ricorrere quindi a metodi approssimati, in quanto le soluzioni del problema

10 CAPITOLO 1. IL MODELLO A VOLATILITÀ STOCASTICA non sono più disponibili analiticamente. In letteratura sono stati proposti diversi metodi sequenziali in caso di sistema non lineare : Filtro di Kalman esteso che prevede un approssimazione lineare del sistema e quindi l applicazione del filtro di Kalman al sistema linearizzato; filtri particellari di diverso tipo che possono essere applicati direttamente al sistema non lineare. dove i secondi forniscono un approssimazione della distribuzione a posteriori tramite una distribuzione di probabilità discreta, dato che media e matrice di covarianza non sono più sufficienti per descrivere completamente la posterior. I filtri particellari sono una classe di metodi Monte Carlo che campionano in modo sequenziale da una serie di distribuzioni di probabilità di dimensione sempre maggiore. Come si trova in Doucet and Johansen (2008), i metodi SMC partono dal seguente contesto generale π t (x 1:t ) = γ t(x 1:t ) Z t (1.29) in cui π( ) e γ( ) indicano una generica densità di probabilità e Z t una costante di normalizzazione, definita come Z t = γ t (x 1:t ) dx 1:t (1.30) che può essere ignota. Tali metodi forniscono quindi una stima sequenziale di π(x 1 ) e Z 1 al tempo t = 1, e cosi via fino al tempo n. Nel caso del filtraggio stocastico, abbiamo γ t (x 1:t ) = p(x 1:t, y 1:t ), Z t = p(y 1:t ) in modo che la densità target, π t (x 1:t ), sia esattamente p(x 1:t y 1:t ). Tipicamente il problema principale consiste nel fatto che non si riesce a campionare direttamente da π t (x 1:t ) a causa dell elevata dimensione del vettore x 1:t di variabili da simulare ed anche se ciò fosse possibile, i costi computazionali di tale operazione sarebbero molto elevati. E prassi quindi utilizzare una densità conosciuta da cui sia semplice campionare e che approssimi la densità iniziale da cui si vuole ottenere un campione: questa operazione è nota come importance sampling. Se definiamo come q(x 1:t ) la nostra densità da cui è possibile campionare

1.2. INFERENZA NEI MODELLI STATE SPACE 11 (proposal density), le equazioni (1.9) e (1.10) diventano π t (x 1:t ) = q t(x 1:t )ω t (x 1:t ) (1.31) Z t Z t = q t (x 1:t )ω t (x 1:t ) dx 1:t (1.32) in cui i pesi ω t sono i pesi non normalizzati definiti dal rapporto ω i t(x 1:t ) = γ t(x 1:t ) q t (x 1:t ) (1.33) che vengono detti pesi di importanza. E chiaro quindi che la proposal gioca un ruolo fondamentale nell approssimazione: seguendo sempre Doucet and Johansen (2008), la densità ottimale da scegliere per minimizzare la varianza dei pesi sul piano teorico dovrebbe essere esattamente π t (x 1:t ) ma non essendo possibile ciò la scelta deve cadere in una distribuzione che meglio approssimi questa. Una volta estratto il campione e valutati i pesi, la distribuzione target è approssimata secondo π t (x 1:t ) = Z t = 1 N ω t = N ω tδ i x i 1:t (x i ) (1.34) i=1 N ω t (x i 1:t) (1.35) i=1 ω t (x i 1:n) N j=1 ω t(x j 1:t) (1.36) in cui N è il numero massimo di particelle utilizzate ad ogni singolo istante temporale e δ x ( ) indica una delta di Dirac calcolata nel punto x. Scegliendo adeguatamente la funzione di importanza, si riesce a rendere sequenziale questo algoritmo e ad ottenere una stima degli stati per ogni nuova misurazione y t. In particolare se tale funzione è esattamente uguale a q t (x 1:t ) = q t 1 (x 1:t 1 )q t (x t x 1:t 1 ) (1.37) t = q 1 (x 1 ) q k (x k x 1:k 1 ) (1.38) k=2 si può dimostrare che è possibile ottenere le particelle X i campionando x 1 da q 1 (x 1 ) al tempo 1 e ai successivi istanti estraendo x t da q t (x t x 1:t 1 ) e valutando

12 CAPITOLO 1. IL MODELLO A VOLATILITÀ STOCASTICA i relativi pesi ricorsivamente secondo ω t (x 1:t ) = ω 1 (x 1 ) α j (x 1:j ) = T α j (x 1:j ) (1.39) j=2 γ j (x 1:j ) γ j 1 (x 1:j 1 )q j (x j x 1:j 1 ) (1.40) con α t (x 1:t ) che viene anche chiamata incremental importance weight function. Una rappresentazione in pseudocodice dell algoritmo Sequential Importance Sampling è data in Alg. 1. Algoritmo 1 Sequential Importance Sampling (SIS) 1. t=1; 2. for i = 1 N do 3. Campiona X i 1 da q 1 (x 1 ); 4. Calcola i pesi ω 1 (x i 1) e W i 1; 5. end for; 6. t 2, t T ; 7. for i = 1 N do 8. Campiona X i t da q t (x i t X i 1:t 1); 9. Calcola i pesi ω t (X i t) = ω t 1 (X i 1:t 1)α t (X i 1:t); 10. end for 11. return (x i T, W i T ) Questo algoritmo (si veda Kitagawa (1996)) è ampiamente diffuso grazie alla sua semplicità di implementazione ma il suo utilizzo può portare a degli svantaggi quali in primis il problema di degenerazione delle particelle: dopo alcuni passi, la maggior parte dei pesi ω t avrà valori prossimi allo zero e la densità a posteriori diventerà quindi degenere in un unico o pochi punti. In altre parole gran parte dei costi computazionali saranno spesi per aggiornare delle particelle il cui peso è trascurabile e l algoritmo diventa di fatto inutilizzabile. Una delle idee introdotte per oltrepassare questo problema è quella di ricampionare ad ogni passo le particelle, ovvero estrarre dei nuovi stati dalla distribuzione (discreta) a posteriori sulla base dei pesi correnti: in questo modo le particelle con peso prossimo allo zero non verranno ricampionate ed il nuovo vettore degli stati sarà ricostituito solo dalle particelle con peso più grande, in quanto maggiore sarà la probabilità di queste di essere estratte. Questo passo prende il nome di resampling ma è necessario stabilire quando implementare il ricampionamento visto

1.2. INFERENZA NEI MODELLI STATE SPACE 13 che questo potrebbe risultare superfluo e quindi aggiungere costi computazionali non necessari. Una prima soluzione introdotta da Liu and Chen (1998) è quella di ricampionare ogni volta che il numero effettivo di particelle utilizzate N eff (quindi con peso diverso da zero) scende sotto una soglia predeterminata, ovvero N eff N T (1.41) N eff = N s 1 + V ar(ˆω i t) (1.42) dove N T è un qualche valore (numero di particelle significative minimo) al di sotto del quale ha luogo il ricampionamento e ˆω k i sono i pesi reali che non possono essere calcolati analiticamente ma al loro posto si utilizza una stima pari a N eff = 1 Ns (1.43) i=1 (ωi t) 2 dove ωt i sono i pesi normalizzati ottenuti dall algoritmo, N eff indica il numero effettivo di particelle utilizzate mentre N s sono le particelle totali del campione. Si ha il problema di degenerazione quando il numero effettivo di particelle utilizzate è di molto inferiore al numero di particelle totali del campione (si veda anche Arulampalam et al. (2002)). Esistono diversi metodi per implementare di fatto il resampling quali ad esempio il ricampionamento sistematico o residuale. 4 Il metodo utilizzato nella stima del modello di questa tesi è quello multinomiale, che consiste nell estrarre N s particelle da una distribuzione multinomiale utilizzando i pesi ˆω t come parametro di tale distribuzione. Applicando questo metodo all Alg. 1 otteniamo un nuovo algoritmo che prende il nome di adaptive sequential importance resampling (ASIR) se il ricampionamento è effettuato quando il numero di particelle scende sotto una determinata soglia, o semplicemente sequential importance resampling (SIR) se invece il ricampionamento è effettuato a prescindere in ogni passo. La rappresentazione in pseudo-codice in questo secondo caso è data in Alg. 2 mentre la Figura 1.1 rappresenta graficamente l idea del ricampionamento. 4 Si vedano Kitagawa (1996), Doucet and Johansen (2008) o Hol et al. (2006) per un approfondimento sui diversi metodi di resampling.