Docstoc

tesi di laurea antonio nesta

Document Sample
tesi di laurea antonio nesta Powered By Docstoc
					     UNIVERSITÀ DEGLI STUDI DI SIENA
   Facoltà di Economia Richard M. Goodwin
            Corso di Laurea Specialistica in Finanza



CREDIT SPREADS, CRASH DI MERCATO E VOLATILITÀ.



   Relatore:
   Chiar.mo Prof. ROBERTO RENO’

   Correlatore:
   Chiar.mo Prof. CLAUDIO PACATI




                                            Tesi di Laurea di:
                                            ANTONIO NESTA



                ANNO ACCADEMICO 2009-2010




                                   1
                                                        Indice

Abstract.......................................................................................................................... 3


Introduzione ................................................................................................................... 4




Capitolo 1: Realized Volatility ..................................................................................... 8
1.1 Analisi storica della volatilità................................................................................ 9
1.2 Realized Variance................................................................................................ 12




Capitolo 2: Jumps ....................................................................................................... 17
2.1 Processo di Poisson ............................................................................................. 19
       2.1.1 Variabili casuali esponenziali..................................................................... 19
       2.1.2 Costruzione del processo di Poisson .......................................................... 20
       2.1.3 Processo di Poisson composto.................................................................... 24
2.2 Jump processes e integrali stocastici ................................................................... 26
       2.2.1 Calcoli stocastici con i Jump e cambio di misura ...................................... 28
2.3 Stimatori della volatilità integrata ....................................................................... 31
       2.3.1 Realized variance e variazione quadratica ................................................. 31
       2.3.2 Quarticity integrata…………………………….........................................31

       2.3.3 Power e Bipower variation……………………………………………….35

       2.3.4 Threshold Estimator…………………………………………………….38




                                                                2
Capitolo 3: Previsione dei credit spreads con la jump volatility............................... 41
3.1 Jumps realizzati ................................................................................................... 46
3.2 Struttura dell’esperimento ................................................................................... 49
       3.2.1 Stima dei parametri .................................................................................... 51
3.3 Applicazione nei mercati finanziari .................................................................... 53
3.4 Rischi nei jumps e credit spreads ........................................................................ 61
3.5 Osservazioni riassuntive sull’analisi ................................................................... 68




Capitolo 4: Applicazione ai mercati finanziari ......................................................... 70
4.1 I dati e analisi descrittiva ..................................................................................... 70
4.2 Tecnica di identificazione dei jumps................................................................... 73
4.3 Verifica empirica dei dati .................................................................................... 76




Conclusioni .................................................................................................................. 81


Bibliografia.................................................................................................................. 85



Sitografia…………………………………………………………………………….90




                                                               3
Abstract
This study reconsiders the role of jumps in financial markets for bond
spreads forecasting and it demonstrates that jumps and equity volatility can
have a different impact on future movement of spreads. To this purpose, the
concept of Bipower Variation and Threshold Estimation is discussed as a
way to identify jumps in time series.
The results of this study show that the volatility of equity markets has more
forecasting power than other variable jumps. The results differ from the
study carried out by Tauchen and Zhou – based on high frequency data –
in that they are based on daily data from financial markets.




Ce travail porte sur le rôle des sauts des prix au sein des marchés financiers
et concerne en particulier les spreads obligataires. Il tente de démontrer que
les sauts et la volatilité des actions peuvent avoir un impact différent sur le
futur mouvement des spreads. A cet égard, a été présenté le concept de
“Bipower Variation” et de “Threshold Estimation” afin d’identifier et de
filtrer les sauts dans les séries temporelles.
Ce résultat se différencie de l’étude de Tauchen et Zhou qui était, fondée sur
des données à haute fréquence, alors que cette étude, pour sa part, se fonde
sur des données journalières prises dans les marchés financiers.




                                   4
                                 Introduzione


I modelli di risk management richiedono una stima quantitativa del rischio
legato ad una posizione finanziaria, che può dipendere dall’andamento di
mercato del prezzo di azioni e obbligazioni, dei tassi di interesse, delle valute
e delle merci. La variabile che quantifica il rischio è la volatilità, la cui stima
richiede l’utilizzo di modelli basati su dati storici (misura backward looking)
oppure su prezzi di mercato correnti dei derivati (misura forward looking).
Lo studio della volatilità sui mercati ha riscosso negli ultimi anni un gran
interesse, soprattutto da quando è incrementato il volume dei dati a nostra
disposizione. L’utilizzo dei dati ad alta frequenza è una delle attuali tendenze
della moderna finanza, che consiste nell’analisi e osservazione dei dati
registrati in tempo reale sui mercati.
A differenza degli studi tradizionali, nei quali si tende a considerare dati
misurati a intervalli equispaziati, nel caso dell’alta frequenza si registra ogni
singola transazione (e anche richiesta di transazione), che avviene sul
mercato.
La possibilità di sfruttare questa enorme mole di informazioni costituisce un
indubbio vantaggio come testimoniano le numerose applicazioni di stime
econometriche ricavate da tali dati. Queste applicazioni si riflettono su un
cospicuo segmento della teoria finanziaria: dal prezzaggio delle opzioni, alla
previsione della volatilità infragiornaliera, dal calcolo del Var (Value at risk)
alla gestione della liquidità.
Negli ultimi anni ha acquisito maggior peso un filone alternativo che propone
di trattare la volatilità con metodi non-parametrici basati sui dati ad alta
frequenza. L’idea più rilevante per analizzare la volatilità in tale caso è quella



                                    5
   della realized variance sviluppata in particolare da Andersen et al. (2001b) e
   Barndoff-Nielsen e Shephard (2002).
   La realized variance (RV) è la sommatoria del quadrato dei rendimenti
   infragiornalieri. In teoria, la RV è uno stimatore non distorto e altamente
   efficiente che converge al vero valore della volatilità integrata o variazione
   quadratica quando la lunghezza degli intervalli infragiornalieri osservati si
   avvicina a zero. Nella pratica però la consistenza della RV viene meno nel
   momento in cui aumenta la frequenza dei dati a causa degli errori di
   microstruttura.
   Per correggere tali fenomeni distortivi Barndoff-Nielsen e Shephard (2004)
   hanno previsto l’utilizzo di stimatori alternativi adatti all’analisi dei dati ad
   alta frequenza quali la power variation e la bipower variation (2004).
   All’interno delle anomalie riscontrabili nei mercati vi ritroviamo anche i salti
   nei prezzi o jumps.
   La causa di variazioni brusche e discontinue nei mercati può avere diverse
   origini:
 annunci e news macroeconomiche possono abbattersi sulla struttura dei tassi
   di interessi, specialmente quelli a breve termine;
 i prezzi azionari sono influenzati da crash endogeni (il “Black Friday 1987) e
   crash esogeni (11 settembre 2001);
 la struttura a termine degli smiles delle opzioni risente del contributo della
   componente jump;
 prezzi delle commodities soffrono di salti bruschi dovuti alla carenza nei
   mercati;
 i prezzi dell’elettricità sono altamente anelastici dal lato della domanda,
   quindi soffrono molto dei salti.


   L’obiettivo e il focus di molti autori della letteratura finanziaria ed
   econometrici è stato quello di poter scomporre in un processo jump-diffusion
                                      6
(in cui l’evoluzione dei prezzi segue una diffusione punteggiata di salti ad
intervalli casuali), la componente diffusiva dalla componente dei salti. In
particolare, l’identificazione dei jumps non è prontamente disponibile dai dati
delle serie storiche di riferimento, e a tal proposito molti autori hanno
proposto tecniche di identificazione come la bipower variation da parte di
Barndoff-Nielsen e Shephard (2004), e la threshold estimation da parte di
Mancini e Renò (2006).
Obiettivo del presente elaborato, risulta quello di poter verificare (dopo aver
presentato il lavoro empirico di Tauchen e Zhou 2010), l’impatto che i salti
nei prezzi e la volatilità del mercato azionario hanno sul movimento dei credit
spreads (forniti dal differenziale di un titolo BAA di media qualità corporate e
di un AAA di un titolo di stato statunitense), nel corso del periodo 2008-2011.
Dopo una descrizione iniziale della realized volatility nel capitolo 1 e della
verifica di inconsistenza nel caso di dati ad alta frequenza, saranno descritti i
processi jump-diffusion e gli stimatori alternativi della volatilità integrata nel
caso di presenza di salti dei prezzi nei mercati.
Nel capitolo 2 verranno infatti descritti gli stimatori alternativi in presenza di
processi generatori differenti, costituiti non più da semimartingale, ma da una
parte discontinua che nel caso in questione è rappresentata dai Jumps. Sarà
descritto il processo analiticamente, e i relativi stimatori che presentano una
maggiore accuratezza e consistenza.
Il capitolo 3 espone il lavoro empirico di Tauchen & Zhou (2010) per la
previsione del movimento degli spreads con l’utilizzo di dati ad alta
frequenza e della tecnica di identificazione dei salti con la bipower variation,
utilizzando come variabile di riferimento principale la jump-volatility .
Sarà esteso il metodo della jump detection basato sullo stimatore della
Bipower    Variation    per   identificare   i      jump   realizzati,   e   stimare
parametricamente l’intensità dei jump, la media e la varianza.


                                    7
La presentazione verterà inoltre sulle applicazioni al mercato dell’Equity, a
quello obbligazionario e dei cambi.
Il capitolo 4 infine presenta un’applicazione basata su dati a cadenza
giornaliera,   sulla tecnica di identificazione dei jumps di Mancini-Renò
(2006), e la verifica dell’impatto che volatilità del mercato azionario e dei
salti nei prezzi hanno sull’andamento degli spreads.




                                  8
                                CAPITOLO 1

                     REALIZED VOLATILITY



L’analisi e la misura della volatilità hanno attirato un gran interesse negli
ultimi anni, soprattutto da quando è aumentata la disponibilità di dati a nostra
disposizione.
In presenza di dati ad alta frequenza uno dei problemi principali riguarda
appunto la stima della volatilità dei rendimenti di un’attività finanziaria.
Lo studio dei dati ad alta frequenza è una delle attuali tendenze della finanza,
che consiste nell’osservazione dei dati registrati in tempo reale.
A differenza degli studi tradizionali, nei quali si tende a considerare dati
misurati a intervalli equispaziati, nel caso dell’alta frequenza si registra ogni
singola transazione (e anche richiesta di transazione), che avviene sul
mercato.
La possibilità di sfruttare questa enorme mole di informazioni costituisce un
indubbio vantaggio come testimoniano le numerose applicazioni di stime
econometriche ricavate da tali dati. Tali applicazioni si riflettono su una gran
parte della teoria finanziaria: dal prezzaggio delle opzioni, alla previsione
della volatilità infragiornaliera, dal calcolo del Var (Value at risk)         alla
gestione della liquidità.
Per ciò che concerne la stima della volatilità, una tecnica frequente consiste
nella stima di quest’ultima, attraverso la somma dei rendimenti al quadrato.
Il nostro interesse verterà quindi sulla stima della variazione quadratica
dall’osservazione dei prezzi delle attività finanziarie che nel campo dei
derivati è definita volatilità storica.
L’importanza della variazione quadratica nell’economia finanziaria è
comunemente riconosciuta.
                                      9
 Il maggior contributo proviene esplicitamente dai lavori paralleli di Black and
 Scholes (1973) e Merton (1973), i quali presentarono che i prezzi delle
 opzioni sono una funzione dell’asset price volatility.
 È ben noto che lo studio della volatilità storica viene nettamente distinto da
 quello della volatilità implicita a cui ci si riferisce per il prezzaggio delle
 opzioni e che ci porta alla definizione dello “smile effect”.




1.1Analisi storica della volatilità


 La volatilità storica è stata oggetto di una notevole attenzione in ambito di
 letteratura economica e finanziaria. Qui sono presentati alcuni esempi dei
 principali problemi analizzati.
 Christie (1982) analizzò la relazione tra varianza e leverage e tra varianza e
 tassi di interesse. Il leverage effect è stato a lungo analizzato sin dagli studi di
 Black (1976) e Cox e Ross (1976). Il legame asimmetrico tra la volatilità
 realizzata e i rendimenti è stato esaminato in un recente lavoro di Bekaert e
 Wu (2000).
 French e Roll (1986) rilevarono empiricamente che la varianza dei prezzi
 delle attività finanziarie durante le contrattazioni sui mercati, fosse più alta di
 quella dei periodi di non contrattazione e collegarono tale risultato al ruolo
 dell’informazione privata.
 Nel 1987 French et al.,stimarono la relazione tra volatilità e il premio per il
 rischio atteso per i rendimenti azionari; sulla stessa linea ci fu lo studio di
 Schwert(1989), che analizza la volatilità in un periodo secolare, rilevando che
 essa sia stocastica e prova a esprimere le sue fluttuazioni in collegamento a
 variabili macroeconomiche.




                                      10
   La volatilità infragiornaliera, fu invece oggetto di studio di Lockwood e Linn
   (1990) e di Andersen e Bollerslev (1997), in cui fu evidenziato il legame tra
   periodicità infragiornaliera e persistenza.
   Probabilmente il concetto più importante sulla volatilità è la persistenza o
   clustering.
   Ad essa ci si riferisce quando la funzione di autocorrelazione dei rendimenti
   al quadrato è significativamente positiva in un orizzonte temporale ampio e
   in particolare indica che se i rendimenti nell’ultima settimana di
   contrattazione sono stati molto grandi (o piccoli), nella prossima settimana
   continueranno a esserlo.
   I rendimenti finanziari nei mercati infatti, sono rappresentati dalle seguenti
   caratteristiche:
 code grasse (fat tails o leptocurtosi): nel caso di un’asimmetria vicina allo
   zero, e curtosi di molto superiore a tre;
 random walk: la funzione di autocorrelazione dei rendimenti è statisticamente
   nulla;
 persistenza in volatilità: la funzione di autocorrelazione dei rendimenti al
   quadrato e significativamente positiva, in un range temporale ampio;
 leverage effect: i rendimenti al quadrato sono negativamente correlati con i
   rendimenti.
   L’eteroschedasticità (fenomeno in cui la varianza di una serie storica risulti
   variare col tempo) conduce a modellare la persistenza per dare una buona
   immagine dell’evoluzione del prezzo di un’attività finanziaria. I risultati di
   tale intuizioni sono il modello ARCH di Engle (1982) e il GARCH di
   Bollerslev (1986).
   Il modello di Engle (1982) ha aperto il campo ad un filone di letteratura molto
   ampio su modelli a eteroschedasticità condizionata autoregressiva (ARCH)
   per lo studio della varianza dei rendimenti condizionata ad un certo insieme
   informativo.
                                       11
Con tali modelli è stato possibile introdurre fenomeni quali la leptocurtosi
(code grasse) e l’eteroschedasticità. Il modello ARCH(p) è rappresentato da:
                                              ε(t)                        (1)
                                                                          (2)
con ε(t) variabile casuale iid (identicamente e indipendentemente distribuita),
E          con ε(t) che si distribuisce come una normale N(0,1) e quindi r(t)
si distribuisce come una normale N(0,h) e h(t) che rappresenta la varianza
condizionata:
                                                                              (3)
Abbiamo inoltre che ω>0 (che rappresenta la varianza minima) e α(i)       .
Bollerslev (1986) propose una generalizzazione dei modelli proposti da
Engle; il modello GARCH (Generalized Autoregressive Conditional
Heteroskedasticity) si basa sul fatto che la varianza condizionata al tempo t è
una combinazione lineare di p ritardi dei residui al quadrato, ricavati
dall’equazione della media condizionata, e di q ritardi della varianza
condizionata. In sintesi un GARCH(p,q) può essere espresso come:
                                             ε(t)                         (4)
                                                                          (5)
con la condizione di stazionarietà garantita da:


                                                     <1                   (6)


I modelli GARCH sono compatibili con le evidenze empiriche che si
riscontrano nell’analisi dei rendimenti azionari, come la presenza di
autocorrelazione in trasformazioni positive dei rendimenti, in particolare il
quadrato, e consentono di interpretare la persistenza della volatilità.




                                    12
  Nelson (1992) stimò la relazione tra la varianza stimata di un ARCH e la vera
  variazione quadratica, evidenziando che la differenza tra le due converge a
  zero quando gli intervalli di tempo si restringono. L’interesse nello studio
  della persistenza in volatilità deriva principalmente dalla sua prevedibilità,
  infatti è probabilmente la principale applicazione dell’uso del concetto di
  variazione quadratica.
  Gli studi della letteratura finanziaria sulla variazione quadratica hanno subito
  un rinnovamento dopo il contributo di Andersen e Bollerslev (1998), i quali
  presentarono che la bassa performance di previsione del GARCH (1,1) non
  dipendeva dalla scarsa abilità previsiva di questi modelli, ma dalla scarsa
  stima della volatilità integrata.
  Partendo dall’idea di Merton (1980), gli autori utilizzando simulazioni e dati
  FX hanno dimostrato come fosse possibile stimare la volatilità giornaliera
  utilizzando le transazioni infragiornaliere (dati ad alta frequenza), e che tali
  stime fossero più precise dei rendimenti al quadrato giornalieri e quindi la
  capacità previsionale del GARCH fosse buona. Tale misura di volatilità fu
  definita “Realized Volatility”(RV).
  Nello stesso ambito vi furono gli studi di Barndoff-Nielsen e Shephard (2002)
  che analizzarono le proprietà statistiche di RV, e Andersen et al (2001) che
  applicarono tali proprietà ai prezzi azionari e ai tassi di cambio.




1.2 Realized Variance


  La volatilità dei rendimenti azionari è generalmente analizzata con modelli
  GARCH che gestiscono la volatilità come una variabile latente.
  Negli ultimi anni ha preso sempre maggior interesse uno studio alternativo
  basato sull’analisi della volatilità con metodi non parametrici utilizzando dati
  ad alta frequenza.

                                      13
Tali dati, come descritto precedentemente, dovrebbero rappresentare il primo
obiettivo di ricerca per chi è interessato a capire la dinamica dei mercati
finanziari (come gli operatori finanziari).
Nella vasta letteratura finanziaria a riguardo, tali dati vengono trattati con
bassa frequenza ed equispaziati nel tempo, a causa dell’ingente costo
necessario per reperire e manipolare tali dati.
Originariamente la forma dei prezzi azionari è costituita dai dati tick-by-tick,
dove ogni tick rappresenta un prezzo o quota uno scambio. Tali dati non sono
equispaziati nel tempo e il numero di osservazioni infragiornaliere è elevato.
Negli ultimi anni, con l’evoluzione informatica, la disponibilità di dati ad alta
frequenza è divenuta sempre più agevole e accessibile agli operatori
finanziari, tanto da divenire la base sperimentale per capire la microstruttura
dei mercati.
Un’idea di rilievo riguardo alla stima della volatilità con dati ad alta frequenza
è quella della Realized Variance (RV) sviluppata negli studi quasi
contemporanei di Barndoff-Nielsen e Shephard (2002) e Andersen et al
(2001).
Basandoci sullo studio degli autori, supponiamo di scindere ogni giorno t di
contrattazione sui mercati in intervalli M intervalli di ampiezza ℱ, con
j=1,2,…,M.
Per ogni intervallo osserviamo l’ultimo prezzo Ht,i e calcoliamo il rendimento
logaritmico:
                                  (log Hti – log Hti-1)                       (7)


Gli autori misurano tale variabilità (RV), definita come:
                                                                              (8)

Mentre la realized volatility è definita come:

                                                                              (9)

                                    14
dove rt,j (t=1,2,… e j=1,2,…M) indica la serie dei rendimenti con prezzi
logaritmici r’(t).
Obiettivo del loro studio è stato analizzare quindi, e verificare cosa stima la
Realized Volatility e quanto precisa risulta tale stima. La risposta al primo
quesito è chiara e già nota come mostrato precedentemente: essa è uno
stimatore consiste (con M                     ), della corrispondente variazione quadratica
(QV) per tutte le semimartingale1.
Sfortunatamente, sebbene RV sia uno stimatore consistente di QV in generale,
non conosciamo nulla riguardo alla sua precisione. Tale considerazione
presenta ovviamente un ostacolo che potrebbe essere superato nel caso si
utilizzi o si lavori nell’ambito di un modello a volatilità stocastica, che
rappresenta un caso speciale di semimartingale con traiettorie continue.
Per fissare le idee, supponiamo che il processo generatore del logaritmo dei
prezzi di un’attività finanziaria sia il seguente:


                                                                                                    (10)


dove W(t) è un moto Browniano standard,                                  noto come il coefficiente
drift, e          nota come volatilità istantanea del processo, possono a loro volta
seguire un processo stocastico a tempo continuo.
I concetti di maggior interesse sono la variazione quadratica o volatilità
integrata (IV), calcolata in un determinato periodo di tempo tipicamente un
giorno, ed è definita:


                                                                                                      (11)




1
 Nella teoria delle probabilità, un processo reale X è definito semimartingala, se è possibile decomporlo in
una somma di una martingala e un processo con variazione finita adattato locale.
                                                15
Lo stimatore usuale di IV, come menzionato precedentemente, è quello basato
sulla somma dei rendimenti al quadrato ed è chiamato volatilità realizzata
(RV).
Barndoff-Nielsen e Shepard (2002) hanno introdotto il concetto di variazione
quadratica precedentemente citata.
Ridefinendo l’equazione (4) come :
                                                                                                  (12)
dove           il termine di drift, mentre Mt è una martingala2 locale. La
variazione quadratica di Yt è:
                                                                                                  (13)
cumula i cambiamenti lungo uno specifico orizzonte temporale.
Assumendo che             sia prevedibile allora                   .
In particolare, Andersen et al (2001) hanno dimostrato che RV converge in
probabilità a QV quando M, il numero di osservazioni infragiornaliere
diverge.
Campionando i prezzi a intervalli sempre più brevi si annullerà l’errore di
misurazione e RV convergerà a IV (integrated volatility).
Jacod e Protter (1998), e Barndoff-Nielsen e Shepard (2002) in seguito, hanno
derivato l’approssimazione della distribuzione asintotica di RV. Gli autori
hanno mostrato che RV converge a                                    al tasso         derivando tale
distribuzione asintotica:



                                                             N(0,1)                                (14)




2
  Nella Teoria della probabilità, una martingala è un processo stocastico Xt, indicizzato da un parametro
crescente t (spesso interpretabile come tempo), con la seguente proprietà: per ogni s≤t , l'attesa di Xt
condizionata rispetto ai valori diXr, r ≤ s, è uguale ad Xt. Il più noto esempio di martingala, in cui il
parametro s è continuo, è senz'altro il moto browniano.

                                              16
I risultati ottenuti suggeriscono quindi di scegliere una frequenza di
campionamento più grande possibile. In questo caso, però, si incorre in un
errore causato dalla microstruttura del mercato e ci si trova ad affrontare il
trade-off   tra   accuratezza,   ottenuta   attraverso   un’alta     frequenza   di
campionamento, ed errore di microstruttura. Quindi la volatilità realizzata può
essere uno stimatore non robusto di IV in presenza di tali errori.
Un approccio differente dalla stima della volatilità integrata è quello offerto
dai lavori di Malliavin e Mancino(2002) i quali utilizzano la trasformata di
Fourier per costruire un nuovo stimatore definito da:

                                                                             (15)


Dove as e bs sono le stime del coefficient di Fourier, calcolati a partire dai
prezzi dopo averli normalizzati nell’intervallo [o,2π] e S =           dove n è il
numero di transazioni infragiornaliere.
Tale stimatore risulta invece robusto nonostante la presenza di errore che si
manifesta tipicamente alle alte frequenze di campionamento.
Un ulteriore contributo, nell’ambito di ricerca di una soluzione attraverso uno
stimatore efficiente utilizzando tutti i dati a nostra disposizione è offerta da
Zhang et al. (2005) che hanno proposto uno stimatore della volatilità
realizzata (RV(TTSE)) che combina due quantità basate su due scale temporali
differenti: RV(AVG) che indica la media delle volatilità realizzate calcolate su
una scala temporale “lenta”, ad esempio considerando i prezzi ogni 5 o15
minuti; RVt, la volatilità calcolata usando tutti i dati a nostra disposizione
(scala temporale “veloce”), opportunatamente pesata in base a un fattore che
dipende dal numero di osservazioni.


                          RV(TTTS)= RV(AVG) –      RVt                       (16)


                                    17
                                        CAPITOLO 2
                                              JUMPS

Lo studio delle anomalie nei mercati finanziari, sono state oggetto di
un’attenta analisi da parte della letteratura economico-finanziaria e tra queste
ha assunto recentemente un notevole interesse l’analisi delle discontinuità
riscontrabili quotidianamente nei mercati, quali appunto i salti o “jumps”.
Esempi di         incompatibilità tra movimenti dei prezzi azionari e volatilità
osservata nei mercati possono essere rappresentati da esempi storici quali il
venerdì nero del 1987, e nell’ottobre 2009 il caso del VIX3.
L’importanza          dei     jumps       nell’economia           finanziaria       è     notevolmente
riconosciuta.




                                                                                                           4


La causa di variazioni brusche e discontinue nei mercati può avere diverse
origini:


3
  L’indice VIX è un indicatore della volatilità implicita di breve termine sul mercato azionario S&P 500. VIX
cattura la volatilità del mercato azionario statunitense delle società a maggiore capitalizzazione.
Generalmente le società a minore capitalizzazione sono potenzialmente più volatili
4
  Fonte : Renò, “Threshold Estimation of jump diffusion models”
                                                18
 annunci e news macroeconomiche possono abbattersi sulla struttura dei tassi
   di interessi, specialmente quelli a breve termine;
 i prezzi azionari sono influenzati da crash endogeni (il “Black Friday 1987) e
   crash esogeni (11 settembre 2001);
 la struttura a termine degli smiles delle opzioni risente del contributo della
   componente jump;
 prezzi delle commodities soffrono di salti bruschi dovuti alla carenza nei
   mercati;
 i prezzi dell’elettricità sono altamente anelastici dal lato della domanda,
   quindi soffrono molto dei salti.


   In questo capitolo saranno presentati i processi jump-diffusion.
   La componente diffusiva parte della nomenclatura, si riferisce al fatto che
   questi processi siano costituiti da una componente di un moto Browniano o
   più in generale un integrale rispetto a un moto Browniano, e in aggiunta tali
   processi hanno nelle loro traiettorie dei jumps.
   Si considererà in questo capitolo il caso specifico e particolare in cui
   osserviamo dei jumps limitati in un intervallo di tempo finito.
   Il processo fondamentale per i jump è il processo di Poisson, presentato
   analiticamente nel seguito. Tutti i jumps del processo di Poisson hanno
   un’ampiezza pari a uno. Un processo Poisson Compound può essere
   presentato come un processo di Poisson, che si differenzia da quest’ultimo per
   la presenza di jump con un’ampiezza casuale.
   Saranno definiti i processi sui jump, come la somma di un integrale di Ito
   rispetto a un moto browniano dW(t), un integrale di Riemann rispetto a dt, e
   un processo puro jump. Un processo puro partendo da zero, ha molti salti in
   ciascun intervallo di tempo finito e risulta costante tra i jump.




                                       19
2.1 Processo di Poisson


Nel modo in cui il moto Browniano rappresenta le fondamenta per i processi
continuous-path, il processo di Poisson sarà il punto di partenza per i processi
jump.
In questa sezione sarà descritto tale processo e le sue fondamentali proprietà.
Assumendo che un determinato evento (un jump, o il default di un bond)
possa verificarsi tra l’istante t e t+dt, con probabilità λdt (con λ intensità del
processo di Poisson) per qualche costante λ, allora:


                                                                              (17)
così, la probabilità del salto risulta essere infinitesimamente costante.
Ora si consideri un processo decadente (decay), partendo da N0 :


                                                                              (18)
che implica:
                                                                              (19)
Quindi una probabilità decay infinitesimamente costante implica una
distribuzione esponenziale del processo decadente.




2.1.1 Variabili casuali esponenziali


In teoria delle probabilità la distribuzione esponenziale è una distribuzione di
probabilità continua che descrive la “durata di vita” di un fenomeno che non
invecchia (ovvero è privo di memoria).
Si consideri una variabile casuale        la cui funzione di densità di probabilità
sia così definita:


                                     20
                                                                        (20)
Dove λ è una costante positiva.
Sappiamo in questo caso che η ha una distribuzione esponenziale o
semplicemente che η sia una variabile casuale esponenziale. Quindi il valore
atteso di η può essere calcolato da un’integrazione per parti:




                                                                        (21)
Con funzione cumulativa di probabilità data da:




e quindi

                                                                        (22)


2.1.2 Costruzione del processo di Poisson


Per la costruzione del processo di Poisson, partiamo con la sequenza η1, η2,…
di variabili casuali esponenziali identicamente e indipendentemente

distribuite, tutte con media pari a .

Costruiremo un modello nel quale un evento che definiremo “jump”, si
verifichi da un istante di tempo a un altro. Il primo jump si verificherà



                                   21
all’istante η1, il secondo all’istante η2 con un’unità di tempo successiva al
primo e così via.
Il tempo di arrivo finale sarà definito da:


                                                    k                         (23)
Il processo di Poisson N(t) conteggia il numero di jumps che si verificano
precedentemente o al tempo t.
Più precisamente:




                                                                             (24)
La figura seguente mostra graficamente un esempio di processo di Poisson.




                                                5


Il parametro λ è definito intensità del processo di Poisson, la cui
interpretazione è: la probabilità del jump tra il tempo t e il tempo t+dt è λdt.

5
    Fonte Shreve Chapter 11 Jump Process
                                           22
    Per determinare la distribuzione degli incrementi di un processo di Poisson,
    bisogna innanzitutto determinare la distribuzione dei jump times S1,S2,..
    Assumendo per n ≥ 1, la variabile Sn precedentemente descritta ha una
    Gamma Density pari a:


                                                                                                       (25)
    che rappresenta la sommatoria delle distribuzioni esponenziali indipendenti
    (cioè gli n jumps).
    La distribuzione di probabilità discreta6 del Poisson è:



                                                                                                      (26)
    Per il calcolo della media e della varianza degli incrementi di Poisson è
    necessario introdurre il concetto di stazionarietà e indipendenza fornito dal
    seguente teorema:
    sia N(t) un processo di Poisson con intensità λ>0, e 0=t 0<t1<…<tn siano
    dati. Allora gli incrementi

                                                                                                      (27)
    risultano stazionari e indipendenti e presentano una distribuzione


                                                                                                      (28)


    N(t+s)-N(s) è quindi indipendente da ℱ(s) (                                                       delle
    informazioni acquisite dall’osservazione di N(s) per 0≤ s ≤t ed ha la stessa
    distribuzione di N(t).

6
   In teoria delle probabilità la distribuzione di Poisson (o poissoniana) è una distribuzione di probabilità
discreta che esprime le probabilità per il numero di eventi che si verificano successivamente ed
indipendentemente in un dato intervallo di tempo, sapendo che mediamente se ne verifica un numero λ.
Questa distribuzione è anche nota come legge degli eventi rari


                                                 23
In accordo con tale teorema possiamo ricavarci il valore di media e varianza,
che presentano in questo caso la particolarità di assumere lo stesso valore.
Per la media :




                                                                          (29)


e per la varianza:




il che implica




                                                                         7
                                                                             30)
Quindi media e varianza assumono lo stesso valore λ(s-t)
7
    Fonte Shreve chapter 11 jump process
                                           24
2.1.3 Processo di Poisson composto


Prima di descrivere il processo composto di Poisson o “Compound Poisson
process” è utile introdurre nell’analisi il “Compensated Poisson Process”.
Partendo da un raffronto tra lo strumento fondamentale utilizzato nei processi
stocastici, quali il Wiener e il processo di Poisson, possiamo osservare
determinate caratteristiche dei due processi:




         Processo di Wiener                        Processo di Poisson
         W0 = 0                            N0=0
         Se t< s < u, Wu-Ws è              Se t<s<u, Nu-Ns è indipendente
         indipendente da Ws-Wt             da Ns-Nt

         Ws-Wt si distribuisce :           Ns-Nt si distribuisce :
         N(0, s-t)

         La traiettoria di Wt è            La traiettoria di Nt ha variazione
         continua                          discontinua
         Wt è una martingala               Nt non è una martingala




Sia N(t) un processo di Poisson con intensità λ.       Definiamo tale processo
come :
                               M(t) = N(t) – λt.                         (31)
Quindi in questo caso M(t) risulta una martingala. Visto inoltre
precedentemente che gli incrementi sono indipendenti da ℱ(s) e il valore
atteso sia λ(t-s) otteniamo:




                                   25
                                                                              (32)




Come nel caso di un processo di Poisson in forma pura, anche nella forma
“compensated” i salti o jumps presentano una misura pari ad un’unità. E’
necessario perciò nel caso dei modelli per i mercati finanziari introdurre una
misura casuale per i jump. Ciò è possibile attraverso il processo composto di
Poisson applicabile nei casi concreti in ambito finanziario.
Sia N(t) un processo di Poisson con intensità pari a λ, e siano Y1, Y2,..una
sequenza di variabili casuali identicamente distribuite con media pari a:
β= EYi.
Assumiamo che le variabili casuali siano indipendenti l’una dalle altre e
indipendenti dal processo N(t). Definiamo allora il processo composto di
Poisson:



                                                                            (33)
I jumps in Q(t) si verificano agli stessi istanti di tempo di quelli in N(t), ma se
nel secondo caso sono sempre di ampiezza pari a 1, in Q(t) hanno


                                    26
un’ampiezza casuale. Il primo salto è di misura pari a Y1, il secondo pari a Y2,
etc.. . La figura presenta il processo .




Anche in questo caso, gli incrementi del processo Q(t) sono indipendenti e la
media risulta:
            Q(t) =         → E[Qt]= E[Yi] *λt = βλt                       (34)
Si può presentare a questo punto il processo composto “compensated”
anch’esso come martingala:
                                     Q(t) - βλt                            (35)
Potremmo inoltre utilizzare un’ulteriore misura di intensità, rappresentata
dall’intensità stocastica, sostituendo la formula λ(s – t) con


                               E[          .                               (36)


2.2 Jump process e integrali stocastici


In questo paragrafo introduciamo l’integrale stocastico nel caso di processi
con i jumps, e svilupperemo le proprietà di tale integrale.
Dovremmo quindi utilizzare come strumenti un moto Browniano, un processo
puro di Poisson e un processo composto di Poisson.


                                     27
Ci sarà sempre una singola filtrazione ℱ(t) associata a tali processi che
risultano ℱ(t)-misurabili con incrementi indipendenti da ℱ(t) .
Definiamo a questo punto l’integrale stocastico:


                                                                                                          (37)


dove l’integratore X può avere jumps. Sia (Ω ℱ ₱ ) sia uno spazio di
probabilità nel quale sia data una filtrazione ℱ(t), t>0. Gli integratori
considerati saranno inoltre continui a destra e della forma:


                                                                                                             (38)


Il processo: I(t) =                               è un integrale di Ito8 di un processo adattato

       rispetto a un moto Browniano. Il processo R(t) è un integrale di Riemann
per un processo adattato ϴ (s):
                                                                                                            (39)


Quindi la parte continua di X(t) è definita da:
                                                                                                             (40)


Nell’equazione (30) il termine J(t) è un processo puro di Poisson, adattato e
continuo a destra con J(0)=0. La versione continua a sinistra di questo
processo sarà indicata con J(t-). In altre parole, se J ha un salto al tempo t,


8
  L'integrale di Ito fa parte dell'analisi di Itō per i processi stocastici. In letteratura è introdotto utilizzando
varie notazioni: una di queste è sicuramente:                   . L'integrale non è definito come un integrale
ordinario, in quanto, il processo di Wiener, anche essendo continuo quasi certamente (P=1) non risulta
derivabile (a traiettorie irregolari); gli strumenti canonici di integrazione di funzioni continue non sono
sufficienti.
L'utilizzo principale di tale strumento matematico è nel calcolo differenziale di equazioni in cui sono
coinvolti, appunto, integrali stocastici, che inseriti in equazioni volte a modellizzare un particolare fenomeno.
                                                   28
allora J(t) è il valore di J immediatamente dopo il jump, e J(t-) è il suo valore
prima del salto.
Assumiamo inoltre, che J non ha salti al tempo zero, ed ha finitamente molti
salti in ciascun intervallo di tempo finito (0,T], ed è costante tra i salti.
La costanza tra i salti è ciò che giustifica la denominazione di J(t) come un
processo jump puro . Il processo di Poisson e il processo composto hanno
questa proprietà, mentre il compensated Poisson process non la possiede
perché decresce tra i jumps.
Un processo pertanto con parte continua X(t) e una parte riferita ai jumps è
definito “jump process”.
La versione continua a sinistra dell’equazione (30), dati R(t) e I(t) continui è:


                                                                                  (41)


La dimensione del salto sarà fornita da: ∆X(t) = X(t) – X(t-).




2.2.1 Calcoli stocastici con i Jumps e cambio di misura


Gran parte della moderna teoria finanziaria è basata sull’utilizzo di
semimartingale.
In econometria tali concetti sono ampiamente riconosciuti; basandoci sulla
definizione generale, supponiamo che y*(t) sia un processo stocastico e
assumiamo per semplicità y*(0) =0.
Definiamo così y*(t) essere una semimartingala se essa è decomponibile in:
                                                                                (42)
dove α(t), è un termine drift e m(t) è una martingala locale.




                                     29
I calcoli stocastici con i Jumps sono utili in ambito finanziario, per prezzare la
short term delle opzioni o per giustificare lo smile di opzioni molto OTM (out
of the money), quindi per verificare se ci sono stati salti .
Un processo jump-diffusion è una semimartingala del tipo:


                     Xt = X0 +       s   ds +       s dWs +   Jt                        (43)


dove Jt è la parte dei jump, che è definita da un processo stocastico adattato,
continuo a destra e con variazione discontinua.
Jt potrebbe teoricamente non essere ritenuto una martingala, ma non c’è alcun
problema nell’assumere che sia tale se diviene “compensated”.
Ogni processo jump con attività finite è un processo di Poisson composto
infatti possiamo scrivere:
                                   Jt =         i                                       (44)


La forma differenziale del processo jump-diffusion è la seguente:


                             dXt = µt dt +      Wt + YtdJt                              (45)


Ovviamente questa forma non indica l’unica rappresentazione per i jump.
Potremmo infatti avere infiniti jump in ciascun intervallo e ciò è possibile
calcolarlo con i processi di Lévy.
Si può interpretare la notazione precedente, come un’integrazione stocastica
per i jump:
                                          t=                                            (46)


Come nel caso di un generico processo Xt è possibile ottenere con la formula
di Ito la notazione dXt = µt dt +          Wt dove µt e            t   generiche funzioni nel

                                     30
caso dei jumps Ito lavora con delle trasformazioni. In particolare Yt = f(Xt), è
una trasformazione di Xt quindi, se risulta una martingala locale, anche Yt lo
sarà.
Otterrò :




                                                                          (47)
Con l’ultimo termine che rappresenta la parte addizionale della formula per i
jumps.


È utile introdurre nell’ambito di tale paragrafo, il concetto di cambio di
misura di probabilità basato sul teorema di Girsanov.
Se indichiamo con Nt un processo di Poisson sotto una probabilità P, esso è
ancora un Poisson sotto Q (un’altra misura di probabilità), ma con differente
intensità λ.
Stessa cosa accade nel caso di un processo composto di Poisson in cui varia in
questo caso non solo l’intensità, ma anche la dimensione del salto.
Il cambio di misura con cambio di intensità,da λ a λ’ è fornita da:



                                                                          (48)



Con la proprietà:                                e la nuova misura definita da:



                          Q(A) =                                           (49)




                                   31
2.3 Stimatori della volatilità integrata


     2.3.1 Realized Variance e Variazione Quadratica


Lo studio della volatilità in ambito finanziario ha assunto recentemente un
notevole progresso, grazie allo sfruttamento dei dati ad alta frequenza e
l’utilizzo della realized variance.
Si andrà in questa sezione, a presentare degli stimatori basati sull’analisi di
Barndoff-Nielsen e Shephard (2003), quali la power variation e la bipower
variation, entrambi abbastanza robusti nel caso di jumps rari in processi log
dei prezzi.
In    particolare si dimostrerà come sia possibile, almeno teoricamente,
scomporre l’impatto della presenza della volatilità e dei jumps con l’utilizzo
della power e bipower variation.
Quindi, in teoria è possibile decomporre la variazione quadratica nel
contributo della componente continua dei prezzi-log e dall’impatto dei jumps.
L’utilizzo della variazione quadratica gioca un ruolo cruciale nella teoria della
misura del rischio associata a un asset.
Per fissare le idee si supponga che h>0 sia un intervallo di tempo fisso (es. un
giorno di contrattazione o un mese del calendario) e che i prezzi-log di un
asset siano indicati con y*(t) per t 0. Quindi la i-esima “bassa frequenza” dei
rendimenti di h è fornita da:
                                                                             (50)
Supponiamo inoltre che i prezzi siano equispaziati nel tempo con ampiezza M
durante il giorno di contrattazione. Possiamo ora definire l’alta frequenza dei
rendimenti come:
                                -1                               -1
                                     )                                ), j=1,2…M
                                         (51)


                                          32
dove y(i,j) è il j-esimo rendimento intra-h per l’i-esimo giorno ( nel caso di
M=288 la frequenza j-esima sarà intervallata ogni 5 minuti).
È lecito dopo questa descrizione richiamare il concetto di realized variance
precedentemente incontrato :
                                     2
                                         =                                 (52)
La i-esima realised variance è basata sul quadrato delle osservazioni ad alta
frequenza in un intervallo di tempo tra h(i-1) e h(i). Per comprendere le
proprietà della realized variance, è necessario connetterla al concetto di
variazione quadratica.
La definizione di RV è basata sull’assunzione che y* sia una semimartingala
composta da:
                                                                         (53)
dove α* è il termine di drift , mentre m* indica una martingala locale. Uno
degli aspetti fondamentali delle semimartingale è la variazione quadratica,
definita da:
                                                                         (54)
Per qualsiasi frequenza della partizione t0= 0<t1<….< t M = t :
per M→∞ supj (tj-tj-1)→0.
In generale :
                                                                          (55)
dove           è la componente continua dell martingala locale di y*,       è il
corrispondente jump process e ∆y*(t) è la componente del jump al tempo t.
I risultati ottenuti dagli autori sull’analisi compiuta rivelano che la realized
variance stima consistentemente gli incrementi giornalieri di QV:
                           =                   i                           (56)
Per estendere i risultati sulla variazione quadratica è necessario introdurre
ulteriori assunzioni. Richiamando la definizione di semimartingala:
                                                                           (57)
Indichiamo m* è un processo a volatilità stocastica che presenta tale forma:
                                    33
                                                                   ,                            (58)
con W che indica un moto Browniano standard, ζ(t)>0 è la spot volatility del
processo , è càdlàg 9e il processo di varianza integrata sarà definito da:

                                                                                                (59)
che soddisfa la condizione                        per tutti t < ∞.
Il processo α è continuo. Tutte le semimartingale che soddisfano tale
composizione (formula*) appartengono alla classe denotata dalla sigla SVSM
(classe delle semimartingale continue in volatilità stocastica).




2.3.2 Quarticity Integrata


L’oggetto di studio della nostra analisi , la volatilità integrata (IV), può essere
pertanto stimato, sia attraverso modelli parametrici, sia non parametricamente
con la variazione quadratica.
Un ulteriore approfondimento, ha per oggetto la stima della quarticity
integrata (IQ), basata sui dati finanziari ad alta frequenza e nel caso di un
processo del prezzo sottostante si assume che segua una semimartingala
generale.
La IQ è un ingrediente chiave che ci consente di analizzare l’inferenza sulla
volatilità e la presenza di salti nelle serie storiche finanziarie.
In particolare è possibile decomporre la variazione quadratica realizzata (QV)
nella volatilità integrata(IV), e come parte residuale la componente dei salti
(J):


9
   In matematica, una funzione càdlàg (acronimo dal francese continue à droite, limitée à gauche, che
significa continua a destra, limitata a sinistra) o più semplicemente (ma erroneamente) cadlag è una
funzione di variabile reale che sia in ogni punto continua da destra e possegga limite sinistro finito.
Le funzioni càdlàg sono importanti nello studio dei processi stocastici che ammettono traiettorie con
discontinuità di prima specie.

                                             34
                                                                           (60)


Considerando uno scenario ideale, nel quale si osservano in un intervallo di
tempo N+1 log- prezzi di asset equispaziati, Yi/N, con i=0,….,N e N
rendimenti equispaziati,
ri = Yi/N-Yi-1/N . In questo caso la varianza realizzata (RV) è uno stimatore
non-parametrico di QV per N→∞:
                                                                           (61)
La varianza realizzata rappresenta quindi la sommatoria dei rendimenti
intragiornalieri. In teoria, tale stimatore non è distorto ed altamente efficiente,
converge al vero valore della varianza integrata quando la lunghezza degli
intervalli intragiornalieri si avvicina allo zero.
Nella pratica però la consistenza della varianza realizzata viene meno nel
momento in cui aumenta la frequenza dei dati. Infatti gli effetti dovuti alla
microstruttura dei mercati contaminano i prezzi degli asset registrati ad alta
frequenza.
In assenza di jumps, la distribuzione di RV è conosciuta:
                                                 → N(0, 2IQ)               (62)

con IQ =            che può essere consistentemente stimata dalla Quarticity
Realizzata (QR):
                                                                            (63)


Nel caso di presenza dei salti, RV non è uno stimatore consistente per IV, e
inoltre è divergente:             per N→∞.
Andremo quindi ad irrobustire l’analisi con la teoria dei jumps e utilizzando
stimatori alternativi e consistenti in presenza di tali fenomeni.

                                     35
2.3.3 Power e Bipower variation


Un’estensione della volatilità realizzata e del processo di variazione
quadratica è stata generalizzata con la power variation realizzata (Barndoff-
Nielsen e Shephard 2003).
Ancora una volta lavoriamo in un intervallo di tempo da 0 a t, ma assumiamo
in questo caso che le osservazioni per ogni periodo di tempo siano δ>0.
Il nostro interesse ora, verterà su cosa accade se δ→0. Tale condizione ci
porta a definire la realised power variation (generalizzazione della RV) in cui:
                         r       1-r/2              r
                     [       =                          ,      r >0            (64)

Quindi l’ r-esimo ordine del processo power variation è definito, quando
esiste per   r >0:

                  (t)=                                                         (65)
con il j-esimo rendimento equispaziato dato da:
                             yj (t) = y*(jδ) – y*((j-1)δ)                      (66)

Qui il termine di standardizzazione           è essenziale nella power variation:
1 Quando r=2 la standardizzazione è uguale a 1 e così scompare;
2 Nel caso di r > 2 il termine va a infinito con δ→0;
3 Con r < 2 la standardizzazione va a zero per δ→0.


Quando J=0 (vi è assenza di jumps) e           , µ sono indipendenti da W (moto
browniano), PV converge alla volatilità power integrata ( in riferimento agli
studi Woerner 2006 e Barndoff-Nielsen e Shephard 2004).
    (J=0)                                                                      (67)




                                         36
 Mentre nel caso generale:




                                                                                              10




 Perciò la power variation è utile principalmente per identificare il contributo
 dei jumps conformemente al potere di r.
 La robustezza e l’efficacia di questa tecnica, applicata al caso di un numero
 infiniti di jumps è stata oggetto di studio di Woerner(2006).
 Nonostante la potenza dello stimatore, è impossibile realizzare una stima
 corretta della volatilità integrata utilizzando la power variation.
 È opportuno quindi, per risolvere tale problema, introdurre un’ulteriore
 generalizzazione della volatilità realizzata.
 Barndoff-Nielsen e Shephard (2004) hanno identificato un ulteriore stimatore
 definito “bipower variation” di ordine [r,s] nel quale:
                                                                             s
               (t)=                                                           ,       r,s>0   (68)


 Come precedentemente nel caso di assenza di salti con J=0 abbiamo:
              (J=0)                                                                           (69)
 mentre nel caso generale:




10
     Fonte: Renò, Nonparametric volatility estimation in jump-diffusion models 2007
                                                  37
  Questo risultato indica che è possibile utilizzare la bipower variation per
  stimare la varianza integrata sempre in presenza dei salti: tutto questo,
  scegliendo r<2 e s>2-r
  Una definizione alternativa fornita da Barndoff-Nielsen e Shephard prevede la
  BPV:
                                                                          (70)
  La componente dei salti, (quindi mettendo in relazione la RV e la BPV) si
  ottiene per differenza:


                                                                          (71)


  Huang e Tauchen (2005) suggeriscono due misure per i salti:

 Relative Jump :

  che è un indicatore del contributo dei salti alla variazione totale
  intragiornaliera del processo.


 Excess Jump:

  Indica il contributo in eccesso di ciascun salto.




                                      38
    2.3.4 Threshold Estimator


   Dal contributo dei lavori di Mancini (2004,2007),                Jacod (2006) e
   recentemente analizzato da Corsi, Pirino, Renò (2009) è stato introdotto un
   nuovo stimatore della volatilità integrata basato sulla proprietà del moto
   Browniano stabilito da Lèvy: il “Threshold Estimator”.
   È necessario introdurre delle definizioni specifiche antecedentemente al
   framework di tali stimatori :
 Una funzione r(x) è chiamata modulo di continuità per la funzione f(x) se, per
   δ>o sufficientemente piccolo, |t-s| ≤ δ implica |f(t) – f(s)| < g(δ).
      La seguente funzione è quasi sicuramente modulo di continuità del moto

    Browniano:                                       .                       (72)

   con la proprietà stabilita da Levy

                                                                             (73)

   Essa misura e definisce la velocità alla quale il moto Browniano si avvicina a
   zero.
   Possiamo utilizzare questa proprietà per decomporre le traiettorie Browniane
   da quelle discontinue, utilizzando una funzione ausiliaria che svanisce più
   lentamente del modulo di continuità del moto Browniano.
   L’intuizione a riguardo, è la seguente: quando δ→0, le variazioni diffusive
   vanno a zero, mentre ciò non accade nei jumps. Inoltre è noto il tasso al quale
   le variazioni diffusive tendono a zero: il modulo di continuità.
   Possiamo quindi identificare i salti come quelle variazioni che si presentano
   più grandi di un determinato threshold ϑ (δ) che va a zero come δ→0, più
   lentamente di r(δ).




                                        39
Una funzione threshold ϑ (δ) è definita:

                                                                             (74)

 Mancini (2004) ha inoltre introdotto un teorema secondo il quale per δ
 sufficientemente      piccolo,     se     il   quadrato      degli     incrementi
         nell’intervallo [t,t+δ] sono più piccoli della funzione threshold
       che svanisce più lentamente del modulo di continuità Browniano, allora
 non ci saranno jumps in tale intervallo, viceversa nel caso opposto.
 Definiamo a questo punto la varianza realizzata threshold:

                       TRVδ(Xt)=                                             (75)

 Utilizzando tale risultato, possiamo provare che per ogni threshold
 TRV(X)t è uno stimatore consistente per δ→0, della volatilità integrata e
 risulta robusto nel caso di infiniti jumps.
 La power variation può a questo punto essere generalizzata con la seguente
 definizione di Threshold power variation, per γ     :

                                                                             (76)
 Dalla combinazione della multipower variation di Barndoff-Nielsen,
 Shephard (2006) e il threshold di Mancini (2009), è stato introdotto nel corso
 da Corsi, Pirino, Renò (2009) il concetto di “threshold multipower variation”.




                                                                             (77)


 Osservando empiricamente attraverso simulazioni che la bipower variation sia
 uno stimatore non efficiente in un campione finito, e porta a una sottostima
 della componente dei salti, gli autori hanno dimostrato con simulazioni sui
                                     40
prezzi di asset che il threshold bipower variation sia quasi in tutti i casi senza
errori, anche in presenza di jumps.




                                      41
                                       CAPITOLO 3
      PREVISIONE DEI CREDIT SPREADS CON LA JUMP
                      VOLATILITY


Questo terzo capitolo, basato sul lavoro empirico11 di George Tauchen12 e
Hao Zhou13, cerca di estendere il metodo della jump-detection basato sulla
bipower variation per identificare i jumps realizzati nei mercati finanziari e
stimare parametricamente l’intensità dei jumps, la media e la varianza.
In campioni finiti l’evidenza empirica mostra che i parametri dei jumps
possano essere accuratamente stimati e l’inferenza statistica risulti attendibile
sotto l’ipotesi che i salti siano rari e grandi.
Sono state effettuate nel lavoro applicazioni al mercato equity, ai T-bond, e ai
tassi di cambio evidenziando delle differenze importanti nelle frequenze dei
jumps e nelle volatilità tra le diverse asset classes per il periodo di tempo
considerato.
Di particolare rilievo è il potere predittivo che la stima della jump-volatility ha
sul comportamento dei credit spread, rispetto ai classici strumenti adottati per
tali previsioni quali i fattori dei tassi di interesse, i fattori di volatilità
(includendo quindi anche la volatilità implicita delle opzioni).
Si è riscontrato infatti che i fattori di rischio della jump-volatility riescano a
catturare al meglio la bassa frequenza dei movimenti dei credit spreads.




      11
           Realized jumps on financial markets and predicting credit spreads (2010)
      12
           Department of Economics, Duke University
      13
           Division of Research and Statistics, Federal Reserve Board .
                                               42
È opportuno introdurre il concetto di credit spread per il prosieguo
dell’analisi. Per credit spread si indicano tutta una serie di misure che servono
per determinare quanto un investitore venga pagato per essere compensato
nell’ assumere il rischio di credito intrinseco nel titolo. Tra le ben conosciute
misure di credito ci sono l’interest spread, yield spread, asset swap spread,
option adjusted spread (OAS) e il default swap spread.
In particolare per yield spread intendiamo il differenziale su strumenti di
debito, calcolati deducendo lo yield dello strumento con yield superiore
all’altro. Lo spread può essere misurato tra strumenti di debito con differente
scadenza, rating e rischio.
I relativi ampi credit spreads sul grande livello di investimento in bond (in
particolare corporate bond) sono stati da sempre delle anomalie
nell’economia finanziaria.
In tale lavoro è stata sviluppata una misura del rischio jump basata sui
“jumps realizzati” (a differenza dei jump impliciti o latenti) come variabile
esplicativa per l’alto livello di investimento per gli indici dei credit spread.
Il modello jump-diffusion dei processi dei rendimenti di attività finanziarie ha
una lunga storia in finanza datata a Merton (1976).
La stima empirica dei processi jump-diffusion è sempre stata una sfida da
parte degli econometrici. In particolare, identificare un salto dai dati di una
serie storica per i rendimenti di un asset sottostante, non è prontamente
disponibile.
Molti dei lavori econometrici si basano sulla combinazione di metodi
numerici, procedure di simulazione e schemi di identificazione congiunta per
gli asset sottostanti e i prezzi dei derivati (Bates 2000; Anderesen et al., 2002;
Pan 2002).
Questo lavoro invece porta ad un approccio diretto e differente per
identificare i jumps realizzati basato sui lavori empirici di Barndoff-Nielsen e
Shephard (2004,2006).

                                     43
La recente letteratura finanziaria individua la varianza realizzata dei dati ad
alta frequenza, come una misura accurata della vera varianza di un processo
sottostante continuo (Meddahi, 2002; Barndoff-Nielsen e Shephard 2002).
All’interno della struttura della varianza realizzata, la parte continua e la
componente jump possono essere separate dalla comparazione tra varianza
realizzata e bipower variation. Altri metodi di jump detection sono stati
proposti nella letteratura come quelli basati sul contratto a varianza
swap14(Jiiang e Oomen, 2005), e la stima della volatilità locale15(Lee e
Mikland).
Sotto la ragionevole assunzione che i salti nei mercati finanziari siano rari e
grandi, ipotizziamo inoltre che ci sia al massimo un salto al giorno e che tale
domini il rendimento giornaliero quando si verifica.
Questo ci permette di filtrare i jumps realizzati e inoltre di stimare
direttamente la loro distribuzione (intensità, media e varianza).
Tale strategia di stima, va quindi in contrasto con la recente letteratura
finanziaria, che stima parametri “noise” basati sui rendimenti giornalieri.
Ait-Sahalia e Yacine (2004) hanno esaminato come stimare la componente
del moto Browniano con la tecnica della massima verosimiglianza16, mentre
tratta la componente di Poisson dei jumps come una componente noise.
L’approccio del lavoro degli autori, è totalmente opposto a quello descritto
precedentemente, e si basa sulle stime della componente dei salti e quindi
utilizzare tali risultati per ulteriori analisi economiche.
14
     Un contratto a varianza swap è un contratto forward di varianza annualizzata, il quadrato della volatilità
                                                      2
realizzata.             = 252                           . Il suo playoff è : ζr2 - Kr2, con Kr che indica lo strike.
 15
    La superficie della volatilità è una rappresentazione della struttura delle volatilità implicite effettuata in
funzione delle scadenzee degli strike delle opzioni. Questa modalità di rappresentazione della volatilità di
mercato viene utilizzata per ricavare la curva delle volatilità spot da oggi ad una data futura t, e la volatilità
locale esistente per determinati livelli dei prezzi dell’attività sottostante in una data futura, ossia la volatilità
esistente tra due punti di coordinate (S,t) e (S+S, t+t).
16
   Il metodo della massima verosimiglianza in statistica è un procedimento matematico per determinare uno
stimatore. Caso particolare della più ampia classe di metodi di stima basata sugli stimatori d'estremo, il
metodo consiste nel massimizzare la funzione di verosimiglianza, definita in base alla probabilità di
osservare una data realizzazione campionaria, condizionatamente ai valori assunti dai parametri oggetto di
stima. Il metodo è stato originariamente sviluppato dal genetista e statistico sir Ronald Fisher, tra il 1912 e il
1922.
                                                   44
Il vantaggio di tale approccio, include la possibilità di non specificare e
stimare il drift sottostante e la componente diffusiva del processo, e di rendere
il processo dei jumps flessibile. Da tali considerazioni si evince infatti
l’impossibilità di utilizzare questa tecnica della jump-detection e di stima nel
caso del processo di Lévy caratterizzato da infiniti piccoli salti in un periodo
di tempo limitato.
Un recente paper di Ait-Sahalia e Jacod (2006) sviluppa un metodo di jump-
detection basato su attività con infiniti salti del tipo Lèvy .
L’approccio del presente lavoro applica principalmente il processo di Poisson
composto (compound Poisson process), dove ritroviamo rari e grandi jumps
nei mercati finanziari.
Si potrebbe evidenziare che la bipower variation sia applicabile anche per i
jumps    infiniti,   sebbene   il   focus   è   incentrato    sul   caso   descritto
precedentemente.
Nell’analisi delle simulazioni Monte Carlo, sono stati esaminati due possibili
scenari, dove il contributo dei jumps alla varianza totale è stata del 10% e
dell’80%.
In tali scenari, l’approccio di identificazione dei jumps realizzati, performa
bene e le stime dei parametri sono accurate come vedremo in seguito.
Il meccanismo di jump-detection è stato implementato per l’indice S&P 500,
per i bond decennali del tesoro statunitense, e per il cambio dollaro/yen, allo
scopo di coprire un set rappresentativo di asset classes.
L’intensità dei jumps stimata risulta essere bassa per l’indice equity (13%),
ma alta nel caso dei bond governativi (18%) e del mercato delle valute (20%),
mentre le medie stimate sono irrilevanti e vicine allo da zero. Le Jump-
volatilities sono per il mercato delle azioni 0.53%, per i bond governativi
0.65% e per le valute 0.39%.
Sebbene le medie si presentino statisticamente indistinguibili dallo zero, per
tutti gli asset considerati, ci sono delle deviazioni positive dallo zero per S&P

                                     45
500 alla fine degli anni 90’. Infine le volatilità non sono cambiate molto per i
bond e le valute, eccetto per l’impennata nel corso del 94’, ma hanno subìto
un incremento per il mercato equity tra il 2000 e il 2004.
È importante dimostrare dall’analisi svolta, la capacità della jump-detection e
jumps realizzati di implicare importanti risultati nell’ambito della variazione
dei rischi di mercato e di credito.
Prendendo in esame gli indici Moody mensili dei credit spread, è stato
rilevato che effettuando stime nel mercato equity, la jump-volatility può
predire la variazione dello spread con un R2 dello 0.62-0.66 che risulta
piuttosto alto rispetto a quelli ottenuti con i fattori standard dei tassi di
interesse, fattori della volatilità includendo quindi la volatilità implicita delle
opzioni.
Quindi i fattori di rischio jump del mercato costruiti dai dati ad alta frequenza,
sembrano essere molto utili per catturare i movimenti a bassa frequenza17 dei
credit spread in termini di trend di lungo periodo e del ciclo economico.




3.1 Jumps realizzati


L’importanza dei jumps per l’asset pricing è storicamente riconosciuta
(Merton 1976), eppure la stima della loro distribuzione è molto difficoltosa,
specialmente quando è impiegata solo la bassa frequenza dei dati a
disposizione.
Negli ultimi anni, numerosi autori tra i quali Andersen et al.(2001), Barndoff-
Nielsen e Shephard (2002), hanno sostenuto l’utilizzo della varianza
17
  È quello tipico delle rilevazioni statistiche continue, sul territorio, sull'ambiente, sulla popolazione, sul
mercato, condotto o da Enti a carattere Istituzionale o Società di provata e riconosciuta serietà operativa. In
questi casi le variabili in gioco sono generalmente molto numerose, mentre le rilevazioni hanno una cadenza
che può essere giornaliera, mensile, trimestrale. Il tempo tra una rilevazione e l'altra è anche necessario a
normalizzare, ordinare, correlare, interpolare, rapportare i dati e convertirli in informazioni fruibili e di
semplice diffusione attraverso canali istituzionali o i media.
                                                 46
realizzata calcolata con i dati infragiornalieri, quindi ad alta frequenza, per le
previsioni sulla volatilità.
Più recentemente gli stessi autori (2004-2006), con lavori sulla bipower
variation, hanno sviluppato la possibilità di separare la volatilità realizzata
nella componente continua e in quella dei jumps.
Per fissare determinati concetti supponiamo che il processo generatore del
logaritmo dei prezzi di un’attività finanziaria segua tale dinamica:


                                                                           (78)


dove µ(t) e ζ(t) sono le funzioni drift e diffusiva, W(t) è un moto Browniano
standard, dq(t) è un processo di Poisson con intensità λ(j), e J(t) che si
riferisce alla corrispondente dimensione (log) del jump distribuita come una
normale (µ(j),ζ(j)).
Questo approccio può essere esteso per il calcolo delle variazioni nel tempo
delle intensità, delle medie e delle volatilità.
Il tempo è misurato in unità giornaliere e i rendimenti infragiornalieri sono
definiti come:


                                                       *∆)                (79)


Dove r(t,j) è il j-esimo rendimento sul giorno t, e ∆ è la frequenza di
campionamento all’interno di ciascun giorno.
Barndoff-Nielsen e Shephard (2004) hanno proposto due misure generali del
processo di variazione quadratica (varianza realizzata e bipower variation),
che convergono uniformemente (per ∆→0 o m=1/∆→∞) a differenti quantità
del processo jump-diffusion sottostante:

                                                                             (80)


                                     47
                                                                          (81)




  Perciò la differenza tra la varianza realizzata e la bipower variation è zero
  quando vi è l’assenza di jumps, e strettamente positiva quando questi sono
  presenti.
  Un’ampia varietà di tecniche di jump-detection sono proposte e analizzate da
  Barndoff-Nielsen e Shephard (2004), da Andersen et al.(2004), e Huang e
  Tauchen (2005). Qui sarà utilizzato un rapporto statistico quale il Relative
  jump:

 Relative Jump :

  che è un indicatore del contributo dei salti alla variazione totale
  infragiornaliera del processo.
  Questo indicatore converge a una distribuzione normale standard :


                                                                         (82)



  Dove TP(t) è la tripower quarticity, robusta nel caso di jumps, e presentata
  dagli autori come:


                                                        |

                                   (83)


  Con:                             per k>0                                (84)

  Questo test ha delle importanti proprietà ed è molto accurato nel caso di
  presenza di jumps.

                                    48
 Basandosi sulle intuizioni economiche riguardanti la natura e l’origine dei
 salti nei mercati finanziari (Merton 1976), gli autori assumono nell’analisi che
 ci sia al massimo un salto per giorno di contrattazione e che tale salto domini
 ed influenzi i rendimenti giornalieri. Tale assunzione consente di filtrare il
 contributo dei jumps con:



                                                                                                         (85)

 Dove Ф è una funzione di distribuzione cumulativa18 di una normale standard,
 α è il livello di significatività del test-z, e                             è la funzione indicatrice
 risultante nel caso di presenza di salti durante il giorno.
 Tale approccio, di “filtraggio” dei jumps realizzati è una semplice estensione
 del concetto di “jump significativo” introdotto da Andersen et al. nel 2004.
 Ovviamente,              l’accuratezza            dell’equazione             precedente,           dipende
 dall’assunzione che c’è solo un salto giornaliero. Questa descrizione risulta
 attendibile e ragionevole nel caso di salti dovuti ad annunci macroeconomici.
 Nel caso invece di salti multipli giornalieri, quando appunto questi non sono
 causati da nuovi annunci macro ma guidati dalle opinioni di mercato, sarebbe
 preferibile adottare un approccio per la detenzione sequenziale di tali salti
 quotidiani.


 Una volta che le dimensioni dei jumps sono state ricavate, è possibile stimare
 i parametri di intensità, media, e varianza imponendo un semplice modello di
 Poisson .
18
   In statistica la funzione di ripartizione empirica o funzione di distribuzione cumulativa viene usata per
descrivere fenomeni quantitativi o comunque descritti con valori misurati su scale ordinali, intervallari o
proporzionali, ma non se misurati con una scala nominale. La funzione di ripartizione o viene indicata
solitamente con : F(x), e rappresenta il numero di osservazioni del fenomeno che cadono prima del valore x.
Se x1,...,xn sono le osservazioni (ordinate in senso crescente), con frequenze relative f1,...,fn la funzione di
ripartizione ha espressione analitica



                                         Le Fi sono dette frequenze cumulate.

                                                  49
  Indichiamo con :

 λ’(j) =

 µ’(j) =
 ζ’(j) =
  Un tale approccio per la stima dei salti è robusto relativamente alle peculiarità
  delle variazioni temporali o con l’utilizzo di un drift stocastico e una funzione
  diffusiva, fintanto che il disturbo della volatilità diffusiva non sia troppo
  grande.




 3.2 Struttura dell’esperimento


  È importante valutare se le procedure di stima e di filtraggio dei jumps
  performino bene sotto le assunzioni di jumps rari e grandi. In particolare, è
  utile conoscere se i parametri possano essere stimati accuratamente e sia
  possibile effettuare una corretta inferenza.
  Per il framework sperimentale è stato adottato il seguente processo jump-
  diffusion a volatilità stocastica (del tipo Duffie, Pan, Singleton):




                                                                               (86)




  con il drift del prezzo-log µ(t) =0; la mean reversion della volatilità =0.10 e
  la volatilità della volatilità           i parametri dei jumps λ(j) = 0.05, µ(j) =
  0.20, ζ(j)=1.20; il coefficiente del leverage ρ
            .


                                      50
Il parametro di volatilità di lungo periodo ϴ è stato scelto in base a due
diversi scenari per coprire un possibile gamma di classi di attività finanziarie.
Lo scenario (1) ha un ϴ = 0.9 tale che il contributo della parte discontinua sul
totale della varianza sia del 10%. Un tale scenario è possibile osservarlo con
più probabilità nel mercato equity statunitense, nelle principali valute e nelle
azioni blue chip.
Lo scenario (2) ha un ϴ = 0.025 e l’80% del contributo dei jumps alla
varianza è molto vicino alle attività poco liquide           e contrattate poco
frequentemente come i corporate bond, le azioni dei paesi emergenti e le
azioni del mercato small cap.
Le simulazioni Monte Carlo sono strutturate come segue. In ciascun giorno si
simula un processo jump-diffusion, utilizzando come unità di misura (tick) del
tempo un secondo, per un totale di 6 ore e mezza rifacendosi cosi al mercato
equity degli USA negli ultimi anni.
Il processo diffusivo con volatilità stocastica è stato simulato con la struttura
di Eulero, il jump-timing è simulato con una distribuzione esponenziale, e la
dimensione del salto da una distribuzione normale.
Poi i jumps realizzati sono combinati con la diffusione realizzata e
campionata a intervalli di 1 minuto e 5 minuti. La dimensione del campione è
di T= 1000giorni e T= 4000 giorni; inoltre è stato scelto un intervallo di
confidenza per la jump-detection tra α=0.99 e α=0.999. Infine è stato
utilizzato come benchmark per l’analisi uno stimatore di massima
verosimiglianza, per verificare la relativa efficienza dell’approccio di
filtraggio dei salti qui esaminato.


3.2.1 Stima dei parametri


I risultati sui parametri jump stimati nel campione finito descritto
precedentemente sono presentati nella tabella 1 e 2.

                                      51
La prima colonna di ciascuna tabella indica i valori dei parametri veri, e la
prima riga espone l’errore dalla media, dalla mediana e l’errore quadratico
medio19 (RMSE) dello stimatore di massima verosimiglianza.
È da notare come lo stimatore di massima verosimiglianza risulti non variare
tra i 2 scenari (1)con il contributo jump al 10% e (2) con il contributo
all’80%. In termini di stima efficiente, sia l’intensità λ(j) che la volatilità ζ(j)
possono essere accuratamente stimati con un RMSE più piccolo dei valori dei
parametri. Ad ogni modo, la stima di µ(j), non è accurata per il campione di
1000 giorni (RMSE è circa il valore del parametro), mentre nel caso di
T=4000 è accurata (RMSE pari alla metà del valore del parametro).
Per il meccanismo del filtraggio dei jump basato sulla bipower variation
(Tabella 1 e 2), la stima efficiente dei parametri dipende dal contributo offerto
dai jump se grande o piccolo. Nel caso dello scenario (1), dove il contributo
alla varianza totale è del 10%, l’approccio sembra lavorare meglio nel caso di
un test di significatività α=0.99, mentre con un contributo dell’80% dei jumps
(scenario 2) si utilizzerà preferibilmente il set con α=0.999.




19
   In statistica, l'errore quadratico medio (in inglese Mean Square Error, MSE) indica la discrepanza
quadratica media fra i valori dei dati osservati ed i valori dei dati stimati. L'errore quadratico medio o Mean
Squared Error (MSE) di uno stimatore ϴ ’ rispetto al parametro stimato θ e' definito come: MSE(ϴ ’)=
E[(ϴ ’-ϴ )2] . L'errore quadratico medio è uguale alla somma della varianza e del quadrato del bias di uno
stimatore: MSE(ϴ ’) = Var (ϴ ’) + (Bias(ϴ ’,ϴ ))2. L'errore quadratico medio quindi ci da una misura per
giudicare la qualita' di uno stimatore in termini della sua variazione e della sua distorsione




                                                52
Tab 1 Rappresenta le simulazioni Monte Carlo nello scenario (1), in cui sono riportate le stime dei parametri dell’intensità, media e
volatilità dei jumps. Questo scenario ha un contributo dei jump del 10%sul totale della varianza. I risultati sono strutturati nei due
campioni di 1000 giorni e 4000 con 2 frequenze di campionamento (1 minuti e 5 minuti), e due livelli di test di significatività (0.99 e
0.999).




Tab 2 Rappresenta le simulazioni Monte Carlo nello scenario (2), in cui sono riportate le stime dei parametri dell’intensità, media e
volatilità dei jumps. Questo scenario ha un contributo dei jump del 80%sul totale della varianza. I risultati sono strutturati nei due
campioni di 1000 giorni e 4000 con 2 frequenze di campionamento (1 minuti e 5 minuti), e due livelli di test di significatività (0.99 e
0.999).




20


In accordo con i risultati precedentemente descritti, gli autori hanno
formalizzato la relazione tra il contributo dei jump sulla varianza totale e il


20
     Fonte “Realized Jumps on financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H.
                                                           53
livello di significatività stringente o meno stringente con il rapporto per le
aspettative incondizionate sulla RV.
Tale ratio è definito come:




                                                                          (87)
Sembra indicare la scelta ottimale per il livello α del test.




3.3 Applicazioni ai mercati finanziari


In questa sezione è presentata l’applicazione degli autori dell’ approccio della
jump-detection a tre mercati finanziari: quello delle azioni, dei bond e delle
valute internazionali. I dati infra-giornalieri ad alta frequenza per l’indice
S&P 500 (dal 1986 al 2005) sono stati ricercati dall’Institute of Financial
Markets, i bond statunitensi decennali (1991-2005) dalla Federal Reserve
Board, e il cambio dollaro/yen (1997-2004) dall’Olsen & Associates.
Tali scelte stanno ad indicare una visione complessiva delle principali asset
classes presenti sul mercato. Tutti i dati sono trasformati in log-rendimenti ad
intervalli di 5 minuti e sono quindi abbastanza robusti per identificare la
microstruttura del mercato.
Sono stati eliminati i giorni con meno di 60 scambi e quotazioni, escluse le
contrattazioni dopo la chiusura ufficiale dei mercati (gli scambi after-hours), e
i rendimenti notturni eccetto per il cambio dollaro/yen che è aperto per 24h.
Le statistiche sommarie per i rendimenti percentuali giornalieri e per la
volatilità realizzata, sono riportate nella tabella 3.
Il campione analizzato presenta la media dei rendimenti annualizzata
dell’8.4% per l’S&P 500, il 4.1% per i bond del tesoro, e il 2.4% per le
valute.
                                     54
Le medie delle volatilità realizzate sono per il mercato azionario lo 0.73%, per
i t-bond del 0.56% e per il cambio lo 0.62%.
L’asimmetria o skewness per i rendimenti nel mercato azionario e
obbligazionario è negativa, mentre positiva nel caso delle valute.
Le statistiche sulla curtosi presentano per tutte le tre asset classes delle
deviazioni dalla distribuzione Normale come atteso.
I rendimenti risultano approssimativamente incorrelati, mentre la serie delle
volatilità        presenta       una     dipendenza         seriale.     Infatti     le    prime      dieci
autocorrelazioni riportate nella parte finale della tabella sono tutte altamente
significative.


Tab3




21




La tabella 4 presenta il contributo dei salti sul totale della varianza che risulta
essere del 5.35% per l’S&P 500, il 19.11% per i T-Bond e il 6.47% per le
valute. Tali numeri sono molto vicini ai risultati scoperti da Andersen et al. e

21
     Fonte “Realized Jumps on financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H.
                                                 55
Huang e Tauchen (2005), e abbastanza simile allo scenario (1) della sezione
Monte Carlo.
L’aspettativa degli autori è ovviamente positiva riguardo alla funzionalità del
metodo basato sulla bipower variation e la possibilità di filtrare i jumps.
Nelle figure 4-6 sono tracciati i jumps realizzati per tutti e tre i mercati.
I salti nell’S&P 500 hanno un’ampiezza che va dal -2% al +2%. I Bond
governativi presentano salti meno frequenti con range che va dal -2% al +4%,
infine lo yen presenta salti frequenti con un’ampiezza che va da -1.2% al
+1.6%.
La parte finale della tabella 4 riporta le stime della distribuzione basate sul
filtraggio dei jumps realizzati; ad eccezione dell’indice S&P 500 (µ(j) = 0.06
con s.e = 0.02), tutte le medie dei salti sono statisticamente indistinguibili da
zero.
Le intensità sono significative e variano tra le differenti attività, per l’S&P
500 pari a 0.13 con s.e= 0.01, i T-bond con 0.18 e s.e= 0.02, e il tasso di
cambio con 0.2 e s.e = 0.01.
Le deviazioni standard sono stimate accuratamente e assumono i seguenti
valori: 0.53 (s.e= 0.01) per l’indice azionario, 0.65 (s.e = 0.02) per i bond, e
0.39 (s.e= 0.01) per le valute. Questi risultati differiscono molto dall’usuale
tecnica utilizzata per stimare i salti nella ricerca empirica finanziaria che
utilizzano variabili latenti sui dati giornalieri.22




22
     Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H
                                                 56
Tab 4 Misure di sintesi statistiche




Un’altra importante caratteristica che è possibile osservare dai risultati delle
figure 4-6, è l’ampiezza dei jumps che cambia nel tempo e che conduce
all’usuale congettura per la quale si verificano variazioni nel tempo
dell’intensità e della grandezza dei salti.
Gli autori in questo caso hanno effettuato delle stime rolling (medie mobili)
su un campione di 2 anni in 2 anni dei parametri jump con il 95% di intervallo
di confidenza.
Dalle figure si evince che per l’indice azionario l’intensità risulta piuttosto
alta durante l’inizio degli anni 90’ (circa il 20%), poi scende
considerabilmente alla fine del decennio (circa 5%), ed è ricominciata a salire
dal 2002. La media risulta vicina allo zero ad eccezione della fine degli ani
90’dove le medie risultano positive in seguito alla salita del mercato
azionario.




                                      57
Fig 4 S&P 500 con varianza realizzata e dinamica dei jumps realizzati e i parametri stimati23




    23
         Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H

                                                            58
Fig 5 T-bond, varianza realizzata e dinamica dei jumps.24




  24
       Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H

                                                            59
Fig 6 Dollar/yen, varianza realizzata e dinamica dei jumps.25




25
     Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H

                                                                60
La jump volatility è stata uniformemente stabile dalla fine degli 80’ alla fine
dei 90’ intorno al 40%, ma è stata elevata dal 1999 al picco del 2002 intorno
al 100%.
Nella figura 5 è decritta l’evoluzione del mercato dei t-bond. L’intensità di
questo mercato è stata elevata all’inizio degli anni 90’ e intorno al 2001-2002,
per poi cadere nel 2004 al 10%; le medie sono sostanzialmente prossime allo
zero e le volatilità ha piccoli cambiamenti intorno al loro livello
incondizionato del 60%.
Infine per il cambio dollaro/Yen, l’intensità dei salti è abbastanza stabile
intorno al 20%, la media e statisticamente vicina allo zero e la volatilità è
elevata negli anni 91’-92’, e 98’-00’.
La variazione nel tempo dell’intensità e della volatilità sono molto importanti
come indicatori di rischio nell’asset pricing e molta letteratura finanziaria si è
basata su tali fattori.




                                    61
3.4 Rischi nei jumps e credit spreads


La diretta identificazione dei jumps realizzati e la variazione nel tempo della
loro distribuzione rende più semplice analizzare la relazione tra questi e i
rischi connessi alla loro individuazione, infatti delle stime non accurate (della
dinamica jump sottostante) renderebbero difficoltoso quantificare il premio al
rischio.
Ad ogni modo, una stima accurata della volatilità jump del mercato azionario,
basato sull’identificazione dei jumps realizzati può avere un potere previsivo
maggiore per il premio di rischio del mercato dei bond.
In questa sezione verranno esaminate le previsioni mensili per i bond spreads
AAA e BAA di Moody, utilizzando le stime della jump volatility dell’S&P
500 derivante dai jumps realizzati come illustrato precedentemente.
Gli autori in questo caso utilizzano una misura alternativa di rischio jump,
basata sull’identificazione dei jump realizzati al contrario dei jumps impliciti
o latenti, per fornire delle evidenze di contrasto nello studio dei credit
spreads.
Saranno inclusi nella regressione alcuni indicatori previsivi come il tasso a
breve, la volatilità storica di lungo periodo, la volatilità realizzata di breve
periodo e la volatilità implicita delle opzioni.
In generale un incremento dei tassi a breve coincide con una fase di
espansione economica e una diminuzione dei credit spreads, mentre una
caduta della term spread indica un rischio di alta inflazione e un incremento
dei credit spreads.
La tabella 5 presenta una regressione univariata di previsione per gli indici
mensili dei bond spreads di Moody di classe AAA e BAA.




                                    62
I coefficienti degli OLS 26 per le due classi di rating presentano delle notevoli
similarità. Per essere più precisi e per chiarire determinati concetti, un
incremento dell’1% per il tasso a breve porta ad un decremento dei credit
spreads di circa 20-21 punti base; uno shock positivo della term spread porta
ad un innalzamento del premio di default di 21-26 punti base.
Il tasso a breve predice la variazione degli spreads con una percentuale del
59% (per gli AAA) e del 47% (per i BAA), mentre la term spread predice solo
al 18% e al 20%, la volatilità di breve periodo (1 mese) ha un R 2 intorno al
26%-28%, mentre la volatilità di lungo periodo (2 anni) ha un più elevato R 2
circa del 27%-29%.
Vale la pena sottolineare che la volatilità implicita delle opzioni ( indice VIX)
ha un potere predittivo minore pari al 14%-20%.
In confronto, la jump volatility dell’S&P 500 non solo ha un impatto
maggiore sui credit spreads ( un incremento dell’1% porta ad un aumento
degli spreads di circa 175-216 punti base), ma soprattutto il maggiore potere
predittivo (con un R2 del 62% per la classe AAA e 66% per i BAA).




26
   Il metodo dei minimi quadrati (in inglese OLS: Ordinary Least Squares) è una tecnica di ottimizzazione
che permette di trovare una funzione che si avvicini il più possibile ad un'interpolazione di un insieme di dati
(tipicamente punti del piano). In particolare la funzione trovata deve essere quella che minimizza la somma
dei quadrati delle distanze dai punti dati. Questo metodo va distinto da quelli per l'interpolazione dove si
richiede che la funzione calcolata passi esattamente per i punti dati.

                                                 63
Tab. 5 Credit Spreads con tassi di interesse e fattori di volatilità




27




Nella tabella 6 rappresenta le regressioni multiple per la previsione dei bond
spread.
Intuitivamente, quando l’economia è in espansione, il tasso a breve e la term
spread tendono ad aumentare e le condizioni di default del credito migliorano.
È interessante notare che combinando le volatilità a breve e lungo termine, vi
è un miglioramento marginale nella predittività, ma quella a lungo termine
sembrerebbe fuorviante.
La combinazione più interessante risulta essere quella rappresentata dalla
volatilità implicita delle opzioni e la jump volatility, dove la prima è
particolarmente inferiore della seconda.
Tuttavia, la migliore combinazione multivariata sembra essere quella con i
due fattori di interesse e i due fattori di volatilità (implicita e jump), dove R 2 è
circa 80%.


27
     Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H.
                                                                64
Tab.6 Previsione multivariata dei credit spreads.




28




La stretta relazione tra il premio per il rischio di credito e la jump volatility
del mercato, è possibile osservarla chiaramente nella figura 7. Sebbene i
credit spreads mensili risultano molto “noisy”, si rilevano nel periodo 1988-
2005 determinati trend di lungo periodo e cicli di breve.
La jump volatility permette non solo di tracciare attentamente questi cicli e
trend nel tempo, ma si evidenzia inoltre la capacità di catturare i rischi
macroeconomici e finanziari di lungo periodo.




28
     Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H.
                                                    65
Fig 7 Bond spread e la volatilità jump di mercato. I grafici rappresentano gli indici mensili Moody dei credit spread AAA e BAA con
la volatilità jump stimata per l’indice S&P 500. Queste serie sono standardizzate con media 0 e varianza 1.




                                                                                                                           29


Per apprezzare ulteriormente le ragioni alla base delle quali vi è la forte
capacità previsiva della volatilità jump di mercato, la figura 8 nel riquadro
superiore rappresenta la relazione tra quest’ultima e il Price-Dividend ratio
dell’S&P 500 che registra chiaramente un lieve incremento alla fine degli
anni 90’ e una caduta dal 2000. La correlazione tra i due fattori presi in
considerazione è molto alta pari al 67%. Nel riquadro inferiore della figura 8
la volatilità jumps è messa in relazione con il recente indice di liquidità del
mercato “Pàstor e Stambaugh”. Quest’ultimo sembra catturare al meglio le
fluttuazioni di breve periodo nel mercato equity e la sua correlazione con la
jump volatilità è del 26%. In altre parole la jump volatility sembra catturare
meglio i rischi macroeconomici di lungo periodo piuttosto che i rischi di
mercato di breve periodo.

29
     Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H.
                                                         66
Fig 8 Jump volatility e rischi finanziari e macroeconomici. La figura rappresenta le serie mensili del price-dividend ratio per l’indice
S&P 500, l’indice di liquidità del mercato Pastor-Stambaugh e la stima della volatilità jump. Le serie sono standardizzate con media 0 e
varianza 1.




30




È ben noto che i movimenti dei credit spreads siano guidati dalle sottostanti
variazioni delle probabilità di default attese future e dal LGD ( loss-given-
default o tasso di recupero), sebbene il loro diretto contributo è piuttosto
debole empiricamente. Tuttavia, la jump volatility di marcato sembra predire
al meglio i movimenti dei credit spreads ed inoltre consente di tracciare la
probabilità di default storica bene di altri parametri (fig. 9 riquadro superiore).
Infatti la correlazione tra la jump volatility e il tasso di default in un orizzonte
temporale trimestrale è alta al 65%, mentre quella con il tasso di perdita è
solo del 11% (fig 9 riquadro inferiore).

30
     Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H.
                                                           67
Fig 9 Rischio di credito e jump volatility. Questi grafici rappresentano le serie trimestrali dei tassi di default e di perdita per il settore
corporate e la jump volatilità dell’indice S&P 500.Le serie sono standardizzate con media 0 e varianza 1




                                                                                                                                       31




Gli autori inoltre ricollegano i risultati ottenuti nel loro lavoro sperimentale
con la ricerca parallela di Zhang et al. (2006), che hanno applicato la strategia
di identificazione dei salti a singole imprese, e hanno ottenuto importanti
risultati. Con l’utilizzo dei jumps realizzati (intensità, media e volatilità) a
livello dei rendimenti della singola impresa è stato possibile verificare la forte
capacità esplicativa per i CDS (credit default swap). In particolare con il solo
utilizzo del jump-risk è stato possbile predire circa il 19% delle variazioni dei
CDS spreads.



31
     Fonte “Realized jumps in financial markets and predicting credit spreads” di Tauchen,G. e Zhou, H.


                                                              68
3.5 Osservazioni riassuntive sull’analisi


L’identificazione dei salti dai processi diffusivi è stata sempre una sfida per il
pricing degli strumenti finanziari e per le stime dei processi jump-diffusion.
Partendo dal framework della jump-detection di Barndoff-Nielsen e Shephard
e dai lavori di Anderesen et al.(2002-2006), basati sulla separazione tra
realized variance e bipower variation, gli autori (Tauchen e Zhou) hanno
esteso la metodologia di filtraggio dei jumps realizzati, sotto due assunzioni
chiave tipicamente adottate nell’economia finanziaria: 1) i salti sono rari e si
verificano al massimo uno al giorno; 2) i salti sono grandi e influenzano in
modo predominante i rendimenti quando si verificano.
La parte sperimentale Monte Carlo sotto condizione realistiche e impostazioni
empiriche appropriate suggerisce che stime accurate e un’inferenza corretta
possono essere ottenute attraverso una scelta appropriata di un livello di
significatività della jump-detection.
La tecnica di individuazione dei jumps è stato applicato quindi ai tre
principali mercati finanziari : l’indice S&P 500, bond del tesoro statunitense,
e il cambio dollaro/yen.
Dall’analisi gli autori hanno rilevato una intensità dei jumps che varia dal
13% al 20%, mentre le medie stimate sono vicine allo zero eccetto per l’S&P
500 guidato da una risalita alla fine degli anni 90’.
Le volatilità dei salti invece assumono valori pari allo 0.39% per il mercato
dei cambi, lo 0.53% per il mercato azionario e 0.65% per l’obbligazionario.
Le stime “rolling” (medie mobili) rivelano che le probabilità jump sono
abbastanza variabili per il mercato equity e per i T-bond (dal 5% al 25%), ma
relativamente stabile per i cambi (20%).




                                    69
La jump volatility è variata lievemente per i bond governativi ad eccezione
del periodo 92’-94’, mentre è stata molto elevata per il mercato azionario dal
2000 al 2004 e moderata per i cambi all’inizio dei 90’ e alla fine.
La diretta conoscenza e rilevazione dei jumps realizzati e la stima della loro
distribuzione ha importanti implicazioni nella valutazione dei rischi di
mercato e finanziari.
Nel caso specifico dell’analisi degli autori, sono stati presi in esame gli indici
mensili dei credit spreads Moody con differente rating AAA e BAA, e si è
individuata nella misura della realized jump volatility il potente potere
previsivo rispetto agli usuali variabili utilizzate per tali previsioni come i
fattori di interesse quelli di volatilità e la volatilità implicita nelle opzioni. È
stato possibile a quel punto dimostrare che la volatilità jump di mercato
presenta un’alta correlazione con il price-dividend ratio e con il tasso
corporate default rispettivamente del 67% e del 65%. Il fatto che la volatilità
jump possa catturare al meglio la bassa frequenza dei movimenti dei credit
spreads ha delle importanti implicazioni nell’asset pricing per i rischi di
lungo periodo.




                                     70
                                      CAPITOLO 4
     APPLICAZIONE AI MERCATI FINANZIARI


4.1 I dati e analisi descrittiva


In questa sezione ho proseguito l’analisi effettuata da Tauchen &
Zhou32riguardante l’identificazione dei jumps nei mercati finanziari,
analizzando delle serie storiche relative a segmenti del mercato differenti, e
approfondendo il potere predittivo che queste variabili presentano nella
dinamica dei credit spreads.
Il periodo di analisi di riferimento                       copre un orizzonte temporale
particolarmente delicato dal punto di vista economico finanziario e sociale
coincidente con l’ultima crisi mondiale dal novembre 2008 al febbraio 2011.
Partendo dalla serie storica dell’S&P50033 (indice azionario statunitense) , si
sono raccolti i dati giornalieri relativi ai prezzi di chiusura del mercato
borsistico, differentemente a quanto eseguito dagli autori nel precedente
capitolo, che hanno adottato un’analisi basata principalmente su dati ad alta
frequenza (infragiornalieri) e             sull’utilizzo della Bipower Variation                  per
l’identificazione dei jumps.
Per la definizione del salto nella serie storica di riferimento è stato utilizzata
la tecnica Mancini-Renò34 e l’algoritmo per la programmazione in MATLAB
Corsi,Pirino,Renò35 2009 che sarà presentato in seguito.

32
   Realized jumps on financial markets and predicting credit spreads
33
   L'indice S&P 500 è stato realizzato da Standard & Poor's nel 1957 e segue l’andamento di un paniere
azionario formato dalle 500 aziende statunitensi a maggiore capitalizzazione.
Fanno parte di questo basket le azioni di grandi aziende contrattate al New York Stock Exchange (Nyse),
all’American Stock Exchange (Amex) e al Nasdaq.
Il peso attribuito a ciascuna azienda è direttamente proporzionale al valore di mercato della stessa.
Questo indice è il più usato per misurare l'andamento del mercato azionario USA ed è ormai riconosciuto
come benchmark per le performance di portafoglio .
34
   Threshold estimation of jump-diffusion models and interest rate modeling 2006
35
   Threshold bipower variation and the impact of Jumps on volatility forecasting 2009
                                             71
Una prima analisi grafica (figura 1) dell’indice azionario relativo ai prezzi,
mostra un andamento nettamente decrescente nel periodo iniziale coincidente
con l’inizio della crisi finanziaria per poi risalire nei mesi successivi e toccare
un picco proprio nel febbraio 2011.



        1400
                                                                          Sp500
        1300


        1200


        1100


        1000


         900


         800


         700


         600
               0     100         200          300       400         500        600



Figura 1 : Andamento dell’indice S&P 500 dal novembre 2008 al febbraio 2011 con dati a cadenza
giornaliera.



Si hanno quindi a disposizione 569 osservazioni a cadenza giornaliera .
L’analisi dei prezzi presenta delle peculiarità statistiche quali la stazionarietà,
infatti per ottenere dei risultati più fini da un punto di vista statistico è
preferibile lavorare con dati costituiti dai log-rendimenti della serie in
questione.
La distribuzione di frequenza dei rendimenti dell’S&P 500 raffigurata qui di
seguito (figura 2) permette di evidenziare delle peculiarità fondamentali nello
studio dei mercati finanziari.

                                         72
      Figura 2 Rendimenti logaritmici del S&P 500.


     0.08
                                                                             rendimenti
     0.06

     0.04

     0.02

        0

     -0.02

     -0.04

     -0.06

     -0.08

      -0.1
             0           100         200            300          400       500            600



Per quanto riguarda un’analisi descrittiva più dettagliata la seguente figura
mostra un istogramma dei rendimenti con le principali misure sintetiche della
distribuzione dei rendimenti.

      160


      140


      120


      100


      80


      60


      40


      20


        0
       -0.1      -0.08    -0.06   -0.04    -0.02     0    0.02     0.04   0.06   0.08




                                               73
                  Mean                  5,4691e-04
                  Std dev               0,0170
                  Skewness              -0,3586
                  Kurtosis              7,1524
                  Max                   0,0684
                  Min                   -0,0935
                  Median                0,0012




Dall’analisi     della   serie,   evidenziando   gli   indici   che   misurano
l’allontanamento dalla distribuzione normale si può rilevare un valore di
skewness o asimmetria negativo pari allo -0,3586.
Dalla letteratura finanziaria, si evince infatti che le variazioni di prezzo e,
conseguentemente, i rendimenti delle attività finanziarie sono generalmente
distribuite in modo non perfettamente simmetrico, nel senso che si possono
riscontrare più osservazioni all’estremo sinistro (valori fortemente inferiori
alla media) della distribuzione che non all’estremo destro. Tale fenomeno
riscontrabile anche in questo caso prende il nome di asimmetria negativa.
Per ciò che riguarda la curtosi della distribuzione, le evidenze empiriche dei
rendimenti in generale presentano delle code più spesse (fat tail) di quelle
proprie di una distribuzione normale. La probabilità che si verifichino
variazioni di prezzo lontane dal valore medio è dunque più elevata di quella
implicita in una distribuzione normale. Tale caratteristica prende il nome di
leptocurtosi e come atteso nel nostro caso assume un valore maggiore di 3
pari a 7,1524.




                                   74
   4.2 Tecnica di identificazione dei Jumps


   E’ opportuno riprendere il concetto di Threshold estimation affrontato nel
   capitolo 2 riferito alla tecnica Mancini - Renò del 2006 per la descrizione
   della parte empirica.
   Il focus di tale metodo si basa essenzialmente sulla possibilità di individuare
   uno stimatore non parametrico di ζ2(.) nel caso di J come processo ad attività
   finite.
   Il modello è infatti:
                                                      1,t                              (88)
   Dove Yt =                                      è la parte diffusiva continua, e :

                                        1,t   =       k                                (89)
   parte discontinua per i salti.
   L’obiettivo pertanto consiste nello scomporre dalle osservazioni discrete di X,
   il contributo dato dai salti e quello dato dalla componente diffusiva.
   Dal contributo dei lavori di Mancini (2004,2007),                    Jacod (2006) e
   recentemente analizzato da Corsi, Pirino, Renò (2009) è stato introdotto un
   nuovo stimatore della volatilità integrata basato sulla proprietà del moto
   Browniano stabilito da Lèvy: il “Threshold Estimator”.
   È necessario introdurre delle definizioni specifiche antecedentemente al
   framework di tali stimatori :
 Una funzione r(x) è chiamata modulo di continuità per la funzione f(x) se, per
   δ>o sufficientemente piccolo, |t-s| ≤ δ implica |f(t) – f(s)| < g(δ).
      La seguente funzione è quasi sicuramente modulo di continuità del moto

   Browniano:                                                    .                     (90)

   con la proprietà stabilita da Lévy

                                                                                       (91)


                                          75
Essa misura e definisce la velocità alla quale il moto Browniano si avvicina a
zero.
Possiamo utilizzare questa proprietà per decomporre le traiettorie Browniane
da quelle discontinue, utilizzando una funzione ausiliaria che svanisce più
lentamente del modulo di continuità del moto Browniano.
L’intuizione a riguardo, è la seguente: quando δ→0, le variazioni diffusive
vanno a zero, mentre ciò non accade nei jumps. Inoltre è noto il tasso al quale
le variazioni diffusive tendono a zero: il modulo di continuità.
Possiamo quindi identificare i salti come quelle variazioni che si presentano
più grandi di un determinato threshold ϑ (δ) che va a zero come δ→0, più
lentamente di r(δ).
Una funzione threshold ϑ (δ) è definita:

                                                                            (92)

Mancini (2004) ha inoltre introdotto un teorema secondo il quale per δ
sufficientemente      piccolo,     se      il   quadrato     degli     incrementi
        nell’intervallo [t,t+δ] è inferiore della funzione threshold         che
svanisce più lentamente del modulo di continuità Browniano, allora non ci
saranno jumps in tale intervallo, viceversa nel caso opposto.
Definiamo a questo punto la varianza realizzata threshold:

                       TRVδ(Xt)=                                            (93)

Utilizzando tale risultato, possiamo provare che per ogni threshold
TRV(X)t è uno stimatore consistente per δ→0, della volatilità integrata e
risulta robusto nel caso di infiniti jumps.
La power variation può a questo punto essere generalizzata con la seguente
definizione di Threshold power variation, per γ      :

                                                                            (94)



                                    76
Dalla combinazione della multipower variation di Barndoff-Nielsen,
Shephard (2006) e il threshold di Mancini (2009), è stato introdotto nel corso
da Corsi, Pirino, Renò (2009) il concetto di “threshold multipower variation”.




                                                                               (95)


Osservando empiricamente attraverso simulazioni che la bipower variation
sia uno stimatore non efficiente in un campione finito, e porta a una
sottostima della componente dei salti, gli autori hanno dimostrato con
simulazioni sui prezzi di asset che il threshold bipower variation sia quasi in
tutti i casi senza errori, anche in presenza di jumps.


4.3 Verifica empirica dei dati


A questo punto dell’analisi, una volta ottenuti gli output dall’algoritmo
Corsi,Pirino, Renò (2009) per il filtraggio dei jumps in una serie storica di
log-rendimenti (in questo caso dell’S&P 500 statunitense), è stato possibile
procedere e verificare l’impatto che i jumps in primis, e la volatilità
successivamente, hanno sulla dinamica dei credit spreads .
I dati relativi ai credit spreads sono riferiti ai tassi di interesse giornalieri
dell’indice “Moody’s AAA rate” e del “Moody’s BAA rate” per l’arco
temporale che va dal novembre 2008 al febbraio 2011.
Una volta calcolati il differenziale tra i due i due tassi riferiti a classi di rating
differente è stato possibile eseguire delle regressioni allo scopo di determinare
quanto l’andamento degli spreads sia dipendente e sia influenzato dalle
variabili prese in considerazione.
                                     77
Graficamente sono qui esposti gli output ottenuti dall’algoritmo riferito alla
serie dei jumps e alla volatilità dell’S&P 500.

        0.08
                                                                                Jumpseries

        0.06



        0.04



        0.02



           0



       -0.02



       -0.04
               0         100          200            300          400          500              600



Figura 3 Serie dei jumps dell’S&P 500 dal novembre 2008 al febbraio 2011, dati giornalieri.


        0.12
                                                                                          vol

         0.1



        0.08



        0.06



        0.04



        0.02



           0
               0         100          200            300          400          500              600


Figura 4 : Volatilità dell’S&P 500 dal novembre 2008 al febbraio 2011, dati giornalieri

                                                78
            3.5
                                                                                           spreads

              3



            2.5



              2



            1.5



              1



            0.5
                  0         100            200           300           400           500             600



Figura 5 : Credit spreads tra tassi di interesse giornalieri del Moody’s AAA e Moody’s BAA , dal 2008 al 2011


  Per ciò che riguarda gli spreads, l’andamento mostra dei livelli elevati nella
  fine del 2008 e inizio 2009, per poi decrescere repentinamente nel corso del
  2009, subire un lieve rialzo nel 2010 e stabilizzarsi a livelli comunque bassi
  rispetto al passato, nel 2011.
  Il modello di regressione lineare utilizzato nell’analisi di seguito esposto
  risulta strutturato dalla variabile dipendente costituita dagli spreads e la
  volatilità e i jumps come variabili indipendenti e regressori.
  Nello specifico il modello utilizzato assume la seguente definizione:


                                                                                                       (96)


  .



                                                 79
Da specificare è anche la presenza di una variabile dummy per i jumps che
assume valore 1 nel caso si verifichino e 0 in in caso contrario.
I risultati della regressione sono esposti nella seguente tabella.



                                    Coefficienti
Regressori                          Beta (β)                    Tstat                      Pvalue Tstat




Costante                            0,00192302                  7,50911535                         2,33E-13

 (s.e)                              (0,000256)

Volatilità                          0,33629142                  63,8818434                        6,22E-261

 (s.e)                              (0,005264)

Jump series                         0,00045402                  -0,3866463                    0,699163412

 (s.e)                              (0,001174)

R2                    0,8783
R2corretto            0,8779
Mse                   8,18E-06
Tab 1 Credit spreads con volatilità dell’S&P 500 e Jumps. La variabile dipendente della regressione è la serie
degli spreads Baa e Aaa dell’indice Moody. I regressori sono rappresentati da variabili quali la volatilità dal
2008 a inizio 2011 e la serie dei jumps nel periodo medesimo.




La tabella 1 presenta una regressione multipla per gli spreads Moody dal
novembre 2008 al febbraio 2011. I coefficienti OLS presentano dei dati di
rilievo riguardo alle variabili prese in considerazione.
Nello specifico, un incremento dell’1% della volatilità dell’indice azionario
comporta un incremento dei credit spreads di circa 34 punti base ed inoltre
presenta in base alla regressione effettuata un alto potere predittivo con un R 2
corretto pari all’88% e quindi una bontà del fitting elevata in termini varianza
spiegata.




                                                80
I risultati sulla significatività della variabile utilizzata inoltre, presentano un
ottimo pvalue della statistica t, con un valore molto basso rispetto ad un
livello di significatività ipotizzato del 99%.
Dalla letteratura e in particolare col lavoro empirico di Tauchen e Zhou s’è
evidenziato un impatto positivo dei jumps sul movimento degli spreads e
soprattutto un alto potere predittivo.
Da questa analisi invece, la variabile riferita ai salti presenta un segno
negativo. Ciò potrebbe portarci a concludere che i salti abbiano un impatto
negativo sull’andamento degli spreads, ma non è possibile accertare tale
circostanza visto che il pvalue di riferimento ha un valore molto elevato e
certamente non significativo dal punto di vista statistico.
La verifica empirica degli autori descritta nel capitolo 3 è sicuramente più fine
grazie all’utilizzo di dati ad alta frequenza e all’applicazione della tecnica
della bipower variation.
I dati di riferimento di questa applicazione invece , sono a cadenza
giornaliera, e quindi non confermano quanto visto nel capitolo 3 eccetto per
l’impatto della volatilità del mercato azionario che risulta piuttosto influente.
È di particolare rilievo infatti osservare come questi siano risultati e serie
storiche appartenenti a segmenti del mercato differenti come quello
obbligazionario (per i credit spreads) e azionario (per l’S&P 500) seguano una
dinamica molto simile e la capacità predittiva della volatilità risulta molto
elevata con un R2 corretto dell’88%. Il grafico sottostante mostra l’andamento
della variabile spreads e della volatilità nel periodo di analisi.




                                     81
       0.12
                                                                          spreads
                                                                          vol
        0.1



       0.08



       0.06



       0.04



       0.02



          0
              0      100         200         300         400        500             600



Fig. 6 Spreads e volatilità dell’indice S&P. Andamento storico delle due variabili dal novembre 2008 al
febbraio 2011.




                                             82
                              Conclusioni

Oggetto del suddetto lavoro è stato quello di poter verificare l’impatto che
determinate variabili presenti nel mercato, come i salti nei prezzi e la
volatilità del mercato azionario, hanno sull’andamento dei credit spreads.
Il premio per il rischio pagato ai propri creditori dalle imprese, ossia la
differenza o spread, fra il rendimento delle obbligazioni aziendali (corporate
bond) e quello dei titoli di Stato, costituisce una buona misura delle attese
che il mercato nutre circa il futuro della congiuntura economica.
Spreads ridotti esprimono fiducia nel futuro del ciclo economico, poiché
indicano che il mercato si attende condizioni economiche buone, tali da
mettere i debitori nella condizione di onorare i propri impegni.
Spreads molto elevati, soprattutto quando richiesti a emittenti di qualità
medio-alta, esprimono profonde perplessità circa il futuro della congiuntura,
che potrebbero riflettersi in maggiori rischi di bancarotta, i quali devono
perciò essere controbilanciati da rendimenti elevati.
Dall’analisi compiuta nel capitolo 4 infatti, si è riscontrato nel corso del 2009
il raggiungimento di un picco per lo spread fra i titoli corporate di media
qualità BAA Moody e i titoli di Stato statunitensi AAA che non era mai stato
raggiunto nell’ ultimo secolo, fatta eccezione per il picco registrato nel 1929.
Regredendo le variabili prese in considerazione per l’analisi, si è registrata
una forte dipendenza degli spreads rispetto alla volatilità dell’indice azionario
S&P 500, in cui una variazione dell’1% della volatilità porterebbe ad un
incremento di 34 punti base dello spread, con un potere predittivo molto
elevato pari ad un R2 corretto dell’88%.
Differentemente dal lavoro di Tauchen and Zhou in cui si riscontrava un forte
impatto della jump-volatility per gli spreads, in questa verifica empirica
l’impatto dei jump (con la jump-series) non ha un’influenza positiva, anzi
risulta dalla regressione una dipendenza con segno negativo.
                                   83
Questo potrebbe indurci a sostenere che i jump abbiano un impatto negativo,
ma dai dati relativi alla significatività statistica (pvalue = 0.6991), non è
possibile affermare questo, anche a causa dell’utilizzo di dati a cadenza
giornaliera rispetto ai dati ad alta frequenza degli autori. L’output riferito alla
relazione tra volatilità del comparto azionario e spread nell’ambito
obbligazionario, è di particolare rilievo poiché vede la convergenza di due
segmenti del mercato differenti.
Non è certamente semplice definire la causa di tale relazione; la prima
spiegazione logica potrebbe riferirsi al fatto che nel periodo di crisi 2008-
2011, accompagnato da alta volatilità (soprattutto nella fine 2008 e inizio
2009) vi è una corrispondenza con il picco toccato dallo spread nello stesso
periodo; ciò quindi conferma il collegamento tra spread elevato e aumento
delle perplessità sul futuro della congiuntura economica, e quindi un
incremento di incertezza e rischio, maggiore volatilità e stress sui mercati.




                                    84
                              Bibliografia

Ait-Sahalia, Yacine, 2004. Disentangling diffusion from jumps. Journal of
financial economics 74, 487-528.


Andersen, Torben, Bollerslev, Tim, Diebold, Francis X., Labys, Paul, 2003b.
Modeling and forecasting realized volatility. Econometrica 71, 579-625.


Andersen, Torben, Bollerslev, Tim, Frederiksen, Per Houmann, Nielsen,
Morten Orregard, 2006a. Continuous-time models, realized volatilities, and
testable distributional implications for daily stock returns. Working paper.
Kellogg School of Management, Northwestern University.


Barndoff-Nielsen, Ole, Shephard, Neil, 2002a. Econometric analysis of
realized volatility and its use in estimating stochastic volatility models.
Journal of Royal Statistical Society, Series B 64


Barndoff-Nielsen, Ole, Shephard, Neil, 2002b. Estimating quadratic variation
using realized variance. Journal of Applied econometrics 17, 457-478.


Barndoff-Nielsen, Ole, Shephard, Neil, 2004. Power and bipower variation
with stochastic volatility and jumps. Journal of Financial Econometrics 2, 1-
48.


Barndoff-Nielsen, Ole, Shephard, Neil, 2006. Econometrics of testing for
jumps in financial economics using bipower variation. Journal of Financial
Econometrics 4, 1-30.



                                   85
Barndoff-Nielsen, Graversen, Jacod, Podolskij, Shephard, 2000. A central
limit theorem of realized power and bipower variations of continuous
semimartingales. Stochastic calculus to mathematical finance, 33-68.


Barndoff-Nielsen,O.E. and Shephard 2007. Variation, jumps, market frictions
and high frequency data in financial econometrics. In Advance in Economics
and Econometrics. Theory and Applications, Ninth World Congress, pp.328-
372. Cambridge University Press.


Bertoin, Jean, 1996. Lévy processes. Cambridge University Press,
Cambridge.


Bollerslev, 1986 Generalized autoregressive conditional heteroskedasticity .
Journal of Econometrics 31, 307-327.


Bollerslev, Tim, Law, Tzou Hann, Tauchen, George, 2007. Risk, jumps, and
diversification. Working paper. Department of Economics, Duke University.


Corsi, Pirino, Renò 2009. Threshold Bipower Variation and the impact of
jumps on Volatility Forecasting. Journal of Econometrics 159, 276-288.


Christoffersen, P. and F.X. Diebold 2000. How relevant is volatility
forecasting for financial risk management? Review of Economics and
Statistics 82, 1-11


Cont, R. and P. Tankov 2004. Financial Modelling with jump processes.
Chapman & Hall.




                                   86
Duffie, Darrell, Pan, Jun, Singleton, Kenneth, 2000. Transform analysis and
asset pricing for affine jump-diffusions. Econometrica 68, 1343-1376.


Eraker, Bjorn, Johannes, Michael, Polson, Nicholas, 2003. The impact of
jumps in equity index volatility and returns. Journal of Finance 53, 1269-
1300.


Fama, Eugene, French, Kenneth, 1993. Common risk factors in the returns on
stocks and bonds. Journal of Financial Economics 33, 3-56.


Hull, 2009. Options, Futures and other Derivatives.


Hull, 2009 Risk management and Financial Institutions.


Huang, Xin, Tauchen, George, 2005. The relative contribution of jumps to the
total price variance. Journal of Financial Econometrics 3, 456-499


Lee, Suzanne S., Mykland, Per A., 2006. Jumps in real-time financial
markets: a new nonparametric test and jump dynamics. Review of Financial
Studies.


Mancini, Renò 2010. Threshold Estimation of jump-diffusion models and
interest rate modeling. Journal of Econometrics, 1-43.


Meddahi, Nour, 2002. Theoretical comparison between integrated and
realized volatility. Journal of Financial Economics 17, 479-508.


Merton, 1976. Option pricing when underlying stock returns are
discontinuous. Journal of Financial Econometrics 3, 125-144.

                                  87
Renò, 2007. Nonparametric volatility estimation in jump-diffusion models.
Joint Research Centre European Commission 1-58.


Renò, 2010 Lecture notes Financial Modeling II. University of Siena.


Shreve, 1997. Stochastic calculus and finance, chapter 11 Jump Processes.


Tauchen, Zhou, 2010. Realized Jumps in financial markets and predicting
credit spreads. Journal of Econometrics, 1-17.


Zhou, Chunseng, 2001. The term structure of credit spreads with jump risk.
Journal of Banking and Finance 25, 2015-2040.




                                  88
                      Sitografia


www.bloomberg.com


www.cboe.com


www.cnbc.com


www.ecb.int


www.economagic.com


www.standardandpoors.com




                           89
                               Ringraziamenti


Un ignaro lettore potrebbe pensare che, dopo aver scritto una tesi
(indipendentemente     dalla   sua    qualità),   redigere   una   paginetta   di
ringraziamenti sia qualcosa di semplice e immediato e, sinceramente, anch’io
lo pensavo. Bene mi sbagliavo. Quelle poche persone che prenderanno in
mano questo tomo, infatti, quasi sicuramente finiranno a leggere queste
righe; non chissà per quale motivo, ma perché sono le uniche cose
comprensibili a chi non ha frequentato il mio corso di laurea.
E’ doveroso pertanto, porre i miei più sentiti ringraziamenti alle persone che
ho avuto modo di conoscere in questo importante periodo della mia vita e che
mi hanno aiutato a crescere dal punto di vista umano e intellettuale.
E’ difficile in poche righe ricordare tutte le persone che, a vario titolo, hanno
contribuito a rendere migliore questo periodo.
Un ringraziamento sentito per la guida competente e solerte va al Prof.
Roberto Renò, per la sua chiarezza e conoscenza nel campo della Finanza,
pronto a consigliarmi e a fugare ogni mio dubbio in questo periodo di lavoro.
Un ringraziamento al Prof. Claudio Pacati per la sua disponibilità nella
stesura dell’elaborato e nelle indicazioni specifiche fornite.
Dopo i doverosi ringraziamenti istituzionali, un grazie ai miei genitori e alle
mie sorelle per il sostegno morale e il supporto fornito in questi 5 anni da
fuorisede, e a loro che dedico principalmente questo traguardo raggiunto.
Ringrazio tutti, ma veramente tutti, gli amici e amiche incontrati qui a Siena
in questi anni (siete veramente tanti da potervi elencare tutti), sarà dura
rinunciare a voi in futuro ve lo assicuro!!! ( a buon intenditor…)
Vorrei ringraziare inoltre, lo sponsor del mio percorso universitario, ossia
“Ristoratore il Sasso”(in parte è anche merito loro), ai boss (Marco e
Camilla) e a tutti i dipendenti che si sono avvicendati in questi anni.

                                     90
Un grazie sentito agli abitanti di casa Ricasoli con i quali ho trascorso
momenti eccezionali e divertenti in questi anni.
Concludo questa carrellata col ringraziare una persona che non potrà
leggere queste righe, ma che è stata di fondamentale importanza nel mio
percorso di vita e a cui ero molto legato fin da piccolo: grazie nonna.
Spero di aver incluso in una sola paginetta tutto quel che è stato vivere per
qualche anno in quel di Siena.
Per quel che riguarda il mio futuro potrei dire che ora inizia la parte
difficile… comunque si vedrà…
GRAZIE A TUTTI!!!




                                   91

				
DOCUMENT INFO
Shared By:
Stats:
views:356
posted:11/7/2011
language:Italian
pages:91
Description: Credit spreads, crash di mercato e volatilità.