Introduction to Time Series Analysis

Document Sample
Introduction to Time Series Analysis Powered By Docstoc
					          Introducción:
Características básicas de los datos
 económicos de series temporales
                  Breve Repaso de Tª de la Probabilidad
•   Espacio Muestral:     Ω  {}     , el conjunto de posibles resultados de un experimento aleatorio


•   Resultado:             , un elemento del Espacio Muestral


•   Suceso:      E   , un subconjunto del Espacio Muestral
•   Algebra:   F  E : E  } , colección de sucesos que nos interesa estudiar

•   Variable Aletoria:     Z: S ,          una función del Espacio Muestral al conjunto de estados S


•   Conjunto de Estados: S, el espacio que contiene todos los posibles valores de una variable aleatoria.
    Las elecciones mas comunes son los numeros naturales N, los reales R, vectores de dimension k Rk,
    los reales positivos R+, etc


•   Probabilidad:    P : F  [0,1]


•   Distribución:        : B  [0,1], dondeB  {A : A  R} es un Borel Set (conjunto
    de la recta real que puede expresarse como uniones o interseccion de intervalos)
                                   Breve Repaso (cont)
•Vector de Variables Aleatorias: Z= (Z1, Z2 , ..., Zk) es un vector de dimensión k donde cada
componente es una variable aleatoria
•Sucesión de Variables Aleatorias: Z= (Z1, Z2 , ..., Zn) es una sucesion de n variables aleatorias


Si interpretamos t=1, ..., n como momentos equidistantes en el tiempo, Zt puede interpretarse como el
resultado de un experimento aleatorio en el momento de tiempo t . Por ejemplo la sucesión de
variables aleatorias podria ser los precios de las acciones de Toyota Zt en n dias sucesivos.
Un aspecto NUEVO, comparado con la situación de una sola variable aleatoria, es que ahora podemos
hablar de la estructura de DEPENDENCIA dentro del vector de variables aleatorias.


•Función de Distribución FZ de Z : Es la colección de probabilidades


                         FZ (z)  P(Z1  z1,...,Z n  z n )
                                 P({ : Z1()  z1,...,Z n ()  z n })
                    Procesos Estocásticos


Supongamos que el tipo de cambio €/$ en cada instante fijo de
tiempo t entre las 5p.m y las 6p.m. de esta tarde es aleatorio.
Entonces podemos interpretarlo como una realización Zt() de la
variable aleatoria Zt. . Observamos Zt(), 5<t<6. Si quisieramos
hacer una predicción a las 6 p.m. sobre el tipo de cambio Z7() a
las 7 p.m. es razonable considerar TODA la evolución de Zt()
entre las 5 y las 6 p.m. El modelo matematico que describe esta
evolución se le llama proceso estocástico.
                     Procesos Estocásticos (cont)
  Un proceso estocástico es una colección-sucesión de variables aleatorias
  indexadas por el tiempo    ( Z t , t  T)  ( Z t (), t  T,   )
  Definidas en un espacio muestral .
     Supongamos que
     (1) Fijamos t          Z t ( ),    Zt :   R   Esto es una variable aleatoria.

     (2) Fijamos            Z : T  R     Es una realización o trayectoria del
                                            Proceso estocástico.
       Cambianos el indice temporal podemos generar varias variables aleatorias:

                        Z t1 ( ), Z t2 ( ),....... Z tn ( )
                                         1t   2t        nt
         Una realización es:            z ...., z , z
La colección-sucesión de variables aleatorias se le llama PROCESO ESTOCATISCO

 Una realización del proceso estocástico se le llama SERIE TEMPORAL
                  Ejemplos de procesos estocásticos

E1: Sea el conjunto indice T={1, 2, 3} y sea el espacio muestral () el formado por los
resultados de lanzar un dado:
                                  1, 2, 3, ,4 ,5, 6}
Define
                             Z(t, )= t + [valor del dado]2 t
Entonces para un  particular, digamos 3={3}, la realización o trayectoria es (10, 20,
30).
Q1: Dibuja todas las realizaciones de este proceso estocástico.
E2: Un Movimiento Browniano B=(Bt, t [0, infty]):
     • Comienza en cero: Bo=0
     • Tiene incrementos independientes y estacionarios
     • Para cada t>0, Bt sigue una distribución N(0, t)
     • Tiene trayectorias continuas: “no saltos”.
             Distribución de un Proceso Estocástico
En analogía con las variables aleatorias queremos introducir caracteristicas no aletorias
de los procesos estocásticos tales como su distribución, su esperanza, etc, y describir su
estructura de dependencia. Esta es una tarea mucho más complicada que en el caso de
vectores de variables aleatorias. De hecho un proceso estocástico no-trivial Z=(Zt, t  T)
con un conjunto indice T es un objeto de dimension infinita en el sentido de que se
puede entender como una colección infinita de variables aleatorias Zt, t  T. Ya que los
valores de Z son funciones en T, la distribucón de Z deberia ser definida sobre
subconjuntos de un cierto “espacio de funciones”, i.e.
                                     P(X  A), A  F,
Donde F es una colección apropiada de subconjunto de este espacio de funciones. Este
enfoque es posible, pero requiere matematicas muy avanzadas. En este curso
intentaremos algo mucho mas simple.

 Las distribuciones finito-dimensionales (fidis) de un proceso estocástico Z son las
 distribuciones de los vectores finito dimensionales
                                 (Zt1,..., Ztn),   t1, ..., tn T,
 para todas las posibles elecciones de t1, ..., tn  T y para cada n  1.
            Necesitamos hacer dos supuestos:

Al igual que en la Econometría básica trabajábamos con dos
los supuestos de i.i.d. (idénticamente distribuido e
independiente), en la Econometría de Series Temporales nos
hace faltan dos supuestos equivalentes:
• Estacionariedad (substituye al supuesto de identicamente
distribuido)
• Ergodicidad (substituye al supuesto de independencia)
                                      Estacionareidad
Considera la probabilidad conjunta de un conjunto de variables
aleatorias
F ( zt1 , zt2 ,..... ztn )  P ( Z t1  zt1 , Z t2  zt2 ,... Z tn  ztn )

 Proceso estacionario de 1st orden si
                      F ( zt1 )  F ( zt1  k )     para todo t1 , k
 Proceso estacionario de 2nd orden si
         F ( zt1 , zt2 )  F ( zt1 k , zt2  k ) para todo t1 , t2 , k

 Proceso estacionario de orden n si
      F ( zt1 ..... ztn )  F ( zt1  k ..... ztn  k )   para todo t1 , tn , k

 Definición.
 Un proceso es estrictamente (o en sentido fuerte) estacionario si es
 estacionario de orden n para cada n.
                                  Momentos



E( Z t )   t 
                        Z t f (z t )dz t

                2  E( Z   ) 2 
Var ( Z t )   t       t   t
                                                (Z t   t ) 2 f (z )dz
                                                                    t    t

Cov( Z t 1 , Z t 2 )  E[(Z t 1   t 1 )(Z t 2   t 2 )]
                  cov(Z t 1 , Z t 2 )
( t1 , t 2 ) 
                       2     2
                        t1     t2
                        Momentos (cont) t                 
Para procesos estrictamente
estacionarios:
                                                       
                                                       2
                                                       t
                                                                2

porque
                 F ( zt1 )  F ( zt1 k )  t1  t1 k  
 asumiendo que         E( Zt )   y E(Zt2 )  

      F ( zt1 , zt 2 )  F ( zt1  k , zt 2  k ) 
      cov(zt1 , zt 2 )  cov(zt1  k , zt 2  k )   k


 La correlación entre dos variables aleatorias depende SOLAMENTE
 de su diferencia temporal.
                    Estacionareidad debil
Un proceso se dice que es estacionarioDébil de orden n si todos sus
momentos conjuntos de orden n existen y son invariantes en el
tiempo.


Procesos Estacionarios en Covarianzas (de 2nd orden):
• Esperanza constante
• Varianza constante
• La función de covarianza depende solo de la diferencia
 temporal entre las variables

Estacionariedad Fuerte:
                F (Yt , Yt 1 , Yt  2 ,....)  F (Yt  j , Yt  j 1 , Yt  j  2 ,.....)
                        Ergodicidad

Un proceso estacionario en covarianzas es ergodico en la media
si


                   p lim z  E(Zt )  


Una condición suficiente para ergodicidad en la media es


  k  0                cuando k  
          Ergodicidad para los segundos momentos

Una condición suficiente para ergodicidad en los segundos
momentos
                    
                     k
                           k   


                  Ergodicidad bajo Gausanidad

 Si   Z t }   es un proceso gausiano estacionario,   
                                                      k
                                                           k   


  es una condición suficiente para asegurar ergodicidad en todos
 los momentos
 Funciones de Autocovarianza y de Autocorrelación

Para un proceso estacionario en covarianzas:
 E ( Zt )  
 Var( Z t )   2
 Cov( Z t , Z s )   s t
             cov(Z t , Z t k )   k k
 k                              2 
           var(Z t ) var(Z t k )     0
                 k : función de autocovarianza
                             :k  R
            k : función de autocorrelación (ACF)
                          : k  [ 1,1]
           Propiedades de la función de autocorrelación



1.  0  var( Z t ) entonces
 Si                                        0  1

 Como  k es un coeficiente de correlación,
2.
 k  1   k   0
3.          k
       k


   k   k
  ya que  k  E ( Z t k   )(Z ( t k )k   ) 
   E ( Z t k   )(Z t   )   k
      Funcion de Autocorrelación Parcial (o correlación
                       condicional)
Esta función mide la correlación entre dos variable separadas k periodos
 cuando la dependencia lineal en el medio de esos periodos
(entre t y t+k ) es eliminada.
   Sean Zt y Zt k dos variables aleatorias ,
  la PACF viene dada por  ( Zt , Zt k | Zt 1 ,...... t k 1 )
                                                      Z
 Motivación             Piensa en el modelo de regresión lineal
                        (asume E(Z)=0 sin perdida de generalidad)
       Z t  k  k 1Z t  k 1  k 2 Z t  k 2 ...... kk Z t  et  k
       donde et  k esta incorrleacionada con Z t  k  j                               j 1
       (1) multiplica por Z t  k  j
       Z t  k  j Z t  k  k 1Z t  k 1Z t  k  j  k 2 Z t  k 2 Z t  k  j ...... kk Z t Z t  k  j  et  k Z t  k  j
       ( 2) toma esperanzas
        j  k 1 j 1  k 2 j 2 ...... kk j k
Dividiendo por la varianza del proceso:
          j  k 1  j 1  k 2  j 2 ......  kk  j k
j  1,2,...k
         1  k 1 0  ....... kk  k 1
                                                  Ecuaciones de
          2  k 1 1  ....... kk  k 2      Yule-Walker
         
          k  k 1  k 1  ....... kk 0
  k 1         1  11  0  11  1
                                                    1      1
  k 2         1  21  0  22 1                 1     2             1    1  1
                                          22 
                2  21 1  22  0                      1
                                                     1                     1    1 2
                                                      1    1
                                                                           2   1  3
  k 3         1  31  0  32 1  33  2                    33 
                                                                           1    1  2
                2  31 1  32  0  33 1
                3  31  2  32 1  33  0                            1    1 1
                                                                           2   1 1
               Ejemplos de Procesos Estocásticos

                 Yt           si t es par

E4:     Zt=
                  Yt+1        si t es impar

 donde Yt es una serie estacionaria. Es Zt estacionaria debil?

E5: Defina el proceso
                        St = X1+ ... + Xn ,

donde Xi es iid (0, 2). Muestra que para h>0

                      Cov (St+h, St) = t 2,

y por lo tanto St no es estacionario debil.
                Ejemplos de Procesos Estocásticos (cont)

E6: Procesos RUIDO BLANCO
Una secuencia de variables
       at }:    E (at )  a     (normalmente a  0)
                 Var(at )   a
                              2


                 Cov(at , at  k )  0 para k  0
                          ación
Autocovarianza y autocorrel
      a k  0
        2
k  
     0 k  0
                                      k
     1 k  0
k  
     0 k  0                              ....
      1 k  0
                                           1   2   3   4   k

kk  
      0 k  0
Como vamos a estimar los momentos poblaciones de las
               series temporales????




Utilizaremos el metodo de analogia tan usado en
Econometria I:
    •Momentos poblaciones se estiman via momentos
    muestrales.
    •Asumiendo estacionareidad y ergodicidad estos
    estimadores seran consistentes.
                       Donde Estamos?

Considera el Problema de la Prediccion como motivación:
Predecir Zt+1 dado el conjunto de información It en el tiempo t.
                                2
              Min E [ Z t 1  Z t 1 ]
                             
              Solución : Z t 1  E [ Z t 1 | I t ]
La esperanza condicional puede ser modelada en una forma
parametrica o en una forma no-parametrica. En este curso
elegiremos la primera. Los modelos parametricos pueden ser
lineales o no-lineales. En este curso elegiremos los modelos lineales.
Resumiendo los modelos que vamos a estudiar en este curso son ing

               modelos parametricos y lineales
                   Apendice I: Transformaciones
                       (vease el conjunto de notas extra)
 • Objetivo: Tratar con procesos mas manejables
 •Transformación logaritimica reduce cierto tipo de
 heterocedasticidad. Si asumimos que
                         t=E(Xt) y V(Xt) = k 2t,
 se puede demostrar (por el metodo delta) que la varianza del
 log es aproximadamente constante:
Var (f ( Z))  f ' () 2 Var ( Z)  Var (log(Z t )  (1 /  t ) 2 Var (Z t )  k
 • Tomar dieferencias elimina la tendencia (no muy
 informativo sobre la naturaleza de la tendencia)
 • Diferencias del Log = Tasa de Crecimiento
                                      Zt               Z  Z t 1   Z  Z t 1
 log( Z t )  log( Z t 1 )  log(          )  log(1  t         ) t
                                     Z t 1               Z t 1       Z t 1
             Apendice II: Analisis Grafico
• Objetivo: Descubrir caracteristicas basicas de los datos
   • Realice graficos de la serie economica en niveles, en
   logaritmos, en primeras diferencias y en tasas de
   crecimiento e intente decidir que transformacion hace la
   serie paracer mas estacionaria.
   • Correlograma de las transformacions propuestas
   previamente. En el capitulo siguiente aprendera a
   identificar una familia de modelos en base al
   correlograma.
   • Descarguese la base de datos Eco-Win de la
   Biblioteca de la UC3M y analice graficamente las
   series que mas le interesen.
   • Recuerde que el movimiento se demuestra andando.

				
DOCUMENT INFO
Shared By:
Categories:
Tags:
Stats:
views:8
posted:5/25/2012
language:Spanish
pages:24