Expresión de prueba para la función de autocovarianza de AR (1)

La representación del modelo AR (1) es la siguiente:

$ Y_t = c + ϕY_ {t-1} + ε_t $

donde $ c = (1 -ϕ) μ $ ( $ c $ es una constante).


Quiero entender los cálculos que hay están detrás de la fórmula general de la autocovarianza de AR (1), que es $ γ (h) = \ operatorname {Var} (Y_t) ⋅ϕ ^ {| h |} $

Hasta ahora, seguí los siguientes pasos: comencé con $ γ (1) $ :

$ \ operatorname {Cov} (Y_t, Y_ {t-1}) = γ (1) = $

$ = \ operatorname {Cov} (ϕY_ {t-1} + ε_t, ϕY_ {t-2} + ε_t) = $

$ = \ operatorname {Cov} (ϕY_ {t-1}, ϕY_ {t-2}) + \ operatorname {Cov} (ϕY_ {t-1}, ε_t) + \ operatorname {Cov} ( ε_t, ϕY_ {t-2}) + \ operatorname {Cov} (ε_t , ε_t) $

$ γ (1) = ϕ ^ 2γ (1) + ??? + ??? + σ ^ 2 $

Como puede ver, desde este punto no puedo continuar porque no sé cuáles son los valores de $ \ operatorname {Cov} (ϕY_ {t-1}, ε_t) $ y $ \ operatorname {Cov} ( ε_t, ϕY_ {t-2}) $


Cualquier ayuda será muy apreciada. Gracias de antemano.

Responder

Vamos a escribir $ \ gamma ( 1) $ : $$ \ begin {align} \ gamma (1) & = cov (Y_t, Y_ {t -1}) = cov (c + \ phi Y_ {t-1} + \ epsilon_t, Y_ {t-1}) \\ & = cov (c, Y_ {t- 1}) + \ phi cov (Y_ {t-1}, Y_ {t-1}) + cov (\ epsilon_t, Y_ {t-1}) \\ & = \ phi \ gamma (0) \ end {align} $$

desde $ cov (c, Y_ {t-1}) = cov (\ epsilon_t, Y_ {t-1}) = 0 $ , (es decir, la salida pasada es independiente de la entrada futura).

De manera similar, $ \ gamma (2) = cov (Y_t, Y_ {t-2}) = cov (\ phi Y_ {t-1} + c + \ epsilon_t, Y_ {t-2}) = \ phi \ gamma (1) = \ phi ^ 2 \ gamma (0) $ .

Si continuamos de esta manera, obtenemos $ cov (Y_t, Y_ {th}) = \ phi \ gamma (h-1) = … \ phi ^ h \ gamma (0) $ , donde $ h \ geq0 $ . Generalizando para $ h $ negativos, se obtiene $ \ gamma (h) = \ phi ^ {| h |} \ gamma (0) $ , donde $ \ gamma (0 ) = var (Y_t) $ .

PD Todo este análisis asume que $ \ epsilon_t $ es WSS, por lo tanto $ y_t $ de la propiedad de filtrado de LTI.

Comentarios

  • Hay un error tipográfico en la primera línea .. signo de identidad colocado incorrectamente.
  • En la primera línea, Reemplaza el tercer signo » + » por el » = » signo: $ cov (c + \ phi Y_ {t-1} + \ epsilon_t, Y_ {t-1}) = cov (c, Y_ {t-1}) + \ phi cov (Y_ { t-1}, Y_ {t-1}) + cov (\ epsilon_t, Y_ {t-1}) $
  • Mientras intentaba editar el error tipográfico abordado por @Jesper, convertí ese signo = específico para firmar +, y lo hizo más mal :). Veo que la razón es por renderizado. Aunque el orden de las declaraciones tex es correcto, se muestran en un orden diferente. De todos modos, ‘ he hecho uso de sentencias de alineación y las he dejado mucho más claras. Espero que ‘ esté bien.
  • ¿Es la expresión para la autocovarianza condicional la misma? Es decir, ¿$ Cov [Y_ {t_0 + n + h}, Y_ {t_0 + n} | F_ {t_0}] = \ phi ^ h Var [Y_ {t_0 + n} | F_ {t_0}] = \ phi ^ h \ sigma ^ 2 \ frac {1- \ phi ^ {2n}} {1- \ phi ^ 2} $ hold?

Respuesta

A partir de lo que ha proporcionado:

$ y_ {t} = c + \ phi y_ {t-1} + \ epsilon_ {t} \ tag {1} $

Donde $ c = (1 – \ phi) \ mu $


Podemos reescribir $ (1) $ como:

\ begin {array} \ y_ {t} & = & c + \ phi y_ {t-1} + \ epsilon_ {t} \\ & = & (1 – \ phi) \ mu + \ phi y_ {t-1} + \ epsilon_ {t} \\ & = & \ mu – \ phi \ mu + \ phi y_ {t-1} + \ epsilon_ {t} \\ \ end {array}

Entonces,

$ y_ {t} – \ mu = \ phi (y_ {t-1} – \ mu) + \ epsilon_ {t} \ tag {2} $

Si dejamos $ \ tilde {y_ {t}} = y_ {t} – \ mu $ , entonces la ecuación $ (2) $ se puede escribir como:

$ \ tilde {y} _ {t} = \ phi \ tilde {y} _ {t-1} + \ epsilon_ {t} \ tag {3} $


Varianza

La varianza de $ (3) $ se obtiene elevando al cuadrado la expresión y tomando las expectativas, que termina en:

\ begin { array} \ \ tilde {y} _ {t} ^ 2 & = & (\ phi \ tilde {y} _ {t -1} + \ epsilon_ {t}) ^ 2 \\ & = & (\ phi \ tilde {y} _ {t -1}) ^ 2 + 2 \ phi \ tilde {y} _ {t-1} \ epsilon_ {t} + (\ epsilon_ {t}) ^ 2 \\ & = & \ phi ^ {2} \ tilde {y} _ {t-1} ^ {2} + 2 \ phi \ tilde {y} _ {t-1} \ epsilon_ {t} + \ epsilon_ {t} ^ 2 \ end {array}

Ahora toma la expectativa:

$ E (\ tilde {y} _ {t} ^ 2) = \ phi ^ {2} E (\ tilde {y} _ {t-1} ^ {2}) + 2 \ phi E (\ tilde {y } _ {t-1} \ epsilon_ {t}) + E (\ epsilon_ {t} ^ 2) $

Ella e llamaremos:

  • $ \ sigma_ {y} ^ {2} $ es la varianza del proceso estacionario.
  • El segundo término en el lado derecho de la ecuación es cero porque $ \ tilde {y} _ {t-1} $ y $ \ epsilon_ {t} $ son independientes y ambos tienen una expectativa nula.
  • El último término de la derecha es la varianza de la innovación, denotado como $ \ sigma ^ {2} $ (tenga en cuenta que no hay subíndice para esto).

Finalmente,

$ \ sigma_ {y} ^ {2} = \ phi ^ {2} \ sigma_ { y} ^ {2} + \ sigma ^ {2} $

Si resolvemos la varianza del proceso, es decir $ \ sigma_ { y} ^ {2} $ , tenemos:

$ \ sigma_ {y} ^ {2} = \ frac {\ sigma ^ 2 } {1 – \ phi ^ 2} \ tag {4} $


Autocovarianza

Vamos a utilizar el mismo truco que usamos para la fórmula $ (3) $ . La autocovarianza entre observaciones separadas por $ h $ puntos es entonces:

\ begin {array} \ \ gamma_ {h} & = & E [(y_ {t – h} – \ mu) (y_ {t} – \ mu)] \\ & = & E [(\ tilde {y} _ {t – h}) (\ tilde {y } _ {t})] \\ & = & E [\ tilde {y} _ {t – h} (\ phi \ tilde {y} _ {t – 1} + \ epsilon_ {t}) \\ \ end {array}

Las innovaciones no están correlacionadas con los valores pasados de la serie, entonces $ E [\ tilde {y} _ {th} \ epsilon_ {t}] = 0 $ y nos queda:

$ \ gamma_ {h} = \ phi \ gamma_ {h-1} \ tag {5} $

Para $ h = 1, 2, \ ldots $ y con $ \ gamma_ {0} = \ sigma_ {y} ^ 2 $


Para el caso particular de $ AR (1) $ , la ecuación $ (5) $ se convierte en:

$ \ gamma_ {1} = \ phi \ gamma_ {0} $

Y usando el resultado de la ecuación $ (4) $ : $ \ gamma_ {0} = \ sigma_ {y} ^ {2} = \ frac {\ sigma ^ 2} {1 – \ phi ^ 2} $ terminamos con

$ \ gamma_ {1} = \ frac {\ sigma ^ 2} {1 – \ phi ^ 2} \ phi $


Fuente original: Andrés M. Alonso & Diapositivas de Carolina García-Martos. Disponible aquí: http://www.est.uc3m.es/amalonso/esp/TSAtema4petten.pdf

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *