Bevisuttryck för autokovariansfunktionen för AR (1)

Representationen för modellen AR (1) är följande:

$ Y_t = c + ϕY_ {t-1} + ε_t $

där $ c = (1 -ϕ) μ $ ( $ c $ är en konstant).


Jag vill förstå beräkningarna som där ligger bakom den allmänna formeln för autokovarians av AR (1), som är $ γ (h) = \ operatorname {Var} (Y_t) ⋅ϕ ^ {| h |} $

Hittills gjorde jag följande steg – Jag började med $ γ (1) $ :

$ \ operatorname {Cov} (Y_t, Y_ {t-1}) = γ (1) = $

$ = \ operatorname {Cov} (ϕY_ {t-1} + ε_t, ϕY_ {t-2} + ε_t) = $

$ = \ operatorname {Cov} (ϕY_ {t-1}, ϕY_ {t-2}) + \ operatorname {Cov} (ϕY_ {t-1}, ε_t) + \ operatorname {Cov} ( ε_t, ϕY_ {t-2}) + \ operatornamn {Cov} (ε_t , ε_t) $

$ γ (1) = ϕ ^ 2γ (1) + ??? + ??? + σ ^ 2 $

Som ni kan se kan jag från denna punkt inte fortsätta eftersom jag inte vet vilka värden som är av $ \ operatorname {Cov} (ϕY_ {t-1}, ε_t) $ och $ \ operatorname {Cov} ( ε_t, ϕY_ {t-2}) $


All hjälp kommer att uppskattas mycket. Tack på förhand.

Svar

Låt oss skriva $ \ gamma ( 1) $ : $$ \ begin {align} \ gamma (1) & = cov (Y_t, Y_ {t -1}) = cov (c + \ phi Y_ {t-1} + \ epsilon_t, Y_ {t-1}) \\ & = cov (c, Y_ {t- 1}) + \ phi cov (Y_ {t-1}, Y_ {t-1}) + cov (\ epsilon_t, Y_ {t-1}) \\ & = \ phi \ gamma (0) \ end {align} $$

eftersom $ cov (c, Y_ {t-1}) = cov (\ epsilon_t, Y_ {t-1}) = 0 $ , (dvs. tidigare utdata är oberoende av framtida inmatning).

På samma sätt $ \ gamma (2) = cov (Y_t, Y_ {t-2}) = cov (\ phi Y_ {t-1} + c + \ epsilon_t, Y_ {t-2}) = \ phi \ gamma (1) = \ phi ^ 2 \ gamma (0) $ .

Om vi fortsätter på det här sättet får vi $ cov (Y_t, Y_ {th}) = \ phi \ gamma (h-1) = … \ phi ^ h \ gamma (0) $ , där $ h \ geq0 $ . Generalisering för negativa $ h $ avkastning $ \ gamma (h) = \ phi ^ {| h |} \ gamma (0) $ , där $ \ gamma (0 ) = var (Y_t) $ .

PS all denna analys antar att $ \ epsilon_t $ är WSS, därför är $ y_t $ från LTI-filtreringsegenskapen.

Kommentarer

  • det finns ett stavfel i första raden .. identitetstecken placerad fel.
  • I första raden skulle jag ersätt det tredje ” + ” tecknet med ” = ” tecken: $ cov (c + \ phi Y_ {t-1} + \ epsilon_t, Y_ {t-1}) = cov (c, Y_ {t-1}) + \ phi cov (Y_ { t-1}, Y_ {t-1}) + cov (\ epsilon_t, Y_ {t-1}) $
  • När jag försökte redigera skrivfelet adresserat av @Jesper konverterade jag det specifika = tecknet att + underteckna och gjorde det mer fel :). Jag ser att orsaken är på grund av rendering. Även om ordningen på tex-påståenden är korrekt visas de i en annan ordning. Hur som helst har jag ’ använt justeringsuttalanden och gjort det mycket tydligare. Hoppas, det ’ är ok.
  • Är uttrycket för villkorlig automatisk kovarians detsamma? Det vill säga gör $ Cov [Y_ {t_0 + n + h}, Y_ {t_0 + n} | F_ {t_0}] = \ phi ^ h Var [Y_ {t_0 + n} | F_ {t_0}] = \ phi ^ h \ sigma ^ 2 \ frac {1- \ phi ^ {2n}} {1- \ phi ^ 2} $ håll?

Svar

Från det du har angett:

$ y_ {t} = c + \ phi y_ {t-1} + \ epsilon_ {t} \ tag {1} $

Där $ c = (1 – \ phi) \ mu $


Vi kan skriva om $ (1) $ as:

\ begin {array} \ y_ {t} & = & c + \ phi y_ {t-1} + \ epsilon_ {t} \\ & = & (1 – \ phi) \ mu + \ phi y_ {t-1} + \ epsilon_ {t} \\ & = & \ mu – \ phi \ mu + \ phi y_ {t-1} + \ epsilon_ {t} \\ \ end {array}

Sedan,

$ y_ {t} – \ mu = \ phi (y_ {t-1} – \ mu) + \ epsilon_ {t} \ tag {2} $

Om vi låter $ \ tilde {y_ {t}} = y_ {t} – \ mu $ , så är ekvation $ (2) $ kan skrivas som:

$ \ tilde {y} _ {t} = \ phi \ tilde {y} _ {t-1} + \ epsilon_ {t} \ tag {3} $


Varians

Variansen för $ (3) $ erhålls genom att kvadrera uttrycket och ta förväntningar, vilket slutar med:

\ begin { array} \ \ tilde {y} _ {t} ^ 2 & = & (\ phi \ tilde {y} _ {t -1} + \ epsilon_ {t}) ^ 2 \\ & = & (\ phi \ tilde {y} _ {t -1}) ^ 2 + 2 \ phi \ tilde {y} _ {t-1} \ epsilon_ {t} + (\ epsilon_ {t}) ^ 2 \\ & = & \ phi ^ {2} \ tilde {y} _ {t-1} ^ {2} + 2 \ phi \ tilde {y} _ {t-1} \ epsilon_ {t} + \ epsilon_ {t} ^ 2 \ end {array}

Ta nu förväntningarna:

$ E (\ tilde {y} _ {t} ^ 2) = \ phi ^ {2} E (\ tilde {y} _ {t-1} ^ {2}) + 2 \ phi E (\ tilde {y } _ {t-1} \ epsilon_ {t}) + E (\ epsilon_ {t} ^ 2) $

Her e vi kommer att kalla:

  • $ \ sigma_ {y} ^ {2} $ är variansen för den stationära processen.
  • Den andra termen i ekvationens högra sida är noll eftersom $ \ tilde {y} _ {t-1} $ och $ \ epsilon_ {t} $ är oberoende och båda har ingen förväntan.
  • Den sista termen till höger är variansen för innovationen, betecknad som $ \ sigma ^ {2} $ (notera att det inte finns någon abonnemang för detta).

Slutligen

$ \ sigma_ {y} ^ {2} = \ phi ^ {2} \ sigma_ { y} ^ {2} + \ sigma ^ {2} $

Om vi löser för variansen i processen, nämligen $ \ sigma_ { y} ^ {2} $ , vi har:

$ \ sigma_ {y} ^ {2} = \ frac {\ sigma ^ 2 } {1 – \ phi ^ 2} \ tag {4} $


Autokovarians

Vi ska använda samma trick som vi använder för formeln $ (3) $ . Autokovariansen mellan observationer åtskilda av $ h $ perioder är då:

\ begin {array} \ \ gamma_ {h} & = & E [(y_ {t – h} – \ mu) (y_ {t} – \ mu)] \\ & = & E [(\ tilde {y} _ {t – h}) (\ tilde {y } _ {t})] \\ & = & E [\ tilde {y} _ {t – h} (\ phi \ tilde {y} _ {t – 1} + \ epsilon_ {t}) \\ \ end {array}

Innovationerna är okorrelerade med de tidigare värdena i serien, sedan $ E [\ tilde {y} _ {th} \ epsilon_ {t}] = 0 $ och vi sitter kvar med:

$ \ gamma_ {h} = \ phi \ gamma_ {h-1} \ tag {5} $

För $ h = 1, 2, \ ldots $ och med $ \ gamma_ {0} = \ sigma_ {y} ^ 2 $


För det specifika fallet för $ AR (1) $ , ekvation $ (5) $ blir:

$ \ gamma_ {1} = \ phi \ gamma_ {0} $

Och använda resultatet från ekvation $ (4) $ : $ \ gamma_ {0} = \ sigma_ {y} ^ {2} = \ frac {\ sigma ^ 2} {1 – \ phi ^ 2} $ slutar vi med

$ \ gamma_ {1} = \ frac {\ sigma ^ 2} {1 – \ phi ^ 2} \ phi $


Originalkälla: Andrés M. Alonso & Carolina García-Martos glider. Finns här: http://www.est.uc3m.es/amalonso/esp/TSAtema4petten.pdf

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *