La représentation du modèle AR (1) est la suivante:
$ Y_t = c + ϕY_ {t-1} + ε_t $
où $ c = (1 -ϕ) μ $ ( $ c $ est une constante).
Je veux comprendre les calculs qui y sont derrière la formule générale de lautocovariance de AR (1), qui est $ γ (h) = \ operatorname {Var} (Y_t) ⋅ϕ ^ {| h |} $
Jusquà présent, jai suivi les étapes suivantes – jai commencé avec $ γ (1) $ :
$ \ operatorname {Cov} (Y_t, Y_ {t-1}) = γ (1) = $
$ = \ operatorname {Cov} (ϕY_ {t-1} + ε_t, ϕY_ {t-2} + ε_t) = $
$ = \ operatorname {Cov} (ϕY_ {t-1}, ϕY_ {t-2}) + \ operatorname {Cov} (ϕY_ {t-1}, ε_t) + \ operatorname {Cov} ( ε_t, ϕY_ {t-2}) + \ operatorname {Cov} (ε_t , ε_t) $
$ γ (1) = ϕ ^ 2γ (1) + ??? + ??? + σ ^ 2 $
Comme vous pouvez le voir, à partir de maintenant, je ne peux pas continuer car je ne sais pas quelles sont les valeurs de $ \ operatorname {Cov} (ϕY_ {t-1}, ε_t) $ et $ \ operatorname {Cov} ( ε_t, ϕY_ {t-2}) $
Toute aide sera très appréciée. Merci davance.
Réponse
Écrivons $ \ gamma ( 1) $ : $$ \ begin {align} \ gamma (1) & = cov (Y_t, Y_ {t -1}) = cov (c + \ phi Y_ {t-1} + \ epsilon_t, Y_ {t-1}) \\ & = cov (c, Y_ {t- 1}) + \ phi cov (Y_ {t-1}, Y_ {t-1}) + cov (\ epsilon_t, Y_ {t-1}) \\ & = \ phi \ gamma (0) \ end {align} $$
puisque $ cov (c, Y_ {t-1}) = cov (\ epsilon_t, Y_ {t-1}) = 0 $ , (cest-à-dire que la sortie passée est indépendante de lentrée future).
De même, $ \ gamma (2) = cov (Y_t, Y_ {t-2}) = cov (\ phi Y_ {t-1} + c + \ epsilon_t, Y_ {t-2}) = \ phi \ gamma (1) = \ phi ^ 2 \ gamma (0) $ .
Si nous continuons de cette façon, nous obtenons $ cov (Y_t, Y_ {th}) = \ phi \ gamma (h-1) = … \ phi ^ h \ gamma (0) $ , où $ h \ geq0 $ . Généralisation pour les rendements négatifs $ h $ $ \ gamma (h) = \ phi ^ {| h |} \ gamma (0) $ , où $ \ gamma (0 ) = var (Y_t) $ .
PS toute cette analyse suppose que $ \ epsilon_t $ est WSS, donc $ y_t $ de la propriété de filtrage LTI.
Commentaires
- il y a une faute de frappe dans la première ligne .. signe didentité mal placé.
- Dans la première ligne, je le ferais remplacez le troisième signe » + » par le » = » signe: $ cov (c + \ phi Y_ {t-1} + \ epsilon_t, Y_ {t-1}) = cov (c, Y_ {t-1}) + \ phi cov (Y_ { t-1}, Y_ {t-1}) + cov (\ epsilon_t, Y_ {t-1}) $
- En essayant de modifier la faute de frappe adressée par @Jesper, jai converti ce signe = spécifique à + signer, et la rendu plus faux :). Je vois que la raison est à cause du rendu. Bien que lordre des instructions tex soit correct, elles étaient affichées dans un ordre différent. Quoi quil en soit, jai ‘ utilisé les instructions dalignement et je lai rendu beaucoup plus clair. Jespère que ‘ est ok.
- Lexpression de lauto-covariance conditionnelle est-elle la même? Autrement dit, est-ce que $ Cov [Y_ {t_0 + n + h}, Y_ {t_0 + n} | F_ {t_0}] = \ phi ^ h Var [Y_ {t_0 + n} | F_ {t_0}] = \ phi ^ h \ sigma ^ 2 \ frac {1- \ phi ^ {2n}} {1- \ phi ^ 2} $ hold?
Réponse
À partir de ce que vous avez fourni:
$ y_ {t} = c + \ phi y_ {t-1} + \ epsilon_ {t} \ tag {1} $
Où $ c = (1 – \ phi) \ mu $
Nous pouvons réécrire $ (1) $ as:
\ begin {array} \ y_ {t} & = & c + \ phi y_ {t-1} + \ epsilon_ {t} \\ & = & (1 – \ phi) \ mu + \ phi y_ {t-1} + \ epsilon_ {t} \\ & = & \ mu – \ phi \ mu + \ phi y_ {t-1} + \ epsilon_ {t} \\ \ end {array}
Ensuite,
$ y_ {t} – \ mu = \ phi (y_ {t-1} – \ mu) + \ epsilon_ {t} \ tag {2} $
Si nous laissons $ \ tilde {y_ {t}} = y_ {t} – \ mu $ , alors léquation $ (2) $ peut être écrit comme suit:
$ \ tilde {y} _ {t} = \ phi \ tilde {y} _ {t-1} + \ epsilon_ {t} \ tag {3} $
Variance
La variance de $ (3) $ est obtenu en mettant au carré lexpression et en prenant les attentes, ce qui se termine par:
\ begin { tableau} \ \ tilde {y} _ {t} ^ 2 & = & (\ phi \ tilde {y} _ {t -1} + \ epsilon_ {t}) ^ 2 \\ & = & (\ phi \ tilde {y} _ {t -1}) ^ 2 + 2 \ phi \ tilde {y} _ {t-1} \ epsilon_ {t} + (\ epsilon_ {t}) ^ 2 \\ & = & \ phi ^ {2} \ tilde {y} _ {t-1} ^ {2} + 2 \ phi \ tilde {y} _ {t-1} \ epsilon_ {t} + \ epsilon_ {t} ^ 2 \ end {array}
Maintenant, prenez lattente:
$ E (\ tilde {y} _ {t} ^ 2) = \ phi ^ {2} E (\ tilde {y} _ {t-1} ^ {2}) + 2 \ phi E (\ tilde {y } _ {t-1} \ epsilon_ {t}) + E (\ epsilon_ {t} ^ 2) $
Son Nous appellerons:
- $ \ sigma_ {y} ^ {2} $ est la variance du processus stationnaire.
- Le deuxième terme dans la partie droite de léquation est zéro car $ \ tilde {y} _ {t-1} $ et $ \ epsilon_ {t} $ sont indépendants et les deux ont une attente nulle.
- Le dernier terme à droite est la variance de linnovation, notée $ \ sigma ^ {2} $ (notez quil ny a pas indice pour cela).
Enfin,
$ \ sigma_ {y} ^ {2} = \ phi ^ {2} \ sigma_ { y} ^ {2} + \ sigma ^ {2} $
Si nous résolvons la variance du processus, à savoir $ \ sigma_ { y} ^ {2} $ , nous avons:
$ \ sigma_ {y} ^ {2} = \ frac {\ sigma ^ 2 } {1 – \ phi ^ 2} \ tag {4} $
Autocovariance
Nous allons utiliser la même astuce que nous utilisons pour la formule $ (3) $ . Lautocovariance entre les observations séparées par des $ h $ points est alors:
\ begin {array} \ \ gamma_ {h} & = & E [(y_ {t – h} – \ mu) (y_ {t} – \ mu)] \\ & = & E [(\ tilde {y} _ {t – h}) (\ tilde {y } _ {t})] \\ & = & E [\ tilde {y} _ {t – h} (\ phi \ tilde {y} _ {t – 1} + \ epsilon_ {t}) \\ \ end {array}
Les innovations ne sont pas corrélées avec les valeurs passées de la série, alors $ E [\ tilde {y} _ {th} \ epsilon_ {t}] = 0 $ et il nous reste:
$ \ gamma_ {h} = \ phi \ gamma_ {h-1} \ tag {5} $
Pour $ h = 1, 2, \ ldots $ et avec $ \ gamma_ {0} = \ sigma_ {y} ^ 2 $
Pour le cas particulier du $ AR (1) $ , léquation $ (5) $ devient:
$ \ gamma_ {1} = \ phi \ gamma_ {0} $
Et en utilisant le résultat de léquation $ (4) $ : $ \ gamma_ {0} = \ sigma_ {y} ^ {2} = \ frac {\ sigma ^ 2} {1 – \ phi ^ 2} $ nous nous retrouvons avec
$ \ gamma_ {1} = \ frac {\ sigma ^ 2} {1 – \ phi ^ 2} \ phi $
Source originale: Andrés M. Alonso & Diapositives de Carolina García-Martos. Disponible ici: http://www.est.uc3m.es/amalonso/esp/TSAtema4petten.pdf