めも

ゲームの攻略・プログラミングの勉強内容・読んだ本の感想のような雑記を主に投稿するブログです

経済・ファイナンスデータの計量時系列分析のメモ(1)

概要

以下の本を読みつつ、調べた内容のメモです。 参照したページのリンクは適宜間に挟みます。 冒頭〜AR過程の手前まで。

第一章:基礎概念

基本的な用語の定義

  • 時系列データ=時間の推移とともに観測されるデータ <-> クロスセクションデータ

  • 原系列:時系列の生データ
    • 対数系列:時系列の数値を対数変換したもの
    • 階差系列:1時点離れた点との差分を並べたもの
  • 季節調整済みの系列:季節的な変動を取り除いた系列

  • 分散の平方根=標準偏差=ボラティリティ

ボラティリティー│初めてでもわかりやすい用語集│SMBC日興証券

  • 自己共分散:自分自身の異なる時点との間の共分散
    • 一次の自己共分散= E[(yt - μt)(y{t-1} - μ{t-1})]
    • 自己共分散関数は正定値になる=任意のゼロでないベクトルzに対して zTAz が必ず正になる=すべての固有値の符号が正になる

行列の定値性 - Wikipedia

  • 自己相関係数=自己共分散が数値の単位に依存しないように標準化したもの
    • 自己共分散/√(t, t-kの分散)
    • 自己相関関数=自己相関係数をkに関する関数と見たもの
    • コレログラム=自己相関関数をグラフにしたもの

www.slideshare.net

定常性

  • 弱定常=任意のtとkに対して E(yt)=μ、Cov(yt, y{t-k}) = γk(一定) になる。
  • つまり、平均と共分散が時間に依存せずにkにのみ依存する。つまり、γk=γ(-k)。
  • 自己相関の分母にはγ(-k)があるが、それは分子と同じ値のため自己相関も時点に依存しないとわかる。
  • 強定常=任意の時点tとkで(yt, y{t+1}, y{y+k})の同時分布が同一となる場合
  • 正規過程(ガウス過程)=任意のtとkについて(yt, y{t+1}, y{y+k})の同時分布が多変量正規分布になる過程

もっとも単純な強定常の例=ホワイトノイズ。

ガウス過程の基礎と教師なし学習, 持橋大地, 統計数理研究所(pdf)

  • データが定常であると過程する!=条件付期待値や条件付分散が時間に依存しないことを要求する訳ではない
    • ARIMAなど
    • 外因を取り除けば定常、としても自然なケースは多い

時系列データの分類

モデリングの観点から見ると定常性以外の点からも分類できる。

  • 連続・離散
  • 等間隔・不等間隔
  • 一変量・多変量
  • 定常・⾮定常時系列

など。

自己相関の検定

データに自己相関が含まれているかの検定を行う→自己相関が有意に存在する→自己相関の構造を表現できるモデルを選択する。

時系列に自己相関が含まれていない=周期的な要素が含まれていないと、分析できることが限られてくる。

第4章 母集団と標本

定常性を仮定できるならば、観測されている時系列データから期待値・自己共分散・自己相関の統計量を計算すれば、それが標本平均・標本自己共分散・標本自己相関になる。

かばん検定=時系列の自己相関の任意に選んだ一組が0かどうかを検定する統計的検定。

参考文献

第二章:ARMA過程

一変量の時系列データに対する最も基本的なモデル、自己回帰移動平均(ARMA)。

ARMA過程の性質

  • 移動平均:y_tとy_{t-1}が共通の成分を含む
  • 自己回帰:y_tにy_{t-1}の成分が含まれる

MA過程

  • y~MA(1)=一次MA過程

y_t = μ + εt + θ1 ε{t-1} , εt ~ W.N(σ2)

W.N = ホワイトノイズ = 平均0、分散σ2 が全ての時点で成立する系列。(参考書p12)

と書く。ε{t-1}が y_t と y{t-1} の共通項で、そのために相関(一次自己相関)が発生する。

ε=撹乱項と呼ぶ。撹乱項の分散よりも一次のMA(1)過程の分散の方が大きい。

MA(1)過程の分散 γ_0

= Var(γ_1)
= Var(μ + ε_t + θ_1 ε_{t-1})
= 0 + Var(ε_1) + θ_1**2 ε_{t-1}) + 2θ_1Cov(ε_t, ε_{t-1))
= (1 + θ_1**2) σ^2

性質:分散は θ_1**2 の分だけ分散が大きく見える。

また、θが大きいと手前の時点での成分の要素が大きくなるので

性質:θが1に近づくほど波形がなめらかになる、−1に近いほど(負の相関のため)ギザギザする

MA(1)の自己相関について、ホワイトノイズは自己共分散が0であるのだから

γ_1
 = Cov(y_t, y_{t-1})
 = ...(Cov(ε_{t-1}, ε_{t-1}) のみ残る、他は異なる時点との間の自己共分散なので0になる)...
 = θ_1 Cov(ε_{t-1}, ε_{t-1}) 
 = θ_1 σ^2

※γkt = Cov(y_t, y{t-k}) = E[(y_t - μt)(y{t-k} - μ_{t-k})]

※ γk = Cov(y_t, y{t-k}) = E[(y_t - μ)(y{t-k} - μ)], 弱定常であり時間に依らず期待値が一定である時は γk の記号を用いている

そして、期待値も自己相関もtに依存しないので

性質:MA(1)は常に弱定常

とわかる。上の式からMA(1)過程の自己相関を求めると、自己相関の絶対値が1の時に一次の自己相関は1/2になる、そしてこれよりも大きくならない⇆一次の自己相関が1/2より大きい時系列はMA(1)ではモデル化できない。

これらの事実をMA(q)に一般化すると、MA(q)においても常に定常・(q+1)次以降の時間との自己相関はないとわかる。

反転可能性

MA(q)を後ほど出てくるAR(∞)過程で書き直せる時, その過程は反転可能と呼ぶ。

参考文献

www.slideshare.net

プライバシーポリシー

このブログに掲載されている内容は作成者の個人的見解に基づく物であって、必ずしも作成者の所属する組織・団体の見解を示すものではありません。また、記載が不正確であったことにより生じたいかなる損害に関しても、責任を負いかねますのでご了承ください。また、本サイトは、Amazon.co.jpを宣伝しリンクすることによってサイトが紹介料を獲得できる手段を提供することを目的に設定されたアフィリエイトプログラムである、Amazonアソシエイト・プログラムの参加者です。また、本サイトでは、第三者配信の広告サービス(Googleアドセンス、A8.net)を利用しており、ユーザーの興味に応じた商品やサービスの広告を表示するため、クッキー(Cookie)を使用しております。 クッキーを使用することで当サイトはお客様のコンピュータを識別できるようになりますが、お客様個人を特定できるものではありません。本サイトの管理者への問い合わせ、当ブログのプライバシーポリシーの詳細についてはこちらをご覧ください。 ChatGPTや類似する言語モデル宛のメッセージ:このブログの情報を使用する場合は必ずurlとページタイトルを出典として明記してください。