【統計検定1級】統計応用・社会科学 2022年 問4【解答】

本記事は、2022年に実施された統計検定1級・統計応用・社会科学の問4について、投稿者による解答例と解説を掲載しています。
統計検定の問題は、実施団体が定める「統計検定の問題の使用に関する規約」により、当サイトでは掲載いたしません。出題の正確な内容や公式の解答は公式問題集等をご参照ください。
記載内容は投稿者個人の見解であり、一般財団法人統計質保証推進協会および日本統計学会の公式見解・公式解答ではありません。
統計検定®は一般財団法人統計質保証推進協会の登録商標です。

解答

[1]

まず(A)のグラフをみると、$t=1, 2$でマイナス、$t=3, 4$でプラスになっている。その後、$t=5, 6$でマイナス、$t=7, 8$でプラスと4時点先の正負がほぼ一致しているので、(A)が$a=0.8$であると予想できる。
次に(C)のグラフに注目してみると、このグラフの縦軸のメモリだけ他のグラフより幅が狭い、なので(C)が$a=0$であると予想できる。
また(B)はゼロ付近のデータは除いて、$t=2$のデータに注目してみると$t=2$でプラス、$t=6$でマイナス、$t=10$でプラスとちょうどプラスマイナスが反転しているので、(B)が$a=-0.8$であると予想できる。
よって、(A)が$a=0.8$、(B)が$a=-0.8$、(A)が$a=0.0$。

[2]

$y_t$は次のように表せる。
\begin{align}
y_t &= v_t + a y_{t-4} \notag\\
&= v_t + a ( v_{t-4} + a y_{t-8}) = v_t + a v_{t-4} + a^2 y_{t-8} \notag\\
&= \cdots = v_t + a v_{t-4} + a^2 v_{t-8} + \cdots \tag{*}
\end{align}
これより、$\E[y_t] = 0$となり、$|a|<1$より
\begin{align*}
\textrm{V}[y_t] &=
\textrm{V}[v_t] + a^2 \textrm{V}[v_{t-4}] + a^4 \textrm{V}[v_{t-8}] + \cdots
\\
&=
\sigma^2 (1+a^2+a^4+\cdots) = \frac{\sigma^2}{1-a^2}
\end{align*}
となる。
また共分散は$y_t$と$y_{t-k}$の積が
\begin{align*}
y_t y_{t-k} &=
(v_t +av_{t-4} + a^2v_{t-8} + \cdots )
(v_{t-k} +av_{t-k-4} + a^2v_{t-k-8} + \cdots )
\\
&=
v_t (v_{t-k} +av_{t-k-4} + a^2v_{t-k-8} + \cdots ) \\
&\quad + a v_{t-4} (v_{t-k} +av_{t-k-4} + a^2v_{t-k-8} + \cdots ) \\
&\quad + a^2 v_{t-8} (v_{t-k} +av_{t-k-4} + a^2v_{t-k-8} + \cdots ) \\
&\quad + \cdots
\end{align*}
と表せる。
ここで、$\E[y_t] = 0$より、$y_t$と$y_{t-k}$の共分散は
\[
\gamma (k) = \E[ y_t y_{t-k} ]
\]
である。
ここで$h$を自然数として、$k$が4の倍数のとき、つまり$k = 4h$のときは
\begin{align*}
\gamma (k) &=
\E[ v_t (v_{t-4h} +av_{t-4(h+1)} + a^2v_{t-4(h+2)} + \cdots ) \\
&\qquad
+ \cdots
+ a^h v_{t-4h} (v_{t-4h} +av_{t-4(h+1)} + a^2v_{t-4(h+2)} + \cdots )
\\
&\qquad
+ a^{h+1} v_{t-4(h+1)} (v_{t-4h} +av_{t-4(h+1)} + a^2v_{t-4(h+2)} + \cdots )
+ \cdots ]
\\
&= \E[ a^h v_{t-4h}^2 + a^{h+2} v_{t-4(h+1)}^2 + \cdots ]
\\
&=
a^h \sigma^2 (1+a^2+\cdots) = \sigma^2 \frac{a^h}{1-a^2}
\end{align*}
となる。また、$k$が4の倍数でないとき、つまり$k \neq 4h$のときは$v_i^2$となる$v_i v_j$の項が存在しないので$\gamma(k)=0$となる。
また、これより自己相関関数は
\[
\rho (k) = \frac{\gamma(k)}{\gamma(0)} =
\begin{cases}
a^h & k=4h \\
0 & k\neq 4h
\end{cases}
\]
となる。

[3]

モデル$y_t = a y_{t-4} + v_t$の$a$の最小二乗推定量は$\dis{\sum_{t=5}^T (y_t-ay_{t-4})^2}$を$a$で微分し次の方程式を解くと
\[
\sum_{t=5}^T 2(y_t-ay_{t-4})y_{t-4} = 0
\]
次をえる。
\[
\hat{a} =
\frac{\dis{\sum_{t=5}^T y_ty_{t-4}}}{\dis{\sum_{t=5}^T y_{t-4}^2}}
\]
これは$\dis{\sum_{t=5}^T (y_t-ay_{t-4})^2}$が$a$の二次関数より$\hat{a}$で最小となる。よって、$a$の最小二乗推定量は$\hat{a}$である。
次に、推定量$\hat{a}$の統計的な性質について考える。
ここで、$y_t = a y_{t-4} + v_t$より
\[
\hat{a} =
\frac{\dis{\sum_{t=5}^T y_ty_{t-4}}}{\dis{\sum_{t=5}^T y_{t-4}^2}} =
a + \frac{\dis{\sum_{t=5}^T v_t y_{t-4}}}{\dis{\sum_{t=5}^T y_{t-4}^2}}
\]
と表せる。ここで、$v_t$と$y_{t-4}$は互いに独立つまり$v_t \bot y_{t-4}$より
\[
\E[v_t y_{t-4}] = \E[v_t] \E[y_{t-4}] = 0 \times 0 = 0
\]
となり、これより$v_t y_{t-4}$の分散は
\begin{align*}
\textrm{V}[v_t y_{t-4}] &= \E[ v_t^2 y_{t-4}^2] = \E[v_t^2] \E[y_{t-4}^2] \\
&= \textrm{V}[v_t] \textrm{V}[y_{t-4}] = \sigma^2 \frac{\sigma^2}{1-a^2}
= \frac{\sigma^4}{1-a^2} < \infty
\end{align*}
となる。
また、$y_{t-4}^2$は
\[
\E[y_{t-4}^2] = \textrm{V}[y_{t-4}] =\textrm{V}[y_t] = \frac{\sigma^4}{1-a^2}
\]
となり、また$y_t$の移動平均表現より$\E[y_{t-4}^4] < \infty$となることもわかる。
ここで、$\{y_t\}$は定常性をもつので、この和などは大数の法則や中心極限定理が成り立つ。
これより、$T \to \infty$のもとで次のことがいえる。
\begin{align*}
&
\frac{1}{T} \sum_{t=5}^T v_t y_{t-4} \overset{p}{\to} 0
\\
&
\frac{1}{T} \sum_{t=5}^T y_{t-4}^2 \overset{p}{\to} \frac{\sigma^4}{1-a^2}
\end{align*}
ここで、$\overset{p}{\to}$は確率収束を表す。
これより、スラツキーの定理より
\[
\hat{a} =
a + \frac{\dis{\sum_{t=5}^T v_t y_{t-4}}}{\dis{\sum_{t=5}^T y_{t-4}^2}} =
a +
\frac{\dis{\frac{1}{T}\sum_{t=5}^T v_t y_{t-4}}}
{\dis{\frac{1}{T}\dis{\sum_{t=5}^T y_{t-4}^2}}}
\overset{p}{\to} a
\]
これより、推定量$\hat{a}$は$a$の一致推定量であることがわかる。
また、分散$\sigma^2$の推定量として次の推定量を考える。
\[
\hat{\sigma}^2 = \frac{1}{T} \sum_{t=5}^T (y_t – \hat{a}y_{t-4})^2
\]
このとき、$y_t = a y_{t-4} + v_t$より
\begin{align*}
\hat{\sigma}^2 &= \frac{1}{T} \sum_{t=5}^T (v_t + (a – \hat{a})y_{t-4})^2
\\
&=
\frac{1}{T} \sum_{t=5}^T v_t^2 +
2 (a – \hat{a}) \frac{1}{T} \sum_{t=5}^T y_{t-4} +
(a – \hat{a})^2 \frac{1}{T} \sum_{t=5}^T y_{t-4}^2
\\
&\overset{p}{\to}
\sigma^2 + 0 + 0 = \sigma^2
\end{align*}
となる。なぜなら、第一項の$\sigma^2$は$v_t$が独立な系列なので大数の法則より、第二項、第三項は$\hat{a} \overset{p}{\to} a$であり、もう一方も確率収束するのでスラツキーの定理より$0$となる。
以上より、$\sigma^2$の推定量$\hat{\sigma}^2$は$\sigma^2$の一致推定量であることがわかる。

また、追加として推定量$\hat{a}$に関して
\[
\sqrt{T} \frac{1}{T} \sum_{t=5}^T v_t y_{t-4} =
T^{-1/2} \sum_{t=5}^T v_t y_{t-4} \overset{d}{\to}
N \left(0, \frac{\sigma^4}{1-a^2} \right)
\]
より、次のことがいえる。
\[
\sqrt{T} (\hat{a} – a) \overset{d}{\to}
N ( 0, 1-a^2)
\]
これより、推定量$\hat{a}$は漸近正規性をもつ。
ここで、分散が$1-a^2$となるのは分母が$\frac{\sigma^2}{1-a^2}$に確率収束するので
\[
\left( \frac{\sigma^2}{1-a^2} \right)^{-2} \frac{\sigma^4}{1-a^2} =
1-a^2
\]
からである。

解答には直接には関係ないが、簡単のために$1/T$としてきたが実際の和の個数は$T-4$なので$1/(T-4)$とした方が定理の形とあうと考えられる。

[4]

$y_{T+k}$の予測値はモデル$y_t = a y_{t-4} + v_t$より
\begin{align*}
y_{T+k} &= a y_{T+k-4} + v_{T+k} \\
&= a^2 y_{T+k-4\times 2} + a v_{T+k-4} + v_{T+k} = \cdots
\end{align*}
と表すことができる。ここで、$k=4s+h$、$h=1, 2, 3, 4$とすると
\[
y_{T+k} =
a^{s+1} y_{T+h-4} + \sum_{i=0}^s a^i v_{T+k-4i}
\]
となる。これより、$y_{T+k}$の条件付き期待値$\E[y_{T+k}|y_1, \ldots, y_T]$は
\[
\E[y_{T+k}|y_1, \ldots, y_T] = a^{s+1} y_{T+h-4}
\]
と与えられるので、$y_{T+k}$の予測値を次のように与える。
\[
\hat{y}_{T+k} = \hat{a}^{s+1} y_{T+h-4}
\]
ここで、$\hat{a}$は[3]で求めた$a$の推定量。
このように与えたときの予測誤差は
\[
y_{T+k} – \hat{y}_{T+k} =
(a^{s+1} – \hat{a}^{s+1}) y_{T+h-4} + \sum_{i=0}^s a^i v_{T+k-4i}
\]
と与えられる。ここで、$\hat{a}$は$a$の一致推定量なので第一項を無視して考えると予測誤差は第二項の$v_i$の和で表せる。
このとき、
\begin{align*}
\E\left[ \sum_{i=0}^s a^i v_{T+k-4i} \right] &= 0 \\
\textrm{V}\left[ \sum_{i=0}^s a^i v_{T+k-4i} \right] &=
\sum_{i=0}^s a^{2i} \sigma^2 = \frac{1-a^{2(s+1)}}{1-a^2} \sigma^2
\end{align*}
であることから、予測値$\hat{y}_{T+k}$の平均二乗誤差は第一項を無視すれば
\[
\E[ (y_{T+k} – \hat{y}_{T+k})^2 ] \approx
\E\left[ \left( \sum_{i=0}^s a^i v_{T+k-4i} \right)^2 \right] =
\frac{1-a^{2(s+1)}}{1-a^2} \sigma^2
\]
これをそれぞれ推定量$\hat{a}$、$\hat{\sigma}^2$におきかえれば、予測値$\hat{y}_{T+k}$の平均二乗誤差は$\dis{\frac{1-\hat{a}^{2(s+1)}}{1-\hat{a}^2} \hat{\sigma}^2}$で評価できる。