【統計検定1級】統計応用・社会科学 2022年 問3【解答】

本記事は、2022年に実施された統計検定1級・統計応用・社会科学の問2について、投稿者による解答例と解説を掲載しています。
統計検定の問題は、実施団体が定める「統計検定の問題の使用に関する規約」により、当サイトでは掲載いたしません。出題の正確な内容や公式の解答は公式問題集等をご参照ください。
記載内容は投稿者個人の見解であり、一般財団法人統計質保証推進協会および日本統計学会の公式見解・公式解答ではありません。
統計検定®は一般財団法人統計質保証推進協会の登録商標です。

解答

[1]

一般に$(X_1, Y_1), \ldots, (X_n, Y_n)$のときの最小二乗推定量は
\[
\hat{\alpha} = \bar{Y} – \hat{\beta} \bar{X}, \quad \hat{\beta} = \frac{S_{XY}}{S_{XX}} =
\frac{\dis{\sum_{i=1}^n (X_i-\bar{X})(Y_i-\bar{Y})}}
{\dis{\sum_{i=1}^n (X_i-\bar{X})^2}}
\]
として与えられる。ここで、$n=2$の場合を考えると平均まわりが次のようになり
\begin{align*}
\bar{X} &= \frac{X_1+X_2}{2} \\
X_1 – \bar{X} &= \frac{X_1-X_2}{2} \\
X_2 – \bar{X} &= \frac{X_2-X_1}{2} \\
\bar{Y} &= \frac{Y_1+Y_2}{2} \\
Y_1 – \bar{Y} &= \frac{Y_1-Y_2}{2} \\
Y_2 – \bar{Y} &= \frac{Y_2-Y_1}{2} \\
\end{align*}
また、これから平方和が
\begin{align*}
\sum_{i=1}^2 (X_i-\bar{X})^2 &= \frac{(X_1-X_2)^2}{2} \\
\sum_{i=1}^2 (X_i-\bar{X})(Y_i-\bar{Y}) &=
\frac{(X_1-X_2)(Y_1-Y_2)}{2}
\end{align*}
となる。よって
\begin{align*}
\hat{\beta} &= \frac{\dis{\sum_{i=1}^2 (X_i-\bar{X})(Y_i-\bar{Y})}}
{\dis{\sum_{i=1}^2 (X_i-\bar{X})^2}}
\\
&= \frac{Y_1-Y_2}{X_1-X_2} = \frac{Y_2-Y_1}{X_2-X_1}\\
\hat{\alpha} &= \bar{Y} – \hat{\beta} \bar{X}
\\
&=
\frac{Y_1+Y_2}{2} – \frac{Y_1-Y_2}{X_1-X_2} \frac{X_1+X_2}{2}
\\
&= \frac{X_1 Y_2 – X_2 Y_1}{X_1-X_2} = \frac{X_2 Y_1 – X_1 Y_2}{X_2-X_1}
\end{align*}
を得る。ここで、問題文にあわせて$X_2=X_T$、$Y_2=Y_T$とおけば
\[
\tilde{\alpha} = \frac{X_T Y_1 – X_1 Y_T}{X_T-X_1}, \quad
\tilde{\beta} = \frac{Y_T-Y_1}{X_T-X_1}
\]
となる。次に、これらの分散は説明変数$X_1$、$X_T$は定数扱い、$\textrm{V}[Y_1] = \textrm{V}[Y_T] = \sigma^2$であり、$Y_1$と$Y_T$は互いに独立つまり$Y_1 \perp Y_T$より
\begin{align*}
\textrm{V}[\tilde{\alpha}] &=
\frac{1}{(X_T-X_1)^2} X_T^2 \textrm{V}[Y_1]
+ \frac{1}{(X_T-X_1)^2} X_1^2 \textrm{V}[Y_T]
\\
&=
\frac{(X_1^2+X_T^2) \sigma^2}{(X_T-X_1)^2}
\\
\textrm{V}[\tilde{\alpha}] &=
\frac{1}{(X_T-X_1)^2} \textrm{V}[Y_T] + \frac{1}{(X_T-X_1)^2} \textrm{V}[Y_1]
\\
&=
\frac{2\sigma^2}{(X_T-X_1)^2} = \frac{\sigma^2}{(X_T-X_1)^2/2}
\end{align*}
となる。

[2]

一般的な知識として、次のことが知られている。
\[
\sum_{i=1}^n (X_i – \bar{X})^2 \le \sum_{i=1}^n (X_i – c)^2
\]
これより、$\dis{m=\frac{X_1+X_T}{2}}$とおくと次の不等式が成り立つ。
\[
(X_1 – m)^2 + (X_T – m)^2 \le (X_1 – \bar{X})^2 + (X_T – \bar{X})^2
\]
ここで、$\dis{ \bar{X} = \frac{1}{n} \sum_{i=1}^n X_i }$。
また、$(X_2 – \bar{X})^2 + \cdots + (X_{T-1} – \bar{X})^2 \ge 0$より、右辺に足すと
\begin{align*}
(X_1 – m)^2 + (X_T – m)^2 &\le
(X_1 – \bar{X})^2 + (X_2 – \bar{X})^2 + \cdots + (X_{T-1} – \bar{X})^2 +
(X_T – \bar{X})^2
\\
&= \sum_{t=1}^T (X_t – \bar{X})^2
\end{align*}
となり、左辺は
\[
(X_1 – m)^2 + (X_T – m)^2 = \frac{1}{2} (X_T – X_1)^2
\]
なので、これより逆数をとって$\sigma^2$をかければ
\[
\textrm{V} [\tilde{\beta}] =
\frac{\sigma^2}{(X_T – X_1)^2/2 } \ge
\frac{\sigma^2}{\dis{\sum_{t=1}^T (X_t – \bar{X})^2}} =
\textrm{V} [\hat{\beta}]
\]
を得る。
また、これが等号となる場合は
\begin{align*}
&\quad
(X_1 – m)^2 + (X_T – m)^2 = (X_1 – \bar{X})^2 + (X_T – \bar{X})^2 \\
&\quad
(X_2 – \bar{X})^2 + \cdots + (X_{T-1} – \bar{X})^2 = 0
\end{align*}
がみたされる場合なので、
\[
X_2 = \cdots = X_{T-1} = m = \frac{X_1+X_T}{2}
\]
を得る。

[3]

予測分散$\textrm{V} [\tilde{Y}_{T+1}]$は
\[
\textrm{V} [\tilde{Y}_{T+1}] =
\textrm{V} [\tilde{\alpha} + \tilde{\beta}X_{T+1}] =
\textrm{V} [\tilde{\alpha}] + 2\Cov(\tilde{\alpha}, \tilde{\beta})X_{T+1}
+\textrm{V} [\tilde{\beta}]X_{T+1}^2
\]
となる。ここで、$\tilde{\alpha}$と$\tilde{\beta}$の共分散は
\begin{align*}
\Cov(\tilde{\alpha}, \tilde{\beta}) &=
\Cov\left( \frac{X_T Y_1 – X_1 Y_T}{X_T-X_1}, \frac{Y_T-Y_1}{X_T-X_1} \right)
\\
&=
\frac{1}{(X_T-X_1)^2} (-X_1-X_T)\sigma^2
= -\frac{X_1+X_T}{(X_T-X_1)^2} \sigma^2
\end{align*}
となるので、[1]での分散を使えば
\begin{align*}
\textrm{V} [\tilde{Y}_{T+1}] &=
\frac{X_1^2+X_T^2}{(X_T-X_1)^2} \sigma^2
-2\frac{(X_1+X_T)X_{T+1}}{(X_T-X_1)^2} \sigma^2
+ \frac{2X_{T+1}^2}{(X_T-X_1)^2} \sigma^2
\\
&= \frac{2\sigma^2}{(X_T-X_1)^2} \left(
\frac{(X_T^2 + X_1^2)}{2} – (X_1+X_T)X_{T+1} + X_{T+1}^2
\right)
\\
&=
\frac{2\sigma^2}{(X_T – X_1)^2} \left\{
\left( X_{T+1} – \frac{X_1+X_T}{2} \right)^2 +
\frac{X_1^2}{4} – \frac{X_1X_T}{2} + \frac{X_T^2}{4}
\right\}
\\
&=
\frac{2\sigma^2}{(X_T – X_1)^2} \left\{
\left( X_{T+1} – \frac{X_1+X_T}{2} \right)^2 +
\frac{1}{4} (X_1 – X_T)^2
\right\}
\\
&=
\left\{
\frac{2}{(X_T – X_1)^2}\left( X_{T+1} – \frac{X_1+X_T}{2} \right)^2 +
\frac{1}{2}
\right\} \sigma^2
\end{align*}
となる。

[4]

3点$X_1, X_c, X_T$の単回帰モデルでの最小二乗推定量$\hat{\beta}$の分散は[2]より
\[
\textrm{V}[\hat{\beta}] =
\frac{\sigma^2}{(X_1 – \bar{X})^2 + (X_c – \bar{X})^2 + (X_T – \bar{X})^2}
\]
と与えられる。ここで、$\dis{\bar{X} = \frac{1}{3}(X_1+X_c+X_t)}$。
この分散を最小にする$X_c$は分母を最大にする$X_c$である。このとき、分母は2次の項が正となる$X_c$の2次関数となってる。いま、$X_c$は$X_1 \le X_c \le X_T$より端点で最大となる。よって、最小二乗推定量$\hat{\beta}$の分散を最小にするような$X_c$を選ぶならば$X_c=X_1$または$X_c=X_T$とすればよい。