【統計検定1級】統計応用・社会科学 2022年 問1【解答】

本記事は、2022年に実施された統計検定1級・統計応用・社会科学の問2について、投稿者による解答例と解説を掲載しています。
統計検定の問題は、実施団体が定める「統計検定の問題の使用に関する規約」により、当サイトでは掲載いたしません。出題の正確な内容や公式の解答は公式問題集等をご参照ください。
記載内容は投稿者個人の見解であり、一般財団法人統計質保証推進協会および日本統計学会の公式見解・公式解答ではありません。
統計検定®は一般財団法人統計質保証推進協会の登録商標です。

解答

[1]

離散型確率変数の期待値は$\E[X] = \sum_{i=1}^k x_i f(x_i)$より、
\[
\E[ I_i(S) ] = 1 \times \pi_i + 0 \times (1-\pi_i) = \pi_i,
\quad
i = 1, \ldots, N
\]
となり、これより
\begin{align*}
\E[ \hat{T}_\pi ] &=
\E \left[ \sum_{i=1}^N I_i (S) \frac{y_i}{\pi_i} \right]
\\
&= \sum_{i=1}^N \E[I_i (S)] \frac{y_i}{\pi_i} = \sum_{i=1}^N y_i = T_y
\end{align*}
となるので、$\hat{T}_\pi$は不偏推定量であることがわかる

[2]

分散は$\Var (X) = \E[X^2] – (\E[X])^2$より
\begin{align*}
\Var (\hat{T}_\pi ) =
\Var \left( \sum_{i=1}^N I_i (S) \frac{y_i}{\pi_i} \right) &=
\E\left[
\left( \sum_{i=1}^N I_i (S) \frac{y_i}{\pi_i} \right)^2
\right] –
\left(\E\left[
\sum_{i=1}^N I_i (S) \frac{y_i}{\pi_i}
\right]\right)^2
\\
&=
\E\left[
\sum_{i=1}^N \sum_{j=1}^N I_i (S) I_j (S) \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
\right] –
\left(\sum_{i=1}^N y_i \right)^2
\\
&=
\sum_{i=1}^N \sum_{j=1}^N \E[I_i (S) I_j (S)] \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
– \sum_{i=1}^N \sum_{j=1}^N y_i y_j
\end{align*}
となる。ここで、$\E[I_i (S) I_j (S)]$は
\[
\E[I_i (S) I_j (S)] = 1 \times \pi_{ij} + 0 \times (1-\pi_{ij})
= \pi_{ij}
\]
となる。これより、
\begin{align*}
\Var (\hat{T}_\pi ) &=
\sum_{i=1}^N \sum_{j=1}^N \pi_{ij} \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
– \sum_{i=1}^N \sum_{j=1}^N y_i y_j
\\
&=
\sum_{i=1}^N \sum_{j=1}^N
(\pi_{ij} – \pi_i \pi_j) \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
\end{align*}

[3]

まず、分散の推定量$\hat{\textrm{V}}[\hat{T}_\pi]$は
\[
\hat{\textrm{V}}[\hat{T}_\pi] =
\sum_{i\in S} \sum_{j\in S}
\frac{\pi_{ij} – \pi_i \pi_j}{\pi_{ij}} \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
\sum_{i=1}^N \sum_{j=1}^N
I_i (S) I_j (S) \frac{\pi_{ij} – \pi_i \pi_j}{\pi_{ij}} \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
\]
と表せる。これより
\begin{align*}
\E[\hat{\textrm{V}}[\hat{T}_\pi] ] &=
\sum_{i=1}^N \sum_{j=1}^N \E[I_i (S) I_j (S)]
\frac{\pi_{ij} – \pi_i \pi_j}{\pi_{ij}} \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
\\
&= \sum_{i=1}^N \sum_{j=1}^N
\sum_{i=1}^N \sum_{j=1}^N
(\pi_{ij} – \pi_i \pi_j) \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
= \Var (\hat{T}_\pi )
\end{align*}
となり、$\hat{\textrm{V}}[\hat{T}_\pi]$は分散の不偏推定量であることがわかる。

[4]

まず、$I_i (S)$は標本$S$に含まれれば1の値をとるので、それらを足した値は標本の大きさ$n$に一致する、つまり
\[
\sum_{i=1}^N I_i (S) = n
\]
このとき、この両辺に期待値をとれば左辺は
\[
\sum_{i=1}^N \E[I_i (S)] = \sum_{i=1}^N \pi_i
\]
となり、$n = \dis{\sum_{i=1}^N \pi_i}$をえる。
また、
\[
\sum_{i=1}^N I_i (S) I_j (S) = n I_j (S)
\]
の両辺に期待値をとれば左辺は
\[
\sum_{i=1}^N \E[I_i (S) I_j (S)] = \sum_{i=1}^N \pi_{ij}
\]
となり、また右辺は$n \E[I_j (S)] = n \pi_j$となるので$n \pi_j = \dis{\sum_{i=1}^N \pi_{ij}}$をえる。
これらの結果より
\begin{align*}
\sum_{j=1}^N (\pi_{ij} – \pi_i \pi_j) &=
n \pi_i – n \pi_i = 0
\end{align*}
が成り立つ。

[5]

まず、
\[
\left( \frac{y_i}{\pi_i} – \frac{y_j}{\pi_j} \right)^2 =
\left( \frac{y_i}{\pi_i} \right)^2 -2 \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
+ \left( \frac{y_j}{\pi_j} \right)^2
\]
となる。これより、
\begin{align*}
&\quad
\frac{1}{2}
\sum_{i=1}^N \sum_{j=1}^N
(\pi_i \pi_j – \pi_{ij}) \left( \frac{y_i}{\pi_i} – \frac{y_j}{\pi_j} \right)^2
\\
&=
\frac{1}{2}
\sum_{i=1}^N \sum_{j=1}^N (\pi_i \pi_j – \pi_{ij})
\left\{
\left( \frac{y_i}{\pi_i} \right)^2 -2 \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
+ \left( \frac{y_j}{\pi_j} \right)^2
\right\}
\\
&=
\frac{1}{2}
\sum_{i=1}^N \sum_{j=1}^N
(\pi_i \pi_j – \pi_{ij}) \left( \frac{y_i}{\pi_i} \right)^2
\\
&\quad
+ \sum_{i=1}^N \sum_{j=1}^N
(\pi_{ij} – \pi_i \pi_j) \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
\\
&\quad
+ \frac{1}{2} \sum_{i=1}^N \sum_{j=1}^N
(\pi_i \pi_j – \pi_{ij}) \left( \frac{y_j}{\pi_j} \right)^2
\end{align*}
ここで、[4]より第1項が
\[
\frac{1}{2}\sum_{i=1}^N \sum_{j=1}^N
(\pi_i \pi_j – \pi_{ij}) \left( \frac{y_i}{\pi_i} \right)^2
= \frac{1}{2}\sum_{i=1}^N \left( \frac{y_i}{\pi_i} \right)^2
\sum_{j=1}^N (\pi_i \pi_j – \pi_{ij}) = 0
\]
となり、同様にして第3項が
\[
\frac{1}{2}\sum_{i=1}^N \sum_{j=1}^N
(\pi_i \pi_j – \pi_{ij}) \left( \frac{y_j}{\pi_j} \right)^2
= \frac{1}{2}\sum_{j=1}^N \left( \frac{y_j}{\pi_j} \right)^2
\sum_{i=1}^N (\pi_i \pi_j – \pi_{ij}) = 0
\]
となる。これより、$\hat{T}_\pi$の分散が
\begin{align*}
\textrm{V} [ \hat{T}_\pi] &=
\sum_{i=1}^N \sum_{j=1}^N
(\pi_{ij} – \pi_i \pi_j) \frac{y_i}{\pi_i} \frac{y_j}{\pi_j}
\\
&=\frac{1}{2}
\sum_{i=1}^N \sum_{j=1}^N
(\pi_i \pi_j – \pi_{ij}) \left( \frac{y_i}{\pi_i} – \frac{y_j}{\pi_j} \right)^2
\end{align*}
と表せる。
次に、$\hat{V}_2[\hat{T}_\pi]$が不偏推定量になることは、
\[
\hat{V}_2[\hat{T}_\pi = \frac{1}{2} \sum_{i=1}^N \sum_{j=1}^N
I_i(S) I_j(S) \frac{\pi_i \pi_j – \pi_{ij}}{\pi_{ij}}
\left( \frac{y_i}{\pi_i} – \frac{y_j}{\pi_j} \right)^2
\]
と表すと、$\E[I_i(S) I_j(S)] = \pi_{ij}$より
\begin{align*}
\E[\hat{V}_2[\hat{T}_\pi] &=
\frac{1}{2} \sum_{i=1}^N \sum_{j=1}^N
\E[I_i(S) I_j(S)] \frac{\pi_i \pi_j – \pi_{ij}}{\pi_{ij}}
\left( \frac{y_i}{\pi_i} – \frac{y_j}{\pi_j} \right)^2
\\
&=
\frac{1}{2}
\sum_{i=1}^N \sum_{j=1}^N
(\pi_i \pi_j – \pi_{ij}) \left( \frac{y_i}{\pi_i} – \frac{y_j}{\pi_j} \right)^2
= \textrm{V} [ \hat{T}_\pi]
\end{align*}
となるので、$\hat{V}_2[\hat{T}_\pi]$は不偏推定量である。