目次(まとめ)

◾️ スコア検定は、スコア関数の特性をいかした仮説検定法

◾️ ベルヌーイ分布を例に、スコア検定の棄却域を算出

◾️ 参考文献

◾️ 関連記事


こんにちは、みっちゃんです。

今回の記事では、スコア関数を用いた仮説検定である「スコア検定」について紹介します。

スコア検定は、スコア関数の特性をいかした仮説検定法

以前の記事で紹介したように、スコア関数は、以下のように定義されます。
$$S_n(\theta, {\bf X}) = \frac{d}{d\theta} {\rm log}f_n({\bf X}, \theta)$$
このスコア関数は、平均 \(0\)、分散 \(nI_1(\theta)\) となることから、分布収束の考え方から以下のような関係が成り立ちます(分布収束については、こちらの記事をご参照ください)。
$$\frac{S_n(\theta, {\bf X})}{\sqrt{nI_1(\theta)}} \rightarrow_d N(0, 1)$$
つまり、\(\frac{S_n(\theta, {\bf X})}{\sqrt{nI_1(\theta)}}\) が標準正規分布に分布収束することを意味します。

ここで、以下のような帰無仮説と対立仮説を用いた検定を考えます。
$$H_0:\theta = \theta_0\\H_1:\theta \neq \theta_0$$
\(\frac{S_n(\theta, {\bf X})}{\sqrt{nI_1(\theta)}}\) が標準正規分布に分布収束することから、標準正規分布表を用いた検定を行うことができます。

この検定は「スコア検定」と呼ばれ、以下のような棄却域となります。
$$R = \{{\bf x} \in \chi | \frac{|S_n(\theta_0, {\bf x})|}{\sqrt{nI_1(\theta_0)}} \geq z_{\frac{\alpha}{2}}\}\qquad(*)$$

ベルヌーイ分布を例に、スコア検定の棄却域を算出

いま、\(n\) 個の標本 \(X_1, X_2, ..., X_n\) が、パラメータ \(p\) のベルヌーイ分布にしたがうとすると、それぞれの確率関数は以下のように表現されます(ベルヌーイ分布についてはこちらの記事をご参照ください)。
$$P(x | p) = p^x(1-p)^{1-x}$$
したがって、尤度関数 \(L(p, {\bf x})\) は、以下のようになります。
$$\begin{eqnarray}L(p, {\bf x}) &=& \prod_{i = 1}^n p^{x_i}(1-p)^{1-x_i}\\&=&p^{x_1}(1-p)^{1-x_1}p^{x_2}(1-p)^{1-x_2}...p^{x_n}(1-p)^{1-x_n}\end{eqnarray}$$
さらに、両辺対数をとることで、対数尤度関数を得ることができます。
$$\begin{eqnarray}l(p, {\bf x}) &=& {\rm log}L(p, {\bf x})\\&=& x_1 {\rm log} p + (1 - x_1) {\rm log} (1-p) + ... + x_n {\rm log} p + (1 - x_n) {\rm log} (1-p)\end{eqnarray}$$
スコア関数は、対数尤度関数をパラメータ \(p\) で1階微分することにより得られることから、以下のようになります。
$$\begin{eqnarray}S_n(p, {\bf X}) &=& \frac{d}{dp} l(p, {\bf x})\\ &=&\frac{x_1 + x_2 + ... + x_n}{p} + \frac{(x_1-1) + (x_2-1) + ... + (x_n -1)}{1-p}\\&=&\frac{t - np}{p(1-p)}\end{eqnarray}$$
ここで、\(t = \sum_{i = 1}^n x_i\) です。

また、尤度方程式 \(S_n(p, {\bf X}) = 0\) を考えると、パラメータ \(p\) の尤度推定量 \({\hat p}\) は以下のようになります。
$${\hat p} = \frac{t}{n}$$
したがって、\(t = n {\hat p}\) となり、スコア関数は、以下のように表現できます。
$$S_n(p, {\bf X}) = \frac{n({\hat p} - p)}{p(1-p)}$$
スコア検定を行うためには、1個のデータに対するフィッシャー統計量 \(I_1(p)\) を求めればいいので、以下のように算出します。
$$\begin{eqnarray}I_1(p) &=&-E[\frac{d^2}{dp^2} l(p, x_1)] \\&=&-E[-\frac{x_1}{p^2} + \frac{x_1-1}{(1-p)^2}]\\&=&E[\frac{x_1}{p^2} + \frac{1-x_1}{(1-p)^2}]\\&=&\frac{1}{p^2}E[x_1] + \frac{1}{(1-p)^2} - \frac{1}{(1-p)^2}E[x_1]\end{eqnarray}$$
ベルヌーイ分布の期待値 \(E[X]\) は \(p\) になるので、式を整理すると、\(I_1(p) = \frac{1}{p(1-p)}\) になります。

よって、\((*)\) に、\(S_n(p, {\bf X}) = \frac{n({\hat p} - p)}{p(1-p)}\) と \(I_1(p) = \frac{1}{p(1-p)}\) を代入することにより、以下のような棄却域が得られます。
$$R = \{{\bf x} \in \chi | \frac{|\frac{n({\hat p} - p_0)}{p_0(1-p_0)}|}{\sqrt{n\frac{1}{p_0(1-p_0)}}} \geq z_{\frac{\alpha}{2}}\}$$
整理すると、
$$R = \{{\bf x} \in \chi | \frac{\sqrt{n} |{\hat p} - p_0|}{\sqrt{p_0(1-p_0)}}\geq z_{\frac{\alpha}{2}}\}$$
となります。

参考文献

久保川達也「現代数理統計学の基礎」共立出版

関連記事