目次(まとめ)

◾️ 有意水準とは、誤って帰無仮説を棄却してしまう確率のこと

◾️ 多重性の問題とは、検定を複数回重ねるときに生じる

◾️ ボンフェローニ補正では、有意水準を検定回数で割って定義する

◾️ 参考文献

◾️ 関連記事


こんにちは、みっちゃんです。

今回の記事では、仮説検定が複数回になるときに問題となる「多重性」と、それに対処する手法の1つである「ボンフェローニ補正」について紹介します。

有意水準とは、誤って帰無仮説を棄却してしまう確率のこと

いま、母集団の確率分布を決めるパラメータ \(\theta\) があり、\(\theta\) がとることができるすべての値の集合を \(\Theta\) とします。

例えば、薬Aと薬Bの効果を比較したいとき、「薬Aと薬Bの効果に差がない」という帰無仮説 \(H_0\) を立てて仮説検証を行うことを考えます。

\(H_0\) が成り立つとき、パラメータ \(\theta\) が \(\Theta_0\) に含まれるとします。つまり、\(\Theta_0\) に含まれる \(\theta\) によって「薬Aと薬Bの効果に差がない」という仮説が成り立つということです。

しかし、本当は \(\Theta_0\) に含まれる \(\theta\) に対して「薬Aと薬Bの効果に差がない」という仮説が正しいのにもかかわらず、誤ってこの仮説が間違っていると ”棄却” してしまうこともあります(第1種の誤り:詳しくはこちらの記事をご覧ください)。

そこで、帰無仮説 \(H_0\) の棄却域を、このような誤りを起こしてしまう確率が(\(\Theta_0\) に含まれる \(\theta\) に対して)\(\alpha\) 以下になるように設定します。

この "第1種の誤りの確率" に対応する \(\alpha\) のことを「有意水準」と呼び、一般には、\(0.05\) などの数値が用いられています。

多重性の問題とは、検定を複数回重ねるときに生じる

有意水準 \(\alpha = 0.05\) のとき、「薬Aと薬Bの効果に差がない」という帰無仮説を誤って棄却して、「薬Aと薬Bの効果に差がある」という対立仮説を採択してしまう確率が \(0.05\) です(有意差あり)。

逆に言うと、「薬Aと薬Bの効果に差がない」という帰無仮説を正しく採択して、「薬Aと薬Bの効果に差がある」という対立仮説を棄却する確率は \(0.95\) ということになります(有意差なし)。

それでは、薬Aと薬Bに加えて薬Cを考え、「薬Aと薬Bの効果に差がない」「薬Aと薬Cの効果に差がない」という2つの帰無仮説を検証する場合にはどうなるでしょうか。

2つの帰無仮説の両方を正しく採択する確率は \(0.95^2\) であるので、2つの帰無仮説のうち、少なくとも1つの仮説を誤って棄却する確率は \(1 - 0.95^2 = 0.0975\)、つまり約9.8%となります。

薬Aと薬Bとの比較では、帰無仮説を誤って棄却する確率が \(0.05\) になるようにしていたのにもかかわらず、薬Cが加わり検定が重なることで、帰無仮説を誤って棄却する確率が \(0.0975\) まで上がってしまっていることがわかります。

この現象が「多重性の問題」と呼ばれています。

ボンフェローニ補正では、有意水準を検定回数で割って定義する

ボンフェローニの補正は、多重性の問題を解決するための手段の1つです。

補正方法は簡単で「有意水準を検定回数で割る」というだけです。

例えば上の例では、有意水準 \(\alpha = 0.05\) を用いて、2つの検定を考えていました。

そこで、ボンフェローニの補正では、有意水準 \(\alpha' = 0.05/2 = 0.025\) を用いて検定を行います。

この場合、2つの帰無仮説の両方を正しく採択する確率は \(0.975^2\) であるので、2つの帰無仮説のうち、少なくとも1つの仮説を誤って棄却する確率は \(1 - 0.975^2 = 0.0494\)、つまり約5%となり、もともと想定していた有意水準 \(\alpha\) と一致することがわかります。

このように「ボンフェローニ補正」はシンプルですが、「検出力」という面では劣っており有意差がつきづらくなるという問題があるので注意が必要です。

参考文献

久保川達也「現代数理統計学の基礎」共立出版

関連記事