カテゴリー:

  • 回帰母数の検定と推定がよくわかる

    回帰母数の検定と推定がよくわかる

    「回帰母数の検定と推定がわからない」など、疑問に思いませんか?

    こういう疑問に答えます。

    本記事のテーマ

    回帰母数の検定と推定がよくわかる

    おさえておきたいポイント

    • ①回帰母数の検定・推定に必要な公式
    • ➁回帰の検定が理解できる例題
    • ➂回帰直線の傾きについての検定と推定
    • ➃回帰直線の\(y\)切片についての検定と推定
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    ①回帰母数の検定・推定に必要な公式

    基本は、回帰直線の推定区間の導出から得られる公式を使って解いていきます。
    理論は関連記事で確認ください。

    回帰直線の区間推定が導出できる(その1)
    回帰直線の区間推定が暗記せず、公式が導出できますか?本記事では2回に分けて導出過程をわかりやすく解説します。公式暗記に頼らず式を理解することがとても大事です。回帰分析を勉強する人は必読です。

    回帰直線の区間推定が導出できる(その2)
    回帰直線の区間推定が暗記せず、公式が導出できますか?本記事では2回に分けて導出過程をわかりやすく解説します。公式暗記に頼らず式を理解することがとても大事です。回帰分析を勉強する人は必読です。

    傾き\(a\)について

    関連記事からは、傾き\(a\)の期待値E[\(a\)]と分散V[\(a\)]は以下の式です。

    ●E[\(a\)]= \(a\)
    ●V[\(a\)]= \(\frac{σ^2}{S_{xx}}\)

    なので、これが正規分布に従うとしたら、
    傾き\(a\)は、N[\(a\)、\(\frac{σ^2}{S_{xx}}\)]
    に従うと書けますね。

    標準化して、正規分布を使った検定統計量を式にすると

    \(u\)=\(\frac{a-a_0}{\sqrt{σ^2/S_{xx}}}\)
    は正規分布N(0,\(1^2\))に従います。

    ただし、実際は\(σ^2\)を推定しないといけないので、よくt分布の直して検定と推定を行いますね。個人的には、別に正規分布のままで検定と推定してもよいと思いますけど。

    \(σ^2\)→Veに直して、 残差の自由度\(n-2\)を使って、t分布に従う検定統計量を書き直します。

    ●検定統計量\(t\)=\(\frac{a-a_0}{\sqrt{Ve/S_{xx}}}\)
    は自由度\(n-2\)のt分布に従い、
    ●区間推定は \(a\)± \(t(n-2,α)\)\(\sqrt{\frac{Ve}{S_{xx}}}\)
    から計算します。

    \(y\)切片\(b\)について

    関連記事からは、傾きy切片\(b\)の期待値E[\(b\)]と分散V[\(b\)]は以下の式です。

    ●E[\(b\)]= \(b\)
    ●V[\(b\)]=\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)

    なので、これが正規分布に従うとしたら、
    傾き\(y\)切片\(b\)は、N[\(b\)、\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)]
    に従うと書けますね。

    標準化して、正規分布を使った検定統計量を式にすると

    \(u\)=\(\frac{b-b_0}{\sqrt{σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}}\)
    は正規分布N(0,\(1^2\))に従います。

    ただし、実際は\(σ^2\)を推定しないといけないので、よくt分布の直して検定と推定を行いますね。個人的には、別に正規分布のままで検定と推定してもよいと思いますけど。

    \(σ^2\)→Veに直して、 残差の自由度\(n-2\)を使って、t分布に従う検定統計量を書き直します。

    ●検定統計量\(t\)=\(\frac{b-b_0}{\sqrt{Ve(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}}\)
    は自由度\(n-2\)のt分布に従い、
    ●区間推定は \(b\)± \(t(n-2,α)\)\(\sqrt{Ve(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}\)
    から計算します。

    OKですね。では、実例を使って計算してみましょう。

    ➁回帰の検定が理解できる例題

    例題をあげましょう。

    10個のデータがあったが、再実験して下表のデータが得られた。
    元のデータにおいては、
    ●傾き\(a_0\)=1.2
    ●\(y\)切片\(b_0\)=-8
    だった。
    (1) 傾き\(a\)において、元の傾きから変化したかどうかを検定せよ。
    (2) 傾き\(a\)における信頼率95%の信頼区間を計算せよ。
    (3) \(y\)切片\(b\)において、元の\(y\)切片から変化したかどうかを検定せよ。
    (4) \(y\)切片\(b\)における信頼率95%の信頼区間を計算せよ。
    No
    1 1.3 2.4
    2 3.4 4.5
    3 5.6 3.6
    4 7.5 6.7
    5 9.1 8.9
    6 11.2 6.6
    7 13.4 14.3
    8 13.7 24.5
    9 14.2 20.8
    10 16.2 30.5
    合計 95.6 122.8

    平方和 分散分析 S Φ V データ
    Sxx 226.50 R 659.52 1 659.52 傾き\(a\) 1.7
    Syy 866.28 e 206.76 8 25.84 \(y\)切片\(b\) -4.03
    Sxy 386.50 T 866.28 9 R 0.76

    回帰分析

    では解いてみましょう。

    ➂回帰直線の傾きについての検定と推定

    傾きについての検定

    検定統計量を使って計算します。

    ●検定統計量\(t\)=\(\frac{a-a_0}{\sqrt{Ve/S_{xx}}}\)

    ●\(t\)=\(\frac{1.70-1.2}{\sqrt{25.84/226.50}}\)
    =1.50 < \(t(10-2,0.05)\)=2.306
    より、傾きが変化したとはいえないという結果になります。

    傾きについての推定

    ●区間推定は \(a\)± \(t(n-2,α)\)\(\sqrt{\frac{Ve}{S_{xx}}}\)

    ●区間推定=1.70± 2.306×\(\sqrt{\frac{25.84}{226.50}}\)
    =0.93~2.49
    となります。

    基本をしっかりおさえていれば、あとは公式代入で解けます。もちろん、理論が一番大事ですよ!

    ➃回帰直線の\(y\)切片についての検定と推定

    ●検定統計量\(t\)=\(\frac{b-b_0}{\sqrt{Ve(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}}\)

    ●\(t\)=\(\frac{-4.03-(-8)}{\sqrt{25.84(\frac{1}{10}+\frac{\bar{9.56^2}}{226.50})}}\)
    =1.10 < \(t(10-2,0.05)\)=2.306
    より、\(y\)切片が変化したとはいえないという結果になります。

    傾きについての推定

    ●区間推定は \(b\)± \(t(n-2,α)\)\(\sqrt{Ve(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}\)

    ●区間推定=-4.03±2.306×\(\sqrt{25.84(\frac{1}{10}+\frac{\bar{9.56^2}}{226.50})}\)
    =-12.35~4.29
    となります。

    結構幅が広いことがわかりますね。

    難しい計算問題でしたが、ちゃんとできましたね!

    公式は導出できてから使いましょう。

    まとめ

    「回帰母数の検定と推定がよくわかる」を解説しました。

    • ①回帰母数の検定・推定に必要な公式
    • ➁回帰の検定が理解できる例題
    • ➂回帰直線の傾きについての検定と推定
    • ➃回帰直線の\(y\)切片についての検定と推定

  • 回帰直線の区間推定が導出できる(その2)

    回帰直線の区間推定が導出できる(その2)

    「回帰直線の区間推定の求め方かがわからない」など、疑問に思いませんか?

    こういう疑問に答えます。

    2回に分けて解説します!

    本記事のテーマ

    回帰直線の推定区間が導出できる(その2)

    おさえておきたいポイント

    • ①回帰直線の推定区間とは(その1)
    • ➁【重要】回帰直線の区間推定導出のポイント(その1)
    • ➂導出過程に必要な値を事前に計算(その1)
    • ➃回帰直線の傾き\(a\)の期待値と分散を導出(その2)
    • ➄回帰直線の\(y\)切片の\(b\)の期待値と分散を導出(その2)
    • ⑥回帰直線の区間推定領域を図示(その2)
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    ①回帰直線の推定区間とは

    ➁【重要】回帰直線の区間推定導出のポイント

    ➂導出過程に必要な値を事前に計算

    関連記事の(その1)で確認しましょう。

    回帰直線の区間推定が導出できる(その1)
    回帰直線の区間推定が暗記せず、公式が導出できますか?本記事では2回に分けて導出過程をわかりやすく解説します。公式暗記に頼らず式を理解することがとても大事です。回帰分析を勉強する人は必読です。

    要するに

    回帰直線の傾き\(a\)とy切片\(b\)の
    期待値と分散を導出して、
    期待値±標準偏差の値が回帰直線の区間推定領域を作る!となりますね。

    (その2)では、実際に導出していきます。

    ➃回帰直線の傾き\(a\)の期待値と分散を導出

    求めたい値を再度確認

    \(a\),\(b\)の期待値と分散が導出できれば本記事はOKです。
    ●E[\(a\)]=\(a\)
    ●V[\(a\)]=\(\frac{σ^2}{S_{xx}}\)
    ●E[\(b\)]=\(b\)
    ●V[\(b\)]=\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)
    を計算します。E[\(a\)]とV[\(a\)]を解きましょう。

    回帰直線の傾き\(a\)の期待値E[\(a\)]を導出

    回帰直線の傾き\(a\)=\(\frac{S_{xy}}{S_{xx}}\)です。分母分子の関係式を考えます。

    \(S_{xy}\)をいじる

    特に\(y\)が変数なので、\(S_{xy}\)をいじります。
    \(S_{xy}\)=\(\sum_{i=1}^{n}(x_i-\bar{x})(y_i-\bar{y})\)
    =\(\sum_{i=1}^{n}(x_i-\bar{x})y_i\)-\(\sum_{i=1}^{n}(x_i-\bar{x})\bar{y}\)
    =\(\sum_{i=1}^{n}(x_i-\bar{x})y_i\)-\(\bar{y} \sum_{i=1}^{n}(x_i-\bar{x})\)
    =\(\sum_{i=1}^{n}(x_i-\bar{x})y_i\)-\(\bar{y} \)×0
    =\(\sum_{i=1}^{n}(x_i-\bar{x})y_i\)
    (マーカの式は後でも使います。)

    期待値E[X]を使って変形

    次に、期待値E[X]を使って変形していきます。
    \(y_i\)=\(ax_i+b+ε_i\)より
    E[\(S_{xy}\)]=E[\(\sum_{i=1}^{n}(x_i-\bar{x})y_i\)]
    =E[\(\sum_{i=1}^{n}(x_i-\bar{x})( ax_i+b+ε_i)\)]
    展開すると
    =\(a\)E[\(\sum_{i=1}^{n}(x_i-\bar{x})x_i\)]+ \(b\)E[\(\sum_{i=1}^{n}(x_i-\bar{x})\)]+E[\(\sum_{i=1}^{n}(x_i-\bar{x})ε_i\)]

    ここで、第2項において、\(\sum_{i=1}^{n}(x_i-\bar{x})\)=0なので、
    第2項は0です。

    次に第3項において、
    \(ε_i\)は\(y\)方向についてのばらつきなので、
    \(ε_i\)と\(x_i-\bar{x}\)とは独立です。
    独立な場合は期待値には便利な性質があり、
    E[XY]=E[X]E[Y]があります。これを使うと、
    E[\(\sum_{i=1}^{n}(x_i-\bar{x})ε_i\)]
    = E[\(\sum_{i=1}^{n}(x_i-\bar{x}) \)]×E[\(\sum_{i=1}^{n}ε_i\)]
    なんと、\(\sum_{i=1}^{n}(x_i-\bar{x})\)=0なので、
    =0×E[\(\sum_{i=1}^{n}ε_i\)]=0です。

    まとめると、
    E[\(S_{xy}\)]=\(a\)E[\(\sum_{i=1}^{n}(x_i-\bar{x})x_i\)]
    です。

    さらに、和が0なら式を加えても値は変わらないので、
    あえて
    \(a\)E[\(\sum_{i=1}^{n}(x_i-\bar{x})\bar{x}\)]
    をE[\(S_{xy}\)]に加えると、値は変わらないまま

    E[\(S_{xy}\)]=\(a\)E[\(\sum_{i=1}^{n}(x_i-\bar{x})x_i\)]-\(a\)E[\(\sum_{i=1}^{n}(x_i-\bar{x})\bar{x}\)]
    =\(a\)E[\(\sum_{i=1}^{n}(x_i-\bar{x})(x_i-\bar{x})\)]
    =\(a\)E[\(\sum_{i=1}^{n}(x_i-\bar{x})^2\)]
    =\(a\)E[\(S_{xx}\)]
    となります。

    \(x\)は定数扱いなので、E[\(S_{xx}\)]の中身はそのまま取り出せて、E[\(S_{xx}\)]= \(S_{xx}\)です。

    よって、期待値E[\(a\)]は
    E[\(a\)]=E[\(\frac{aS_{xx}}{S_{xx}}\)]=\(a\)となります。
    E[\(a\)]=\(a\)は当たり前だけど、途中経過が難しいし、期待値の性質を使った式変形の難しさを思い知らされますね!

    回帰直線の傾き\(a\)の分散V[\(a\)]を導出

    期待値の計算で難しさをわかったところで、分散も解きましょう。

    V[\(a\)]=V[\(\frac{S_{xy}}{S_{xx}}\)]ですから、
    変数\(y\)を含むV[\(S_{xy}\)]の計算が必要です。

    分散V[\(S_{xy}\)]の計算

    先ほどの計算で、以下の3点を意識して分散V[\(S_{xy}\)]を計算します。

    1. \( S_{xy}\)=\(\sum_{i=1}^{n}(x_i-\bar{x})y_i\)
    2. \(y_i=ax_i+b+ε_i\)
    3. 変数は\(y_i\),\(x_i\)は定数扱い

    V[\(S_{xy}\)]= V[\(\sum_{i=1}^{n}(x_i-\bar{x})y_i\)]
    = V[\(\sum_{i=1}^{n}(x_i-\bar{x})( ax_i+b)\)]+ V[\(\sum_{i=1}^{n}(x_i-\bar{x})ε_i \)]
    (\((x_i-\bar{x})( ax_i+b)\)は\(x\)だけ、\((x_i-\bar{x})ε_i)\)は\(xy\)についてで、互いに独立)
    ここで、\(x\)についての値は定数と考えるので、
    ●V[\(\sum_{i=1}^{n}(x_i-\bar{x})( ax_i+b)\)]=0
    ●V[\(\sum_{i=1}^{n}(x_i-\bar{x})ε_i \)]=\(\sum_{i=1}^{n}(x_i-\bar{x})^2\) V[\(ε_i \)]
    となります。
    V[\(\sum_{i=1}^{n}(x_i-\bar{x})( ax_i+b)\)]+ V[\(\sum_{i=1}^{n}(x_i-\bar{x})ε_i \)]
    =\(\sum_{i=1}^{n}(x_i-\bar{x})^2\) V[\(ε_i \)]
    =\(\sum_{i=1}^{n}(x_i-\bar{x})^2 σ^2\)
    (V[\(ε_i \)]=\(σ^2\)より)
    =\(σ^2 S_{xx}\)

    まとめると、V[\(S_{xy}\)]は
    ●V[\(S_{xy}\)]=\(σ^2 S_{xx}\)

    よって、分散V[\(a\)]は
    V[\(a\)]=V[\(\frac{ S_{xy}}{S_{xx}}\)]
    より、\( S_{xx}\)は定数扱いなので、Vの外には2乗して出します。ややこしい!
    V[\(a\)]=\(\frac{1}{S_{xx}^2}\)V[\(S_{xy}\)]
    =\(\frac{1}{S_{xx}^2}\)\(σ^2 S_{xx}\)
    =\(\frac{σ^2}{S_{xx}}\)
    となります。

    よって、分散V[\(a\)]は
    V[\(a\)]=\(\frac{σ^2}{S_{xx}}\)となります。

    結果はシンプルですが、計算は結構難しいですね。

    傾き\(a\)を使って、期待値、分散の計算が慣れてきましたので
    Y切片\(b\)の期待値、分散の計算をしましょう。

    ➄回帰直線の\(y\)切片の\(b\)の期待値と分散を導出

    求めたい値を再度確認

    \(a\),\(b\)の期待値と分散が導出できれば本記事はOKです。
    ●E[\(a\)]=\(a\)
    ●V[\(a\)]=\(\frac{σ^2}{S_{xx}}\)
    ●E[\(b\)]=\(b\)
    ●V[\(b\)]=\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)
    を計算します。E[\(b\)]とV[\(b\)]を解きましょう。

    回帰直線の\(y\)切片\(b\)の期待値E[\(b\)]を導出

    回帰直線の\(y\)切片 \(b\)=\(-\frac{S_{xy}}{S_{xx}} \bar{x} +\bar{y}\)
    =\(-a \bar{x} + \bar{y}\)ですね。

    期待値E[\(b\)]は
    E[\(b\)]=E[\(-a \bar{x} + \bar{y}\)]=-E[\(a\)] E[\(\bar{x}\)]+ E[\(\bar{y}\)]
    となり、それぞれの期待値は以下の値を使うと
    ●E[\(a\)]=\(a\) (➃で導出しましたね!)
    ●E[\(\bar{x}\)]=\(\bar{x}\) (定数なのでそのまま期待値E[ ]の外に出る)
    ●E[\(\bar{y}\)]=\(\bar{y}\) (定数なのでそのまま期待値E[ ]の外に出る)

    E[\(b\)]=\(-a \bar{x} + \bar{y}\)=\(b\)
    となります。しっかり計算した結果、当たり前の結果になりましたね。

    回帰直線の\(y\)切片 \(b\)の分散V[\(b\)]を導出

    V[\(b\)]=V[\(-a \bar{x} + \bar{y}\)]

    ここで、

    ●X,Yが互いに独立なら V[X+Y]=V[X]+V[Y]で
    ●独立でないなら、V[X+Y]=V[X]+V[Y]+2Cov(X,Y)
    という、共分散Cov(X,Y)が出て来ますよね!

    結論から言えば
    \(-a \bar{x} \)と\( \bar{y}\)は互いに独立なので、
    V[\(b\)]=V[\(-a \bar{x} + \bar{y}\)]
    = V[\(-a \bar{x}\)] +V[\( \bar{y}\)]
    と分離でき、
    Cov(\(-a \bar{x}\),\( \bar{y}\))=0です。

    折角なので、Cov(\(-a \bar{x}\),\( \bar{y}\))=0も計算してみましょう。

    まず結論を急ぎます。

    V[\(b\)]= V[\(-a \bar{x}\)] +V[\( \bar{y}\)]
    で\(-\bar{x}\)は\(x\)についての変数なので、定数扱いして、
    =\((-1)^2 \bar{x^2}\) V[\(a\)] +V[\( \bar{y}\)]
    とします。

    ●V[\(a\)]=\(\frac{σ^2}{S_{xx}}\) (➃で導出しましたね。)
    V[\( \bar{y}\)]=\(\frac{σ^2}{n}\) (➂で導出しましたね。)
    を使います。導出過程はすでに解いていますので戻って確認しましょう。

    よって、
    V[\(b\)]=\( \bar{x^2}\) V[\(a\)] +V[\( \bar{y}\)]
    =\(\bar{x^2}\)\(\frac{σ^2}{S_{xx}}\)+\(\frac{σ^2}{n}\)
    =\(σ^2 (\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)
    となります。

    共分散Cov(\(-a \bar{x}\),\( \bar{y}\))=0を確認

    折角なので解いてみましょう。関連記事の➂にも解説しています。

    回帰直線の区間推定が導出できる(その1)
    回帰直線の区間推定が暗記せず、公式が導出できますか?本記事では2回に分けて導出過程をわかりやすく解説します。公式暗記に頼らず式を理解することがとても大事です。回帰分析を勉強する人は必読です。

    Cov(\(-a \bar{x}\),\( \bar{y}\))
    =Cov(\(\frac{S_{xy}}{S_{xx}} \bar{x}\),\( \bar{y}\))
    ●\(\bar{x}\)と\(S_{xx}\)は定数扱いなので、Covの外に出します。
    =\(\frac{\bar{x}}{S_{xx}}\) Cov(\(S_{xy}\),\( \bar{y}\))

    次に、\(S_{xy}\)と\( \bar{y}\)を展開して、Covの中の式を変形します。
    ●\(S_{xy}\)=\(\sum_{i=1}^{n}(x_i-\bar{x})y_i\) (➂で解説済です)
    ●\(\bar{y}\)=\(\sum_{i=1}^{n}\frac{y_1 +y_2+…+y_n}{n}\)(➁で解説済です)

    ➂のところで事前に紹介しましたが、
    共分散の性質で、\(X_i\)と\(Y_j\)が互いに独立ならば、
    ●Cov(\(X_1+X_2\),\(Y_1,Y_2\))= Cov(\(X_1\),\(Y_1\))+ Cov(\(X_1\),\(Y_2\))+ Cov(\(X_2\),\(Y_1\))+ Cov(\(X_2\),\(Y_2\))
    となります。

    以上の性質を活用すると、
    Cov(\(-a \bar{x}\),\( \bar{y}\))
    =\(\frac{\bar{x}}{S_{xx}}\) Cov(\(S_{xy}\),\( \bar{y}\))
    = Cov(\((x_1-\bar{x})y_1\),\(\frac{y_1}{n}\))
    + Cov(\((x_2-\bar{x})y_2\),\(\frac{y_2}{n}\))
    +…
    + Cov(\((x_n-\bar{x})y_n\),\(\frac{y_n}{n}\))
    となり、\(x,n\)は定数扱いとしてCovの外に出します。

    = \(\frac{x_1-\bar{x}}{n}\)Cov(\(y_1,y_1\))
    + \(\frac{x_2-\bar{x}}{n}\)Cov(\(y_2,y_2\))
    +…
    + \(\frac{x_n-\bar{x}}{n}\)Cov(\(y_n,y_n\))
    =\(\sum_{i=1}^{n}\frac{x_i -\bar{x}}{n}\)V[\(y_i\)]
    (Cov(X,X)=V[X]ですね。)
    =\(\sum_{i=1}^{n}\frac{x_i -\bar{x}}{n}\)\(σ^2\)
    となりますが、

    \(\sum_{i=1}^{n}(x_i -\bar{x})\)=0なので、共分散Covは0になります。

    よって、分散V[\(b\)]は
    V[\(b\)]=\(σ^2 (\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)

    ⑥回帰直線の区間推定領域を図示

    定数\(a,b\)の期待値と分散をまとめると

    導出結果をまとめると、
    ●E[\(a\)]=\(a\)
    ●V[\(a\)]=\(\frac{σ^2}{S_{xx}}\)
    ●E[\(b\)]=\(b\)
    ●V[\(b\)]=\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)
    になりましたね。

    では、実際に値を使って、回帰直線の区間推定領域を計算してグラフ化しましょう。

    データを用意

    例えば、次の値を用意します。ついでに平方和もグラフも出します。

    No A=\((x-\bar{x}\)) B=\((y-\bar{y}\)) A2 B2 AB
    1 1.3 2.4 -8.26 -9.88 68.23 97.61 81.61
    2 3.4 4.5 -6.16 -7.78 37.95 60.53 47.92
    3 5.6 3.6 -3.96 -8.68 15.68 75.34 34.37
    4 7.5 6.7 -2.06 -5.58 4.24 31.14 11.49
    5 9.1 8.9 -0.46 -3.38 0.21 11.42 1.55
    6 11.2 6.6 1.64 -5.68 2.69 32.26 -9.32
    7 13.4 14.3 3.84 2.02 14.75 4.08 7.76
    8 13.7 24.5 4.14 12.22 17.14 149.33 50.59
    9 14.2 20.8 4.64 8.52 21.53 72.59 39.53
    10 16.2 30.5 6.64 18.22 44.09 331.97 120.98
    合計 95.6 122.8 0 0 226.5 866.28 386.5
    平均 9.56 12.28 ↑\(S_{xx}\) ↑\(S_{yy}\) ↑\(S_{xy}\)

    グラフは下図です。
    回帰分析

    必要な各値を導出しましょう。
    ●E[\(a\)]=\(\frac{S_{xy}}{S_{xx}}\)=\(\frac{386.5}{226.5}\)=1.706
    ●V[\(a\)]=\(\frac{σ^2}{S_{xx}}\)=\(\frac{σ^2}{226.5}\)
    ●E[\(b\)]=\(-a \bar{x} +\bar{y}\)=-4.033
    ●V[\(b\)]=\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)
    =\(σ^2(\frac{1}{10}+\frac{9.56^2}{226.5})\)

    と代入したいのですが、

    \(σ^2\)はどこから求めるの?
    と不明ですよね!

    実際は不明です。なので、
    それらしい値を使います。
    分散分析に慣れているとピンと来ますよね!
    そうです!\(V_e\)ですね!

    ●回帰分析では
    \(V_e\)=\(S_e\)/\(Φ_e\)
    =\(\frac{S_e}{n-2}\)=\(σ^2\)
    を使います。

    ●\(S_e\)=\(S_T\)-\(S_R\)
    =\(S_{yy}\)-\(\frac{S_{xy}^2}{S_{xx}}\)=206.76
    より、
    \(V_e\)=\(\frac{S_e}{n-2}\)
    =206.76/(10-2)=25.85
    となります。

    グラフを描いてみる

    例えば、2σ分ズレた場合の回帰直線を描きます。定数\(a,b\)は以下のように変化します。
    ●\(a_{max,min}\)=E[\(a\)]±\(m\)×\(\sqrt{V[a]}\)
    ●\(b_{max,min}\)=E[\(b\)]±\(m\)×\(\sqrt{V[b]}\)
    (ここで2σ分を考えるので、\(m\)=2とします。

    値は下表のようになります。

    σ a b 回帰直線
    min -2 1.03 2.43 y=1.03x+2.43
    ave 0 1.71 -4.03 y=1.71x-4.03
    max 2 2.38 -10.49 y=2.38x-10.49

    グラフを描くと下図のようになります。

    回帰分析

    回帰直線の区間推定をグラフで図示すると
    ●領域がわかる
    ●必ず平均(\(\bar{x},\bar{y}\))を通る
    ことがわかりますね。

    以上、難しい公式を導出して、回帰直線の区間推定領域を求める過程を解説しました。

    難しい導出過程でしたが、ちゃんとできましたね!

    公式は導出できてから使いましょう。

    まとめ

    「回帰直線の推定区間が導出できる(その2)」を解説しました。

    • ①回帰直線の推定区間とは(その1)
    • ➁【重要】回帰直線の区間推定導出のポイント(その1)
    • ➂導出過程に必要な値を事前に計算(その1)
    • ➃回帰直線の傾き\(a\)の期待値と分散を導出(その2)
    • ➄回帰直線の\(y\)切片の\(b\)の期待値と分散を導出(その2)
    • ⑥回帰直線の区間推定領域を図示(その2)

  • 回帰直線の区間推定が導出できる(その1)

    回帰直線の区間推定が導出できる(その1)

    「回帰直線の区間推定の求め方かがわからない」など、疑問に思いませんか?

    こういう疑問に答えます。

    2回に分けて解説します!

    本記事のテーマ

    回帰直線の区間推定が導出できる(その1)

    おさえておきたいポイント

    • ①回帰直線の推定区間とは(その1)
    • ➁【重要】回帰直線の区間推定導出のポイント(その1)
    • ➂導出過程に必要な値を事前に計算(その1)
    • ➃回帰直線の傾き\(a\)の期待値と分散を導出(その2)
    • ➄回帰直線の\(y\)切片の\(b\)の期待値と分散を導出(その2)
    • ⑥回帰直線の区間推定領域を図示(その2)
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    ①回帰直線の推定区間とは

    回帰直線の求め方は、関連記事に書いています。

    回帰分析と相関係数をマスターする
    回帰分析と相関係数。学びやすく、試験で点数化したい領域ですが、重要なポイントと回帰分析の導出を解説しました。本記事を一通りマスターしておけば試験では確実に点数とれます。

    回帰直線が導出できることを前提として、区間推定を解説します。

    回帰直線の区間推定とは

    下図のように、回帰直線には、区間推定の領域があります。

    回帰直線

    回帰直線の係数の推定区間を導出

    回帰直線には、区間推定の領域があり理由は簡単で、

    実データ\(y_i\)はランダムな誤差とする残差\(ε_i\)が入り、
    ばらつきを与えるので、
    回帰直線の傾き\(a\)とy切片\(b\)もばらつくため、
    区間推定を考える必要があります。

    回帰直線の係数の推定区間の式が難しい

    要するに

    回帰直線の傾き\(a\)とy切片\(b\)
    の区間推定の式が出来ればOKですが、
    ●傾き\(a\)は、平均\(a\),分散が\(\frac{σ^2}{S_{xx}}\)の正規分布に従い、
    ●y切片\(b\)は、平均\(b\),分散が\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}}))\)の正規分布に従うのですが、
    どうやってこの式になるのか?疑問ですよね!
    導出できない公式は使うな!
    式の導出をちゃんと理解しよう!

    ということで、本記事で導出していきます。

    平均は理解できるけど、分散の式が意味不明ですよね!

    なので、以下の流れで解いていきます。

    1. まず、導出の途中過程で必要な式を事前に計算
    2. 回帰直線の傾き\(a\)の期待値と分散を導出
    3. 回帰直線の\(y\)切片の\(b\)の期待値と分散を導出
    4. 回帰直線の区間推定領域を図示

    ➁【重要】回帰直線の区間推定導出のポイント

    回帰直線の傾き\(a\)と\(y\)切片の\(b\)の期待値と分散を導出する際に、最も意識してほしいのは、

    誤差を含むのは\(y_i\)だけ。
    \(x_i\)だけの式は定数扱いで変形していくこと

    分散V[a]の式の[a]の中から外にさらっと出す式変形が多々でてきますが、
    変数は\(y\)に関わるものとしてみてください。ここが抜けると式変形が完全に理解できません。

    ➂導出過程に必要な値を事前に計算

    必要に応じて計算する値を解説します。読み飛ばしていただいてOKですが、
    「➃回帰直線の傾き\(a\)の期待値と分散を導出」
    「➄回帰直線の\(y\)切片の\(b\)の期待値と分散を導出」
    「⑥回帰直線の区間推定から\(\hat{y_i}\)の期待値と分散を導出」
    で何度か、引用しますので、都度戻ってきてください。

    各値の定義

    平均\(\bar{x},\bar{y}\)、回帰直線に乗る点\(\hat{x_i},\hat{y_i}\)の位置関係を下図にあります。分散分析も含めた関連記事で復習しましょう。

    回帰分析

    繰返しのある単回帰分析の分散分析がよくわかる
    繰返しのある単回帰分析の分散分析や当てはまりの悪さが何かが説明できますか?本記事では繰返しのある単回帰分析と実験計画法の一元配置実験を使って、分散分析をわかりやすく解説します。回帰分析をマスターしたい方は必読です。

    事前に導出した値は以下の通りです。

    1. V[\(y_i\)]=\(σ^2\)
    2. V[\(\bar{y}\)]=\(\frac{σ^2}{n}\)
    3. 共分散の性質で、\(X_i\)と\(Y_j\)が互いに独立ならば、
      ●Cov(\(X_1+X_2\),\(Y_1+Y_2\))=
      Cov(\(X_1\),\(Y_1\))+ Cov(\(X_1\),\(Y_2\))
      +Cov(\(X_2\),\(Y_1\))+ Cov(\(X_2\),\(Y_2\))
    4. \(σ^2\)は計測できないので、\(σ^2\)=Ve=\(\frac{Se}{Φe(=n-2)}\)を使う

    さっと導出します。

    V[\(y_i\)]=\(σ^2\)の導出

    データ\(y_i\)は、\(x_i\)、回帰直線の傾き\(a\)、y切片\(b\)と
    正規分布N(0,\(σ^2\))に従う(と仮定する)誤差\(ε_i\)を使って、

    \(y_i\)=\(ax_i+b+ε_i\)

    と表現できます。

    誤差\(ε_i\)のばらつきによって、回帰直線の区間推定幅があると考えるので、
    V[\(y_i\)]=V[\(ax_i+b+ε_i\)]=V[\(ε_i\)]=\(σ^2\)
    とします。

    分散V[\(\bar{y}\)]=\(\frac{σ^2}{n}\)の導出

    \(\bar{y}\)=\(\frac{1}{n}(y_1+y_2+…+y_n)\)より、
    V[\(\bar{y}\)]=V[\(\frac{1}{n}(y_1+y_2+…+y_n)\)]
    =\(\frac{1}{n^2}\) (V[\(y_1\)]+ V[\(y_2\)]+…+V[\(y_n\)])
    =\(\frac{n}{n^2}\) (V[\(y_i\)])
    =\(\frac{σ^2}{n}\) (V[\(y_i\)]=\(σ^2\)より)

    共分散Covの性質

    共分散の性質で、\(X_i\)と\(Y_j\)が互いに独立ならば、
    ●Cov(\(X_1+X_2\),\(Y_1+Y_2\))= Cov(\(X_1\),\(Y_1\))+ Cov(\(X_1\),\(Y_2\))+ Cov(\(X_2\),\(Y_1\))+ Cov(\(X_2\),\(Y_2\))
    となります。

    \(σ^2\)は計測できないので、\(σ^2\)=Ve=\(\frac{Se}{Φe(=n-2)}\)を使う

    「⑥回帰直線の区間推定から\(\hat{y_i}\)の期待値と分散を導出」のところで使う値です。

    以上、回帰直線の区間推定を求めるための下ごらえが終わりましたので、(その2)で導出過程を解説します。

    まとめ

    「回帰直線の区間推定が導出できる(その1)」を解説しました。

    • ①回帰直線の推定区間とは(その1)
    • ➁【重要】回帰直線の区間推定導出のポイント(その1)
    • ➂導出過程に必要な値を事前に計算(その1)
    • ➃回帰直線の傾き\(a\)の期待値と分散を導出(その2)
    • ➄回帰直線の\(y\)切片の\(b\)の期待値と分散を導出(その2)
    • ⑥回帰直線の区間推定領域を図示(その2)

  • 繰返しのある単回帰分析の分散分析がよくわかる

    繰返しのある単回帰分析の分散分析がよくわかる

    「繰返しのある単回帰分析の分散分析がよくわからない」と困っていませんか?

    こういう疑問に答えます。

    本記事のテーマ

    繰返しのある単回帰分析の分散分析がよくわかる

    おさえておきたいポイント

    • ①単回帰分析による分散分析
    • ➁一元配置実験による分散分析
    • ➂分散分析の比較(回帰分析vs実験計画法)
    • ➃(必読!)データの構造式と平方和の分解
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    確かに、同じ分散分析しますが、
    回帰分析と実験計画法では
    何が違うのか?何をそれぞれ見ているのか?
    が気になりますね。
    (気になってほしいです!)

    なので、解説します!

    (i)モデル式である「データの構造式」を立てて
    (ii)データの構造式から「平方和の分解」を確認して
    (iii)分散分析して
    (iv)分散分析の結果を比較します!

    繰返しの無い場合についても関連記事で解説しています。比較しながら本記事とセットで習得しましょう!

    回帰分析と実験計画法の違いがよくわかる(繰返しデータ無しの場合)
    同じ分散分析でも回帰分析と実験計画法では結果がどう違うか説明できますか?本記事では単回帰分析(繰返しデータが無い場合)について解説します。QC検定®2級、1級に出題されてもいい事例なので読んでください。

    ①単回帰分析による分散分析

    データの用意

    例えば、下表のようなデータを用意します。

    i j xi yij
    1 1 0 3.3
    1 2 0 2.8
    1 3 0 3.7
    1 4 0 4
    2 1 1 4.5
    2 2 1 3.9
    2 3 1 3.2
    2 4 1 3.5
    2 1 2 4.8
    3 2 2 4.2
    3 3 2 5.5
    3 4 2 4.9
    3 1 3 4.9
    4 2 3 5.7
    4 3 3 5
    4 4 3 4.3
    合計 24 68.2
    平均 1.5 4.2625

    グラフを描くとこんな感じです。

    繰返しのある単回帰分析

    確かに、繰返しがあるデータですね。

    i,jで区分していますが、気にせず全16個のデータについて寄与率、相関係数を計算します!

    なお、各値は次の通りです(計算してみてください)。
    ●平方和\(S_{xx}\)=20
    ●平方和\(S_{yy}\)=10.60
    ●平方和\(S_{xy}\)=11.3
    より、
    ●寄与率R=\(\frac{S_{xy}^2}{S_{xx} S_{yy}}\)=0.776
    ●回帰平方和\(S_R\)=\(\frac{S_{xy}^2}{S_{xx}}\)=6.38
    ●残差平方和\(S_{er}\)=\(S_T\)-\(S_R\)=4.21
    ●総平方和\(S_T\)=\(S_{yy}\)=10.60

    単回帰分析による分散分析

    各平方和が計算出来たので、分散分析は下表のとおりになります。

    S Φ
    R 6.38 1
    er 4.22 14
    T 10.60 15

    次に、同じデータを実験計画法の分散分析をやってみましょう。

    ➁一元配置実験による分散分析

    よくみると一元配置実験である

    繰返しのある単回帰分析のデータは、一元配置実験と同じなんです。

    実験計画法っぽく表を作り変えます。

    A データ
    A0 3.3 2.8 3.7 4
    A1 4.5 3.9 3.2 3.5
    A2 4.8 4.2 5.5 4.9
    A3 4.9 5.7 5 4.3

    こう書くと、単純な一元配置実験ですよね。

    同じデータでも
    ●一元配置実験はQC検定®2級レベル
    ●繰返しのある単回帰分析はQC検定®1級レベル
    別々とせず、両者の違いを理解しながら、まとめて勉強しましょう!その方が速い!
    ●商標使用について、
    ①QC検定®と品質管理検定®は、一般財団法人日本規格協会の登録商標です。
    ➁このコンテンツは、一般財団法人日本規格協会の承認や推奨、その他の検討を受けたものではありません。
    ➂QCプラネッツは、QC検定®と品質管理検定®の商標使用許可を受けています。

    データの構造式

    データ構造式はQCプラネッツでいっぱい書いていますので関連記事で復習しましょう。

    【まとめ2】データの構造式さえあれば実験計画法がマスターできる
    実験計画法の肝である、データの構造式について詳細に解説しました。データの構造式さえおさえれば実験計画法はマスターできます。教科書には書いていない実験計画法のマスター方法を解説します。

    一元配置実験のデータ構造式は、下のとおりです。
    \((y_{ij}-\bar{\bar{y}})\)=\((\bar{y_{i・}}-\bar{\bar{y}})\)(主効果)+\(( y_{ij}-\bar{y_{i・}})\)(残差)
    ですね。

    一元配置実験による分散分析

    実験計画法による分散分析すると次の結果になります。

    S Φ
    A 7.00 3
    e 3.60 12
    T 10.60 15

    となります。

    ➂分散分析の比較(回帰分析vs実験計画法)

    元データは同じですが、
    ●繰返しのある単回帰分析による分散分析
    ●一元配置実験による分散分析
    の2つができました。

    比較してみましょう。

    単回帰分析 S Φ 実験計画法 S Φ
    R 6.38 1 A 7.00 3
    er 4.22 14 e 3.60 12
    T 10.60 15 T 10.60 15

    となり、合計の平方和と自由度は同じですが、
    回帰R,主効果A,残差eとerでそれぞれ値が違いますね。

    単回帰分析では、両者の違いを埋めるために
    当てはまりの悪さ lof を使って、
    平方和\(S_{lof}\)と自由度\(Φ_{lof}\)を定義します。

    \(S_T\)=\(S_R\)+\(S_{er}\)=\(S_A\)+\(S_e\)より、
    平方和\(S_{lof}\)は
    \(S_{lof}\)=\(S_A\)-\(S_R\)=\(S_{er}\)-\(S_e\)から求めます。

    自由度も同様に、
    \(Φ_T\)=\(Φ_R\)+\(Φ_{er}\)=\(Φ_A\)+\(Φ_e\)より、
    平方和\(Φ_{lof}\)は
    \(Φ_{lof}\)=\(Φ_A\)-\(Φ_R\)=\(Φ_{er}\)-\(Φ_e\)から求めます。

    再度、分散分析表で両手法を比較しましょう。

    単回帰分析 S Φ 実験計画法 S Φ
    R 6.38 1 A 7.00 3
    er lof 0.62 2
    er e 3.60 12 e 3.60 12
    T 10.60 15 T 10.60 15

    繰返しありの単回帰分析で
    分散分析表と当てはまりの悪さを早くマスターしたいなら、
    一元配置実験を持ってくると良いです!

    繰返しありの単回帰分析で難しい分散分析が簡単に理解できましたね!

    ➃(必読!)データの構造式と平方和の分解

    単回帰分析と実験計画法から分散分析しました。

    その元になる理論も解説します。平方和の分解をひたすら計算します。

    本記事で最も重要なので、絶対読んでね!

    データの構造式

    単回帰分析のデータの構造式を書いてみましょう。
    データの構造式は、
    \((y_{ij} – \bar{\bar{y}})\)=\((\hat{y_i} – \bar{\bar{y}})\)(回帰R)+\((y_{ij} -\hat{y_i}\))(残差er)
    となりますね。

    次に実験計画法・一元配置実験のデータの構造式を書いてみましょう。
    データの構造式は、
    \((y_{ij} – \bar{\bar{y}})\)=\((\bar{y_{i・}} – \bar{\bar{y}})\)(主効果A)+\((y_{ij} -\bar{y_{i・}}\))(残差e)
    となりますね。

    で、回帰直線に乗る\(\hat{y_i}\)と、主効果の平均\(\bar{y_{i・}}\)の2つがあるので、図で関係性を確認します。

    データの構造式

    平方和の分解

    上の図から、単回帰分析と実験計画法の両者のデータの構造式をまとめると次の式ができます。
    \((y_{ij} – \bar{\bar{y}})\)=\((\hat{y_i} – \bar{\bar{y}})\)(回帰R)+\((\bar{y_{i・}} -\hat{y_i}\))(lof)+\((y_{ij} -\bar{y_{i・}}\))(残差e)

    ここからそれぞれの平方和を分解することができます。
    平方和を求める式を作ると

    \(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\(( y_{ij} – \bar{\bar{y}})^2\)
    =\(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\(((\hat{y_i} – \bar{\bar{y}})\)+\((\bar{y_{i・}} -\hat{y_i}\))+\((y_{ij} -\bar{y_{i・}}))^2\)

    この(右辺)を計算すると、不思議な事に、
    \(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\(((\hat{y_i} – \bar{\bar{y}})\)+\((\bar{y_{i・}} -\hat{y_i}\))+\((y_{ij} -\bar{y_{i・}}))^2\)
    =\(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\((\hat{y_i} – \bar{\bar{y}})^2\)(\(S_R\))+
    \(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\((\bar{y_{i・}} -\hat{y_i})^2\)(\(S_{lof}\))+
    \(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\((y_{ij} -\bar{y_{i・}})^2\)(\(S_{e}\))

    となり、
    \(S_T\)=\(S_R\)+\(S_{lof}\)+\(S_{e}\)
    となりますよね。

    ここでよく見ると
    \((x+y+z)^2\)=\(x^2+y^2+z^2+2xy+2xz+2yz\)
    ですが、
    中間積和である
    ●\(xy\)=0
    ●\(xz\)=0
    ●\(yz\)=0
    なんですよね。

    つまり、
    ●\(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\((\hat{y_i} – \bar{\bar{y}})\)\((\bar{y_{i・}} -\hat{y_i}\))=0
    ●\(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\((\hat{y_i} – \bar{\bar{y}})\)\((y_{ij} -\bar{y_{i・}}\))=0
    ●\(\sum_{i=1}^{a} \sum_{j=1}^{b}\)\((\bar{y_{i・}} -\hat{y_i}\))\((y_{ij} -\bar{y_{i・}}\))=0
    が成り立ちます。

    しんどいけど、ちゃんと計算して0になることを確かめよう!

    証明はここにあります。

  • 回帰分析と実験計画法の違いがよくわかる(繰返しデータ無しの場合)

    回帰分析と実験計画法の違いがよくわかる(繰返しデータ無しの場合)

    「同じ分散分析でも、回帰分析と実験計画法ではどう違うの?」と疑問に思いませんか?

    こういう疑問に答えます。

    本記事のテーマ

    回帰分析と実験計画法の違いがよくわかる(繰返しデータ無しの場合)

    おさえておきたいポイント

    • ①単回帰分析による分散分析
    • ➁単回帰分析による平方和の分解
    • ➂繰返しのない一元配置実験による分散分析
    • ➃平方和を分解して回帰分析と実験計画法を比較
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    確かに、同じ分散分析しますが、
    回帰分析と実験計画法では
    何が違うのか?何をそれぞれ見ているのか?
    が気になりますね。
    (気になってほしいです!)

    なので、解説します!

    (i)モデル式である「データの構造式」を立てて
    (ii)データの構造式から「平方和の分解」を確認して
    (iii)分散分析して
    (iv)分散分析の結果を比較します!

    ①単回帰分析による分散分析

    データの用意

    例えば、下表のようなデータを用意します。

    No x y
    1 0.15 8.05
    2 1.2 4.05
    3 2.08 5.77
    4 2.42 11.2
    5 4.82 20.17
    6 5.93 17.21
    7 6.15 15.22
    8 6.5 18.38
    9 7.32 30.59
    10 8.45 8.99
    合計 45.02 139.63

    なお、各値は次の通りです(計算してみてください)。
    ●平方和\(S_{xx}\)=72.42
    ●平方和\(S_{yy}\)=579.34
    ●平方和\(S_{xy}\)=128.79
    より、
    ●相関係数r=\(\frac{S_{xy}}{\sqrt{S_{xx} S_{yy}}}\)=0.629
    ●回帰平方和\(S_R\)=\(\frac{S_{xy}^2}{S_{xx}}\)=229.04
    ●残差平方和\(S_{er}\)=\(S_T\)-\(S_R\)=350.30
    ●総平方和\(S_T\)=\(S_{yy}\)=579.34

    単回帰分析による分散分析

    各平方和が計算出来たので、分散分析は下表のとおりになります。

    回帰 S Φ V
    R 229.04 1 229.04
    er 350.3 8 43.79
    T 579.34 9

    ➁単回帰分析による平方和の分解

    データの構造式

    単回帰分析のデータの構造式を書いてみましょう。

    文字式を以下のように定義します。
    ●データ→(\(x_i\),\(y_i\))
    ●平均→(\(\bar{x}\),\(\bar{y}\))
    ●回帰直線上のデータ→(\(x_i\),\(\hat{y_i}\))
    下図のとおりです。

    回帰分析

    ポイントは、データ\(x_i\)と回帰直線上のデータ→\(x_i\)は同じである点です。平方和の分解で必要になってきます。

    単回帰分析のデータの構造式は、
    \(y_i – \bar{y}\)=(\(\hat{y_i} – \bar{y}\))+\((y_i -\hat{y_i}\))
    となりますね。上図と見ながら確認しましょう。

    なお、データの構造式を見ると
    ●全体:(\(y_i – \bar{y}\))
    ●回帰:(\(\hat{y_i} – \bar{y}\))
    ●残差:(\( y_i -\hat{y_i}\))
    の成分に分けることができますね。これが分散分析できる理由になります。

    平方和の分解

    実際に、分散分析するときは、
    総平方和\(S_T\)=回帰平方和\(S_R\)+残差平方和\(S_{er}\)
    と分けますが、式で書くと
    ●総平方和:\(S_T\)=\(\sum_{i=1}^{n}(y_i – \bar{y})^2\)
    ●回帰平方和:\(S_R\)=\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})^2\)
    ●残差平方和:\(S_{er}\)=\(\sum_{i=1}^{n}( y_i -\hat{y_i})^2\)
    となりますね。

    では、

    \(S_T\)= \(S_R\)+ \(S_{er}\)
    \(\sum_{i=1}^{n}(y_i – \bar{y})^2\)=\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})^2\)+\(\sum_{i=1}^{n}( y_i -\hat{y_i})^2\)
    をちゃんと証明しましょう。
    平方和の分解はQCにおいて、最重要です!

    (左辺)を変形すると
    (左辺)= \(\sum_{i=1}^{n}(y_i – \bar{y})^2\)
    =\(\sum_{i=1}^{n}((\hat{y_i} – \bar{y}) + ( y_i -\hat{y_i}))^2\)
    =\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})^2\)+2\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( y_i -\hat{y_i})\)+\(\sum_{i=1}^{n} ( y_i -\hat{y_i})^2\)
    と展開すると、
    ●\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})^2\)=\(S_R\)
    ●\(\sum_{i=1}^{n} ( y_i -\hat{y_i})^2\)=\(S_{er}\)
    ですが、
    ●\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( y_i -\hat{y_i})\)
    はいくらでしょうか?

    先のデータを使って実際に計算すると、下表のように合計0になります。すげえ!

    No x y A=\(y_i-\hat{y}\) B=\(\hat{y}-\bar{y}\) A×B
    1 0.15 8.05 1.83 -7.74 -14.14
    2 1.2 4.05 -4.04 -5.87 23.73
    3 2.08 5.77 -3.89 -4.31 16.74
    4 2.42 11.2 0.94 -3.7 -3.48
    5 4.82 20.17 5.64 0.57 3.19
    6 5.93 17.21 0.71 2.54 1.8
    7 6.15 15.22 -1.67 2.93 -4.91
    8 6.5 18.38 0.86 3.55 3.07
    9 7.32 30.59 11.62 5.01 58.21
    10 8.45 8.99 -11.99 7.02 -84.21
    合計 45.02 139.63 0 0 0

    表から見ると、
    ●\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( y_i -\hat{y_i})\)=0だし、
    ●\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})\)=0だし、
    ●\(\sum_{i=1}^{n} ( y_i -\hat{y_i})\)=0となり、
    0×0=0なんですよね!

    これを証明します! 結構大事です!

    \(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( y_i -\hat{y_i})\)=0の証明

    まず、
    \(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})\)
    ですが、回帰直線上の点なので、
    =\(\sum_{i=1}^{n}(\hat{β_0}+\hat{β_1}\)x\(i)\) – \((\hat{β_0}+\hat{β_1}\)×\(\bar{x})\)
    =\(\hat{β_1}\)\(\sum_{i=1}^{n}( x_i-\bar{x})\)
    ここで、
    \(\sum_{i=1}^{n} x_i\)=\(n\)×\(\bar{x}\)=\(\sum_{i=1}^{n} \bar{x}\)より、
    \(\sum_{i=1}^{n}( x_i-\bar{x})\)=0
    よって、
    \(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})\)=0
    となります。

    次に、
    \(\sum_{i=1}^{n} ( y_i -\hat{y_i})\)
    ですが、
    =\(\sum_{i=1}^{n} ( (y_i-\bar{y})+(\bar{y} -\hat{y_i}))\)
    とすると、
    \(\sum_{i=1}^{n} (y_i-\bar{y})\)=0
    \(\sum_{i=1}^{n} (\bar{y} -\hat{y_i})\)=0
    なので、
    \(\sum_{i=1}^{n} ( y_i -\hat{y_i})\)=0

    次に、\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( y_i -\hat{y_i})\)=0を証明します。
    ここで、回帰について\(\hat{y_i}\)は回帰直線に乗るので、
    \(\hat{y_i}-\bar{y}\)=\(\frac{S_{xy}}{S_{xx}}(x_i-\bar{x})\)
    に乗ることになります。

    \(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( y_i -\hat{y_i})\)
    =\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( (y_i-\bar{y})-( \hat{y_i}-\bar{y}))\)
    と変形して、

    \((\hat{y_i} – \bar{y})\)=\(\frac{S_{xy}}{S_{xx}}(x_i-\bar{x})\)を代入します。

    \(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( (y_i-\bar{y})-( \hat{y_i}-\bar{y}))\)
    =\(\sum_{i=1}^{n} \frac{S_{xy}}{S_{xx}}(x_i-\bar{x})\)\(((y_i-\bar{y})-\frac{S_{xy}}{S_{xx}}(x_i-\bar{x}))\)
    となります。

    平方和\(S_{xy}\),\(S_{xx}\)は∑の外に出せるので、
    =\(\frac{S_{xy}}{S_{xx}} \sum_{i=1}^{n}(x_i-\bar{x})\)\(((y_i-\bar{y})-\frac{S_{xy}}{S_{xx}}(x_i-\bar{x}))\)
    =\(\frac{S_{xy}}{S_{xx}}\)×\(S_{xy}\)-\(\frac{S_{xy}^2}{S_{xx}^2}\)×\(S_{xx}\)
    と変形できます。

    よくみると、
    =\(\frac{S_{xy}^2}{S_{xx}}\)-\(\frac{S_{xy}^2}{S_{xx}}\)
    =0
    となり、

    まとめると、
    \(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( y_i -\hat{y_i})\)=0
    となります。

    うーん、なるほど!

    まとめると、確かに,
    ●\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})( y_i -\hat{y_i})\)=0だし、
    ●\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})\)=0だし、
    ●\(\sum_{i=1}^{n} ( y_i -\hat{y_i})\)=0となり、
    0×0=0なんですよね!

    \(S_T\)= \(S_R\)+ \(S_{er}\)
    \(\sum_{i=1}^{n}(y_i – \bar{y})^2\)=\(\sum_{i=1}^{n}(\hat{y_i} – \bar{y})^2\)+\(\sum_{i=1}^{n}( y_i -\hat{y_i})^2\)
    となります。これが回帰分析で分散分析できる理由です。

    次に同じ分散分析でも実験計画法で考えてみましょう。

    ➂繰返しのない一元配置実験による分散分析

    データの用意

    ①の回帰分析と同じデータを用意します。

    No x y
    1 0.15 8.05
    2 1.2 4.05
    3 2.08 5.77
    4 2.42 11.2
    5 4.82 20.17
    6 5.93 17.21
    7 6.15 15.22
    8 6.5 18.38
    9 7.32 30.59
    10 8.45 8.99
    合計 45.02 139.63

    実は、

    実験計画法では、Noと\(y\)の値で区分します。

    表を作り直します。実験計画法っぽくなるのがわかります。

    因子 y
    A1 8.05
    A2 4.05
    A3 5.77
    A4 11.2
    A5 20.17
    A6 17.21
    A7 15.22
    A8 18.38
    A9 30.59
    A10 8.99
    合計 139.63

    実は、あまる教科書でみかけないのですが、
    繰返し実験のない一元配置実験の表になります。

    データの構造式から分散分析へ

    繰返し実験のない一元配置実験のデータの構造式は
    \(y_{i}-\bar{y}\)=\(y_{i}-\bar{y}\)
    となり、主効果が一切なく、総平方和=残差平方和という変なパターンになります。

    分散分析表を書くと

    平方和S 自由度Φ 平均平方V
    主効果
    残差e 579.34 9 64.37
    合計T 579.34 9

    同じデータで回帰分析と実験計画法を使って分散分析しました。ここから両者を比較しましょう。

    ➃平方和を分解して回帰分析と実験計画法を比較

    分散分析結果を比較

    実験計画法 平方和S 自由度Φ 平均平方V 回帰 平方和S 自由度Φ 平均平方V
    主効果 回帰 229.04 1 229.04
    残差e 579.34 9 64.37 残差er 350.3 8 43.79
    合計T 579.34 9 合計T 579.34 9

    平方和に注目すると
    ●総平方和=回帰平方和+回帰残差平方和 (回帰分析)
    ●総平方和=主効果平方和+残差平方和 (実験計画法)
    に分割できる点です。

    分散分析

    もう少しモデルが複雑にすると、主効果の一部が回帰の平方和に分割できることがわかります。これも関連記事に上げていきます。

    回帰分析と実験計画法の違い

    データの構造式で比較すると
    ●実験計画法: \(y_i – \bar{y}\)=\(y_i – \bar{y}\)
    ●回帰分析:\(y_i – \bar{y}\)=(\(y_i – \hat{y}\))+(\(\hat{y} – \bar{y}\))
    として、回帰成分で総平方和を分割しているイメージがわかりますね。

    回帰分析と実験計画法は、分散分析するので、総平方和からどの成分がどれくらい分解されるかを意識して計算しましょう。

    まとめ

    「回帰分析と実験計画法の違いがよくわかる(繰返しデータ無しの場合)がよくわかる」を解説しました。

    • ①単回帰分析による分散分析
    • ➁単回帰分析による平方和の分解
    • ➂繰返しのない一元配置実験による分散分析
    • ➃平方和を分解して回帰分析と実験計画法を比較

  • スピアマンの順位相関係数とピアソンの相関係数を比較する

    スピアマンの順位相関係数とピアソンの相関係数を比較する

    「スピアマンの順位相関係数とピアソンの相関係数の違いがよくわからない」など、疑問に思いませんか?

    こういう疑問に答えます。

    本記事のテーマ

    スピアマンの順位相関係数とピアソンの相関係数を比較する

    おさえておきたいポイント

    • ➀スピアマンの順位相関係数とピアソンの相関係数を比較
    • ➁スピアマンの順位相関係数とピアソンの相関係数が一致する条件
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    スピアマンの順位相関係数については、特別に公式暗記する必要はありません。自分で導出できます。

    導出過程は関連記事で確認ください。

    スピアマンの順位相関係数が導出できる
    スピアマンの順位相関係数は導出できますか?本記事では、一般的に使うピアソンの相関係数からスピアマンの順位相関係数を導出します。公式暗記は不要で自力で導出できるので、マスターしましょう

    スピアマンの順位相関係数の正負の入れ替えがわかる
    スピアマンの順位相関係数では、変数の順位が降順・降順で入れ替わると相関係数の正負が入れ替わります。その理由をわかりやすく解説します。スピアマンの順位相関係数はピアソンの相関係数から計算できるので、スピアマンの順位相関係数のための公式暗記は一切不要です。

    ピアソンの相関係数と比較することで、スピアマンの順位相関係数の理解を深めましょう。大事な記事です!

    ➀スピアマンの順位相関係数とピアソンの相関係数を比較

    データを用意

    変数\(x,y\)からなる、変量データを用意します。下表のとおりです。

    No x y
    1 0.15 8.05
    2 1.2 4.05
    3 2.08 5.77
    4 2.42 11.2
    5 4.82 20.17
    6 5.93 17.21
    7 6.15 15.22
    8 6.5 18.38
    9 7.32 30.59
    10 8.45 8.99

    ピアソンの相関係数

    平方和\(S_{xx}\),\(S_{yy}\),\(S_{xy}\)を計算します。
    ●\(S_{xx}\)=\(\sum_{i=1}^{n}(x_i -\bar{x})^2\)
    ●\(S_{yy}\)=\(\sum_{i=1}^{n}(y_i -\bar{y})^2\)
    ●\(S_{xy}\)=\(\sum_{i=1}^{n}(x_i -\bar{x})(y_i-\bar{y})\)
    表を追加します。

    No x y \((x-\bar{x})^2\) \((y-\bar{y})^2\) \((x-\bar{x})(y-\bar{y})\)
    1 0.15 8.05 18.94 34.96 25.73
    2 1.2 4.05 10.9 98.27 32.73
    3 2.08 5.77 5.87 67.13 19.84
    4 2.42 11.2 4.33 7.63 5.75
    5 4.82 20.17 0.1 38.53 1.97
    6 5.93 17.21 2.04 10.54 4.64
    7 6.15 15.22 2.72 1.58 2.07
    8 6.5 18.38 3.99 19.51 8.83
    9 7.32 30.59 7.94 276.46 46.85
    10 8.45 8.99 15.59 24.73 -19.63
    合計 45.02 139.63 72.42 579.34 128.79
    平均 4.502 13.963 ↑(\(S_{xx}\)) ↑(\(S_{yy}\)) ↑(\(S_{xy}\))

    よって、ピアソンの相関係数\(r\)は、

    ピアソンの相関係数\(r\)
    \(r\)=\(\frac{S_{xy}}{\sqrt{S_{xx} S_{yy}}}\)
    =\(\frac{128.79}{\sqrt{72.42×579.34}}\)
    =0.629

    これは、簡単ですね。

    スピアマンの順位相関係数

    変数\(x,y\)の順位をつけましょう。下表のとおりに変化しますね。

    実測データ 順位
    No x y x y
    1 0.15 8.05 1 3
    2 1.2 4.05 2 1
    3 2.08 5.77 3 2
    4 2.42 11.2 4 5
    5 4.82 20.17 5 9
    6 5.93 17.21 6 7
    7 6.15 15.22 7 6
    8 6.5 18.38 8 8
    9 7.32 30.59 9 10
    10 8.45 8.99 10 4

    スピアマンの順位相関係数\(r’\)を計算します。

    関連記事から、導出式を使います。

    スピアマンの順位相関係数が導出できる
    スピアマンの順位相関係数は導出できますか?本記事では、一般的に使うピアソンの相関係数からスピアマンの順位相関係数を導出します。公式暗記は不要で自力で導出できるので、マスターしましょう

    ●スピアマンの順位相関係数
    \(r\)=1-\(\frac{6\sum_{i=1}^{n}d_i^2}{n(n^2-1)}\)
    ここで、\(d_i\)=\(x_i -y_i\)

    計算に必要なデータは下表にあります。

    No x y d=x-y d2
    1 1 3 -2 4
    2 2 1 1 1
    3 3 2 1 1
    4 4 5 -1 1
    5 5 9 -4 16
    6 6 7 -1 1
    7 7 6 1 1
    8 8 8 0 0
    9 9 10 -1 1
    10 10 4 6 36
    合計 62
    ●スピアマンの順位相関係数
    \(r\)=1-\(\frac{6\sum_{i=1}^{n}d_i^2}{n(n^2-1)}\)
    =1-\(\frac{6×62}{10(10^2-1)}\)
    =0.624

    スピアマンの順位相関係数とピアソンの相関係数を比較

    図を比較します。

    スピアマンの順位相関係数

    ●ピアソンの相関係数\(r\)=0.629
    ●スピアマンの順位相関係数=0.624
    とスピアマンの順位相関係数の方が若干小さくなりました。
    データ値によって、
    ピアソンの相関係数とスピアマンの順位相関係数の
    大小関係の入れ替えはあります。

    ➁スピアマンの順位相関係数とピアソンの相関係数が一致する条件

    では、次の疑問が沸きますよね!

    スピアマンの順位相関係数とピアソンの相関係数が一致する条件って何?
    どんなデータを用意すればいいのか?

    一致するデータを用意

    結論からいいますと、

    スピアマンの順位相関係数とピアソンの相関係数が一致する条件は、
    各データから求まるR=\(\frac{S_{xy}^2}{S_{xx}S_{yy}}\)
    が一致する場合

    そりゃそうでしょう!というオチですが、
    スピアマンの順位相関係数とピアソンの相関係数の計算式は実は同じで、
    変数データを順位データに変換しても、寄与率Rの値が変化しなければOKです。

    スピアマンの順位相関係数とピアソンの相関係数が一致する例

    いろいろ例がありますが、

    1. ピアソンの相関係数とスピアマンの順位相関係数で扱うデータ値が完全に一致する場合
    2. ピアソンの相関係数側のデータが回帰直線に完全に乗る場合(つまり相関係数=1の場合)
    3. など(他の例も見つけてみてください)

    例えば、ピアソンの相関係数側のデータが回帰直線に完全に乗る場合(つまり相関係数=1の場合)ですが、実測データが完全に回帰直線に乗る場合(例としてy=3x-1)を下表に示します。

    No x y x順位 y順位
    1 0.15 -0.55 1 1
    2 1.2 2.6 2 2
    3 2.08 5.24 3 3
    4 2.42 6.26 4 4
    5 4.82 13.46 5 5
    6 5.93 16.79 6 6
    7 6.15 17.45 7 7
    8 6.5 18.5 8 8
    9 7.32 20.96 9 9
    10 8.45 24.35 10 10
    10 8.45 24.35 10 10

    グラフに描くと、確かに両者の相関係数は一致しています。

    スピアマンの順位相関係数

    などなど、いろいろ例がありますので、調べてみましょう。

    大事なのは、ピアソンの相関係数の式からスピアマンの順位相関係数の性質が導出できます!スピアマンの順位相関係数のための公式暗記は一切不要!導出過程を理解しましょう!

    まとめ

    「スピアマンの順位相関係数とピアソンの相関係数を比較する」を解説しました。

    • ➀スピアマンの順位相関係数とピアソンの相関係数を比較
    • ➁スピアマンの順位相関係数とピアソンの相関係数が一致する条件

  • スピアマンの順位相関係数の正負の入れ替えがわかる

    スピアマンの順位相関係数の正負の入れ替えがわかる

    「スピアマンの順位相関係数がよくわからない」など、疑問に思いませんか?

    こういう疑問に答えます。

    本記事のテーマ

    スピアマンの順位相関係数の正負の入れ替えがわかる

    おさえておきたいポイント

    • ➀スピアマンの順位相関係数の正負が変わる条件
    • ➁スピアマンの順位相関係数の正負が入れ替わる理由
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    スピアマンの順位相関係数については、特別に公式暗記する必要はありません。自分で導出できます。

    導出過程は関連記事で確認ください。

    スピアマンの順位相関係数が導出できる
    スピアマンの順位相関係数は導出できますか?本記事では、一般的に使うピアソンの相関係数からスピアマンの順位相関係数を導出します。公式暗記は不要で自力で導出できるので、マスターしましょう

    ピアソンの相関係数と比較することで、スピアマンの順位相関係数の理解を深めましょう。大事な記事です!

    ➀スピアマンの順位相関係数の正負が変わる条件

    正負の入れ替え方

    それは、

    ●\(x\)または、\(y\)のどちらかの順位を入れ替えるとスピアマンの順位相関係数の正負は入れ替わる。
    ●\(x\)、\(y\)の両方の順位を入れ替えるとスピアマンの順位相関係数の正負は2回入れ替わるので、もとの正負に戻る。

    正負の入れ替え事例

    実際にやってみましょう。
    下表のように4つ条件を作ります。

    1. 条件1:元データ
    2. 条件2:\(x\)だけ順位を入れ替えた場合
    3. 条件3:\(y\)だけ順位を入れ替えた場合
    4. 条件4:\(x,y\)両方順位を入れ替えた場合
    条件1 条件2 条件3 条件4
    No x y x y x y x y
    1 1 3 10 3 1 8 10 8
    2 2 1 9 1 2 10 9 10
    3 3 2 8 2 3 9 8 9
    4 4 5 7 5 4 6 7 6
    5 5 9 6 9 5 2 6 2
    6 6 7 5 7 6 4 5 4
    7 7 6 4 6 7 5 4 5
    8 8 8 3 8 8 3 3 3
    9 9 10 2 10 9 1 2 1
    10 10 4 1 4 10 7 1 7

    黄色マーカー部分が順位が入れ替わったところです。

    各条件のスピアマンの順位相関係数\(r\)を計算

    実際に、各条件のスピアマンの順位相関係数\(r\)を計算すると下表のようになります。

    条件1 条件2 条件3 条件4
    \(S_{xx}\) 82.5 82.5 82.5 82.5
    \(S_{yy}\) 82.5 82.5 82.5 82.5
    \(S_{yx}\) 51.5 -51.5 -51.5 51.5
    \(r\) 0.624 -0.624 -0.624 0.624

    ●\(x\)または、\(y\)のどちらかの順位を入れ替えるとスピアマンの順位相関係数の正負は入れ替わる。
    ●\(x\)、\(y\)の両方の順位を入れ替えるとスピアマンの順位相関係数の正負は2回入れ替わるので、もとの正負に戻る。

    確かに、正負が入れ替わっていますよね。でも、なぜそうなるか?わかりますか?

    ➁スピアマンの順位相関係数の正負が入れ替わる理由

    大事なのは、ピアソンの相関係数の式からスピアマンの順位相関係数の性質が導出できます!スピアマンの順位相関係数のための公式暗記は一切不要!導出過程を理解しましょう!

    元の条件における平方和の式を立てる

    正負が入れ替わる理由を数式で説明します。

    もともとの平方和は、
    ●\(S_{xx}\)=\(\sum_{i=1}^{n}(x_i -\bar{x})^2\)
    ●\(S_{yy}\)=\(\sum_{i=1}^{n}(y_i -\bar{y})^2\)
    ●\(S_{xy}\)=\(\sum_{i=1}^{n}(x_i -\bar{x})(y_i-\bar{y})\)
    ですよね。

    入れ替えとは、
    \(x\)が\((n+1)-x\)、
    \(y\)が\((n+1)-y\)、
    に変換することです。

    例えば、1,2,3,4,5,6,7,8,9,10を逆にすると、
    10,9,87,6,5,4,3,2,1ですよね。
    1を10に変えるには、1を(10+1)-1に変えればOKです。
    これを文字式で書いただけです。

    文字を入れ替えた場合の平方和に「’」をつけて計算します。

    (条件2)\(x\)だけが入れ替わる場合

    平方和は次のように式が変わります。
    ●\(S’_{xx}\)=\(\sum_{i=1}^{n}(((n+1)-x_i )-((n+1)-\bar{x}))^2\)
    ●\(S_{yy}\)=\(\sum_{i=1}^{n}(y_i -\bar{y})^2\)
    ●\(S’_{xy}\)=\(\sum_{i=1}^{n}(((n+1)-x_i )-((n+1)-\bar{x})) (y_i-\bar{y})\)

    「’」のついた平方和だけ式を変形すると、
    ●\(S’_{xx}\)=\(\sum_{i=1}^{n}(((n+1)-x_i )-((n+1)-\bar{x}))^2\)
    =\(\sum_{i=1}^{n}(-x_i +\bar{x})^2\)
    =\(S_{xx}\)
    と元の\(S_{xx}\)に一致します。
    ●\(S’_{xy}\)=\(\sum_{i=1}^{n}(((n+1)-x_i )-((n+1)-\bar{x})) (y_i-\bar{y})\)
    =\(\sum_{i=1}^{n}(-x_i+\bar{x}) (y_i-\bar{y})\)
    =-\(S_{xy}\)
    と元の\(S_{xy}\)と正負が入れ替わります。

    これが、スピアマンの順位相関係数\(r\)の正負が入れ替わる理由ですね。
    \(r’\)=\(\frac{S’_{xy}}{\sqrt{S’_{xx}}{S_{yy}}}\)
    =-\(\frac{S_{xy}}{\sqrt{S_{xx}}{S_{yy}}}\)
    =-\(r\)

    なるほど、よくわかりますね!

    (条件3)\(y\)だけが入れ替わる場合

    平方和は次のように式が変わります。
    ●\(S_{xx}\)=\(\sum_{i=1}^{n}(x_i -\bar{x})^2\)
    ●\(S’_{yy}\)=\(\sum_{i=1}^{n}(((n+1)-y_i )-((n+1)-\bar{y}))^2\)
    ●\(S’_{xy}\)=\(\sum_{i=1}^{n}(x_i -\bar{x})(((n+1)-y_i )-((n+1)-\bar{y}))\)

    同様に解くと、
    ●\(S’_{yy}\)=\(S_{yy}\)
    ●\(S’_{xy}\)=-\(S_{xy}\)
    から

    これが、スピアマンの順位相関係数\(r\)の正負が入れ替わる理由ですね。
    \(r’\)=\(\frac{S’_{xy}}{\sqrt{S_{xx}}{S’_{yy}}}\)
    =-\(\frac{S_{xy}}{\sqrt{S_{xx}}{S_{yy}}}\)
    =-\(r\)

    なるほど、よくわかりますね!

    (条件4)\(x,y\)両方が入れ替わる場合

    平方和は次のように式が変わります。
    ●\(S’_{xx}\)=\(\sum_{i=1}^{n}(((n+1)-x_i )-((n+1)-\bar{x}))^2\)
    ●\(S’_{yy}\)=\(\sum_{i=1}^{n}(((n+1)-y_i )-((n+1)-\bar{y}))^2\)
    ●\(S’_{xy}\)=\(\sum_{i=1}^{n}(((n+1)-x_i )-((n+1)-\bar{x})(((n+1)-y_i )-((n+1)-\bar{y}))\)

    同様に解くと、
    ●\(S’_{xx}\)=-\(S_{xx}\)
    ●\(S’_{yy}\)=-\(S_{yy}\)
    ●\(S’_{xy}\)=\((-1)^2 S_{xy}\)
    から

    これが、スピアマンの順位相関係数\(r\)の正負が元に戻る理由ですね。
    \(r’\)=\(\frac{S’_{xy}}{\sqrt{S’_{xx}}{S’_{yy}}}\)
    =\(\frac{S_{xy}}{\sqrt{S_{xx}}{S_{yy}}}\)
    =\(r\)

    なるほど、よくわかりますね!

    データを再度見て確認しよう!

    データを再掲すると、計算通りの結果になっていますよね。

    条件1 条件2 条件3 条件4
    \(S_{xx}\) 82.5 82.5 82.5 82.5
    \(S_{yy}\) 82.5 82.5 82.5 82.5
    \(S_{yx}\) 51.5 -51.5 -51.5 51.5
    \(r\) 0.624 -0.624 -0.624 0.624

    ちゃんと、説明がつきましたね!

    大事なのは、ピアソンの相関係数の式からスピアマンの順位相関係数の性質が導出できます!スピアマンの順位相関係数のための公式暗記は一切不要!導出過程を理解しましょう!

    まとめ

    「スピアマンの順位相関係数の正負の入れ替えがわかる」を解説しました。

    • ➀スピアマンの順位相関係数の正負が変わる条件
    • ➁スピアマンの順位相関係数の正負が入れ替わる理由

  • スピアマンの順位相関係数が導出できる

    スピアマンの順位相関係数が導出できる

    「スピアマンの順位相関係数がよくわからない」など、疑問に思いませんか?

    こういう疑問に答えます。

    本記事のテーマ

    スピアマンの順位相関係数が導出できる

    おさえておきたいポイント

    • ①スピアマンの順位相関係数とは何か?
    • ➁スピアマンの順位相関係数の導出の流れ
    • ➂スピアマンの順位相関係数を導出(2通り表現できる)
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    スピアマンの順位相関係数については、特別に公式暗記する必要はありません。自分で導出できます。
    1. スピアマンの順位相関係数とは何か?
    2. スピアマンの順位相関係数を導出(2通り表現できる)

    に注目して解説します。

    ①スピアマンの順位相関係数とは何か?

    スピアマンの順位相関係数とは何か?

    2変数をそれぞれ順位に並び替えた場合に求められる相関係数です。個人的にはピアソンの相関係数で十分と思いますが、スピアマンの順位相関係数もあります。

    データを下表の左から右のように順位を提示します。

    No x y x(順位) y(順位)
    1 0.15 8.05 1 3
    2 1.2 4.05 2 1
    3 2.08 5.77 3 2
    4 2.42 11.2 4 5
    5 4.82 20.17 5 9
    6 5.93 17.21 6 7
    7 6.15 15.22 7 6
    8 6.5 18.38 8 8
    9 7.32 30.59 9 10
    10 8.45 8.99 10 4

    ピアソンの相関係数との違いは?

    ●ピアソンの相関係数
    \(r\)=\(\frac{S_{xy}}{\sqrt{S_{xx} S_{yy}}}\)
    一般的な相関係数ですね。

    スピアマンの順位相関係数

    あとで、導出しますが、ピアソンの相関係数\(r\)=\(\frac{S_{xy}}{\sqrt{S_{xx} S_{yy}}}\)から、スピアマンの順位相関係数は導出できますが、以下の式になります。

    ●スピアマンの順位相関係数
    \(r\)=1-\(\frac{6\sum_{i=1}^{n}d_i^2}{n(n^2-1)}\)
    ここで、\(d_i\)=\(x_i -y_i\)

    ちょっと見かけない式ですが、導出できます。

    ➁スピアマンの順位相関係数の導出の流れ

    変数の準備

    \(x,y\)がそれぞれ順位の変数に変わるので、それぞれ
    ●\(x\): 1,2,3,…\(n\)
    ●\(y\): 1,2,3,…\(n\)
    の変数に変わります。

    解法の流れ

    以下の通りに計算していきます。

    1. 最初に平均\(\bar{x}\),\(\bar{y}\)を計算
    2. 平方和\(S_{xx}\),\(S_{yy}\),\(S_{xy}\)を計算
    3. 平方和\(S_{yy}\)から解き方が2通りある

    ➂スピアマンの順位相関係数を導出(2通り表現できる)

    (i)平均\(\bar{x}\),\(\bar{y}\)を計算

    まず、最初に平均\(\bar{x}\),\(\bar{y}\)を計算します。

    ●\(\bar{x}\)=E[\(x\)]
    =\(\frac{1}{n}\sum_{i=1}^{n}x_i\)
    =\(\frac{1}{n} \frac{n(n+1)}{2} \)
    =\(\frac{n+1}{2} \)

    ●\(\bar{y}\)=E[\(y\)]
    =\(\frac{1}{n}\sum_{i=1}^{n}y_i\)
    =\(\frac{1}{n} \frac{n(n+1)}{2} \)
    =\(\frac{n+1}{2} \)

    となり、平均\(\bar{x}\),\(\bar{y}\)は同じ\(\frac{n+1}{2} \)となります。

    (ii)平方和\(S_{xx}\),\(S_{yy}\),\(S_{xy}\)を計算

    ここで、平方和\(S_{xx}\),\(S_{yy}\),\(S_{xy}\)を計算します。

    平方和\(S_{xx}\)を計算

    ●\(S_{xx}\)=\(\sum_{i=1}^{n}(x_i-\bar{x})^2\)
    =\(\sum_{i=1}^{n}x_i^2\)-2\(\bar{x}\)\(\sum_{i=1}^{n}x_i\)+\((\bar{x})^2\)\(\sum_{i=1}^{n}1^2\)
    =\(\frac{1}{6}n(n+1)(2n+1)\)-2×\(\frac{n+1}{2}\)×\(\frac{n(n+1)}{2}\)+\(\frac{(n+1)^2}{4}\)×\(n\)
    =\(\frac{1}{6}n(n+1)(2n+1)\)-\(\frac{n}{2}(n+1)^2\)+\(\frac{n}{4}(n+1)^2\)
    =\(\frac{n(n^2-1)}{12}\)

    (iii)平方和\(S_{yy}\)を計算

    ●\(S_{yy}\)も\(S_{xx}\)と同じ
    ●\(S_{xx}\)=\(\frac{n(n^2-1)}{12}\)
    です。

    ここで、解き方が2つあります。
    「その1」の方が自然の流れで解けますが、できる式が複雑!
    「その2」は意図的なので無理矢理感がありますが、シンプルな式になる!
    教科書では「その2」の式がよく扱われています。

    QCプラネッツでは両方解法を紹介します。

    (iv)平方和\(S_{xy}\)を計算(その1)

    (その1)は素直に計算します。
    ●\(S_{xy}\)=\(\sum_{i=1}^{n}(x_i-\bar{x})(y_i-\bar{y})\)
    =\(\sum_{i=1}^{n}(x_i y_i)\)-\(\bar{y}\)\(\sum_{i=1}^{n}(x_i)\)- \(\bar{x}\)\(\sum_{i=1}^{n}(y_i)\)+ \(\bar{x}\)\(\bar{y}\)\(\sum_{i=1}^{n}1\)
    =\(\sum_{i=1}^{n}(x_i y_i)\)-\(\frac{n+1}{2}\)×\(\frac{n(n+1)}{2}\)×2+\(\frac{(n+1)^2}{4}\)×\(n\)
    =\(\sum_{i=1}^{n}(x_i y_i)\)-\(\frac{n(n+1)^2}{4}\)

    ここで、\(\sum_{i=1}^{n}(x_i y_i)\)はこれ以上計算できないので式のまま残します。

    そうすると、スピアマンの順位相関係数\(r\)は
    \(r\)=\(\frac{S_{xy}}{\sqrt{S_{xx} S_{yy}}}\)
    =\(\frac{\sum_{i=1}^{n}(x_i y_i)-\frac{n(n+1)^2}{4}}{\frac{n(n^2-1)}{12}}\)
    となります。

    ●スピアマンの順位相関係数
    \(r\)=\(\frac{\sum_{i=1}^{n}(x_i y_i)-\frac{n(n+1)^2}{4}}{\frac{n(n^2-1)}{12}}\)
    は見た目が煩雑な式なので、もう少し見やすい式になるように変形します。

    それが(その2)の方法です。

    (v)平方和\(S_{xy}\)を計算(その2)

    ●\(\sum_{i=1}^{n}(x_i -y_i)^2\)
    からスタートします。

    ●\(\sum_{i=1}^{n}(x_i -y_i)^2\)
    =\(\sum_{i=1}^{n}((x_i-\bar{x}) –(y_i-\bar{y}))^2\)
    =\(\sum_{i=1}^{n}(x_i-\bar{x})^2\)-2\(\sum_{i=1}^{n}(x_i-\bar{x})(y_i-\bar{y})\)+\(\sum_{i=1}^{n}(y_i-\bar{y})^2\)
    =\(S_{xx}\)-2\(S_{xy}\)+\(S_{yy}\)

    よって、
    ●\(\sum_{i=1}^{n}(x_i -y_i)^2\)=\(S_{xx}\)-2\(S_{xy}\)+\(S_{yy}\)

    さらに、

    ●\( x_i -y_i \)=\(d_i\)と置いて、
    \(\sum_{i=1}^{n}(x_i -y_i)^2\)
    \(\sum_{i=1}^{n} d_i ^2\)
    と整理します。

    そして、
    \(S_{xx}\)=\(S_{yy}\)=\(\frac{n(n^2-1)}{12}\)
    から、

    \(S_{xy}\)=\(\frac{1}{2} (S_{xx}+S_{yy}-\sum_{i=1}^{n} d_i ^2)\)
    となります。

    そうすると、スピアマンの順位相関係数\(r\)は
    \(r\)=\(\frac{S_{xy}}{\sqrt{S_{xx} S_{yy}}}\)
    =\(\frac{ S_{xx}+S_{yy}-\sum_{i=1}^{n} d_i ^2}{2S_{xx} S_{yy}}\)
    となります。

    なお、\(S_{xx}\)=\(S_{yy}\)=\(S\)と置くと、
    \(r\)=\(\frac{2S-\sum_{i=1}^{n} d_i ^2}{2S}\)
    =1-\(\frac{6\sum_{i=1}^{n}d_i^2}{n(n^2-1)}\)
    とシンプルな公式ができます。

    (vi)スピアマンの順位相関係数の導出結果

    ●スピアマンの順位相関係数は
    \(r\)1-\(\frac{6\sum_{i=1}^{n}d_i^2}{n(n^2-1)}\)
    で、
    \(r\)=\(\frac{\sum_{i=1}^{n}(x_i y_i)-\frac{n(n+1)^2}{4}}{\frac{n(n^2-1)}{12}}\)
    と同じ値になります。
    上の式の方がわかりやすい?

    難しい導出過程でしたが、ちゃんとできましたね!

    公式は導出できてから使いましょう。

    まとめ

    「スピアマンの順位相関係数が導出できる」を解説しました。

    • ①スピアマンの順位相関係数とは何か?
    • ➁スピアマンの順位相関係数の導出の流れ
    • ➂スピアマンの順位相関係数を導出(2通り表現できる)

    スピアマンの順位相関係数が導出できる
  • クラメールの連関係数の値が0、1の条件がわかる

    クラメールの連関係数の値が0、1の条件がわかる

    「クラメールの連関係数の値が0、1の時はどんな条件かがわからない」など、疑問に思いませんか?

    こういう疑問に答えます。

    本記事のテーマ

    クラメールの連関係数の値が0、1の条件がわかる

    おさえておきたいポイント

    • ➀クラメールの連関係数を導出する
    • ②クラメールの連関係数が1の場合
    • ➂クラメールの連関係数が0の場合
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    ➀クラメールの連関係数を導出する

    関連記事に解説しています。ご確認ください。

    ②クラメールの連関係数が1の場合

    導出過程は次の5つです。

    1. クラメールの連関係数が1となる条件式を作る
    2. 実測度数を計算
    3. 期待度数を計算
    4. ある文字について\(χ^2\)を計算
    5. 全体の\(χ^2\)を計算

    結果的に、
    \(χ^2\)=\(N(k-1)\)
    となれば、クラメールの連関係数\(r_c\)=1となります。

    では、解説します。

    1.クラメールの連関係数が1となる条件式

    関連記事から、次の条件式を持ってきます。

    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\)から
    ●\(\sum_{i=1}^{I} n_{ij}\) ≤ \(f_j\)
    かつ
    ●\(\sum_{j=1}^{J} n_{ij}\) ≤ \(g_i\)
    に注目すると、
    ●\( n_{ij}\) ≤ \(g_i\)
    かつ
    ●\( n_{ij}\) ≤ \(f_j\)が共に成立しますね。

    ここで、不等号が等号条件になる場合を考えます。つまり、

    \( n_{ij}\)=\(g_i\) かつ、\( n_{ij}\)=\(f_j\)

    この等号条件を使っていきます。

    実際に式を書き出してみると
    ●\(n_{i1}+n_{i2}+…+n_{ij}+…+n_{iJ}\)=\(g_i\)=\(n_{ij}\)
    ●\(n_{1j}+n_{2j}+…+n_{ij}+…+n_{Ij}\)=\(f_j\)=\(n_{ij}\)
    を同時に満たすには、

    \( n_{ij}\)=\( n_{ij}\) (ただし、\(i=j\)の場合のみ)
    \( n_{ij}\)=0(それ以外)

    という条件になってしまいます。

    \( n_{ij}\)=\( n_{ij}\) (ただし、\(i=j\)の場合のみ)を
    \( n_{ij}\)=\(f_j\) (ただし、\(I\) ≥ \(J\))と置いて、以後解説します。

    2.実測度数を計算

    \( n_{ij}\)=\(f_j\) (ただし、\(I\) ≥ \(J\))と置くと、実測度数は下表のように置けます。

    \(j\)/\(i\) 1 2 \(J\) \(J+1\) \(I\)
    1 \(f_1\) 0 0 0 0 \(f_1\)
    2 0 \(f_2\) 0 0 0 \(f_2\)
    \(J\) 0 0 \(f_J\) 0 0 \(f_J\)
    \(f_1\) \(f_2\) \(f_J\) 0 0 \(N\)

    ここで、
    \( n_{ij}\)=\(f_j\) (ただし、\(I\) ≥ \(J\))と置いたので、
    \(I\) ≥ \(I\)として考えます。
    よって、\(J+1\)から\(I\)までの値は0とします。

    3.期待度数を計算

    次に期待度数を計算します。期待度数は
    \(\frac{f_j}{N}\)×\(\frac{g_i}{N}\)×\(N\)=\(\frac{f_j g_i}{N}\)に注意して解きます。
    下表の結果になります。

    \(j\)/\(i\) 1 2 \(J\) \(J+1\) \(I\)
    1 \(\frac{f_1^2}{N}\) \(\frac{f_1 f_2}{N}\) \(\frac{f_1 f_J}{N}\) 0 0 \(f_1\)
    2 \(\frac{f_2 f_1}{N}\) \(\frac{f_2^2}{N}\) \(\frac{f_2 f_J}{N}\) 0 0 \(f_2\)
    \(J\) \(\frac{f_J f_1}{N}\) \(\frac{f_J f_2}{N}\) \(\frac{f_J^2}{N}\) 0 0 \(f_J\)
    \(g_1\)=\(f_1\) \(g_2\)=\(f_2\) \(g_J\)=\(f_J\) \(g_{J+1}\)=0 \(g_I\)=0 \(N\)

    ここで、
    \( n_{ij}\)=\(f_j\) (ただし、\(I\) ≥ \(J\))と置いたので、
    \(I\) ≥ \(I\)として考えます。
    よって、\(J+1\)から\(I\)までの値は0とします。

    4.\(χ^2\)を計算(その1)

    まず、\(j=1\)についての\(χ^2\)を計算します。実測度数と期待度数を比較しましょう。下表のとおりです。

    \(j\)/\(i\) 1 2 \(J\) \(J+1\) \(I\)
    1(実測) \(f_1\) 0 0 0 0 \(f_1\)
    1(期待) \(\frac{f_1^2}{N}\) \(\frac{f_1 f_2}{N}\) \(\frac{f_1 f_J}{N}\) 0 0 \(f_1\)

    \(j=1\)についての\(χ^2\)は
    \(χ^2\)=\(\sum_{i=1}^{I}\frac{(実測度数-期待度数)^2}{期待度数}\)
    なので、

    \(χ^2\)=\(\frac{(f_1-\frac{f_1^2}{N})^2}{\frac{f_1^2}{N}}\)
    +\(\frac{(0-\frac{f_1 f_2}{N})^2}{\frac{f_1 f_2}{N}}\)
    +…
    +\(\frac{(0-\frac{f_1 f_J}{N})^2}{\frac{f_1 f_J}{N}}\)
    となります。

    まとめると、
    \(χ^2\)=\(N \frac{f_1^2(1-\frac{f_1}{N})^2}{f_1^2}\)+(\(\frac{f_1 f_2}{N}\)+…+\(\frac{f_1 f_J}{N}\))
    =\(N \frac{f_1^2(1-\frac{f_1}{N})^2}{f_1^2}\)+\(\frac{f_1}{N}(f_2+…+f_J)\)

    ここで、
    \((f_2+…+f_J)\)=\(1-f_1\)なので、代入すると
    \(χ^2\)=\(N \frac{f_1^2(1-\frac{f_1}{N})^2}{f_1^2}\)+\(\frac{f_1}{N}(1-f_1)\)
    =\((1-\frac{f_1}{N})\)\((N(1\frac{f_1}{N}+f_1)\)
    =\(N(1-\frac{f_1}{N})\)
    =\(N-f_1\)
    となります。

    5. \(χ^2\)を計算(その2)

    同様にすべての\(j\)について\(χ^2\)を計算すると、
    \(χ^2\)=\((N-f_1)\)+\((N-f_2)\)+…+\((N-f_J)\)
    =\(NJ\)-\((f_1+f_2+…+f_J)\)
    =\(N(J-1)\)
    となります。

    \(J\)は\(I,J\)の小さい方なので、
    \(N\)=\(n\),\(J\)=\(k\)と置くと、
    \(χ^2\)=\(n(k-1)\)
    となります。

    よって、クラメールの連関係数\(r_c\)は
    \(r_c\)=\(\sqrt{\frac{χ^2}{n(k-1)}}\)
    より、
    \(r_c\)=\(\sqrt{\frac{ n(k-1)}{n(k-1)}}\)=1
    となり、確かに、\(r_c\)=1になりましたね。

    面白い!

    ➂クラメールの連関係数が0の場合

    せっかくなので、0の場合も考えてみましょう。

    \(χ^2\)=0となる条件を探せばいい

    \(χ^2\)はよーく見ると
    \(χ^2\)=\((x_1-a_1)^2\)+\((x_2-a_2)^2\)+…+\((x_n-a_n)^2\)
    の2乗和の形をしています。この2乗和の値を0にするには、

    すべての\(i\)について\((x_i-a_i)^2\)=0
    つまり、\(x_i=a_i\)

    という条件が必要です。

    なので、
    \(χ^2\)=\(\sum_{i=1}^{I}\frac{(実測度数-期待度数)^2}{期待度数}\)
    を見ると、

    すべての\(i\)について、実測度数=期待度数

    となります。具体的なデータを上げると下表のような感じです。

    \(j\)/\(i\) 1 2 \(I\)
    1 \(n_{11}\)=\(\frac{f_1^2}{N}\) \(n_{21}\)=\(\frac{f_2 f_1}{N}\) \(n_{I1}\)=\(\frac{f_I f_1}{N}\) \(f_1\)
    2 \(n_{12}\)=\(\frac{f_1 f_2}{N}\) \(n_{22}\)=\(\frac{f_2^2}{N}\) \(n_{I2}\)=\(\frac{f_I f_2}{N}\) \(f_2\)
    J \(n_{1J}\)=\(\frac{f_1 f_J}{N}\) \(n_{2J}\)=\(\frac{f_2 f_J}{N}\) \(n_{IJ}\)=\(\frac{f_I f_J}{N}\) \(f_J\)
    \(g_1\) \(g_2\) \(g_I\) N

    すべての\(i,j\)について、実測度数\(n_{ij}\)と期待度数\(\frac{f_j g_i}{N}\)が等しい場合に
    クラメールの連関係数は0になります。

    つまり、実測度数がまったくばらつかないデータの場合だけであり、実際はそんなことは起きにくいですね。

    難しい導出過程でしたが、ちゃんとできましたね!

    公式は導出できてから使いましょう。

    まとめ

    「クラメールの連関係数の値が0、1の条件がわかる」を解説しました。

    • ➀クラメールの連関係数を導出する
    • ②クラメールの連関係数が1の場合
    • ➂クラメールの連関係数が0の場合

  • (必読)クラメールの連関係数が導出できる

    (必読)クラメールの連関係数が導出できる

    「クラメールの連関係数の式ってどうやって導出するの?」など、疑問に思いませんか?

    こういう疑問に答えます。

    本記事のテーマ

    (必読)クラメールの連関係数が導出できる

    おさえておきたいポイント

    • ➀クラメールの連関係数とは
    • ②(必読)クラメールの連関係数を導出する
    [themoneytizer id=”105233-2″]

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    ➀クラメールの連関係数とは

    クラメールの連関係数とは

    ●クラメールの連関係数
    ・\(χ^2\)=各セルについての \(\frac{(実測度数-期待度数)^2}{期待度数}\)
    ・\(n\):データ数
    ・\(k\):少ない方のカテゴリーの個数
    ・\(r_c\):クラメールの連関係数
    \(r_c\)=\(\sqrt{\frac{χ^2}{n(k-1)}}\)

    ここで、おさえるポイントは、

    1. 適合度の検定を使って、\(χ^2\)分布を使うこと
    2. 0 ≤ \(\sqrt{\frac{χ^2}{n(k-1)}}\) ≤1 なので、\(r_c\)を相関係数みたいに使う

    クラメールの連関係数の計算例

    よく、「クラメールの連関係数」で検索したり、教科書を読むと解き方や事例集ばかり解説していますが、

    \(r_c\)=\(\sqrt{\frac{χ^2}{n(k-1)}}\)は
    どうやって導出したの?
    何で、こんな変な式なの?
    何で、適合度の検定\(χ^2\)分布なの?

    と疑問に思いますよね。

    適合度の検定で\(χ^2\)分布を使う理由が説明できますか?

    そもそも、

    適合度の検定で\(χ^2\)分布を使う理由もわからない。。。

    これも、どこにも書いていません。困った!

    なので、関連記事を用意しています。QCプラネッツは、わからないことはすべて解説します!

    【6】分割表(χ2乗分布)に関する検定【QC検定®2級対策】
    QC検定®2級で頻出な、分割表に関する検定と推定の解法を解説します。検定から推定区間まで5分以内に解けるための流れとテクニックについて解説します。QC検定®2級合格したい方は必見です。

    ●商標使用について、
    ①QC検定®と品質管理検定®は、一般財団法人日本規格協会の登録商標です。
    ➁このコンテンツは、一般財団法人日本規格協会の承認や推奨、その他の検討を受けたものではありません。
    ➂QCプラネッツは、QC検定®と品質管理検定®の商標使用許可を受けています。

    この関連記事の、
    「➂【本記事限定】分割表の検定統計量は\(χ^2\)分布である理由がわかる」
    に書いています。

    大事なポイントは

    1. \(A\)=\(\frac{(観測度数-期待度数)}{期待度数}\)
      ≡\(\frac{x-\bar{x}}{σ}\)のように見て
    2. \(\sum A^2\)を分散のように扱うのでχ2乗分布で扱う
    3. 自由度は(列-1)(行-1)も理解しておく

    ですね。関連記事で必ず確認してください。ここがわからないと、クラメールの連関係数は公式暗記で終わってしまいます。。。

    [themoneytizer id=”105233-2″]

    ②クラメールの連関係数を導出する

    クラメールの連関係数を変形

    \(r_c\)=\(\sqrt{\frac{χ^2}{n(k-1)}}\)自身は重要ではなく、

    ●\(χ^2\)が
    0 ≤ \(χ^2\) ≤ \(n(k-1)\)
    を証明することを考えます。

    観測度数と期待度数を用意する

    ここで、行×列が\(J\)×\(I\)の表を用意して、観測度数と期待度数を文字式で表現します。

    観測度数

    下表のようにまとめます。

    \(j\)/\(i\) 1 \(i\) \(I\)
    1 \(n_{11}\) \(n_{i1}\) \(n_{I1}\) \(f_1\)
    \(j\) \(n_{1j}\) \(n_{ij}\) \(n_{Ij}\) \(f_j\)
    \(J\) \(n_{1J}\) \(n_{iJ}\) \(n_{IJ}\) \(f_J\)
    \(g_1\) \(g_i\) \(g_I\) \(N\)

    期待度数

    同様に下表のようにまとめます。ここで、\(j\)行\(i\)列の期待度数\(E_{ij}\)は
    \(E_{ij}\)=\(\frac{g_i}{N}\)×\(\frac{f_j}{N}\)×\(N\)
    =\(\frac{g_i f_j}{N}\)
    と表現できます。抽象的な式なので、具体的な値で式を確認しましょう。

    期待度数を下表にまとめます。

    \(j\)/\(i\) 1 \(i\) \(I\)
    1 \(E_{11}\)=\(\frac{g_1 f_1}{N}\) \(E_{i1}\)=\(\frac{g_i f_1}{N}\) \(E_{I1}\)=\(\frac{g_I f_1}{N}\) \(f_1\)
    \(j\) \(E_{1j}\)=\(\frac{g_1 f_j}{N}\) \(E_{ij}\)=\(\frac{g_i f_j}{N}\) \(E_{Ij}\)=\(\frac{g_I f_j}{N}\) \(f_j\)
    \(J\) \(E_{1J}\)=\(\frac{g_1 f_J}{N}\) \(E_{iJ}\)=\(\frac{g_i f_J}{N}\) \(E_{IJ}\)=\(\frac{g_I f_J}{N}\) \(f_J\)
    \(g_1\) \(g_i\) \(g_I\) \(N\)

    \(χ^2\)を計算

    定義どおり\(χ^2\)を計算します。

    \(χ^2\)=\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{(観測度数-期待度数)^2}{期待度数}\)
    =\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{(n_{ij}-E_{ij})^2}{ E_{ij}}\)
    =(式1)

    2乗を展開します。
    (式1)
    =\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)(\(\frac{n_{ij}^2}{E_{ij}}-2n_{ij}+E_{ij}\))
    =(式2)

    ここで、(式2)の第1項は
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{E_{ij}}\)
    =\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j/N}\)
    =\(N \sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\)
    と変形します。

    次に、(式2)の第2項は
    =\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(-2n_{ij}\)
    =\(-2N\)
    です。

    そして、(式2)の第3項は
    =\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\( E_{ij}\)
    =\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\( \frac{g_i f_j}{N}\)
    =\(\sum_{i=1}^{I} f_j \) \(\sum_{j=1}^{J}\ f_j /N\)
    =\(\frac{N×N}{N}\)=\(N\)
    です。

    (式2)をまとめると、
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)(\(\frac{n_{ij}^2}{E_{ij}}-2n_{ij}+E_{ij}\))
    =\(N \sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j } -2N+N\)
    =\(N (\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }-1\))
    =(式3)
    となります。

    証明のゴールを確認

    で、ここで、ゴールを確認すると、

    ●\(χ^2\)が
    0 ≤ \(χ^2\) ≤ \(n(k-1)\)
    を証明することを考えます。

    0 ≤ \(χ^2\)は明らかですよね!
    \(χ^2\)=\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{(観測度数-期待度数)^2}{期待度数}\)
    より分子は2乗で正かつ、分母の正なので、
    0 ≤ \(χ^2\)は明らかですよね!

    次に、
    \(χ^2\) ≤ \(n(k-1)\)
    と(式3)を比較すると
    \(χ^2\) =\(N \sum_{i=1}^{I}\sum_{j=1}^{J}\)\((\frac{n_{ij}^2}{g_i f_j }-1\))
    \(N→n\)、\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\)→\(k\)と置くと、
    \(χ^2\) ≤ \(n(k-1)\)の形になっていますね。
    つまり、ゴールまでもう少しですね。

    証明の最後まで進めると

    (式3)の
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\)ですが
    そもそも
    ●\(\sum_{i=1}^{I} n_{ij}\) ≤ \(f_j\)
    かつ
    ●\(\sum_{j=1}^{J} n_{ij}\) ≤ \(g_i\)
    ですよね。

    ここに注目すると
    \( n_{ij}\) ≤ \(g_i\) かつ\( n_{ij}\) ≤ \(f_j\)が共に成立しますね。

    この不等式を\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\)に代入すると
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\)
    ≤ \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{g_i ×n_{ij}}{g_i f_j }\)
    =\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}}{f_j }\)
    =\(\sum_{j=1}^{J}\)\(\frac{n_{1j}+n_{2j}+…+n_{Ij}}{f_j}\)
    =\(\sum_{j=1}^{J}\)\(\frac{f_j}{f_j}\)
    =\(\sum_{j=1}^{J}\)1
    =\(J\)

    まとめると、
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\) ≤ \(J\)
    となります。

    同様に、
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\)
    ≤ \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}×f_j}{g_i f_j }\)
    =\(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}}{g_i }\)
    =\(\sum_{i=1}^{I}\)\(\frac{n_{i1}+n_{i2}+…+n_{iJ}}{g_i}\)
    =\(\sum_{i=1}^{I}\)\(\frac{g_i}{g_i}\)
    =\(\sum_{i=1}^{I}\)1
    =\(I\)

    まとめると、
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\) ≤ \(I\)
    となります。

    つまり、共に上の2つの不等式が
    成り立つわけですから、
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\) ≤ \(I\)
    かつ
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\) ≤ \(J\)
    となり、まとめると、
    \(\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }\) ≤ \(k=min(I,J)\)
    とします。

    以上から

    (式3)と上の不等式の関係を代入すると
    \(χ^2\)=(式3)
    =\(N (\sum_{i=1}^{I}\sum_{j=1}^{J}\)\(\frac{n_{ij}^2}{g_i f_j }-1\))
    ≤ \(n(k-1)\)
    (\(N→n\), \(k=min(I,J)\)とする。)

    よって、
    0 ≤ \(χ^2\) ≤ \(n(k-1)\)
    が証明できました。

    両辺を\(n(k-1)\)で割り、\(χ^2\)の2乗を平方根に変えた変数の方が使いやすいということで、

    ●クラメールの連関係数
    \(r_c\)=\(\sqrt{\frac{χ^2}{n(k-1)}}\)
    と置くと、0~1までの変数となり、
    相関係数や寄与率に似た変数として扱える!
    というわけです。

    難しい導出過程でしたが、ちゃんとできましたね!

    公式は導出できてから使いましょう。

    まとめ

    「クラメールの連関係数が導出できる」を解説しました。

    • ➀クラメールの連関係数の計算例
    • ②(必読)クラメールの連関係数を導出する

error: Content is protected !!