投稿者: QCプラネッツ

  • 固有ベクトルが直交する理由がわかる

    固有ベクトルが直交する理由がわかる

    本記事のテーマ

    固有ベクトルが直交する理由がわかる
    • ①対称行列\(A\)の性質
    • ➁対称行列\(A\)の性質\((A \vec{x})・\vec{y}\)=\(\vec{x}・(A \vec{y})\)の証明
    • ➂固有ベクトルが互いに直交する理由がわかる

    【QC検定®1級合格】多変量解析問題集を販売します!

    QC検定®1級合格したい方、多変量解析をしっかり学びたい方におススメです。
    【QC検定®合格】「多変量解析」問題集を販売します! 内容は、①回帰分析 単回帰分析・重回帰分析 の復習、➁ 主成分分析、➂判別分析、➃因子分析、➄数量化分析の5章全42題を演習できる問題集です。

    主成分分析は自分で解けます!
    Excelや固有値、因子負荷量とか暗記不要!
    自力で導出できるぜ!
    線形代数の代名詞な固有ベクトル
    互いに直交する理由をわかりやすく解説します。
    線形代数・行列の式変形は
    難しいし、苦手なので、
    成分を書き出して
    わかりやすく計算します!

    ①対称行列\(A\)の性質

    固有方程式

    線形代数でもおなじみの固有方程式、固有値、固有ベクトル。
    関連記事で解説したとおり、主成分分析でも出て来ます。

    主成分分析が計算できる
    主成分分析で必須な主成分負荷量、主成分得点、主成分平方和、主成分の寄与率を丁寧に解説します。

    2次元、3次元の固有方程式を書き出すと

    2次元の場合

    \(\left(
    \begin{array}{cccc}
    S_{11} & S_{12} \\
    S_{12} & S_{22}
    \end{array}
    \right)
    \)\(\left(
    \begin{array}{cccc}
    a_j\\
    b_j
    \end{array}
    \right)
    \)=\(λ_j\)\(\left(
    \begin{array}{cccc}
    a_j \\
    b_j
    \end{array}
    \right)
    \)

    ただし、
    ●\(i\)=\(1,2,…,n\) (データ数)
    ●\(j\)=1,2 (固有値の種類)
    \(a_j^2+b_j^2\)=1(単位ベクトル)

    3次元の場合

    \(\left(
    \begin{array}{cccc}
    S_{11} & S_{12} & S_{13} \\
    S_{12} & S_{22} & S_{23} \\
    S_{13} & S_{23} & S_{33}
    \end{array}
    \right)
    \)\(\left(
    \begin{array}{cccc}
    a_j \\
    b_j \\
    c_j
    \end{array}
    \right)
    \)=\(λ_j\)\(\left(
    \begin{array}{cccc}
    a_j \\
    b_j \\
    c_j
    \end{array}
    \right)
    \)

    ただし、
    ●\(i\)=\(1,2,…,n\) (データ数)
    ●\(j\)=1,2,3 (固有値の種類)
    \(a_j^2+b_j^2+c_j^2\)=1(単位ベクトル)

    がありますよね。

    本記事では、固有方程式にある行列に注目します。つまり、
    ●2次元なら
    \(\left(
    \begin{array}{cccc}
    S_{11} & S_{12} \\
    S_{12} & S_{22}
    \end{array}
    \right)
    \)

    ●3次元なら
    \(\left(
    \begin{array}{cccc}
    S_{11} & S_{12} & S_{13} \\
    S_{12} & S_{22} & S_{23} \\
    S_{13} & S_{23} & S_{33}
    \end{array}
    \right)
    \)

    です。よく見ると、
    これらの行列は対称行列になっています。

    対称行列\(A\)は、\(i\)行、\(j\)列の成分\(a_{ij}\)において、
    \(a_{ij}\)=\(a_{ji}\)と行列入れ替えた成分の値がすべて同じもので、
    よく\(A={}^tA\)と書きます。

    以下、行列\(A\)は\(a_{ij}\)=\(a_{ji}\)と行列入れ替えた成分の値が同じである対称行列が前提として話を進めます。

    ➁対称行列\(A\)の性質\((A \vec{x})・\vec{y}\)=\(\vec{x}・(A \vec{y})\)の証明

    \((A \vec{x})・\vec{y}\)の計算

    実際に計算していきましょう。

    まず行列\(A\)とベクトル\(\vec{x}\),\(\vec{y}\)を準備します。

    \(A\)=\(\left(
    \begin{array}{cccc}
    a_{11} & a_{12} & \ldots & a_{1n} \\
    a_{21} & a_{22} & \ldots & a_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    a_{n1} & a_{n2} & \ldots & a_{nn}
    \end{array}
    \right)
    \)

    \(\vec{x}\)=\(
    \left(
    \begin{array}{c}
    x_1 \\
    x_2 \\
    \vdots \\
    x_n
    \end{array}
    \right)
    \)

    \(\vec{y}\)=\(
    \left(
    \begin{array}{c}
    y_1 \\
    y_2 \\
    \vdots \\
    y_n
    \end{array}
    \right)
    \)

    では、計算してきましょう。

    \((A \vec{x})\)の計算

    \((A \vec{x})\)=\(\left(
    \begin{array}{cccc}
    a_{11} & a_{12} & \ldots & a_{1n} \\
    a_{21} & a_{22} & \ldots & a_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    a_{n1} & a_{n2} & \ldots & a_{nn}
    \end{array}
    \right)
    \)\(
    \left(
    \begin{array}{c}
    x_1 \\
    x_2 \\
    \vdots \\
    x_n
    \end{array}
    \right)
    \)
    =\(
    \left(
    \begin{array}{c}
    a_{11} x_1+ a_{12} x_2+…+ a_{1n} x_n \\
    a_{21} x_1+ a_{22} x_2+…+ a_{2n} x_n \\
    \vdots \\
    a_{n1} x_1+ a_{n2} x_2+…+ a_{nn} x_n
    \end{array}
    \right)
    \)=\(
    \left(
    \begin{array}{c}
    \sum_{i=1}^{n} a_{1i} x_i\\
    \sum_{i=1}^{n} a_{2i} x_i \\
    \vdots \\
    \sum_{i=1}^{n} a_{ni} x_i
    \end{array}
    \right)
    \)

    式は複雑ですが、機械的に計算しているだけです。

    \((A \vec{x})・\vec{y}\)の計算

    次に、\(\vec{y}\)も付加しましょう。

    \((A \vec{x})・\vec{y}\)=\(
    \left(
    \begin{array}{c}
    a_{11} x_1+ a_{12} x_2+…+ a_{1n} x_n \\
    a_{21} x_1+ a_{22} x_2+…+ a_{2n} x_n \\
    \vdots \\
    a_{n1} x_1+ a_{n2} x_2+…+ a_{nn} x_n
    \end{array}
    \right)
    \)\(
    \left(
    \begin{array}{c}
    y_1 \\
    y_2 \\
    \vdots \\
    y_n
    \end{array}
    \right)
    \)
    ですが、これは内積なのでスカラー量になりますね。
    =\( (a_{11} x_1+ a_{12} x_2+…+ a_{1n} x_n) y_1 \)
    + \((a_{21} x_1+ a_{22} x_2+…+ a_{2n} x_n) y_2\)

    + \((a_{n1} x_1+ a_{n2} x_2+…+ a_{nn} x_n) y_n\)
    これを∑でまとめて表記すると
    =\(\sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij} x_j y_i\) =(式1)
    となります。

    次に(右辺)側を計算します。

    \(\vec{x}・(A \vec{y})\)の計算

    機械的にどんどん計算します。

    \((A \vec{y})\)=\(
    \left(
    \begin{array}{c}
    a_{11} y_1+ a_{12} y_2+…+ a_{1n} y_n \\
    a_{21} y_1+ a_{22} y_2+…+ a_{2n} y_n \\
    \vdots \\
    a_{n1} y_1+ a_{n2} y_2+…+ a_{nn} y_n
    \end{array}
    \right)
    \)
    これは、さっき\((A \vec{x})\)を計算したときの結果をx⇒yに変えればOKですね。

    \(\vec{x}・(A \vec{y})\)=\(
    \left(
    \begin{array}{c}
    x_1 \\
    x_2 \\
    \vdots \\
    x_n
    \end{array}
    \right)
    \)\(
    \left(
    \begin{array}{c}
    a_{11} y_1+ a_{12} y_2+…+ a_{1n} y_n \\
    a_{21} y_1+ a_{22} y_2+…+ a_{2n} y_n \\
    \vdots \\
    a_{n1} y_1+ a_{n2} y_2+…+ a_{nn} y_n
    \end{array}
    \right)
    \)
    これは内積なのでスカラー量になりますね。
    =\(( a_{11} y_1+ a_{12} y_2+…+ a_{1n} y_n) x_1\)
    +\(( a_{21} y_1+ a_{22} y_2+…+ a_{2n} y_n) x_2\)

    +\(( a_{n1} y_1+ a_{n2} y_2+…+ a_{nn} y_n) x_n\)
    これを∑でまとめて表記すると
    =\(\sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij} y_j x_i\) =(式2)
    となります。

    \((A \vec{x})・\vec{y}\)=\(\vec{x}・(A \vec{y})\)の証明の計算

    さて、
    (左辺)= \(\sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij} x_j y_i\) =(式1)
    (右辺)= \(\sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij} y_j x_i\) =(式2)
    と似たようで違う式になっていますが、等しいことを証明していきます。

    まず、行列\(A\)は対称行列でしたね。

    対称行列\(A\)は、\(i\)行、\(j\)列の成分\(a_{ij}\)において、
    \(a_{ij}\)=\(a_{ji}\)と行列入れ替えた成分の値がすべて同じもの

    \(a_{ij}\)=\(a_{ji}\)を(式2)に代入すると、
    (式2)= \(\sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij} y_j x_i \)
    = \(\sum_{i=1}^{n} \sum_{j=1}^{n} a_{ji} x_i y_j \)
    ここで、\(i\)⇒\(j\),\(j\)⇒\(i\)と入れ替えると
    = \(\sum_{i=1}^{n} \sum_{j=1}^{n} a_{ij} x_j y_i\)
    =(左辺)

    となるので、証明できました!

    対称行列\(A\)の性質\((A \vec{x})・\vec{y}\)=\(\vec{x}・(A \vec{y})\)
    が証明できました。

    ➂固有ベクトルが互いに直交する理由がわかる

    対称行列\(A\)の性質\((A \vec{x})・\vec{y}\)=\(\vec{x}・(A \vec{y})\)

    固有ベクトルの直交性の話のために、長々と証明してきましたが、この式を使うと簡単に固有ベクトルの直交性が証明できます。

    ここで、対称行列\(A\)の固有値\(λ_i\),固有ベクトル\(\vec{v_i}\) (\(i\)=1,2,…\(n\))と置くと、

    \(A \vec{v_i}\)=\(λ_i \vec{v_i}\)
    が成り立つ。

    固有ベクトルが互いに直交する理由

    上の証明した式において、ベクトルを
    ●\(\vec{x}\)=\(\vec{v_i}\)
    ●\(\vec{y}\)=\(\vec{v_j}\)
    (\(i\)≠\(j\))と置きます。

    \((A \vec{x})・\vec{y}\)=\(\vec{x}・(A \vec{y})\)
    \((A \vec{v_i})・\vec{v_j}\)=\(\vec{v_i}・(A \vec{v_j})\)=(式3)

    固有方程式から
    ●\(A \vec{v_i}\)=\(λ_i \vec{v_i}\)
    ●\(A \vec{v_j}\)=\(λ_j \vec{v_j}\)
    を代入すると

    (式3)は
    \((λ_i \vec{v_i})\)・\(\vec{v_j}\)=\(\vec{v_i}\)・\((λ_j \vec{v_j})\)
    \(λ_i \vec{v_i}\)・\(\vec{v_j}\)=\(λ_j \vec{v_i}\)・\(\vec{v_j}\)
    \((λ_i-λ_j)\)\(\vec{v_i}\)・\(\vec{v_j}\)=0=(式4)

    (式4)において、\(i\)≠\(j\)から(\(λ_i\)≠\(λ_j\)なので、
    \(\vec{v_i}\)・\(\vec{v_j}\)=0
    が成り立ちます。


    より、固有ベクトルは互いに直交することが証明できました。

    めでたし、めでたし!

    まとめ

    「固有ベクトルが直交する理由がわかる」を解説しました。

    • ①対称行列\(A\)の性質
    • ➁対称行列\(A\)の性質\((A \vec{x})・\vec{y}\)=\(\vec{x}・(A \vec{y})\)の証明
    • ➂固有ベクトルが互いに直交する理由がわかる
  • 【まとめ】重回帰分析がよくわかる

    【まとめ】重回帰分析がよくわかる

    本記事のテーマ

    【まとめ】重回帰分析がよくわかる

    おさえておきたいポイント

    • ①重回帰分析で最も理解すべきこと
    • ➁重回帰分析の基本
    • ➂重回帰分析の検定と推定方法
    • ➃重回帰分析の特徴的な性質
    • ➄ブログ記事のご紹介
    • ⑥プレミアムテキストのご紹介
    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【内容】①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題。

    ①重回帰分析で最も理解すべきこと

    重回帰分析を学ぶ上で最も大事なことを挙げると、

    1. 単回帰分析と同様に、誤差が最小となる条件式を求めている
    2. データの構造式から平方和の分解、回帰式の導出の流れを理解する
    3. 説明変数を増やすと一般には寄与率は高くなる
    4. 多変数による便利さと、結果の妥当性の吟味が必要になる
    5. 重回帰分析の公式を個別に暗記せずに、導出過程を理解する
    6. 単回帰分析、主成分分析などの他の解析方法との違いを理解する

    の6点を意識して習得していきましょう。

    QCプラネッツでは、重回帰分析の重要ポイントをわかりやすく解説していますので、ご確認ください。

    ➁重回帰分析の基本

    重回帰分析とは何か?

    多変量解析はたくさんの解析手法がありますが、目的は1つです。

    ●必要な成分をなるべく抽出すること
    ●逆に言えば、不要な誤差成分が最小になる条件で分析すること

    生データと回帰データの差をQとすると、Q→minになる条件式を満たすのが回帰式となります。つまり、生データからなるべく多くの成分を抜き出して特性を見ようとするのが多変量解析の目的です。

    その1つが重回帰分析となります。

    そして、QCプラネッツでは、実験計画法でも何度も伝えていますが

    1. データの構造式を立てて
    2. データの構造式の2乗和から平方和を分解し
    3. 平方和の分解から分散分析して、
    4. 誤差の最小条件から回帰式などの条件式を求める

    この流れで、多変量解析・重回帰分析を解いていきます。

    ●重回帰分析の独特な公式が出ますが、導出の考え方は上の1~4の流れで解いていきます。ここ結構大事です!

    導出の流れを意識しておかないと、何を解いているかわからなくなります。

    ➂重回帰分析の検定と推定方法

    ➁で重回帰分析の流れを理解したところですが、検定と推定の公式が難解なため暗記に頼りがちになります。関連記事では重回帰分析の検定・推定の式について丁寧に導出過程を解説しています。

    QCプラネッツでは、

    ●自分で導出できない公式は使うな!
    (間違っているかもしれないぞ!)
    自分で確かめてから使おう!

    という信念があります。

    例えば、マハラビノス距離Dが難しい式なので、いきなり使おうとせず、具体例で慣れていきましょう。多変量解析では何度かマハラビノス距離を解説します。

    ➃重回帰分析の特徴的な性質

    単回帰分析と違って、重回帰分析の独特な特徴があります。重回帰分析の強みでもあり弱みでもあります。

    強み

    ●複数の説明変数で分析式が作れる
    ●1次式の線形式でシンプル
    ●説明変数は単位を変えても他の説明変数の回帰直線の傾きに影響しない

    弱み

    ●寄与率が高くなりがち
    ●正負の相関性と回帰式の傾きの正負が不一致な場合がある

    重回帰分析の強み・弱みを意識しながら、独特な特徴を理解していきましょう。

    あとは、変数増減法、テコ比、ダービンワトソン比を紹介します。公式暗記ではなく、1つ1つ丁寧に導出していますので、導出過程を理解してから習得しましょう!

    ➄ブログ記事のご紹介

    重回帰分析の流れが理解できる関連記事を紹介します。上から下に沿って、それぞれの関連記事を読んでいってください。

    重回帰分析の回帰式が導出できる

    重回帰分析の回帰式が導出できる
    公式暗記になりがちな重回帰分析の回帰式について途中経過を一切端折らず丁寧に解説します。重回帰分析や多変量解析を勉強する人は必読!

    平方和の分解と分散分析ができる(重回帰分析)

    平方和の分解と分散分析ができる(重回帰分析)
    重回帰分析の分散分析をする際にデータの構造式を使って平方和の分解が自力で計算できるようにわかりやすく解説!

    重回帰分析のダミー変数の使い方がよくわかる

    重回帰分析のダミー変数の使い方がよくわかる
    本記事では、ダミー変数の値と重回帰分析の影響についてわかりやすく解説!

    重回帰分析のテコ比がよくわかる

    重回帰分析のテコ比がよくわかる
    本記事では重回帰分析の回帰直線を求める式から丁寧にハット行列、テコ比を丁寧に導出します。

    ダービンワトソン比がよくわかる

    ダービンワトソン比がよくわかる
    ダービンワトソン比の導出、範囲の証明、値とグラフの関係についてわかりやすく解説!

    ⑥プレミアムテキストのご紹介

    重回帰分析の流れが理解できる関連記事を紹介します。上から下に沿って、それぞれの関連記事を読んでいってください。

    以前、ブログ記事としていましたが、まとめて冊子にしました。
    どれも重要なテーマなので勉強しましょう!

    【QCプラネッツ重回帰分析プレミアム勉強テキスト】
    重回帰分析で大事なエッセンスをテキストにまとめました。必読です!

    テーマ 内容
    1 重回帰分析の寄与率Rがわかる
    2 重回帰分析と単回帰分析の比較がわかる
    3 重回帰分析の推定区間の式が導出できる
    4 偏相関係数が導出できる
    5 重回帰分析の多重共線性がわかる
    6 重回帰分析は単位に影響されない理由がわかる(その1)
    7 重回帰分析は単位に影響されない理由がわかる(その2)
    8 偏回帰係数に関する検定と推定がよくわかる
    9 変数増減法がよくわかる
    【QCプラネッツ重回帰分析プレミアム勉強テキスト】
    重回帰分析で大事なエッセンスをテキストにまとめました。必読です!

    しっかり勉強していきましょう!

    まとめ

    • ①重回帰分析で最も理解すべきこと
    • ➁重回帰分析の基本
    • ➂重回帰分析の検定と推定方法
    • ➃重回帰分析の特徴的な性質
    • ➄ブログ記事のご紹介
    • ⑥プレミアムテキストのご紹介
  • ダービンワトソン比がよくわかる

    ダービンワトソン比がよくわかる

    ダービンワトソン比がよくわかる

    • ①ダービンワトソン比とは
    • ➁ダービンワトソン比の範囲を導出
    • ➂ダービンワトソン比の値とデータの特性

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    ①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    ダービンワトソン比が0~4の範囲になる理由と、
    ダービンワトソン比の値とグラフの関係を実例をあげて解説するのはQCプラネッツだけ!

    ①ダービンワトソン比とは

    ダービンワトソン比とは

    ある回帰直線において、回帰線分と残差成分に分けた時、
    \(y_i\)=\(βx_i\)(回帰)+\(e_i\)(残差) (\(i=1,2,…,n\))
    残差\(e_i\)について、ダービンワトソン比を定義します。

    DW=\(\frac{\sum_{i=2}^{n}(e_i-e_{i-1})^2}{\sum_{i=1}^{n}e_i^2}\)
    隣り合った残差の関係を調べることで、データに異常がないかをチェックします。

    ダービンワトソン比の式を展開する

    DW=\(\frac{\sum_{i=2}^{n}(e_i-e_{i-1})^2}{\sum_{i=1}^{n}e_i^2}\)を展開します。
    DW=\(\frac{\sum_{i=2}^{n}(e_i-e_{i-1})^2}{\sum_{i=1}^{n}e_i^2}\)
    =\(\frac{\sum_{i=2}^{n} e_i^2-2\sum_{i=2}^{n} e_{i-1} e_i +\sum_{i=2}^{n} e_{i-1}^2}{\sum_{i=1}^{n}e_i^2}\)
    =(式1)

    ここで、
    ●\(\sum_{i=1}^{n} e_i^2\)=\(e_1^2 +\sum_{i=2}^{n} e_i^2\)
    ●\(\sum_{i=1}^{n} e_i^2\)=\(\sum_{i=2}^{n} e_{i-1}^2+e_n^2\)
    に注意して、(式1)に代入します。

    (式1)
    =\(\frac{(\sum_{i=1}^{n} e_i^2-e_1^2)-2\sum_{i=2}^{n} e_{i-1} e_i +(\sum_{i=1}^{n} e_{i}^2-e_n^2)}{\sum_{i=1}^{n}e_i^2}\)
    =\(\frac{2\sum_{i=1}^{n} e_i^2-2\sum_{i=2}^{n} e_{i-1} e_i -(e_1^2+e_n^2)}{\sum_{i=1}^{n}e_i^2}\)
    =2-2\(\frac{\sum_{i=2}^{n} e_{i-1} e_i}{\sum_{i=1}^{n}e_i^2}\)-\(\frac{ e_1^2+e_n^2}{\sum_{i=1}^{n}e_i^2}\)
    =(式3)

    (式3)の第3項においては、\(n\)が十分大きいと
    \(\frac{ e_1^2+e_n^2}{\sum_{i=1}^{n}e_i^2}\)
    =\(\frac{e_1^2+e_n^2}{e_1^2+e_2^2+e_3^2+…+e_n^2}\)
    となり、(分子) \(\ll\) (分母)とみなせるので、

    \(\frac{ e_1^2+e_n^2}{\sum_{i=1}^{n}e_i^2}\) \(\approx\) 0
    とします。

    次に第2項の
    \(\frac{\sum_{i=2}^{n} e_{i-1} e_i}{\sum_{i=1}^{n}e_i^2}\)
    ですが、よく相関係数\(ρ\)と定義して、
    \(ρ\)=\(\frac{\sum_{i=2}^{n} e_{i-1} e_i}{\sum_{i=1}^{n}e_i^2}\)
    とおくことがあります。

    ➁ダービンワトソン比の範囲を導出

    残差どうしの相関係数の範囲を導出

    \(ρ\)=\(\frac{\sum_{i=2}^{n} e_{i-1} e_i}{\sum_{i=1}^{n}e_i^2}\)
    の範囲を求めましょう。相関係数というくらいなので、-1 ≤ \(ρ\) ≤ 1となります。

    証明してみましょう。

    (分子)= \(\sum_{i=2}^{n} e_{i-1} e_i \)をあえて絶対値をつけて
    (分子)= |\(\sum_{i=2}^{n} e_{i-1} e_i \)|とします。

    (分母)-(分子)
    =\(\sum_{i=1}^{n}e_i^2\)-|\(\sum_{i=2}^{n} e_{i-1} e_i \)|
    =(\(e_1^2+e_2^2+…+e_n^2\))-(|\(e_1 e_2\)|+|\(e_2 e_3\)|+…+|\(e_{n-1} e_n\)|)
    上手く変形すると
    =\(\frac{1}{2}(|e_1-e_2|)^2\)+\(\frac{1}{2}(|e_2-e_3|)^2\)+…+\(\frac{1}{2}(|e_{n-1}-e_n|)^2\)+\(\frac{1}{2}e_n^2\)
    =\(\frac{1}{2}(e_1-e_2)^2\)+\(\frac{1}{2}(e_2-e_3)^2\)+…+\(\frac{1}{2}(e_{n-1}-e_n)^2\)+\(\frac{1}{2}e_n^2\) ≥ 0

    よって、

    \(\sum_{i=1}^{n}e_i^2\) ≥ |\(\sum_{i=2}^{n} e_{i-1} e_i \)|
    両辺ともに正なので、
    \(\frac{|\sum_{i=2}^{n} e_{i-1} e_i |}{\sum_{i=1}^{n}e_i^2}\) ≤ 1
    絶対値を外すと
    -1 ≤ \(\frac{|\sum_{i=2}^{n} e_{i-1} e_i |}{\sum_{i=1}^{n}e_i^2}\) ≤ 1
    -1 ≤ \(ρ\) ≤ 1
    となります。

    ダービンワトソン比の範囲を導出

    もう一度、ダービンワトソン比の式(式3)を再掲します。
    DW=2-2\(\frac{\sum_{i=2}^{n} e_{i-1} e_i}{\sum_{i=1}^{n}e_i^2}\)-\(\frac{ e_1^2+e_n^2}{\sum_{i=1}^{n}e_i^2}\)
    第3項は0で近似して、第2項は-1~1の範囲ですから、

    0 ≤ DW ≤ 4
    の範囲で動くことになります。
    暗記しなくても自力で導出できますね!

    ➂ダービンワトソン比の値とデータの特性

    ダービンワトソン比の範囲と相関の関係

    よく、下の3つに分類されます。

    DW 相関性 相関係数\(ρ\)
    0~2 正の相関あり \(ρ\) ≥ 0
    2 相関なし \(ρ\) = 1
    2~4 負の相関あり \(ρ\) ≤ 0

    相関係数\(ρ\)=\(\frac{\sum_{i=2}^{n} e_{i-1} e_i}{\sum_{i=1}^{n}e_i^2}\)の正負や値を見ても、どんなグラフやデータなのかがイメージできませんよね!

    なので、実例を使ってダービンワトソン比を調べてみましょう。

    パターン1 パターン2
    No x1 y1 x2 y2
    1 10 56 10 40
    2 12 62 11 60
    3 14 64 12 42
    4 13 68 13 62
    5 10 72 14 44
    6 25 76 15 64
    7 22 80 16 46
    8 25 82 17 66
    9 23 80 18 48
    10 16 90 19 68

    それぞれのデータをプロットします。

    ダービンワトソン比

    ダービンワトソン比が0~2の間の場合

    パターン1のデータのダービンワトソン比DWを計算します。

    No \(x_1\) \(y\) X=
    \(x_1-\bar{x_1}\)
    Y=
    \(y-\bar{y}\)
    \(X^2\) \(Y^2\) XY \(\hat{y_i}\) \(e_i\)
    1 10 56 -7 -17 49 289 119 65.047 -9.047
    2 12 62 -5 -11 25 121 55 67.320 -5.320
    3 14 64 -3 -9 9 81 27 69.592 -5.592
    4 13 68 -4 -5 16 25 20 68.456 -0.456
    5 10 72 -7 -1 49 1 7 65.047 6.953
    6 25 76 8 3 64 9 24 82.089 -6.089
    7 22 80 5 7 25 49 35 78.680 1.320
    8 25 82 8 9 64 81 72 82.089 -0.089
    9 23 80 6 7 36 49 42 79.817 0.183
    10 16 90 -1 17 1 289 -17 71.864 18.136
    sum 170 730 0 657 338 994 384
    ave 17 73 \(S_{xx}\) \(S_{yy}\) \(S_{xy}\)

    なお、回帰直線と平方和も計算すると、
    ●y切片=53.687
    ●傾き=1.136
    ●回帰平方和\(S_R\)=436.26
    ●残差平方和\(S_e\)=557.74
    ●総平方和\(S_T\)=994
    となります。一度は計算してみてくださいね。

    ダービンワトソン比DWを計算

    各\(e_i\)の値が求まったので、ダービンワトソン比を計算しましょう。
    DW=\(\frac{\sum_{i=2}^{n}(e_i-e_{i-1})^2}{\sum_{i=1}^{n}e_i^2}\)
    =\(\frac{((-5.320)-(-9.047))^2}{(-5.320)^2}\)+\(\frac{((-5.592)-(-5.320))^2}{(-5.320)^2}\)+…+\(\frac{((18.136-0.183)^2}{0.183^2}\)
    =1.156

    ダービンワトソン比が0~2の間になりました。

    ダービンワトソン比DWが0~2の状態とは?

    x-yグラフと、残差\(e_i\)の変化をプロットします

    ダービンワトソン比

    残差のプロットからは
    \(e_i\)が5以下の値で固まっており、2点大きく飛び出ているのが特徴で、相関係数\(ρ\)は正です。

    ダービンワトソン比における相関係数が正の場合のデータのイメージです。

    では、ダービンワトソン比DWが2~4の状態とは?どんな感じかを調べてみましょう。

    ダービンワトソン比が2~4の間の場合

    パターン2のデータのダービンワトソン比DWを計算します。

    No \(x_1\) \(y\) X=\(x_1-\bar{x_1}\) Y=\(y-\bar{y}\) \(X^2\) \(Y^2\) XY \(\hat{y_i}\) \(e_i\)
    1 10 40 -4.5 -14 20.25 196 63 46.909 -6.909
    2 11 60 -3.5 6 12.25 36 -21 48.485 11.515
    3 12 42 -2.5 -12 6.25 144 30 50.061 -8.061
    4 13 62 -1.5 8 2.25 64 -12 51.636 10.364
    5 14 44 -0.5 -10 0.25 100 5 53.212 -9.212
    6 15 64 0.5 10 0.25 100 5 54.788 9.212
    7 16 46 1.5 -8 2.25 64 -12 56.364 -10.364
    8 17 66 2.5 12 6.25 144 30 57.939 8.061
    9 18 48 3.5 -6 12.25 36 -21 59.515 -11.515
    10 19 68 4.5 14 20.25 196 63 61.091 6.909
    sum 145 540 0 486 82.5 1080 130
    ave 14.5 54 \(S_{xx}\) \(S_{yy}\) \(S_{xy}\)

    なお、回帰直線と平方和も計算すると、
    ●y切片=31.152
    ●傾き=1.576
    ●回帰平方和\(S_R\)=204.84
    ●残差平方和\(S_e\)=875.15
    ●総平方和\(S_T\)=1080
    となります。一度は計算してみてくださいね。

    ダービンワトソン比DWを計算

    各\(e_i\)の値が求まったので、ダービンワトソン比を計算しましょう。
    DW=\(\frac{\sum_{i=2}^{n}(e_i-e_{i-1})^2}{\sum_{i=1}^{n}e_i^2}\)
    =\(\frac{(11.515-(-6.909))^2}{(-6.909)^2}\)+\(\frac{((-8.061)-11.515)^2}{11.515^2}\)+…+\(\frac{((6.909-(-11.515))^2}{(-11.515)^2}\)
    =3.691

    ダービンワトソン比が2~4の間になりました。

    ダービンワトソン比DWが2~4の状態とは?

    x-yグラフと、残差\(e_i\)の変化をプロットします

    ダービンワトソン比

    残差のプロットからは
    \(e_i\)が大きな値と小さな値がジグザグに入れ替わっている特徴がありますね。相関係数\(ρ\)は負です。

    ダービンワトソン比における相関係数が負の場合のデータのイメージです。

    まとめ

    「ダービンワトソン比がよくわかる」を解説しました。

    • ①ダービンワトソン比とは
    • ➁ダービンワトソン比の範囲を導出
    • ➂ダービンワトソン比の値とデータの特性
  • 重回帰分析のテコ比がよくわかる

    重回帰分析のテコ比がよくわかる

    本記事のテーマ

    重回帰分析のテコ比がよくわかる
    • ①重回帰分析を解く
    • ➁\(β_k\)の導出式を行列表記する
    • ➂ハット行列\(H\)を導出する
    • ➃ハット行列とテコ比を導出する
    • ➄ハット行列とテコ比を実際に計算する
    • ⑥テコ比がわかる

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    ①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    テコ比、ハット行列を実際に計算するところまで解説するのはQCプラネッツだけ!
    苦手な行列表記も丁寧に解説していきます。
    QCプラネッツも行列は苦手です(笑)

    ①重回帰分析を解く

    データの構造式を作る

    次のようなデータを重回帰分析することを考えます。
    添え字の\(i,j,k\)は
    ●\(i\)=1,2,…,\(n\)
    ●\(j\)=1,2,…,\(p\)
    ●\(k\)=1,2,…,\(p\)
    である点に注意してください。

    データ
    \(i\)⇊ \(j,k\)⇒
    \(x_{1i}\) \(x_{2i}\) \(x_{ji}\) \(x_{pi}\) \(y_i\)
    1 \(x_{11}\) \(x_{21}\) \(x_{j1}\) \(x_{p1}\) \(y_1\)
    2 \(x_{12}\) \(x_{22}\) \(x_{j2}\) \(x_{p2}\) \(y_2\)
    \(i\) \(x_{1i}\) \(x_{2i}\) \(x_{ji}\) \(x_{pi}\) \(y_i\)
    \(n\) \(x_{1n}\) \(x_{2n}\) \(x_{jn}\) \(x_{pn}\) \(y_p\)

    最小二乗法から正規方程式を作る

    上の表をデータの構造式で表現すると、
    \(\hat{y_i}-\bar{y}\)=\(\sum_{k=1}^{p}β_k(x_{ki}-\bar{x_k})\) (式1)
    ですね。添え字の\(i,j,k\)は
    ●\(i\)=1,2,…,\(n\)
    ●\(j\)=1,2,…,\(p\)
    ●\(k\)=1,2,…,\(p\)
    である点に注意してください。

    (式1)を書き出すと、
    \(\hat{y_i}-\bar{y}\)=\(β_1(x_{1i}-\bar{x_1})\)+\(β_2(x_{2i}-\bar{x_2})\)+…+\(β_p(x_{pi}-\bar{x_p})\)
    ですね。

    行列表記は抽象的なので
    なるべく具体的な式を書きながら
    理解していきましょう!

    最小二乗法から正規方程式を作って、回帰直線の傾き\(β_k\)を求める式を作ります。これは、関連記事で詳細に解説しているので、ご確認ください。

    「【まとめ】重回帰分析がよくわかる」記事の中に、プレミアム冊子PDFがあり、そこで詳細に解説しています。ご覧ください。

    回帰直線の傾き\(β_k\)を求める式は

    \(\left(
    \begin{array}{cccc}
    S_{11} & S_{12} & \ldots & S_{1p} \\
    S_{21} & S_{22} & \ldots & S_{2p} \\
    \vdots & \vdots & \ddots & \vdots \\
    S_{p1} & S_{p2} & \ldots & S_{pp}
    \end{array}
    \right)
    \)\(
    \left(
    \begin{array}{c}
    β_1 \\
    β_2 \\
    \vdots \\
    β_p
    \end{array}
    \right)
    \)=\(
    \left(
    \begin{array}{c}
    S_{1y} \\
    S_{2y} \\
    \vdots \\
    S_{py}
    \end{array}
    \right)
    \)

    ですね。Sは各成分の平方和で、逆行列を使って、\(β_i\)の各値を計算します。

    回帰直線の傾き\(β_k\)を導出する式を作る

    回帰直線の傾き\(β_k\)は、次の行列の式から計算できますね。

    \(
    \left(
    \begin{array}{c}
    β_1 \\
    β_2 \\
    \vdots \\
    β_p
    \end{array}
    \right)
    \)=\(\left(
    \begin{array}{cccc}
    S^{11} & S^{12} & \ldots & S^{1p} \\
    S^{21} & S^{22} & \ldots & S^{2p} \\
    \vdots & \vdots & \ddots & \vdots \\
    S^{p1} & S^{p2} & \ldots & S^{pp}
    \end{array}
    \right)
    \)\(
    \left(
    \begin{array}{c}
    S_{1y} \\
    S_{2y} \\
    \vdots \\
    S_{py}
    \end{array}
    \right)
    \)

    となります。

    ここで、\(S^{jk}\)は逆行列のj行k列目の値で、添え字を上側とします。

    さあ、ここからが本記事の本題になります。

    最終的には、行列(太文字で表記)を使って
    \(\hat{y}\)=\(X(X^T X)^{-1} X^T y\)=\(Hy\)
    として、
    \(H\)=\(X(X^T X)^{-1} X^T \)
    とハット行列\(H\)を導出することです。

    行列を使って式変形するのは、理解が難しいので、なるべく具体的な式を書きながらわかりやすく解説します!

    そのために、結構大事なのが、

    平方和Sを行列表記して解ける事

    例えば、
    S=\(\sum_{i=1}^{n}(x_i-\bar{x})^2\)=\(X^T X\)
    \(X\)=\(\begin{pmatrix}
    x_1-\bar{x}\\
    x_2-\bar{x}\\
    …\\
    x_n-\bar{x}
    \end{pmatrix}
    \)

    がすっと理解できることが大事なのですが、最初は難しいので、丁寧に解説していきます。

    ➁\(β_k\)の導出式を行列表記する

    平方和\(S_{jk}\)の導出式を行列表記する

    先ほど紹介しましたが、
    S=\(\sum_{i=1}^{n}(x_i-\bar{x})^2\)=\(X^T X\)
    が難しいので、丁寧に解説していきます。

    平方和Sを書き出すと
    S=\((x_1-\bar{x})^2\)+\((x_2-\bar{x})^2\)+…+\((x_i-\bar{x})^2\)+…+\((x_n-\bar{x})^2\)
    ですね。

    この各項の\((x_i-\bar{x})^2\)を
    \((x_i-\bar{x})^2\)=\((x_i-\bar{x})\)×\((x_i-\bar{x})\)として、行列の積に当てはめていきます。下図をご覧ください。

    テコ比

    上図は\(i\)=1,2についてですが、これを\(i\)=1,2,…,\(n\)まで拡大しても行列の積の式は同じように書けます。

    \(\begin{pmatrix}
    x_1-\bar{x} & x_2-\bar{x} & … & x_n-\bar{x} \end{pmatrix}\)\(\begin{pmatrix}
    x_1-\bar{x}\\
    x_2-\bar{x}\\
    …\\
    x_n-\bar{x}
    \end{pmatrix}
    \)
    を計算すると
    =\((x_1-\bar{x})^2\)+\((x_2-\bar{x})^2\)+…+\((x_i-\bar{x})^2\)+…+\((x_n-\bar{x})^2\)
    =S(平方和)になりますね。

    つまり、
    S=\(\sum_{i=1}^{n}(x_i-\bar{x})^2\)=\(X^T X\)
    がよくわかりますね。

    次に、同様に考えると平方和\(S_{jk}\)は
    \(S_{jk}\)=\(\sum_{i=1}^{n}(x_{ji}-\bar{x_j})(x_{ki}-\bar{x_k})\)より、行列表記すると

    \(\begin{pmatrix}
    x_{j1}-\bar{x_j} & x_{j2}-\bar{x_j} & … & x_{jn}-\bar{x_j} \end{pmatrix}\)\(\begin{pmatrix}
    x_{k1}-\bar{x_k}\\
    x_{k2}-\bar{x_k}\\
    …\\
    x_{kn}-\bar{x_k}
    \end{pmatrix}
    \)
    となるがわかりますね。

    つまり、
    \(S_{jk}\)=\(X_j^T X_k\)
    と書けることもわかりますね。

    \(j,k\)をすべての場合についての平方和を行列表記する

    \(j,k\)は共に1~\(p\)までありますから、すべての\(j,k\)における平方和を行列表記すると下図のようになります。

    平方和Sを行列表記して解ける事

    \(\left(
    \begin{array}{cccc}
    S_{11} & S_{12} & \ldots & S_{1k} & \ldots& S_{1p} \\
    S_{21} & S_{22} & \ldots & S_{2k} & \ldots & S_{2p} \\
    \vdots & \vdots & \vdots & \vdots & \ddots & \vdots \\
    S_{j1} & S_{j2} & \ldots & S_{jk} & \ldots & S_{jp} \\
    \vdots & \vdots & \vdots &\vdots & \ddots & \vdots \\
    S_{p1} & S_{p2} & \ldots & S_{pk} & \ldots & S_{pp}
    \end{array}
    \right)
    \)

    =\(\left(
    \begin{array}{cccc}
    x_{11}-\bar{x_1} & x_{12}-\bar{x_1} & \ldots & x_{1i}-\bar{x_1} & \ldots& x_{1n}-\bar{x_1} \\
    x_{21}-\bar{x_2} & x_{22}-\bar{x_2} & \ldots & x_{2i}-\bar{x_2} & \ldots& x_{2n}-\bar{x_2} \\
    \vdots & \vdots & \vdots & \vdots & \ddots & \vdots \\
    x_{j1}-\bar{x_j} & x_{j2}-\bar{x_j} & \ldots & x_{ji}-\bar{x_j} & \ldots& x_{jn}-\bar{x_j} \\
    \vdots & \vdots & \vdots &\vdots & \ddots & \vdots \\
    x_{p1}-\bar{x_p} & x_{p2}-\bar{x_p} & \ldots & x_{pi}-\bar{x_p} & \ldots& x_{pn}-\bar{x_p} \\
    \end{array}
    \right)
    \)

    \(\left(
    \begin{array}{cccc}
    x_{11}-\bar{x_1} & x_{21}-\bar{x_2} & \ldots & x_{ki}-\bar{x_k} & \ldots& x_{p1}-\bar{x_p} \\
    x_{12}-\bar{x_1} & x_{22}-\bar{x_2} & \ldots & x_{ki}-\bar{x_k} & \ldots& x_{p2}-\bar{x_p} \\
    \vdots & \vdots & \vdots & \vdots & \ddots & \vdots \\
    x_{1i}-\bar{x_1} & x_{2i}-\bar{x_2} & \ldots & x_{ki}-\bar{x_k} & \ldots& x_{pk}-\bar{x_p} \\
    \vdots & \vdots & \vdots &\vdots & \ddots & \vdots \\
    x_{1n}-\bar{x_1} & x_{2n}-\bar{x_2} & \ldots & x_{kn}-\bar{x_k} & \ldots& x_{pn}-\bar{x_p} \\
    \end{array}
    \right)
    \)

    ここで注意なのは、

    (左辺)はp×pの行列で
    (右辺)はn×p行列と、p×n行列の積であること
    (右辺)は2つとも正方行列ではない点に注意!

    図で描くと下のイメージです。

    テコ比

    確かに行列を式で表記すると
    S=\(X^T X\)
    と書くのでSもXも同じp×p行列と思いがちです。
    行列はシンプルに式が書けるけど、中身をちゃんと追わないと
    間違えやすいので難しいですね。

    【結論】平方和\(S_{jk}\)を行列表記

    \(S\)=\(X^T X\)
    となります。

    平方和\(S_{jy}\)の導出式を行列表記する

    平方和\(S_{jk}\)の行列表記を丁寧に解説しました。同様に、平方和\(S_{jy}\)の導出式を行列表記します。

    平方和\(S_{xx}\)を書き出すと
    \(S_{xx}\)=\((x_1-\bar{x})^2\)+\((x_2-\bar{x})^2\)+…+\((x_i-\bar{x})^2\)+…+\((x_n-\bar{x})^2\)
    ですね。

    平方和Sを書き出すと
    S=\((x_1-\bar{x})^2\)+\((x_2-\bar{x})^2\)+…+\((x_i-\bar{x})^2\)+…+\((x_n-\bar{x})^2\)
    =\(\begin{pmatrix}
    x_1-\bar{x} & x_2-\bar{x} & … & x_n-\bar{x} \end{pmatrix}\)\(\begin{pmatrix}
    x_1-\bar{x}\\
    x_2-\bar{x}\\
    …\\
    x_n-\bar{x}
    \end{pmatrix}
    \)
    でしたね。

    ここで、\((x_i-\bar{x})^2\)を\((x_i-\bar{x})(y_i-\bar{y})\)に変えても同様に行列表記できます。

    \(S_{1y}\)=\((x_{j1}-\bar{x_j})(y_1-\bar{y})\)+\((x_{j2}-\bar{x_j})(y_2-\bar{y})\)+…+\((x_{jn}-\bar{x_j})(y_n-\bar{y})\)
    =\(\begin{pmatrix}
    x_{j1}-\bar{x_j} & x_{j2}-\bar{x_j} & … & x_{jn}-\bar{x_j} \end{pmatrix}\)\(\begin{pmatrix}
    y_1-\bar{y}\\
    y_2-\bar{y}\\
    …\\
    y_n-\bar{y}
    \end{pmatrix}
    \)
    とかけるので、
    \(S_{1y}\)=\(X^T Y\)と
    行列表記できますね。

    また、\(S_{1y}\),\(S_{2y}\),…,\(S_{py}\)も同様にして、まとめて行列表記できます。

    \(\left(
    \begin{array}{cccc}
    x_{11}-\bar{x_1} & x_{12}-\bar{x_1} & \ldots & x_{1n}-\bar{x_1}\\
    x_{21}-\bar{x_2} & x_{22}-\bar{x_2} & \ldots & x_{2n}-\bar{x_2}\\
    \vdots & \vdots & \ddots & \vdots \\
    x_{p1}-\bar{x_p} & x_{p2}-\bar{x_p} & \ldots & x_{pn}-\bar{x_p}\\
    \end{array}
    \right)
    \)\(\begin{pmatrix}
    y_{1}-\bar{y}\\
    y_{2}-\bar{y}\\
    …\\
    y_{n}-\bar{y}
    \end{pmatrix}
    \)=\(\begin{pmatrix}
    S_{1y}\\
    S_{2y}\\
    …\\
    S_{py}
    \end{pmatrix}
    \)

    ここで注意なのは、

    (左辺)はn×pの行列とnのベクトルの積で
    (右辺)はpのベクトルであること
    n,p混同しないよう注意!

    図で描くと下のイメージです。

    テコ比

    【結論】平方和\(S_{jy}\)を行列表記

    \(S_{xy}\)=\(X^T Y\)
    となります。

    \(β_k\)の導出式を行列表記する

    さて、回帰直線の傾きを導出する式を再掲します。

    \(\left(
    \begin{array}{cccc}
    S_{11} & S_{12} & \ldots & S_{1p} \\
    S_{21} & S_{22} & \ldots & S_{2p} \\
    \vdots & \vdots & \ddots & \vdots \\
    S_{p1} & S_{p2} & \ldots & S_{pp}
    \end{array}
    \right)
    \)\(
    \left(
    \begin{array}{c}
    β_1 \\
    β_2 \\
    \vdots \\
    β_p
    \end{array}
    \right)
    \)=\(
    \left(
    \begin{array}{c}
    S_{1y} \\
    S_{2y} \\
    \vdots \\
    S_{py}
    \end{array}
    \right)
    \)

    この式を行列表記すると下図のように

    テコ比

    \(X^T X\)\(β\)=\(X^T Y\)
    とシンプルに書けますね。

    また、(左辺)は\(β\)のみにしたいので、\(X^T X\)の逆行列を両辺にかけます。すると、

    \(β\)=\((X^T X)^{-1}\)\(X^T Y\)
    とシンプルに書けますね。
    \(β\)について行列表記できました!
    ハット行列までもう少しです!

    ➂ハット行列\(H\)を導出する

    回帰\(\hat{Y}\)の導出式を行列表記する

    回帰直線を行列表記すると
    \(\hat{Y}=Xβ\)
    とXが前に、βが後ろに来ます。これをちゃんと理解しましょう!

    回帰直線はn個のデータにおいて、次のn個の式が書けますね。
    ●\(\hat{y_1}-\bar{y}\)=\(β_1 (x_{11}-\bar{x_1})\)+\(β_2 (x_{21}-\bar{x_2})\)+…+\(β_p (x_{p1}-\bar{x_p})\)
    ●\(\hat{y_2}-\bar{y}\)=\(β_1 (x_{12}-\bar{x_1})\)+\(β_2 (x_{22}-\bar{x_2})\)+…+\(β_p (x_{p2}-\bar{x_p})\)

    ●\(\hat{y_n}-\bar{y}\)=\(β_1 (x_{1n}-\bar{x_1})\)+\(β_2 (x_{2n}-\bar{x_2})\)+…+\(β_p (x_{pn}-\bar{x_p})\)
    ですね。これを行列表記すると、下の式になります。じっくり確認してください。

    \(\begin{pmatrix}
    \hat{y_{1}}-\bar{y}\\
    \hat{y_{2}}-\bar{y}\\
    …\\
    \hat{y_{n}}-\bar{y}
    \end{pmatrix}
    \)=\(\left(
    \begin{array}{cccc}
    x_{11}-\bar{x_1} & x_{21}-\bar{x_2} & \ldots & x_{p1}-\bar{x_p}\\
    x_{12}-\bar{x_1} & x_{22}-\bar{x_2} & \ldots & x_{p2}-\bar{x_p}\\
    \vdots & \vdots & \ddots & \vdots \\
    x_{1n}-\bar{x_1} & x_{2n}-\bar{x_2} & \ldots & x_{pn}-\bar{x_p}\\
    \end{array}
    \right)
    \)\(\begin{pmatrix}
    β_1\\
    β_2\\
    …\\
    β_p
    \end{pmatrix}
    \)

    確かに\(\hat{Y}=Xβ\)ですよね。
    逆の\(βX\)の行列計算はできません。

    ハット行列\(H\)を導出する

    さあ、ようやくまとめに入ります。

    回帰直線は\(\hat{Y}\)=\(Xβ\)
    で\(β\)=\((X^T X)^{-1}\)\(X^T Y\)を代入すると
    \(\hat{Y}\)=\(X\)\((X^T X)^{-1}\)\(X^T\)\( Y\)
    となります。

    \(\hat{Y}\)=\(X\)\((X^T X)^{-1}\)\(X^T\)\( Y\)
    の関係式から\(\hat{Y}\)と\( Y\)の比をテコ比と考えて
    ハット行列\(H\)=\(X\)\((X^T X)^{-1}\)\(X^T\)
    が導出できます。

    ちゃんと導出できました!

    ➃ハット行列とテコ比を導出する

    ハット行列の性質

    ハット行列は、

    \(\hat{Y}\)=\(X\)\((X^T X)^{-1}\)\(X^T\)\( Y\)
    の関係式から\(\hat{Y}\)と\( Y\)の比をテコ比と考えて
    ハット行列\(H\)=\(X\)\((X^T X)^{-1}\)\(X^T\)

    でしたね。

    実は、ハット行列\(H\)は面白い性質があります。

    \(H^2\)=\(H\)
    です。つまり、
    \(H^3\)=\(H×H^2\)=\(H^2\)=\(H\)

    \(H^n\)=…=\(H\)
    と何乗しても同じ行列です。不思議!

    証明

    証明しましょう。
    \(H^2\)=[\(X\)\((X^T X)^{-1}\)\(X^T\)][\(X\)\((X^T X)^{-1}\)\(X^T\)]
    =\(X\)\((X^T X)^{-1}\)(\(X^T\)\(X\))\((X^T X)^{-1}\)\(X^T\)
    (黄色マーカー部は単位行列\(E\)になるので、)
    =\(X\)\((X^T X)^{-1}\)\(X^T\)
    =\(H\)
    となりますね。

    ハット行列はn×n行列(n:データ数)

    ハット行列は式で書くと、\(X\)\((X^T X)^{-1}\)\(X^T\)ですが、
    X、Hの行数、列数がいくらになるかはちゃんと確認しておきましょう。

    例として\(X\)行列がn行×p列とします。
    (nはデータ数、pは説明変数の数で、基本は n > pです。)
    下図で行列の積に注意して、\(X\)\((X^T X)^{-1}\)\(X^T\)が
    n×n行列になる流れを理解しましょう!

    図ではp=3,n=6で説明しました。

    となると、ハット行列\(H\)は次のように表現できます。

    \(H\)=\(\left(
    \begin{array}{cccc}
    h_{11} & h_{12} & \ldots & h_{1n} \\
    h_{21} & h_{22} & \ldots & h_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    h_{n1} & h_{n2} & \ldots & h_{nn}
    \end{array}
    \right)
    \)

    もともと\(\hat{Y}\)=\(HY\)の関係でしたから、行列表記すると

    \(
    \left(
    \begin{array}{c}
    \hat{y_1} \\
    \hat{y_2} \\
    \vdots \\
    \hat{y_n}
    \end{array}
    \right)
    \)=\(\left(
    \begin{array}{cccc}
    h_{11} & h_{12} & \ldots & h_{1n} \\
    h_{21} & h_{22} & \ldots & h_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    h_{n1} & h_{n2} & \ldots & h_{nn}
    \end{array}
    \right)
    \)\(
    \left(
    \begin{array}{c}
    y_1 \\
    y_2 \\
    \vdots \\
    y_n
    \end{array}
    \right)
    \)

    となりますね。

    テコ比を導出

    次に、テコ比を導出します。

    上の行列の式から\(\hat{y_i}\)成分だけ取り出すと、次の関係式ができます。
    \(\hat{y_i}\)=\(h_{i1} y_1\)+\(h_{i2} y_2\)+…+\(h_{ij} y_j\)+\(h_{in} y_n\)

    この式からテコ比\(h_{ii}\)を定義します。

    ●テコ比\(h_{ii}\)
    \(h_{ii}\)=\(\displaystyle \frac{\partial \hat{y_i}}{\partial y_i}\)

    ここまで、ハット行列とテコ比の導出を解説してきました。
    次に具体的な値で実際計算してみましょう。

    行列計算で行数、列数に意識して読んでください。結構大事!

    ➄ハット行列とテコ比を実際に計算する

    データを用意

    data x1 x2 y
    1 8 3 3
    2 11 2 4
    3 9 4 4
    4 12 4 7
    5 11 5 7
    6 9 6 5
    合計 60 24 30
    平均 10 4 5

    【問題】
    ハット行列\(H\)とテコ比\(h_{ii}\)を求めよ。

    ではやってみましょう。

    各行列を計算

    まず、行列\(X\)を定義します。説明変数p=2、データ数n=6の行列ですね。正方行列ではない点に注意です。

    最も大事な注意点

    行列に代入する\(x, \hat{y},y\)はそのまま代入ではなく
    ●\(x_{ij}-\bar{x_i}\)
    ●\(\hat{y_i}-\bar{y}\)
    ●\(y_i-\bar{y}\)
    とそれぞれ平均で差分した値を代入すること。

    行列\(X\)

    \(x_{ij}-\bar{x_i}\)は下表を参考に行列を作ります。

    data x1 x2 \(x_1-\bar{x_1}\) \(x_2-\bar{x_2}\)
    1 8 3 -2 -1
    2 11 2 1 -2
    3 9 4 -1 0
    4 12 4 2 0
    5 11 5 1 1
    6 9 6 -1 2
    合計 60 24
    平均 10 4

    黄色マーカ部分から行列\(X\)を作ります。

    \(X\)=\(\left(
    \begin{array}{cccc}
    -2 & -1 \\
    1 & -2 \\
    -1 & 0 \\
    2 & 0 \\
    1 & 1 \\
    -1 & 2 \\
    \end{array}
    \right)
    \)

    行列\(X^T X\)の計算

    転置行列\(X^T\)との\(X\)の積なので、\(X^T X\)=\(\left(
    \begin{array}{cccc}
    -2 & 1 & -1 & 2 & 1 & -1 \\
    -1 & -2 & 0 & 0 & 1 & 2 \\
    \end{array}
    \right)
    \)\(\left(
    \begin{array}{cccc}
    -2 & -1 \\
    1 & -2 \\
    -1 & 0 \\
    2 & 0 \\
    1 & 1 \\
    -1 & 2 \\
    \end{array}
    \right)
    \)
    =\(\left(
    \begin{array}{cccc}
    12 & -1 \\
    -1 & 10 \\
    \end{array}
    \right)
    \)

    確かに計算結果は
    \(X^T X\)=\(\left(
    \begin{array}{cccc}
    12 & -1 \\
    -1 & 10 \\
    \end{array}
    \right)
    \)=\(\left(
    \begin{array}{cccc}
    S_{11} & S_{12} \\
    S_{12} & S_{22} \\
    \end{array}
    \right)
    \)
    で\(X\)の積は確かに平方和になっていますね。

    逆行列\((X^T X)^{-1}\)の計算

    逆行列を計算します。2×2の行列なので簡単ですね。規模が大きくなる場合はExcelのMINVERSE関数で計算しましょう。

    \((X^T X)^{-1}\)=\(\left(
    \begin{array}{cccc}
    0.084 & 0.0084 \\
    0.0084 & 0.1008 \\
    \end{array}
    \right)
    \)

    \(X(X^T X)^{-1}\)の計算

    どんどん計算しましょう。

    \(X(X^T X)^{-1}\)
    =\(\left(
    \begin{array}{cccc}
    -2 & -1 \\
    1 & -2 \\
    -1 & 0 \\
    2 & 0 \\
    1 & 1 \\
    -1 & 2 \\
    \end{array}
    \right)
    \)\(\left(
    \begin{array}{cccc}
    0.084 & 0.0084 \\
    0.0084 & 0.1008 \\
    \end{array}
    \right)
    \)
    =\(\left(
    \begin{array}{cccc}
    -0.176 & -0.118 \\
    0.067 & -0.193 \\
    -0.084 & -0.008 \\
    0.168 & 0.017 \\
    0.092 & 0.109 \\
    -0.067 & 0.193 \\
    \end{array}
    \right)
    \)

    確かに 6×2行列になっていますね。

    ハット行列\(H\)の計算

    \(H\)=\(X(X^T X)^{-1} X^T\)
    =\(\left(
    \begin{array}{cccc}
    -0.176 & -0.118 \\
    0.067 & -0.193 \\
    -0.084 & -0.008 \\
    0.168 & 0.017 \\
    0.092 & 0.109 \\
    -0.067 & 0.193 \\
    \end{array}
    \right)
    \)\(\left(
    \begin{array}{cccc}
    -2 & 1 & -1 & 2 & 1 & -1 \\
    -1 & -2 & 0 & 0 & 1 & 2 \\
    \end{array}
    \right)
    \)
    =\(\left(
    \begin{array}{cccc}
    0.471 & 0.059 & 0.176 & -0.353 & -0.294 & -0.059 \\
    0.059 & 0.454 & -0.067 & 0.134 & -0.126 & -0.454 \\
    0.176 & -0.067 & 0.084 & -0.168 & -0.092 & 0.067 \\
    -0.353 & 0.134 & -0.168 & 0.336 & 0.185 & -0.134 \\
    -0.294 & -0.126 & -0.092 & 0.185 & 0.202 & 0.126 \\
    -0.059 & -0.454 & 0.067 &-0.134 & 0.126 & 0.454 \\
    \end{array}
    \right)
    \)

    とデータ数n=6の6×6行列がでました。

    テコ比を計算

    テコ比は

    ●テコ比\(h_{ii}\)
    \(h_{ii}\)=\(\displaystyle \frac{\partial \hat{y_i}}{\partial y_i}\)

    より、
    ●\(h_{11}\)=0.471
    ●\(h_{22}\)=0.454
    ●\(h_{33}\)=0.084
    ●\(h_{44}\)=0.336
    ●\(h_{55}\)=0.202
    ●\(h_{66}\)=0.454

    と計算ができました。

    重回帰分析の結果を比較

    先ほどのデータを重回帰分析すると下表の結果になります。実際手を動かして計算してみてください。

    \(x_{1i}\) \(x_{2i}\) \(y_i\) \(\hat{y_i}\) \(y_i-\bar{y}\) \(\hat{y_i}-\bar{y}\)
    1 8 3 3 2.529 -2 -2.471
    2 11 2 4 4.513 -1 -0.487
    3 9 4 4 4.109 -1 -0.891
    4 12 4 7 6.782 2 1.782
    5 11 5 7 6.58 2 1.580
    6 9 6 5 5.487 0 0.487
    合計 60 24 30
    平均 10 4 5(=\(\bar{y}\))

    平方和 回帰直線
    \(S_{11}\) 12 y切片\(β_0\) -6.664
    \(S_{12}\) -1(=\(S_{21}\)) 傾き\(β_1\) 0.891
    \(S_{22}\) 10 傾き\(β_2\) 0.689
    \(S_{1y}\) 10
    \(S_{2y}\) 6
    \(S_{yy}\) 14

    なお、回帰直線上の点\(\hat{y_i}\)は
    \(\hat{y_i}\)=\(β_0\)+\(β_1 x_1\)+\(β_2 x_2\)
    \(\hat{y_i}\)=-6.664+0.891\( x_1\)+0.689\(x_2\)
    で計算できます。

    ここで、

    \(\hat{Y}\)=\(\left(
    \begin{array}{cccc}
    \hat{y_1}-\bar{y} \\
    \hat{y_2}-\bar{y} \\
    \hat{y_3}-\bar{y} \\
    \hat{y_4}-\bar{y} \\
    \hat{y_5}-\bar{y} \\
    \hat{y_6}-\bar{y} \\
    \end{array}
    \right)
    \)=\(\left(
    \begin{array}{cccc}
    -2.471 \\
    -0.487 \\
    -0.891 \\
    1.782 \\
    1.580 \\
    0.487 \\
    \end{array}
    \right)
    \)

    \(Y\)=\(\left(
    \begin{array}{cccc}
    y_1-\bar{y} \\
    y_2-\bar{y} \\
    y_3-\bar{y} \\
    y_4-\bar{y} \\
    y_5-\bar{y} \\
    y_6-\bar{y} \\
    \end{array}
    \right)
    \)=\(\left(
    \begin{array}{cccc}
    -2\\
    -1 \\
    -1 \\
    2 \\
    2 \\
    0 \\
    \end{array}
    \right)
    \)

    \(H\)=\(\left(
    \begin{array}{cccc}
    0.471 & 0.059 & 0.176 & -0.353 & -0.294 & -0.059 \\
    0.059 & 0.454 & -0.067 & 0.134 & -0.126 & -0.454 \\
    0.176 & -0.067 & 0.084 & -0.168 & -0.092 & 0.067 \\
    -0.353 & 0.134 & -0.168 & 0.336 & 0.185 & -0.134 \\
    -0.294 & -0.126 & -0.092 & 0.185 & 0.202 & 0.126 \\
    -0.059 & -0.454 & 0.067 &-0.134 & 0.126 & 0.454 \\
    \end{array}
    \right)
    \)

    を使って、実際に行列\(\hat{y}=HY\)かを確かめましょう。

    \(HY\)=\(\left(
    \begin{array}{cccc}
    0.471 & 0.059 & 0.176 & -0.353 & -0.294 & -0.059 \\
    0.059 & 0.454 & -0.067 & 0.134 & -0.126 & -0.454 \\
    0.176 & -0.067 & 0.084 & -0.168 & -0.092 & 0.067 \\
    -0.353 & 0.134 & -0.168 & 0.336 & 0.185 & -0.134 \\
    -0.294 & -0.126 & -0.092 & 0.185 & 0.202 & 0.126 \\
    -0.059 & -0.454 & 0.067 &-0.134 & 0.126 & 0.454 \\
    \end{array}
    \right)
    \)\(\left(
    \begin{array}{cccc}
    -2\\
    -1 \\
    -1 \\
    2 \\
    2 \\
    0 \\
    \end{array}
    \right)
    \)=\(\left(
    \begin{array}{cccc}
    -2.471 \\
    -0.487 \\
    -0.891 \\
    1.782 \\
    1.580 \\
    0.487 \\
    \end{array}
    \right)
    \)=\(\hat{Y}\)
    と確かに一致します!

    重回帰分析の結果とハット行列の計算が一致しました!

    ⑥テコ比がわかる

    テコ比の性質

    テコ比は

    ●テコ比\(h_{ii}\)
    \(h_{ii}\)=\(\displaystyle \frac{\partial \hat{y_i}}{\partial y_i}\)

    より、
    ●\(h_{11}\)=0.471
    ●\(h_{22}\)=0.454
    ●\(h_{33}\)=0.084
    ●\(h_{44}\)=0.336
    ●\(h_{55}\)=0.202
    ●\(h_{66}\)=0.454

    と計算ができましたが、全部足すと
    \(h_{11}\)+\(h_{22}\)+\(h_{33}\)+\(h_{44}\)+\(h_{55}\)+\(h_{66}\)
    =2
    と説明変数の数p=2に一致します。

    なぜ\(\sum_{i=1}^{n}h_{ii}=p\)なのかは、
    今後の研究テーマとします。わかり次第報告します。

    まとめ

    「重回帰分析のテコ比がよくわかる」を解説しました。

    • ①重回帰分析を解く
    • ➁\(β_k\)の導出式を行列表記する
    • ➂ハット行列\(H\)を導出する
    • ➃ハット行列とテコ比を導出する
    • ➄ハット行列とテコ比を実際に計算する
    • ⑥テコ比がわかる
  • 重回帰分析のダミー変数の使い方がよくわかる

    重回帰分析のダミー変数の使い方がよくわかる

    本記事のテーマ

    重回帰分析のダミー変数の使い方がよくわかる

    おさえておきたいポイント

    • ①ダミー変数とは
    • ➁説明変数を変換すると重回帰分析がどう変化するかを理解する
    • ➂ダミー変数の入れ方と重回帰分析の変化を理解する

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【内容】①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題。

    ダミー変数の値が変わると
    ●ダミー変数の回帰直線の傾きの値は変化し、
    ●回帰直線y切片の値も変化するが、
    ●他の説明変数の回帰直線の傾きの値は変化しないし、
    ●平方和(総平方和、回帰平方和、残差平方和)は変化しない
    ことを本記事で解説します!
    ダミー変数の値の入れ方は
    ルールが確定していたら、値は何でもいいけど
    回帰直線、平方和、分散分析にどう影響するかを
    理解しよう!

    では、解説します。

    ①ダミー変数とは

    ダミー変数とは

    重回帰分析では、0か1のどちらかの値を取る変数などの「計数値」を変数として使う場合があります。この計数値のことをダミー変数と呼びます。

    ダミー変数の入れ方は3パターンある

    ダミー変数の入れ方はいろいろなニーズがあります。例えば、
    ●0と1とか
    ●0と2とか
    ●1と2とか
    ●5と10とか
    ●-1と1とか
    の2値データとか、
    たくさんパターンが出ますよね!

    ●0,1,2,3,…と1ずつ増やしていく多値データとか

    いろいろあります。

    2値データの応用が多値データなので、2値データで考えましょう。

    再掲すると
    ●0と1とか
    ●0と2とか
    ●1と2とか
    ●5と10とか
    ●-1と1とか
    の2値データとか、
    は数式で書くと、3つのパターンに分ける事ができます。

    1. 0,1が基本パターンで定数倍したもの(x⇒ax)
    2. 0,1が基本パターンで定数値を加減したもの(x⇒x+a)
    3. 0,1が基本パターンで定数倍と定数値の加減を組み合わせたもの(x⇒ax+b)

    3つに分けてもイマイチ理解できませんよね!
    なので、実際に解いてみると下表になります。

    パターン 0,1との比較 数式
    0,2のパターン 0,1に対して2倍 2x
    1,2のパターン 0,1に対して1加算 x+1
    5,10のパターン 0,1に対して5倍して5加算 5(x+1)
    -1,1のパターン 0,1に対して2倍して1引く 2x-1

    いろいろな2値データのパターンがありますが、数式で書くと3つしかないことがわかりますよね。

    1. x
    2. ax (a:定数)
    3. ax+b(a,b:定数)
    重回帰分析のダミー変数の使い方がわかるには、
    ●0,1のパターン
    ●0,1に定数倍したパタン
    ●0,1に定数倍と定数値を加減したパターン
    の3つの違いを理解すればOK
    ですね。

    ➁説明変数を変換すると重回帰分析がどう変化するかを理解する

    結論は、

    (その1)は \(x_1’\)=\(ax_1\)の場合
    ●\(x_1’\)の回帰直線の傾き\(β_1’\)が\(\frac{1}{a}β_1\)に変化する。
    ●\(x_2\)の回帰直線の傾きは変わらない。
    ●総平方和\(S_T\)、回帰平方和\(S_R\)、残差平方和\(S_e\)は変わらない。

    となります。

    詳細は、関連記事「重回帰分析は単位に影響されない理由がわかる(その1)」で解説しています。ご確認ください。

    【QCプラネッツ重回帰分析プレミアム勉強テキスト】
    重回帰分析で大事なエッセンスをテキストにまとめました。必読です!

    プレミアムテキストの「P26~P28」で確認ください。

    (その2)は \(x_1’\)=\(ax_1+b\)の場合
    ●\(x_1’\)の回帰直線の傾き\(β_1’\)が\(\frac{1}{a}β_1\)に変化する。
    ●\(x_2\)の回帰直線の傾きは変わらない。
    ●\(x_1’\)の回帰直線のy切片\(β_0’\)が\(β_0-\frac{b}{a}β_0\)に変化する。
    ●総平方和、回帰平方和、残差平方和は変わらない。

    となっていますね。

    詳細は、関連記事で解説しています。ご確認ください。

    詳細は、関連記事「重回帰分析は単位に影響されない理由がわかる(その2)」で解説しています。ご確認ください。

    【QCプラネッツ重回帰分析プレミアム勉強テキスト】
    重回帰分析で大事なエッセンスをテキストにまとめました。必読です!

    プレミアムテキストのP29~P31で確認ください。

    まとめると、

    (その2)は \(x_1’\)=\(ax_1+b\)の場合
    ●\(x_1’\)の回帰直線の傾き\(β_1’\)が\(\frac{1}{a}β_1\)に変化する。
    ●\(x_2\)の回帰直線の傾きは変わらない。
    ●\(x_1’\)の回帰直線のy切片\(β_0’\)が\(β_0-\frac{b}{a}β_0\)に変化する。
    ●総平方和、回帰平方和、残差平方和は変わらない。

    となっていますね。

    ダミー変数の入れ方によって回帰直線のダミー変数が関わる所は変化するが、それ以外は変わらないと理解しておきましょう。

    説明変数を変換すると
    ●回帰直線の傾き、y切片が変化する
    ●平方和は不変である

    とわかります。

    本当かどうか、実例を挙げて確認します。

    ➂ダミー変数の入れ方と重回帰分析の変化を理解する

    データを用意

    以下のデータを用意します。

    x1 x2 y
    ?? 3 3
    ?? 2 4
    ?? 4 4
    ?? 4 7
    ?? 5 7
    ?? 6 5

    \(x_1\)の「??」にダミー変数をいれて、2つの説明変数からなる重回帰分析をやってみましょう。

    ダミー変数を代入

    次の3種類のダミー変数を用意します。

    (i-1)x (i-2)5x (i-3)2x-1
    0 0 -1
    0 0 -1
    0 0 -1
    1 5 1
    1 5 1
    1 5 1

    データ表をまとめます。

    (i-1)x (i-2)5x (i-3)2x-1 x2 y
    0 0 -1 3 3
    0 0 -1 2 4
    0 0 -1 4 4
    1 5 1 4 7
    1 5 1 5 7
    1 5 1 6 5

    では、解析しましょう。

    重回帰分析の実施結果

    回帰直線\(y=β_0+β_1 x_1+β_2 x_2\)と平方和の解析結果を比較しましょう。
    黄色マーカが変化したところです。

    (i-1)x (i-2)5x (i-3)2x-1
    回帰直線 (y切片)\(β_0\) 5.167 5.167 7
    回帰直線 (x1傾き)\(β_1\) 3.677 0.733 1.833
    回帰直線 (x2傾き)\(β_2\) -0.5 -0.5 -0.5
    平方和 \(S_R\) 10.667 10.667 10.667
    平方和 \(S_e\) 3.333 3.333 3.333
    平方和 \(S_T\) 14 14 14

    確かに、

    (その1)は \(x_1’\)=\(ax_1\)の場合
    ●\(x_1’\)の回帰直線の傾き\(β_1’\)が\(\frac{1}{a}β_1\)に変化する。
    ●\(x_2\)の回帰直線の傾きは変わらない。
    ●総平方和\(S_T\)、回帰平方和\(S_R\)、残差平方和\(S_e\)は変わらない。

    となります。

    (その2)は \(x_1’\)=\(ax_1+b\)の場合
    ●\(x_1’\)の回帰直線の傾き\(β_1’\)が\(\frac{1}{a}β_1\)に変化する。
    ●\(x_2\)の回帰直線の傾きは変わらない。
    ●\(x_1’\)の回帰直線のy切片\(β_0’\)が\(β_0-\frac{b}{a}β_0\)に変化する。
    ●総平方和、回帰平方和、残差平方和は変わらない。

    となっていますね。

    となっていますね。

    ダミー変数の値が変わると
    ●ダミー変数の回帰直線の傾きの値は変化し、
    ●回帰直線y切片の値も変化するが、
    ●他の説明変数の回帰直線の傾きの値は変化しないし、
    ●平方和(総平方和、回帰平方和、残差平方和)は変化しない
    ことがわかりましたね!

    まとめ

    「重回帰分析のダミー変数の使い方がよくわかる」を解説しました。

    • ①ダミー変数とは
    • ➁説明変数を変換すると重回帰分析がどう変化するかを理解する
    • ➂ダミー変数の入れ方と重回帰分析の変化を理解する
  • 平方和の分解と分散分析ができる(重回帰分析)

    平方和の分解と分散分析ができる(重回帰分析)

    本記事のテーマ

    平方和の分解と分散分析ができる(重回帰分析)

    おさえておきたいポイント

    • ①重回帰分析のデータの構造式
    • ➁平方和の分解
    • ➂中間積和項が0になる導出過程をすべて見せます!
    • ➃重回帰分析の分散分析

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【内容】①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題。

    多変量解析はすべて数式で導出できます。導出過程から本質を理解しましょう。

    重回帰分析の基礎である、回帰式の導出については関連記事に書いています。この関連記事をベースに本記事を作っています。ご確認ください。

    重回帰分析の回帰式が導出できる
    本記事では公式暗記になりがちな重回帰分析の回帰式を途中経過を一切端折らず丁寧に解説します。

    本記事は、暗記しがちな、重回帰分析の分散分析に必要な導出過程を丁寧に解説します。

    ①重回帰分析のデータの構造式

    データの構造式を作る

    下図のように、実測値\(y_i\)に対して、回帰直線上にある予測値\(\hat{y_i}\)と平均値\(\bar{y}\)を使って、差を分割します。

    重回帰分析

    つまり、
    (\(y_i\)-\(\bar{y}\))=(\(\hat{y_i}\)-\(\bar{y}\))+(\(y_i\)-\(\hat{y_i}\))
    (誤差全体)=(回帰成分)+(残差成分)
    に分ける式(データの構造式)を作ります。

    誤差を一次式で分割する「データの構造式」は
    QCで扱う数学の中で一番大事且つ基本的な式で、
    分散分析を扱う
    ●実験計画法
    ●回帰分析
    ●多変量解析
    など、すべてに関わってきます。

    まず、データの構造式を作りましょう。

    ➁平方和の分解

    データの構造式の2乗和が肝

    データの構造式を作ったら、両辺の2乗和を計算します。
    すると、2乗項以外の積和がすべて0になるので、
    平方和が分解できて、
    分散分析ができる!

    これも、超基本ですが、超大事ですね! これを頭で覚えず、ちゃんと計算・導出できてから理解しましょう。自分で計算して平方和が分解できることがわかることが大事です!

    平方和の分解

    (\(y_i\)-\(\bar{y}\))=(\(\hat{y_i}\)-\(\bar{y}\))+(\(y_i\)-\(\hat{y_i}\))
    の両辺の2乗和を取ります。

    \(\sum_{i=1}^{n}\)\((y_i-\bar{y})^2\)
    =\(\sum_{i=1}^{n}\)(\((\hat{y_i}-\bar{y})\)+\((y_i-\hat{y_i}))^2\)
    とします。

    (右辺)を変形すると、
    \(\sum_{i=1}^{n}\)(\((\hat{y_i}-\bar{y})\)+\((y_i-\hat{y_i}))^2\)
    =\(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})^2\) →(1)
    +2\(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})\)\((y_i-\hat{y_i})\) →(2)
    +\(\sum_{i=1}^{n}\)\((y_i-\hat{y_i})^2\) →(3)
    と変形できます。

    実は、
    ●(1):\(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})^2\)=\(S_R\)(回帰平方和)
    ●(2):\(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})\)\((y_i-\hat{y_i})\)=0
    ●(3):\(\sum_{i=1}^{n}\)\((y_i-\hat{y_i})^2\)=\(S_{er}\)((回帰)残差平方和)
    となります。

    (左辺)の
    \(\sum_{i=1}^{n}\)\((y_i-\bar{y})^2\)は総平方和として、
    \(\sum_{i=1}^{n}\)\((y_i-\bar{y})^2\)=\(S_T\)(総平方和)
    となるので、

    まとめると、
    \(S_T\)=\(S_R\)+\(S_{er}\)
    (総平方和)=(回帰平方和)+ ((回帰)残差平方和)
    と平方和が分解できます。

    分散分析をやるので、
    \(S_T\)=\(S_R\)+\(S_{er}\)
    が当たり前に見えるけど
    ●(2):\(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})\)\((y_i-\hat{y_i})\)=0
    はちゃんと証明できる?

    中間積和項である、
    \(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})\)\((y_i-\hat{y_i})\)=0
    はちゃんと導出できますか?

    結構難しいのに、ちゃんと書いていない教科書やサイトが多いので、本記事でばっちり解説します!

    ➂中間積和項が0になる導出過程をすべて見せます!

    ポイントは2つあり、

    1. 回帰直線上の点である条件を活用する
    2. \((y_i-\hat{y_i})\)を\(((y_i-\bar{y})-(\hat{y_i}-\bar{y}))\)に分割する
    3. 回帰式の成立条件式を活用する

    では、丁寧に導出していきます。必ずなぞってください。いい勉強になります。

    回帰直線上の点である条件を活用する

    ここで、
    \(\hat{y_i}\)と\(\hat{y_i}\)は回帰直線\(y=a+bx_1 +cx_2\)上に乗るので
    ●\(\hat{y_i}\)=\(a+bx_{1i}+cx_{2i}\)
    ●\(\bar{y}\)=\(a+b \bar{x_1}+c \bar{x_2}\)
    が成り立ちます。代入しましょう。

    回帰直線上の点である条件を活用する

    ここで、
    \(\hat{y_i}\)と\(\hat{y_i}\)は回帰直線\(y=a+bx_1 +cx_2\)上に乗るので
    ●\(\hat{y_i}\)=\(a+bx_{1i}+cx_{2i}\)
    ●\(\bar{y}\)=\(a+b \bar{x_1}+c \bar{x_2}\)
    が成り立ちます。代入しましょう。

    \(\sum_{i=1}^{n}\)\(((a+bx_{1i}+cx_{2i})-( a+b \bar{x_1}+c \bar{x_2}))\)\((y_i-\hat{y_i})\)
    =\(\sum_{i=1}^{n}\)\( (b(x_{1i}-\bar{x_1})+ c(x_{2i}-\bar{x_2}))\)\((y_i-\hat{y_i})\)
    =\(b\sum_{i=1}^{n}\)\( (x_{1i}-\bar{x_1})\)\((y_i-\hat{y_i})\)
    +\(c\sum_{i=1}^{n}\)\( (x_{2i}-\bar{x_2})\)\((y_i-\hat{y_i})\) (式1)
    と変形します。

    \((y_i-\hat{y_i})\)を\(((y_i-\bar{y})-(\hat{y_i}-\bar{y}))\)に分割する

    (式1)の\((y_i-\hat{y_i})\)を\(((y_i-\bar{y})-(\hat{y_i}-\bar{y}))\)に分割します。

    (式1)
    =\(b\sum_{i=1}^{n}\)\( (x_{1i}-\bar{x_1})\)\(((y_i-\bar{y})-(\hat{y_i}-\bar{y}))\)
    +\(c\sum_{i=1}^{n}\)\( (x_{2i}-\bar{x_2})\)\(((y_i-\bar{y})-(\hat{y_i}-\bar{y}))\) (式2)
    と変形します。

    さらに、
    回帰直線上の点である条件を活用し、

    ●\(\hat{y_i}\)=\(a+bx_{1i}+cx_{2i}\)
    ●\(\bar{y}\)=\(a+b \bar{x_1}+c \bar{x_2}\)
    を、(式2)に代入しましょう。

    (式2)
    =\(b\sum_{i=1}^{n}\)\( (x_{1i}-\bar{x_1})\)\(((y_i-\bar{y})-b(x_{1i}-\bar{x_1})\)\(- c(x_{2i}-\bar{x_2})
    )\)
    +\(c\sum_{i=1}^{n}\)\( (x_{2i}-\bar{x_2})\)\(((y_i-\bar{y})-b(x_{1i}-\bar{x_1})\)\(- c(x_{2i}-\bar{x_2})
    )\) (式3)
    と変形します。

    回帰式の成立条件式を活用する

    (式3)のかっこ()を掛け算すると
    ●\(b\sum_{i=1}^{n}\)\( (x_{1i}-\bar{x_1})\)\((y_i-\bar{y})\)=\(bS_{1y}\)
    ●\(b\sum_{i=1}^{n}\)\( (x_{1i}-\bar{x_1})\)\((-b)(x_{1i}-\bar{x_1})\)=\(-b^2 S_{11}\)
    ●\(b\sum_{i=1}^{n}\)\( (x_{1i}-\bar{x_1})\)\((-c)(x_{2i}-\bar{x_2})\)=\(-bc S_{12}\)
    となりますし、
    ●\(c\sum_{i=1}^{n}\)\( (x_{2i}-\bar{x_2})\)\((y_i-\bar{y})\)=\(cS_{2y}\)
    ●\(c\sum_{i=1}^{n}\)\( (x_{2i}-\bar{x_2})\)\(-b)(x_{1i}-\bar{x_1})\)=\(-bcS_{12}\)
    ●\(c\sum_{i=1}^{n}\)\( (x_{2i}-\bar{x_2})\)\((-c)(x_{2i}-\bar{x_2})\)=\(-c^2 S_{22}\)
    となります。

    (式3)をまとめると
    =\(b\sum_{i=1}^{n}\)\( (x_{1i}-\bar{x_1})\)\(((y_i-\bar{y})-b(x_{1i}-\bar{x_1})\)\(- c(x_{2i}-\bar{x_2})
    )\)
    +\(c\sum_{i=1}^{n}\)\( (x_{2i}-\bar{x_2})\)\(((y_i-\bar{y})-b(x_{1i}-\bar{x_1})\)\(- c(x_{2i}-\bar{x_2})
    )\)
    =\(bS_{1y}\)-\(b^2 S_{11}\) -\(bc S_{12}\)
    +\(cS_{2y}\) -\(bcS_{12}\) -\(c^2 S_{22}\) =(式4)
    となります。

    ところで、回帰直線の成立条件を思い出すと、関連記事からみると

    重回帰分析の回帰式が導出できる
    本記事では公式暗記になりがちな重回帰分析の回帰式を途中経過を一切端折らず丁寧に解説します。

    ●傾き\(β_1\)、\(β_2\)の導出
    \(S_{11}b+S_{12}c\)=\(S_{1y}\)
    \(S_{12}b+S_{22}c\)=\(S_{2y}\)
    を満たす連立方程式から、\(β_1\)、\(β_2\)が導出できます!

    でしたね。(式4)をよくみると、
    (式4)
    =\(bS_{1y}\)-\(b^2 S_{11}\) -\(bc S_{12}\)
    +\(cS_{2y}\) -\(bcS_{12}\) -\(c^2 S_{22}\)
    =\(b\){\( S_{1y}-b S_{11}-c S_{12}\)}
    +\(c\){ \(S_{2y}-b S_{12}-c S_{22}\)}=(式5)
    となり、「{}」の中身が0になるのがわかりますね。

    よって、結果は

    \(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})\)\((y_i-\hat{y_i})\)=0
    となり、中間積和は0になります。これが平方和が分解できる理由ですね。

    難しいですが、必ず解いてから平方和の分解→分散分析と進めましょう。QCの数学で一番大事なところです!

    ➂重回帰分析の分散分析

    回帰平方和\(S_R\)の導出

    平方和が分解できたので、
    \(S_T\)=\(S_R\)+\(S_{er}\)
    (総平方和)=(回帰平方和)+ ((回帰)残差平方和)
    と平方和が分解できます。

    回帰平方和\(S_R\)の求め方の1つである次の公式を紹介・証明をします。結構活用します。

    \(S_R\)=\(β_1 S_{1y}\)+\(β_2 S_{2y}\)

    回帰平方和\(S_R\)は定義から
    \(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})^2\)
    から計算してもよいですが、回帰直線の傾き\(β\)を使って求める方が経験上多いです。

    公式は暗記ではなく、ちゃんと導出できますので、導出過程をしっかりおさえてください。

    \(S_R\)=\(β_1 S_{1y}\)+\(β_2 S_{2y}\)の証明

    \(\hat{y_i}\)と\(\bar{y}\)はともに、
    回帰直線上の点である条件を活用し、
    \((\hat{y_i}-\bar{y})\)=\(β_1(x_{1i}-\bar{x_1})+β_2(x_{2i}-\bar{x_2})\)
    を代入します。

    \(S_R\)
    =\(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})^2\)
    =\(\sum_{i=1}^{n}\)\((β_1(x_{1i}-\bar{x_1})+β_2(x_{2i}-\bar{x_2}))^2\)
    =\(β_1^2 \sum_{i=1}^{n}\)\((x_{1i}-\bar{x_1})^2\)
    +\(2β_1 β_2\)\(\sum_{i=1}^{n}\)\((x_{1i}-\bar{x_1})(x_{2i}-\bar{x_2})\)
    +\(β_2^2 \sum_{i=1}^{n}\)\((x_{2i}-\bar{x_2})^2\)
    =(式6)

    (式6)の∑の中身は各々の平方和なので、表記を変えます。
    (式6)
    =\(β_1^2 S_{11}\)+\(2β_1 β_2 S_{12}\)+\(β_2^2 S_{22}\)
    =\(β_1\)(\(β_1 S_{11}+β_2 S{12}\))+\(β_2\)(\(β_1 S_{12}+β_2 S{22}\))
    =(式7)

    ここで、

    ●傾き\(β_1\)、\(β_2\)の導出
    \(S_{11}b+S_{12}c\)=\(S_{1y}\)
    \(S_{12}b+S_{22}c\)=\(S_{2y}\)
    を満たす連立方程式から、\(β_1\)、\(β_2\)が導出できます!

    を使うと、(式7)は
    (式7)
    =\(β_1\)(\(β_1 S_{11}+β_2 S{12}\))+\(β_2\)(\(β_1 S_{12}+β_2 S{22}\))
    =\(β_1\)\(S_{1y}\)+\(β_2\)\(S_{2y}\)
    となります。ちゃんと導出できますね!

    よって、

    \(S_R\)=\(\sum_{i=1}^{n}\)\((\hat{y_i}-\bar{y})^2\)
    =\(β_1 S_{1y}\)+\(β_2 S_{2y}\)
    が導出できます! 暗記より導出方法をしっかりマスターしましょう!

    重回帰分析の分散分析表

    よく使う分散分析表は下表のとおりです。

    平方和S 自由度φ
    回帰R \(S_R\) k
    e \(S_{er}\) n-k-1
    T \(S_T\) n-1

    ここで、kは説明変数の種類ですね。

    なお、重回帰分析の分散分析については別の関連記事で詳しく解説します。

    まとめ

    「平方和の分解と分散分析ができる(重回帰分析)」を解説しました。

    • ①重回帰分析のデータの構造式
    • ➁平方和の分解
    • ➂中間積和項が0になる導出過程をすべて見せます!
    • ➃重回帰分析の分散分析
  • 重回帰分析の回帰式が導出できる

    重回帰分析の回帰式が導出できる

    本記事のテーマ

    重回帰分析の回帰式が導出できる

    おさえておきたいポイント

    • ①回帰式は誤差を最小にする条件で導出
    • ➁回帰式を導出
    • ➂【実例】回帰式を作る

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方、回帰分析をしっかり学びたい方におススメです。
    【内容】①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題。

    多変量解析はすべて数式で導出できます。導出過程から本質を理解しましょう。

    ①回帰式は誤差を最小にする条件で導出

    データの構造式を作る

    本記事は、説明変数が2つ(\(x_1,x_2\))、目的変数\(y\)についての回帰式を作ります。

    導出過程を一切端折らず解説しますので、一度などって下さい。理解が深まります!

    回帰式をなす、データの構造式は
    \(y=a+bx_1+cx_2\)
    として、定数\(a,b,c\)を求めていきます。回帰式となる定数\(a,b,c\)を
    ●\(a\)=\(β_0\)
    ●\(b\)=\(β_1\)
    ●\(c\)=\(β_2\)
    でよく表現します。

    回帰式は誤差を最小にする条件で導出

    ここで、同じ\(x_1,x_2\)について、実測値\(y_i\)と回帰式で求められる\(\hat{y_i}\)の2つを考えます。

    重回帰分析

    図は、理解しやすくするために、あえて2次元で描いています。

    実測値\(y_i\)と予測値\(\hat{y_i}\)の差を
    \(Q(a,b,c)\)と定義して
    \(Q(a,b,c)\)=\(\sum_{i=1}^{n}(y_i – \hat{y_i})^2\)
    が最小となる条件が、重回帰分析の回帰式を求める条件となります。

    つまり、実測値と予測値の差(誤差)を最小にする条件から回帰式を作ります。

    「(誤差)を最小にする条件」が最も大事です!

    複雑な計算になりますが、エッセンスは、「(誤差)を最小にする条件」です。

    ➁回帰式を導出

    2乗和を展開(導出過程すべて見せます!)

    \(Q(a,b,c)\)=\(\sum_{i=1}^{n}(y_i – \hat{y_i})^2\)

    \(Q(a,b,c)\)=\(\sum_{i=1}^{n}((y_i -\bar{y}) –(\hat{y_i}-\bar{y}))^2\)
    と間に\(\bar{y}\)を入れます。

    また、\(\bar{y}\)と\(\hat{y_i}\)は回帰式を通るので、
    ●\(\bar{y}\)=\(a_+b \bar{x_1}+c \bar{x_2}\)
    ●\(\hat{y}\)=\(a_+b x_{1i}+c x_{2i}\)
    が成り立つので、\(Q(a,b,c)\)に代入します。

    代入すると、
    \(Q(a,b,c)\)= \(\sum_{i=1}^{n}((y_i -\bar{y})\) –\(b(x_{1i}-\bar{x_1})\)-\( c(x_{2i}-\bar{x_2}))^2\)
    さらに、意図的に
    ●\(\bar{y}\)=\(a_+b \bar{x_1}+c \bar{x_2}\)を
    0=\(\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}\))
    として、\(Q(a,b,c)\)に代入します。

    よって、
    \(Q(a,b,c)\)= \(\sum_{i=1}^{n}((y_i -\bar{y})\)
    -\(b(x_{1i}-\bar{x_1})\)
    -\( c(x_{2i}-\bar{x_2})\)
    +\((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2})))^2\)
    となります。

    2乗和を整理

    この長い2乗式を展開します。

    \(Q(a,b,c)\)
    = \(\sum_{i=1}^{n}\) \( ((y_i -\bar{y})^2 \) →(1)
    +\(b^2(x_{1i}-\bar{x_1})^2\) →(2)
    +\(c^2(x_{2i}-\bar{x_2})^2\) →(3)
    +\(((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))^2\) →(4)
    -\(2b(y_i -\bar{y})(x_{1i}-\bar{x_1})\) →(5)
    -\(2c (y_i -\bar{y})(x_{2i}-\bar{x_2})\) →(6)
    +\(2(y_i -\bar{y})(\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))\) →(7)
    + \(2bc(x_{1i}-\bar{x_1})(x_{2i}-\bar{x_2})\) →(8)
    -\(2b(x_{1i}-\bar{x_1})\)\((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))\) →(9)
    -\(2c(x_{2i}-\bar{x_2})\)\((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2})))\) →(10)
    と展開します。長いですが、頑張りましょう。

    上の計算式を(1)~(10)に分けて、それぞれ見ていきましょう。

    ●(1)は
    \(\sum_{i=1}^{n}\) \( (y_i -\bar{y})^2 \)=\(S_{yy}\)と置けます。
    以下、Sは平方和を使って式を簡単に書いていきます。

    ●(2)は
    \(\sum_{i=1}^{n}\) \(b^2(x_{1i}-\bar{x_1})^2\) =\(b^2 S_{11}\)と置けます。

    ●(3)は
    \(\sum_{i=1}^{n}\) \(c^2(x_{2i}-\bar{x_2})^2\) =\(c^2 S_{22}\)と置けます。

    ●(4)はちょっとややこしいですが、定数を∑するので、
    \(\sum_{i=1}^{n}\)\(((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))^2\)
    =\(n((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))^2\)
    となります。あとで定数\(a\)を求めるための大事な式になります。

    ●(5)は
    \(\sum_{i=1}^{n}\)\(2b(y_i -\bar{y})(x_{1i}-\bar{x_1})\)
    =\(2b S_{1y}\)と置けます。

    ●(6)は
    \(\sum_{i=1}^{n}\)\(2c (y_i -\bar{y})(x_{2i}-\bar{x_2})\)
    = \(2c S_{2y}\)と置けます。

    ●(7)は、
    \(\sum_{i=1}^{n}\)\(2(y_i -\bar{y})(\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))\)
    =2\((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))\)\(\sum_{i=1}^{n}\)\((y_i -\bar{y})\)
    と定数を∑の外に出せて、かつ、
    \(\sum_{i=1}^{n}\)\((y_i -\bar{y})\)=0
    なので、
    (7)=0になります。

    ●(8)は、
    \(\sum_{i=1}^{n}\) \(2bc(x_{1i}-\bar{x_1})(x_{2i}-\bar{x_2})\)
    =\(2bc S_{12}\)
    と置けます。

    ●(9)は、
    \(\sum_{i=1}^{n}\)\(2b(x_{1i}-\bar{x_1})\)\((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))\)
    =\(2b(\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))\)\(\sum_{i=1}^{n}\)\((x_{1i}-\bar{x_1})\)
    と定数を∑の外に出せて、かつ、
    \(\sum_{i=1}^{n}\)\((x_{1i}-\bar{x_1})\)=0
    なので、
    (9)=0になります。

    ●(10)は、
    \(\sum_{i=1}^{n}\)\(2c(x_{2i}-\bar{x_2})\)\((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2})))\)
    =\(2c(\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2})))\)\(\sum_{i=1}^{n}\)\((x_{2i}-\bar{x_2})\)
    と定数を∑の外に出せて、かつ、
    \(\sum_{i=1}^{n}\)\(\sum_{i=1}^{n}\)\((x_{2i}-\bar{x_2})\)=0
    なので、
    (10)=0になります。

    誤差を最小にする条件

    (1)~(10)をまとめると、

    \(Q(a,b,c)\)= \(S_{yy}\)-\(b^2 S_{11}\)+\(c^2 S_{22}\)
    +\(n((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))^2\)
    -\(2b S_{1y}\)- \(2c S_{2y}\)+\(2bc S_{12}\)
    と整理できます。

    だいぶスッキリしましたね。機械的に計算しているだけなので、公式暗記の前に一回はなぞって理解しましょう。

    回帰式を導出

    ここで、回帰式の係数とy切片を求めます。つまり、
    ●\(a\)=\(β_0\)
    ●\(b\)=\(β_1\)
    ●\(c\)=\(β_2\)
    の各値です。

    回帰式は\(Q(a,b,c)\)が最小となる条件です。

    y切片 \(β_0\)の導出

    (Q(a,b,c))が最小となる条件で、定数(a)が有る項は、

    \(Q(a,b,c)\)= \(S_{yy}\)-\(b^2 S_{11}\)+\(c^2 S_{22}\)
    +\(n((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))^2\)
    -\(2b S_{1y}\)- \(2c S_{2y}\)+\(2bc S_{12}\)

    \(((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))^2\)
    の部分ですね。

    黄色マーカの2乗が最小になるのは、中身が0の時ですね。
    よって、
    \(\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2})\)=0
    が条件となり、変形すると、
    \(β_0\)=\(a\)=\(\bar{y}\)-(\(b \bar{x_1}+c \bar{x_2})\)
    が求める式となります。

    傾き\(β_1\)、\(β_2\)の導出

    \(Q(a,b,c)\)= \(S_{yy}\)-\(b^2 S_{11}\)+\(c^2 S_{22}\)
    +\(n((\bar{y}\)-(\(a_+b \bar{x_1}+c \bar{x_2}))^2\)
    -\(2b S_{1y}\)- \(2c S_{2y}\)+\(2bc S_{12}\)
    は、\(b,c\)の変数なので、
    偏微分=0
    から求めます。

    ●\(\displaystyle \frac{\partial Q(b,c)}{\partial b}\)=0
    ●\(\displaystyle \frac{\partial Q(b,c)}{\partial c}\)=0
    から条件式を作ります。

    ●\(\displaystyle \frac{\partial Q(b,c)}{\partial b}\)
    =\(2bS_{11}-2S_{1y}+2cS_{12}\)=0
    ●\(\displaystyle \frac{\partial Q(b,c)}{\partial c}\)
    =\(2cS_{22}-2S_{2y}+2bS_{12}\)=0
    となる連立方程式ができます。

    よって、
    \(S_{11}b+S_{12}c\)=\(S_{1y}\)
    \(S_{12}b+S_{22}c\)=\(S_{2y}\)
    を満たす連立方程式から、
    傾き\(b\)=\(β_1\)、\(c\)=\(β_2\)が導出できます。

    【結論】回帰式の導出

    ●y切片 \(β_0\)の導出
    \(β_0\)=\(a\)=\(\bar{y}\)-(\(b \bar{x_1}+c \bar{x_2})\)
    から計算し、
    ●傾き\(β_1\)、\(β_2\)の導出
    \(S_{11}b+S_{12}c\)=\(S_{1y}\)
    \(S_{12}b+S_{22}c\)=\(S_{2y}\)
    を満たす連立方程式から、\(β_1\)、\(β_2\)が導出できます!

    ちゃんと、導出できましたね!一切途中経過を端折っていないので、なぞるだけでも理解が深まります!

    では、具体的な数字を使って回帰式を作ってみましょう。

    ➂【実例】回帰式を作る

    データ例

    以下のデータを使って重回帰分析の回帰式を作ってみましょう。

    x1 x2 y
    3 1 3
    2 4 4
    4 2 4
    4 5 7
    5 4 7
    6 2 5

    導出式から回帰式を計算する

    ●y切片 \(β_0\)の導出
    \(β_0\)=\(a\)=\(\bar{y}\)-(\(b \bar{x_1}+c \bar{x_2})\)
    から計算し、
    ●傾き\(β_1\)、\(β_2\)の導出
    \(S_{11}b+S_{12}c\)=\(S_{1y}\)
    \(S_{12}b+S_{22}c\)=\(S_{2y}\)
    を満たす連立方程式から、\(β_1\)、\(β_2\)が導出できます!

    なので、
    ●平均\(\bar{x_1},\bar{x_2},\bar{y}\)と
    ●平方和\(S_{11}\),\(S_{12}\),\( S_{1y}\),\( S_{22}\),\( S_{2y}\)
    を計算しましょう。結構、計算が必要ですね。
    下表に結果をまとめましょう。

    x1 x2 y A=
    \(x_1\)-\(\bar{x_1}\)
    B=
    \(x_2\)-\(\bar{x_2}\)
    C=
    \(y-\bar{y}\)
    \(A^2\)=\(S_{11}\) \(AC\)=\(S_{1y}\) \(AB\)=\(S_{12}\) \(B^2\)=\(S_{22}\) \(BC\)=\(S_{2y}\) \(C^2\)=\(S_{yy}\)
    3 1 3 -1 -2 -2 1 2 2 4 4 4
    2 4 4 -2 1 -1 4 2 -2 1 -1 1
    4 2 4 0 -1 -1 0 0 0 1 1 1
    4 5 7 0 2 2 0 0 0 4 4 4
    5 4 7 1 1 2 1 2 1 1 2 4
    6 2 5 2 -1 0 4 0 -2 1 0 0
    合計 24 18 30 0 0 0 10 6 -1 12 10 14
    平均 4 3 5 ↑\(S_{11}\) ↑\(S_{1y}\) ↑\(S_{12}\) ↑\(S_{22}\) ↑\(S_{2y}\) ↑\(S_{yy}\)

    よって、
    ●y切片 \(β_0\)の導出
    \(β_0\)=\(a\)=\(\bar{y}\)-(\(b \bar{x_1}+c \bar{x_2})\)
    から計算し、
    ●傾き\(β_1\)、\(β_2\)の導出
    \(10b-c\)=6
    \(-b+12c\)=10
    から、
    \(b=β_1\)=\(\frac{82}{119}\)
    \(c=β_2\)=\(\frac{106}{109}\)

    \(β_0\)=\(a\)=\(\bar{y}\)-(\(b \bar{x_1}+c \bar{x_2})\)
    から
    5-\(\frac{82}{119}\)×4-\(\frac{106}{109}\)×3=-\(\frac{51}{109}\)

    以上、
    \(y\)=-\(\frac{51}{109}\)+\(\frac{82}{119}x_1\)+\(\frac{106}{109}x_2\)
    =-0.429+0.689\(x_1\)+0.891\(x_2\)
    となります。

    Excelから回帰式を計算する

    関数を使って一発で出せます。

    LINEST関数を使います。下図のように、縦5マス、横3マス分を選択して、
    「=LINEST(D3:D8,B3:C8,TRUE,TRUE)」
    の関数を入力して
    「ctrl+shift」を同時に押して、「enter」すると自動計算されます。

    重回帰分析

    自動計算は一瞬でできて、下図の結果になります。

    重回帰分析

    確かに、手計算で求めた
    \(y\)=-\(\frac{51}{109}\)+\(\frac{82}{119}x_1\)+\(\frac{106}{109}x_2\)
    =-0.429+0.689\(x_1\)+0.891\(x_2\)
    と一致します。

    当然、手計算でもExcel関数からでも結果は一致します。Excel関数の方が楽チンですが、意味を理解するためにも手計算で一度解くことを勧めます。

    まとめ

    「重回帰分析の回帰式が導出できる」を解説しました。

    • ①回帰式は誤差を最小にする条件で導出
    • ➁回帰式を導出
    • ➂【実例】回帰式を作る
  • 【まとめ】単回帰分析がわかる

    【まとめ】単回帰分析がわかる

    本記事のテーマ

    【まとめ】単回帰分析がわかる
    • ①単回帰分析の重要ポイント
    • ②QCプラネッツの単回帰分析の関連記事を紹介

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    ①単回帰分析の重要ポイント

    単回帰分析でマスターしたい内容をQCプラネッツがすべて解説!

    4テーマがあります。

    1. 回帰分析の超基本
    2. 単回帰分析の基本(相関係数、回帰直線 分散分析)
    3. 単回帰の検定と推定
    4. 繰返しのある単回帰分析

    4つのテーマについて、それぞれを詳細に関連ブログや冊子で紹介します。

    ②QCプラネッツの単回帰分析の関連記事を紹介

    それぞれの、関連リンクでご確認ください。

    Day ページ 問題
    1 無相関の検定がわかる ブログ
    2 無相関の検定がわかる ブログ
    3 無相関の検定がわかる ブログ
    4 無相関の検定がわかる ブログ
    1 【必読】相関係数や寄与率が1以上にできない理由がわかる PDF
    2 (必読)クラメールの連関係数が導出できる PDF
    3 クラメールの連関係数の値が0、1の条件がわかる PDF
    4 スピアマンの順位相関係数が導出できる PDF
    5 スピアマンの順位相関係数の正負の入れ替えがわかる PDF
    6 回帰分析と実験計画法の違いがよくわかる(繰返しデータ無しの場合) PDF
    7 繰返しのある単回帰分析の分散分析がよくわかる PDF
    8 回帰直線の区間推定が導出できる PDF
    9 大波の相関、小波の相関、符号検定がよくわかる PDF
    10 繰返しのある単回帰分析がわかる PDF
    11 単回帰分析のテコ比がよくわかる PDF

    ●商標使用について、
    ①QC検定®と品質管理検定®は、一般財団法人日本規格協会の登録商標です。
    ➁このコンテンツは、一般財団法人日本規格協会の承認や推奨、その他の検討を受けたものではありません。
    ➂QCプラネッツは、QC検定®と品質管理検定®の商標使用許可を受けています。

    ③QCプラネッツがまとめた単回帰分析の冊子を紹介

    無相関の検定がわかる

    無相関の検定がわかる
    相関係数が0ではないのに無相関を検定する理由を解説!

    回帰分析と相関係数をマスターする

    相関係数 回帰分析と相関係数をマスターする
    回帰分析の必須テクニカルを解説!

    スピアマンの順位相関係数とピアソンの相関係数を比較する

    回帰分析_スピアマンの順位相関係数vsピアソンの相関係数 スピアマンの順位相関係数とピアソンの相関係数を比較する
    両者の相関係数がマスターできます!

    回帰母数の検定と推定がよくわかる

    回帰分析_回帰母数の検定と推定 回帰母数の検定と推定がよくわかる
    回帰分析における検定・推定方法をわかりやすく解説!

    QCプラネッツ単回帰分析プレミアムテキスト(11記事)

    【QCプラネッツ単回帰分析プレミアムテキスト】リンク
    P9 「スピアマンの順位相関係数が導出できる」で確認ください。

    ●You tube動画もごらんください。

    しっかり勉強していきましょう!

    まとめ

    「【まとめ】単回帰分析がわかる」を解説しました。

    • ①単回帰分析の重要ポイント
    • ②QCプラネッツの単回帰分析の関連ブログを紹介
    • ③QCプラネッツがまとめた単回帰分析の冊子を紹介
  • 回帰母数の検定と推定がよくわかる

    回帰母数の検定と推定がよくわかる

    本記事のテーマ

    回帰母数の検定と推定がよくわかる
    • ①回帰母数の検定・推定に必要な公式
    • ➁回帰の検定が理解できる例題
    • ➂回帰直線の傾きについての検定と推定
    • ➃回帰直線の\(y\)切片についての検定と推定

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    ①回帰母数の検定・推定に必要な公式

    基本は、回帰直線の推定区間の導出から得られる公式を使って解いていきます。
    理論は関連記事で確認ください。

    【QCプラネッツ単回帰分析プレミアム勉強プリント】リンク
    P19~25 「回帰直線の区間推定が導出できる」で確認ください。

    傾き\(a\)について

    関連記事からは、傾き\(a\)の期待値E[\(a\)]と分散V[\(a\)]は以下の式です。

    ●E[\(a\)]= \(a\)
    ●V[\(a\)]= \(\frac{σ^2}{S_{xx}}\)

    なので、これが正規分布に従うとしたら、
    傾き\(a\)は、N[\(a\)、\(\frac{σ^2}{S_{xx}}\)]
    に従うと書けますね。

    標準化して、正規分布を使った検定統計量を式にすると

    \(u\)=\(\frac{a-a_0}{\sqrt{σ^2/S_{xx}}}\)
    は正規分布N(0,\(1^2\))に従います。

    ただし、実際は\(σ^2\)を推定しないといけないので、よくt分布の直して検定と推定を行いますね。個人的には、別に正規分布のままで検定と推定してもよいと思いますけど。

    \(σ^2\)→Veに直して、 残差の自由度\(n-2\)を使って、t分布に従う検定統計量を書き直します。

    ●検定統計量\(t\)=\(\frac{a-a_0}{\sqrt{Ve/S_{xx}}}\)
    は自由度\(n-2\)のt分布に従い、
    ●区間推定は \(a\)± \(t(n-2,α)\)\(\sqrt{\frac{Ve}{S_{xx}}}\)
    から計算します。

    \(y\)切片\(b\)について

    関連記事からは、傾きy切片\(b\)の期待値E[\(b\)]と分散V[\(b\)]は以下の式です。

    ●E[\(b\)]= \(b\)
    ●V[\(b\)]=\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)

    なので、これが正規分布に従うとしたら、
    傾き\(y\)切片\(b\)は、N[\(b\)、\(σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})\)]
    に従うと書けますね。

    標準化して、正規分布を使った検定統計量を式にすると

    \(u\)=\(\frac{b-b_0}{\sqrt{σ^2(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}}\)
    は正規分布N(0,\(1^2\))に従います。

    ただし、実際は\(σ^2\)を推定しないといけないので、よくt分布の直して検定と推定を行いますね。個人的には、別に正規分布のままで検定と推定してもよいと思いますけど。

    \(σ^2\)→Veに直して、 残差の自由度\(n-2\)を使って、t分布に従う検定統計量を書き直します。

    ●検定統計量\(t\)=\(\frac{b-b_0}{\sqrt{Ve(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}}\)
    は自由度\(n-2\)のt分布に従い、
    ●区間推定は \(b\)± \(t(n-2,α)\)\(\sqrt{Ve(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}\)
    から計算します。

    OKですね。では、実例を使って計算してみましょう。

    ➁回帰の検定が理解できる例題

    例題をあげましょう。

    10個のデータがあったが、再実験して下表のデータが得られた。
    元のデータにおいては、
    ●傾き\(a_0\)=1.2
    ●\(y\)切片\(b_0\)=-8
    だった。
    (1) 傾き\(a\)において、元の傾きから変化したかどうかを検定せよ。
    (2) 傾き\(a\)における信頼率95%の信頼区間を計算せよ。
    (3) \(y\)切片\(b\)において、元の\(y\)切片から変化したかどうかを検定せよ。
    (4) \(y\)切片\(b\)における信頼率95%の信頼区間を計算せよ。
    No
    1 1.3 2.4
    2 3.4 4.5
    3 5.6 3.6
    4 7.5 6.7
    5 9.1 8.9
    6 11.2 6.6
    7 13.4 14.3
    8 13.7 24.5
    9 14.2 20.8
    10 16.2 30.5
    合計 95.6 122.8

    平方和 分散分析 S Φ V データ
    Sxx 226.50 R 659.52 1 659.52 傾き\(a\) 1.7
    Syy 866.28 e 206.76 8 25.84 \(y\)切片\(b\) -4.03
    Sxy 386.50 T 866.28 9 R 0.76

    では解いてみましょう。

    ➂回帰直線の傾きについての検定と推定

    傾きについての検定

    検定統計量を使って計算します。

    ●検定統計量\(t\)=\(\frac{a-a_0}{\sqrt{Ve/S_{xx}}}\)

    ●\(t\)=\(\frac{1.70-1.2}{\sqrt{25.84/226.50}}\)
    =1.50 < \(t(10-2,0.05)\)=2.306
    より、傾きが変化したとはいえないという結果になります。

    傾きについての推定

    ●区間推定は \(a\)± \(t(n-2,α)\)\(\sqrt{\frac{Ve}{S_{xx}}}\)

    ●区間推定=1.70± 2.306×\(\sqrt{\frac{25.84}{226.50}}\)
    =0.93~2.49
    となります。

    基本をしっかりおさえていれば、あとは公式代入で解けます。もちろん、理論が一番大事ですよ!

    ➃回帰直線の\(y\)切片についての検定と推定

    ●検定統計量\(t\)=\(\frac{b-b_0}{\sqrt{Ve(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}}\)

    ●\(t\)=\(\frac{-4.03-(-8)}{\sqrt{25.84(\frac{1}{10}+\frac{\bar{9.56^2}}{226.50})}}\)
    =1.10 < \(t(10-2,0.05)\)=2.306
    より、\(y\)切片が変化したとはいえないという結果になります。

    傾きについての推定

    ●区間推定は \(b\)± \(t(n-2,α)\)\(\sqrt{Ve(\frac{1}{n}+\frac{\bar{x^2}}{S_{xx}})}\)

    ●区間推定=-4.03±2.306×\(\sqrt{25.84(\frac{1}{10}+\frac{\bar{9.56^2}}{226.50})}\)
    =-12.35~4.29
    となります。

    結構幅が広いことがわかりますね。

    難しい計算問題でしたが、ちゃんとできましたね!

    公式は導出できてから使いましょう。

    まとめ

    「回帰母数の検定と推定がよくわかる」を解説しました。

    • ①回帰母数の検定・推定に必要な公式
    • ➁回帰の検定が理解できる例題
    • ➂回帰直線の傾きについての検定と推定
    • ➃回帰直線の\(y\)切片についての検定と推定
  • スピアマンの順位相関係数とピアソンの相関係数を比較する

    スピアマンの順位相関係数とピアソンの相関係数を比較する

    本記事のテーマ

    スピアマンの順位相関係数とピアソンの相関係数を比較する
    • ➀スピアマンの順位相関係数とピアソンの相関係数を比較
    • ➁スピアマンの順位相関係数とピアソンの相関係数が一致する条件

    【QC検定®1級合格】回帰分析問題集を販売します!

    QC検定®1級合格したい方におススメです。
    【QC検定®合格】「回帰分析(単回帰分析・重回帰分析)」問題集を販売します! 内容は、①単回帰分析の基本、➁特殊な単回帰分析、➂単回帰分析の応用、➃重回帰分析の基礎、⑤重回帰分析の応用、の5章全41題を演習できる問題集です。

    スピアマンの順位相関係数については、特別に公式暗記する必要はありません。自分で導出できます。

    導出過程は関連記事で確認ください。

    【QCプラネッツ単回帰分析プレミアム勉強プリント】リンク
    P9~12 「スピアマンの順位相関係数が導出できる」&「スピアマンの順位相関係数の正負の入れ替えがわかる」で確認ください。

    ピアソンの相関係数と比較することで、スピアマンの順位相関係数の理解を深めましょう。大事な記事です!

    ➀スピアマンの順位相関係数とピアソンの相関係数を比較

    データを用意

    変数\(x,y\)からなる、変量データを用意します。下表のとおりです。

    No x y
    1 0.15 8.05
    2 1.2 4.05
    3 2.08 5.77
    4 2.42 11.2
    5 4.82 20.17
    6 5.93 17.21
    7 6.15 15.22
    8 6.5 18.38
    9 7.32 30.59
    10 8.45 8.99

    ピアソンの相関係数

    平方和\(S_{xx}\),\(S_{yy}\),\(S_{xy}\)を計算します。
    ●\(S_{xx}\)=\(\sum_{i=1}^{n}(x_i -\bar{x})^2\)
    ●\(S_{yy}\)=\(\sum_{i=1}^{n}(y_i -\bar{y})^2\)
    ●\(S_{xy}\)=\(\sum_{i=1}^{n}(x_i -\bar{x})(y_i-\bar{y})\)
    表を追加します。

    No x y \((x-\bar{x})^2\) \((y-\bar{y})^2\) \((x-\bar{x})(y-\bar{y})\)
    1 0.15 8.05 18.94 34.96 25.73
    2 1.2 4.05 10.9 98.27 32.73
    3 2.08 5.77 5.87 67.13 19.84
    4 2.42 11.2 4.33 7.63 5.75
    5 4.82 20.17 0.1 38.53 1.97
    6 5.93 17.21 2.04 10.54 4.64
    7 6.15 15.22 2.72 1.58 2.07
    8 6.5 18.38 3.99 19.51 8.83
    9 7.32 30.59 7.94 276.46 46.85
    10 8.45 8.99 15.59 24.73 -19.63
    合計 45.02 139.63 72.42 579.34 128.79
    平均 4.502 13.963 ↑(\(S_{xx}\)) ↑(\(S_{yy}\)) ↑(\(S_{xy}\))

    よって、ピアソンの相関係数\(r\)は、

    ピアソンの相関係数\(r\)
    \(r\)=\(\frac{S_{xy}}{\sqrt{S_{xx} S_{yy}}}\)
    =\(\frac{128.79}{\sqrt{72.42×579.34}}\)
    =0.629

    これは、簡単ですね。

    スピアマンの順位相関係数

    変数\(x,y\)の順位をつけましょう。下表のとおりに変化しますね。

    実測データ 順位
    No x y x y
    1 0.15 8.05 1 3
    2 1.2 4.05 2 1
    3 2.08 5.77 3 2
    4 2.42 11.2 4 5
    5 4.82 20.17 5 9
    6 5.93 17.21 6 7
    7 6.15 15.22 7 6
    8 6.5 18.38 8 8
    9 7.32 30.59 9 10
    10 8.45 8.99 10 4

    スピアマンの順位相関係数\(r’\)を計算します。

    関連記事から、導出式を使います。

    【QCプラネッツ単回帰分析プレミアム勉強プリント】リンク
    P9~12 「スピアマンの順位相関係数が導出できる」&「スピアマンの順位相関係数の正負の入れ替えがわかる」で確認ください。

    ●スピアマンの順位相関係数
    \(r\)=1-\(\frac{6\sum_{i=1}^{n}d_i^2}{n(n^2-1)}\)
    ここで、\(d_i\)=\(x_i -y_i\)

    計算に必要なデータは下表にあります。

    No x y d=x-y d2
    1 1 3 -2 4
    2 2 1 1 1
    3 3 2 1 1
    4 4 5 -1 1
    5 5 9 -4 16
    6 6 7 -1 1
    7 7 6 1 1
    8 8 8 0 0
    9 9 10 -1 1
    10 10 4 6 36
    合計 62
    ●スピアマンの順位相関係数
    \(r\)=1-\(\frac{6\sum_{i=1}^{n}d_i^2}{n(n^2-1)}\)
    =1-\(\frac{6×62}{10(10^2-1)}\)
    =0.624

    スピアマンの順位相関係数とピアソンの相関係数を比較

    図を比較します。

    スピアマンの順位相関係数

    ●ピアソンの相関係数\(r\)=0.629
    ●スピアマンの順位相関係数=0.624
    とスピアマンの順位相関係数の方が若干小さくなりました。
    データ値によって、
    ピアソンの相関係数とスピアマンの順位相関係数の
    大小関係の入れ替えはあります。

    ➁スピアマンの順位相関係数とピアソンの相関係数が一致する条件

    では、次の疑問が沸きますよね!

    スピアマンの順位相関係数とピアソンの相関係数が一致する条件って何?
    どんなデータを用意すればいいのか?

    一致するデータを用意

    結論からいいますと、

    スピアマンの順位相関係数とピアソンの相関係数が一致する条件は、
    各データから求まるR=\(\frac{S_{xy}^2}{S_{xx}S_{yy}}\)
    が一致する場合

    そりゃそうでしょう!というオチですが、
    スピアマンの順位相関係数とピアソンの相関係数の計算式は実は同じで、
    変数データを順位データに変換しても、寄与率Rの値が変化しなければOKです。

    スピアマンの順位相関係数とピアソンの相関係数が一致する例

    いろいろ例がありますが、

    1. ピアソンの相関係数とスピアマンの順位相関係数で扱うデータ値が完全に一致する場合
    2. ピアソンの相関係数側のデータが回帰直線に完全に乗る場合(つまり相関係数=1の場合)
    3. など(他の例も見つけてみてください)

    例えば、ピアソンの相関係数側のデータが回帰直線に完全に乗る場合(つまり相関係数=1の場合)ですが、実測データが完全に回帰直線に乗る場合(例としてy=3x-1)を下表に示します。

    No x y x順位 y順位
    1 0.15 -0.55 1 1
    2 1.2 2.6 2 2
    3 2.08 5.24 3 3
    4 2.42 6.26 4 4
    5 4.82 13.46 5 5
    6 5.93 16.79 6 6
    7 6.15 17.45 7 7
    8 6.5 18.5 8 8
    9 7.32 20.96 9 9
    10 8.45 24.35 10 10
    10 8.45 24.35 10 10

    グラフに描くと、確かに両者の相関係数は一致しています。

    スピアマンの順位相関係数

    などなど、いろいろ例がありますので、調べてみましょう。

    大事なのは、ピアソンの相関係数の式からスピアマンの順位相関係数の性質が導出できます!スピアマンの順位相関係数のための公式暗記は一切不要!導出過程を理解しましょう!

    まとめ

    「スピアマンの順位相関係数とピアソンの相関係数を比較する」を解説しました。

    • ➀スピアマンの順位相関係数とピアソンの相関係数を比較
    • ➁スピアマンの順位相関係数とピアソンの相関係数が一致する条件
error: Content is protected !!