統計学 |
回帰分析 |
---|
![](//upload.wikimedia.org/wikipedia/commons/thumb/3/3a/Linear_regression.svg/220px-Linear_regression.svg.png) |
モデル |
---|
|
- 一般化線形モデル
- 離散選択(英語版)
- ロジスティック回帰
- 多項ロジット(英語版)
- 混合ロジット(英語版)
- プロビット(英語版)
- 多項プロビット(英語版)
- 順序ロジット(英語版)
- 順序プロビット(英語版)
- ポアソン(英語版)
|
|
- 非線形回帰
- ノンパラメトリック(英語版)
- セミパラメトリック(英語版)
- ロバスト(英語版)
- 分位点(英語版)
- 等調(英語版)
- 主成分(英語版)
- 最小角度(英語版)
- 局所
- 折れ線(英語版)
|
|
推定 |
---|
|
|
- 部分
- 総最小二乗法(英語版)
- 非負(英語版)
- リッジ回帰
- 正則化(英語版)
|
- 最小絶対偏差(英語版)
- 繰返し加重(英語版)
- ベイズ(英語版)
- ベイズ多変量(英語版)
|
背景 |
---|
|
|
ガウス=マルコフの定理(ガウス=マルコフのていり)とは、あるパラメタを観測値の線形結合で推定するとき残差を最小にするように最小二乗法で求めた推定量が、最良線形不偏推定量になることを保証する定理である。カール・フリードリヒ・ガウスとアンドレイ・マルコフによって示された。
線形回帰モデルと最小二乗推定量
線形回帰モデルとして目的変数 Y とp 個の説明変数 Xi, i = 1, ..., p および誤差項
の関係を以下のようにモデル化したものを考える。
![{\displaystyle Y_{k}=\beta _{0}+\beta _{1}X_{1}+\beta _{2}X_{2}+\cdots +\beta _{p}X_{p}+\varepsilon _{k},\ k=1,\dots ,n.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3295c39ff1dba13fabb0f2aa65af9109c6603000)
目的変数と説明変数の測定結果の組 (yk; xk,1,...,xk,p) を1つのデータとし、n( ≥ p) 個のデータを用いて残差の平方和
![{\displaystyle \sum _{k=1}^{n}\left\{y_{i}-(\beta _{0}+\beta _{1}x_{i,1}+\beta _{2}x_{i,2}+\cdots +\beta _{p}x_{i,p})\right\}^{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5f0c7c39268f5088f40e163dd1172d70bec3efbb)
が最小になる
を最小二乗推定量と呼ぶ。ここで
![{\displaystyle \mathbf {Y} ={\begin{bmatrix}Y_{1}\\Y_{2}\\\vdots \\Y_{n}\end{bmatrix}},\ \mathbf {X} ={\begin{bmatrix}1&x_{11}&x_{12}&\dots &x_{1p}\\1&x_{21}&x_{22}&\dots &x_{2p}\\\vdots &\vdots &\vdots &&\vdots \\1&x_{n1}&x_{n2}&\dots &x_{np}\end{bmatrix}},\ {\boldsymbol {\beta }}={\begin{bmatrix}\beta _{0}\\\beta _{1}\\\vdots \\\beta _{p}\end{bmatrix}},\ {\boldsymbol {\varepsilon }}={\begin{bmatrix}\varepsilon _{1}\\\varepsilon _{2}\\\vdots \\\varepsilon _{n}\end{bmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/49df6719b131a6b8fd7bac6b0501cd84866e1c0b)
と置くと線形回帰モデルは
![{\displaystyle \mathbf {Y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/248d265139e634c55ed422054fdbdf83068d46ef)
とかけ、最小二乗推定量
は
![{\displaystyle {\widehat {\boldsymbol {\beta }}}=(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {Y} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/3e163c8aa55c201fee3c6ec4ef3d84c4f2b6131a)
で与えられる。なお、上付き添字
は転置行列を表す。
ガウス・マルコフの定理
仮定
誤差項
について
(不偏性)
(等分散性・無相関性)
を仮定する。ここで
は単位行列を表す。
無相関性は独立性よりも弱い仮定であり、また正規分布など特定の分布に従うことを仮定していない。
定理の内容
最小二乗推定量
は最良線形不偏推定量になる。つまり任意の線形不偏推定量
に対して
![{\displaystyle \operatorname {Cov} \left[{\widetilde {\boldsymbol {\beta }}}\right]\succeq \operatorname {Cov} \left[{\widehat {\boldsymbol {\beta }}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c0c316b9456ac616605219febedb3ae8937df8d7)
が成立する。
証明
は線形推定量なので
行
列の行列
を用いて
とかける。
が不偏性を持つための条件を求めると
が恒等的に成立することから
である。
次に
の分散共分散行列を整理すると
![{\displaystyle {\begin{alignedat}{2}\operatorname {Cov} \left[{\widetilde {\boldsymbol {\beta }}}\right]&=E\left[(\mathbf {C} \mathbf {Y} -{\boldsymbol {\beta }})(\mathbf {C} \mathbf {Y} -{\boldsymbol {\beta }})^{\top }\right]\\&=E\left[\mathbf {C} {\boldsymbol {\varepsilon }}(\mathbf {C} {\boldsymbol {\varepsilon }})^{\top }\right]\\&=\mathbf {C} E[{\boldsymbol {\varepsilon }}{\boldsymbol {\varepsilon }}^{\top }]\mathbf {C} ^{T}\\&=\sigma ^{2}\mathbf {C} \mathbf {C} ^{\top }\end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3ecaf1053f56c457734d706a61f0e2cf7a8e4dfa)
になる。ここで
とした時の推定量が最小二乗推定量
になるので
を示せばよい。不偏性より
なので
![{\displaystyle {\begin{alignedat}{2}(\mathbf {C} -{\hat {\mathbf {C} }}){\hat {\mathbf {C} }}^{\top }&=(\mathbf {C} -{\hat {\mathbf {C} }})\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\\&=(\mathbf {C} \mathbf {X} -{\hat {\mathbf {C} }}\mathbf {X} )(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\\&=\mathbf {O} \end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a79bf5dd93d47b087532674c5b1b7d05661ddef9)
に注意すると
![{\displaystyle {\begin{alignedat}{2}\mathbf {C} \mathbf {C} ^{\top }&=(\mathbf {C} -{\hat {\mathbf {C} }}+{\hat {\mathbf {C} }})(\mathbf {C} -{\hat {\mathbf {C} }}+{\hat {\mathbf {C} }})^{\top }\\&=(\mathbf {C} -{\hat {\mathbf {C} }})(\mathbf {C} -{\hat {\mathbf {C} }})^{\top }+{\hat {\mathbf {C} }}{\hat {\mathbf {C} }}^{\top }\\&\succeq {\hat {\mathbf {C} }}{\hat {\mathbf {C} }}^{\top }\end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8451d840784c68630255c7e5f358b08a7e21a6b8)
が成立する。したがって
![{\displaystyle \operatorname {Cov} \left[{\widetilde {\boldsymbol {\beta }}}\right]\succeq \operatorname {Cov} \left[{\widehat {\boldsymbol {\beta }}}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c0c316b9456ac616605219febedb3ae8937df8d7)
が成立し、最小二乗推定量
は最良線形不偏推定量になる。
関連項目
参考文献
- “有意に無意味な話: ガウス・マルコフの定理:重回帰モデルでの証明”. 2020年8月13日閲覧。
外部リンク