: .
β 1 ε 2 ()
p n
2. 多元线性回归模型的基本假定
为了方便进行模型的参数估计,对回归方程()有如下一些基本假定。
(1) 解释变量 x , x ,..., x 是确定性变量,不是随机变量,且要求rank ( X ) p 1 n 。
1 2 p
(2) 随机误差项具有 0 均值和等方差,即
E ( ) 0, i 1,2,..., n
i
2, i j ()
cov( , )
i j
0, i j
这个假定称为高斯-马尔科夫条件。
(3) 正态分布的假定条件为
~ N (0, 2 ), i 1,2,..., n
i ()
, ,..., 相互独立
1 2 n
3. 多元线性回归方程的解释
E ( y )
一般情况下,对于含有 p 个自变量的多元线性回归,根据方程(),有 ,
x i
i
从而每个回归系数 表示在回归方程中其他自变量保持不变的情况下,自变量 x 每增加一
i i
个单位时因变量 y 的平均增加程度。因此也把多元线性回归的回归系数称为偏回归系数,简
称为回归系数。
多元回归参数的估计与检验
1. 回归参数的估计
(1) 最小二乘估计(OLSE)
多元线性回归方程未知参数 , ,..., 的估计与一元最小二乘估计线性回归方程
0 1 p
的参数估计原理一样,仍然采用最小二乘估计(OLSE)。对于()式矩阵形式表示的回归
模 型 y X β ε , 所 谓 最 小 二 乘 法 , 就 是 寻 找 参 数 , ,. .,. 的 估 计 值
0 1 pˆ , ˆ , ˆ ,..., ˆ ,使离差平方和
0 1 2 p
n
Q ( , , ,..., ) ( y x ... ) 2
0 1 2 p i 0 1 i1 i 2 ip
i 1
达到最小。
当 ( X ' X ) 1 存在时,推导可得回归参数的最小二乘估计为
βˆ (
回归分析教程 来自淘豆网m.daumloan.com转载请标明出处.