下载此文档

eviews异方差性.ppt


文档分类:高等教育 | 页数:约20页 举报非法文档有奖
1/20
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/20 下载此文档
文档列表 文档介绍
第6章基本回归模型的OLS估计
重点内容:
加权最小二乘法(消除异方差)
广义最小二乘法(消除序列相关和异方差)
广义矩估计
一、加权最小二乘法(WLS)

当线性回归模型出现异方差时,所得到的估计量是非有效的。用加权最小二乘法(WLS)可以解决异方差问题。
基本思路:
赋予每个观测值残差不同的权数,从而使得回归模型的随机误差项具有同方差性。
一、加权最小二乘法(WLS)

基本原理:
设一元线性方程为
yt =β0 +β1xt +μt
如果随机误t差项的方差Var(μt)与解释变量成比例关系,即
Var(μt) = σt2 = f(xt)×σ2
说明随机误差项的方差与解释变量xt之间存在相关性,即存在异方差问题。
一、加权最小二乘法(WLS)

消除方法:
用乘以一元线性方程的两端,得
yt = β0 + β1xt + μt
则,Var( μt) = E( μt)2 = E(μt)2 = σ2
从而,消除了异方差,随机误差项同方差。这时再用普通最小二乘法(OLS)估计其参数,得到有效的β0,β1估计量。
一、加权最小二乘法(WLS)

消除方法(EViews操作)
(1)用最小二乘法(OLS)估计方程,得到残差序列;
(2)根据残差序列计算出加权序列;
(3)选择EViews主菜单栏中的“Quick”| “Estimate Equation”选项,弹出下图所示的对话框。

包括两个选项卡:
(1)“Specification”选项卡

(2)“Options”选项卡
一、加权最小二乘法(WLS)

消除方法(EViews操作)
在“Specification”选项卡的“Equation specification”文本框中输入用OLS(普通最小二乘法)估计的方程。
在“Options”选项卡中,选中“Weighted LS/TSLS”复选框,并在“Weighted”的文本框中输入加权序列的名称,例如输入“w”。
加权序列“w ”用OLS估计模型
时得到的残差序列的绝对值的
倒数序列。填好后再单击
“确定”按钮
二、广义最小二乘法(GLS)
广义最小二乘法(Generalized Least Squared,GLS)常用来对存在序列相关和异方差的模型进行估计。普通最小二乘法(OLS)和加权最小二乘法(WLS)是广义最小二乘法(GLS)的特例。
二、广义最小二乘法(GLS)
基本原理:
通过变换原回归模型,使随机误差项消除自相关,进而利用普通最小二乘法估计回归参数。
设原回归模型是
yt = 0 + 1x1t + 2 x2t+…+ kxkt +ut (t = 1, 2, …, n )(1)
其中,ut具有一阶自回归形式
ut =  ut-1 + vt (2)
vt 满足线性回归模型的基本假定条件,把(2)式代入(1)式中,得
yt = 0+1x1t+2x2t+…+0xkt+ut- 1 + vt (3)
二、广义最小二乘法(GLS)
基本原理:
再求模型(3)的滞后1期即(t-1)期的回归模型,并在两侧同乘
 yt-1= 0 +1x1t-1 +2x2t-1 +…+kxkt-1+ ut-1 (4)
用(2)式与(4)相减,得
ut- yt-1 = 0 (1-)+1(x1t-x1t-1)+ …+k(xk-1- xkt-1) + vt (5)

yt* = yt -  yt -1
xjt* = xjt -xjt -1, j = 1 , 2 , … k (6)
0* = 0 (1 - )
则yt* = 0*+ 1 x1 t* + 2 x2 t* +…+ k xk t* + vt
如果模型不存在异方差和序列相关,则使用广义最小二乘法等于普通最小二乘法。
三、两阶段最小二乘法(TSLS)
基本原理:
两阶段最小二乘法分两个阶段:
第一阶段:找到工具变量,用最小二乘估计法(OLS)对模型中的每一解释变量与工具变量做回归;
第二阶段:用第一阶段的拟合值代替内生变量,对原方程进行第二次回归,这次回归得到的系数就是用两阶段最小二乘法得到的新估计值。

eviews异方差性 来自淘豆网m.daumloan.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数20
  • 收藏数0 收藏
  • 顶次数0
  • 上传人endfrs
  • 文件大小0 KB
  • 时间2015-12-10