第九章回归分析方法回归分析方法是统计分析的重要组成部分,?大家知道:数学分析(或高等数学)是研究连续变量之间的关系,泛函分析是研究函数集之间的关系,,因为随机变量的取值是随机的,大多数是通过试验得到的,这种来自于实际中与随机变量相关的数学模型的准确度(可信度)如何,需通过进一步的统计试验来判断其模型中随机变量(回归变量)的显著性,而且,往往需要经过反复地进行检验和修改模型,直到得到最佳的结果,:从一组数据出发,确定这些变量(参数)间的定量关系(回归模型);对模型的可信度进行统计检验;从有关的许多变量中,判断变量的显著性(即哪些是显著的,哪些不是,显著的保留,不显著的忽略);,是要建立模型,即函数关系,其自变量称为回归变量,,称为一元回归模型,否则称为多元回归模型,,则其中是未知的待定常数,称为回归系数;是回归变量,可以是随机变量,也可以是一般变量.;是随机因素对响应变量所产生的影响——随机误差,,总是假设,亦即,,并假设是相互独立的随机变量,则有其中是相互独立的,,:(1)如何根据来求的估计值?(2)如何检验回归方程的可信度?要解决第一个问题,通常采用最小二乘估计,,即取的一组估计值使其随机误差的平方和达到最小,,且关于可微,则由多元函数存在极值的必要条件得即此方程组称为正规方程组,求解可得称为的最小二乘估计,其中的性质(1)(2)(3)事实上,.,且有故,,:与之间是否确实存在这种关系?即回归方程是否一定有意义?,只要检验是否为真,,即表示之间的差异,将其分解为两个部分,即事实上,由正规方程组知即回归平方和为,,是由回归变量的变化引起的误差,它的大小反映了的重要程度,,我们主要考虑回归平方和在中所占比重,记,称为复相关系数,问多大才认为函数关系存在,,=总观测个数;回归平方和的自由度=回归系数个数;残差平方和的自由度,:当时,,,回归均方与残差均方的比值是统计量,即在的假设下,给定一个模型的显著水平,可以查表得到分布的值,,,则说明的假设不成立,,,在显著情况下,即说明对的影响是主要的,但不能肯定与的关系一定是线性的,或存在其他影响因素,为此需在同一个下进行重复试验,,得到观测数据,即共有组独立观测数据,,,,称为模型误差平方和或失拟平方和,自由度在回归方程为真的假设下,则有其中是相互独立的,且,则,即,而与是相互独立的,由分布的性质可知因此可作为检验模型拟合的统计量,即给定一个显著水平,,则说明模型拟合是好的,即其他因素所产生的误差不明显,,则说明模型拟合是不好的,即其他因素所产生的误差超过试验误差,是显著的,:一种可能为不是的线性关系;另一可能是回归变量的个数不够,、拟合性的检验方法,()令()其中为随机误差,且均为实际问题的解释变量,,得到组观测值代入()得到其中为第次试验时的随机误差,且
回归分析方法 来自淘豆网m.daumloan.com转载请标明出处.