1、问题的提出
请使用回归分析解释最后一列和前八列的关系。
7.30 7.80 7.20 7.30 7.70 7.30 8.30 9.60 9.10 9.50 7.80 8.60 8.50 9.20 8.20 7.00 9.70 9.80 8.60 8.80 9.30 7.50 9.00 8.90 9.90 7.20 7.00 7.30 9.00 7.50 9.10 7.60 7.70 7.70 8.00 8.70 7.40 8.40 7.80 7.60 8.30 9.80 8.80 9.70 8.50 8.90 9.10 9.10 9.20 7.50 9.90 9.90 9.40 9.00 9.80 7.90 9.30 9.70 10.00 7.20 7.10 7.50 9.00 8.50 9.70 8.00 8.30 7.90 7.10 7.20 7.10 7.20 7.20 7.20 7.70 9.30 8.60 9.00 8.30 7.80 8.10 8.00 7.90 7.10 9.10 9.50 8.20 7.90 9.30 7.20 7.80 8.90 9.70 7.00 7.00 7.10 8.10 7.20 8.60 7.20 7.40 7.30 7.70 8.40 7.50 7.90 8.40 8.10 8.50 9.80 9.10 9.60 9.10 9.00 9.30 9.40 9.10 7.40 9.70 9.80 9.50 8.50 9.80 8.10 9.10 9.50 9.90 7.90 7.20 7.60 9.10 8.50 9.60 8.90 8.40 8.70 7.20 7.50 7.20 7.50 7.60 7.30 7.80 8.80 7.80 8.90 8.00 8.00 8.00 8.50 7.80 7.10 9.00 9.00 8.70 8.10 8.70 7.30 8.20 8.60 9.40 7.10 7.00 7.30 7.80 8.00 9.10 7.40 7.50 7.40 7.20 8.10 7.10 8.50 7.40 7.20 7.80 9.90 9.30 9.80 9.50 8.70 8.30 9.60 8.30 7.10 10.00 10.00 9.80 9.30 10.00 7.70 9.40 9.70 10.00 7.10 7.00 7.90 9.30 8.90 9.90 7.60 8.30 7.70 7.00 7.30 7.00 7.30 7.10 7.00 7.20 9.40 8.50 9.20 7.60 7.80 7.80 8.60 7.50 7.00 9.60 9.70 8.30 8.00 9.30 7.10 8.10 9.40 9.90 7.00 7.00 7.10 7.70 7.20 9.50 7.10 7.40 7.30 7.60 7.10 7.00 7.10 7.10 7.00 7.80 10.00 8.50 10.00 7.90 7.80 8.50 8.90 8.20 7.70 9.90 9.90 9.50 9.80 9.30 7.20 8.50 9.20 9.90 7.30 7.00 7.60 7.10 7.60 7.60 7.20 8.50 8.30 -1.50 -2.57 0.39 -2.45 -0.35 -0.04 -1.70 -5.99 -3.77 -5.93 -3.22 -3.15 -4.07 -4.45 -3.92 -0. -5.84 -5.90 -5.48 -4.86 -5. -0.88 -3.94 -5.94 -5. 0.60 0.86 -0.30 -2.33 -2.82 -4.30 -1.08 -2.95 -1.65 第 1 页 共 11页
回归分析的应用 8.10 8.50 9.80 9.20 9.90 8.90 9.90 7.50 8.90 7.70 7.30 7.80 7.20 7.30 7.70 7.30 8.30 9.60 9.10 9.50 7.80 8.60 8.50 9.20 7.30 7.30 8.40 9.60 9.80 9.20 9.90 8.70 10.00 8.50 9.60 8.70 8.00 8.70 7.40 8.40 7.80 7.60 8.30 9.80 8.80 9.70 8.50 8.90 9.10 9.10 8.00 8.00 7.90 8.70 9.70 8.10 9.70 7.90 9.20 7.50 8.80 7.40 7.10 7.20 7.10 7.20 7.20 7.20 7.70 9.30 8.60 9.00 8.30 7.80 8.10 8.00 7.10 7.10 8.90 9.20 9.90 9.60 9.90 9.00 9.90 8.20 9.30 8.50 7.70 8.40 7.50 7.90 8.40 8.10 8.50 9.80 9.10 9.60 9.10 9.00 9.30 9.40 7.70 7.70 7.90 8.40 8.90 8.40 9.10 8.40 9.00 7.50 8.40 7.70 7.20 7.50 7.20 7.50 7.60 7.30 7.80 8.80 7.80 8.90 8.00 8.00 8.00 8.50 7.20 7.20 8.60 9.30 9.90 9.60 10.00 9.70 10.00 8.70 9.90 8.30 7.20 8.10 7.10 8.50 7.40 7.20 7.80 9.90 9.30 9.80 9.50 8.70 8.30 9.60 7.20 7.20 7.70 8.30 9.80 8.80 9.70 8.40 9.30 7.90 9.20 7.30 7.00 7.30 7.00 7.30 7.10 7.00 7.20 9.40 8.50 9.20 7.60 7.80 7.80 8.60 7.00 7.00 7.00 8.70 9.90 9.20 9.80 7.50 8.00 9.40 9.10 7.10 7.60 7.10 7.00 7.10 7.10 7.00 7.80 10.00 8.50 10.00 7.90 7.80 8.50 8.90 7.60 7.60 -1.98 -4.92 -6.16 -4.99 -5.74 -2.80 -3.45 -4.77 -5.71 -2.72 -1.50 -2.57 0.39 -2.45 -0.35 -0.04 -1.70 -5.99 -3.77 -5.93 -3.22 -3.15 -4.07 -4.45 -1.50 -1.50
2、模型的准备
多元统计分析是运用数理统计方法来研究解决多指标问题的理论和方法。并通过计算机对相关的数据进行分析得到相应的结果。本文通过建立多元统计分析方法中的多元回归分析模型并使用SPSS软件来分析数据得到多元回归方程。
2.1 多元回归分析原理与模型
回归分析是一种处理变量的统计相关关系的一种数理统计方法。回归分析的基本思想是: 虽然自变量和因变量之间没有严格的、确定性的函数关系, 但可以设法找出最能
第 2 页 共 11页
回归分析的应用
代表它们之间关系的数学表达形式。 回
归
分
析
主
要
解
决
以
下
几
个
方
面
的
问
题
:
(1)、确定几个特定的变量之间是否存在相关关系, 如果存在的话, 找出它们之间合适
的
数
学
表
达
式
;
(2)、根据一个或几个变量的值, 预测或控制另一个变量的取值, 并且可以知道这种预
测
或
控
制
能
达
到
什
么
样
的
精
确
度
;
(3)、进行因素分析。例如在对于共同影响一个变量的许多变量(因素)之间, 找出哪些是重要因素, 哪些是次要因素, 这些因素之间又有什么关系等等。
多元回归分析是研究多个变量之间关系的回归分析方法, 按因变量和自变量的数量对应关系可划分为一个因变量对多个自变量的回归分析(简称为“一对多”回归分析)及多个因变量对多个自变量的回归分析(简称为“多对多”回归分析), 按回归模型类型可划分为线性回归分析和非线性回归分析。
设随机变量y与m个自变量 (1)式称为回归方程, 式中
现在解决用 且假定
,
存在线性关系:
(1)
为回归系数, 为随机误差。 估计y的均值
,
是与
的问题, 即
无关的待定常数。 设有n组样本观测数据:
第 3 页 共 11页
回归分析的应用
其中xij表示xj在第i次的观测值, 于是有:
其中同一正态分布
为m+1个待定参数,
(2) 为n个相互的且服从
的随机变量, (2)式称为多元(元)线性回归的数学模型。
(2)式亦可写成矩阵形式, 设
, ,
则(2)式变为:
,
(3)
(3)式称为多元线性回归模型的矩阵形式。
用最小二乘法估计参数(0,1,……,m),使残差平方和
n SEEi12in(yi110xi11xi2...mxim)^2 (4)
达到最小,根据微积分中求极值的原理,SSE分别对0,1,……m求偏微商,经整理后用矩阵形式表示为
X(yX)0 (5)
第 4 页 共 11页
T 回归分析的应用
直接用矩阵运算求解为
b(XTX)1XTy (6) 从而得多元线性经验回归方程
y01x12x2...mxm (7) 回归方程建立后要对回归模型进行检验,一般包括一级检验和二级检验。一级检验又称统计学检验,主要是利用统计学的抽样理论来检验样本回归方程的可靠性,具体分为拟合优度评价和显著性检验;二级检验又称经济计量学检验,它是对线性回归模型的假定条件能否得到满足进行检验,包括残差正态性检验和序列相关检验等。 对被解释变量进行方差分析,得到方差分析表,见表1。 方差来源 解释变量 SSR离差平方和 自由度 K-1 均方差 F值 (yiy)i1n2MSR=SSR/(K-1) F=MSR/MSE 剩余变量 nN-K MSE=SSE/(N-K) SSEi1(yiyi)2 总变量 nSST(yi1iy)2
表1 回归模型方差分析表
其中SST=SSR+SSE,SST 称为总离差平方和,反映被解释变量的总变动;SSR 称为回归平方和,反映了被解释变量的总变动中能够被回归方程解释的部分;SSE 称为残差平方和,反映了被解释变量的总变动中由随机因素引起的变动,即不能被回归方程解释的部分。 回归方程的拟合优度评价可用决定系数来衡量,反映因变量y 的全部变异中能够通过回归关系被自变量解释的比例。即解释变差占总变差的比重:
第 5 页 共 11页
回归分析的应用
R2SSRSST1SSESST (8)
对回归方程整体显著性进行检验可建立如下假设:
H0:12...m0,即回归方程整体不显著; H1:j不全等于0(j=1,2...m),即回归方程整体显著。
由表1中的F 统计量及其对应的显著水平p 来进行检验。若p 小于要求的显著水平,则拒绝原假设,可以认为回归方程总体显著;反之不能拒绝原假设,应认为回归方程总体不显著。
对回归系数的显著性检验可以建立假设:
H0:j0(j=1,2...m),即第j个回归系数不显著;
H1:j0(j=1,2...m),即第j 个回归系数显著;
构造t统计量:tjnj (9)
xj)2(xi1nij(yi1iyi)2 其中 n2 (10)
由计算出的t统计量及其对应的显著水平p来进行检验。若p小于要求的显著水平,则拒绝原假设,可以认为第j个回归系数显著;若p大于要求的显著水平则不能拒绝原假设,应认为第j个回归系数不显著。
2.2 SPSS简介
SPSS( Statistical Package for the Social Science) 社会科学统计软件包是世界最著名的统计分析软件之一。该软件包理论严谨, 各种统计分析功能齐全, 其内容覆盖了从描述统计、探索性数据分析到多元分析的几乎所有统计分析功能, 目前已经在国内逐渐流行起来。SPSS 的基木功能包括数据管理、统计分析、图表分析、输出管理等等。SPSS 统计分析过程包括描述性统计、均值比较、一般
第 6 页 共 11页
回归分析的应用
线性模型、相关分析、回归分析、对数线性模型、聚类分析、数据简化、生存分析、时间序列分析、多重响应等几大类。每类中又分好几个统计过程, 比如回归分析中又分线性回归分析、曲线估计、Logistic 回归、Probit 回归、加权估计、两阶段最小二乘法、非线性回归等多个统计过程, 而且每个过程中又允许用户选择不同的方法及参数。
SPSS软件多元线性回归操作步骤如下:
(1)多元线性回归所用命令语句与一元线性回归相同,同样可以通过单击主菜单Analyze / Regression / Linear…,进入设置对话框如图1所示。从左边变量表列中把因变量选入到因变量(Dependent)框中,把自变量选入到自变量(Independent)框中。
图1
(2)点击Method后面的下拉框,在Method框中选择一种回归分析的方 SPSS提供下列几种变量进入回归方程的方法:
·Enter选项,强行进入法,即所选择的自变量全部进入回归模型,该选项是默认方式。
·Remove选项,消去法,建立回归方程时,根据设定的条件剔除部分自变量。
第 7 页 共 11页
回归分析的应用
·Forward选项,向前选择法,根据在Option对话框中所设定的判据,从无自变量开始,在拟合过程中,对被选择的自变量进行方差分析,每次加入一个F值最大的变量,直到所有符合判据的变量都进入模型为止。第一个引入回归模型的变量应该与因变量相关程度最大。
·Backward选项,向后剔除法,根据在Option对话框中所设定的判据,先建立全模型,然后根据设置的判据,每次剔除一个使方差分析中的F值最小的自变量,直到回归方程中不再含有不符合判据的自变量为止。
·Stepwise选项,逐步进入法,是向前选择法和向后剔除法的结合。根据在Option对话框中所设定的判据,首先根据方差分析结果选择符合判据的自变量且对因变量贡献最大的进入回归方程。根据向前选择法则进入自变量;然后根据向后剔除法,将模型中F值最小的且符合剔除判据的变量剔除模型,重复进行直到回归方程中的自变量均符合进入模型的判据,模型外的自变量都不符合进入模型的判据为止。
这里我们采用系统默认的强行进入法,其他选项均采用系统默认的设置。 (3)点击OK,得到上面定义模型的输出结果。
3、模型的建立和求解
在SPSS回归分析中,首先对SPSS Data Editor中录入变量值,然后选择菜单栏中的Analyze->Regression->Linear后出现以下界面图2,然后在Dependent中转入因变量y,在Indepents(s)中转入x向量组。为了获得相应有分析数据,我们可以在Statistics面板中选择相应,如下图3是本次分析所使用的操作,按继续返回原来界面,再选择OK键就分析完毕。结果图表如4所示。
第 8 页 共 11页
回归分析的应用
图2
图3
第 9 页 共 11页
回归分析的应用 Variables Entered/Removedb Variables Model 1 Variables Entered x8, x4, x6, x3, x2, x1, x5, x7a a. All requested variables entered. b. Dependent Variable: y Removed Method . Enter Model Summaryb Std. Error of the Model 1 R .993a R Square .986 Adjusted R Square .984 Estimate .26182 Durbin-Watson 2.081 a. Predictors: (Constant), x8, x4, x6, x3, x2, x1, x5, x7 b. Dependent Variable: y ANOVAb Model 1 Regression Residual Total Sum of Squares 248.190 3.496 251.686 df 8 51 59 Mean Square 31.024 .069 F 452.557 Sig. .000a a. Predictors: (Constant), x8, x4, x6, x3, x2, x1, x5, x7 b. Dependent Variable: y Coefficientsa Standardized Unstandardized Coefficients Model 1 (Constant) x1 x2 x3 x4 x5 x6 x7 x8 a. Dependent Variable: y B 15.675 .724 -1.939 .352 -.350 .803 -.566 -.235 -.884 Std. Error .586 .130 .134 .144 .147 .207 .090 .157 .060 .322 -.775 .143 -.131 .252 -.290 -.109 -.445 Coefficients Beta t 26.733 5.578 -14.521 2.4 -2.384 3.883 -6.259 -1.493 -14.850 Sig. .000 .000 .000 .018 .021 .000 .000 .142 .000 共 11页 第 10 页
回归分析的应用
Residuals Statisticsa Predicted Value Residual Std. Predicted Value Std. Residual a. Dependent Variable: y Minimum -6.12 -.38010 -1.471 -1.452 Maximum .7499 1.00983 1.881 3.857 Mean -3.1090 .00000 .000 .000 Std. Deviation 2.05100 .24343 1.000 .930 N 60 60 60 60
图4
4 总结
参 考 文 献
[1] 姜启源 谢金星 叶 俊编.数学模型(第三版)[M].北京:高等教育出版社,2005 [2] 何晓群 刘文卿 应用回归分析(第三版)[M].北京:中国人民大学出版社,2011 [2] 庞皓 计量经济学 (第二版) [M].北京;科学出版社;2010
[3] 卢文岱 SPSS for Windows 统计分析(第三版)[M].北京:电子工业出版社,2006
共 11页 第 11 页
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- kqyc.cn 版权所有 赣ICP备2024042808号-2
违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务