1楼:
亲~首先第一个图
r^2 为0.912 说明拟合优度非常好
第二个图
其实你可以不看f的 看f还查表 麻烦的很呀 看sig. 为0.00 说明在5%的置信度下决绝原假设
也就是说f大于f灵界值
第三个图
也是看最后一列 sig 都小于0.05 也就是说说明在5%的置信度下决绝原假设
这个模型拟合的很好 没有任何问题
spss 多元线性回归分析 帮忙分析一下下图,f、p、t、p和r方各代表什么??谢谢~
2楼:蔷祀
f是对回归模型整体的方差检验,所以对应下面的p就是判断f检验是否显著的标准,你的p说明回归模型显著。
r方和调整的r方是对模型拟合效果的阐述,以调整后的r方更准确一些,也就是自变量对因变量的解释率为27.8%。
t就是对每个自变量是否有显著作用的检验,具体是否显著 仍然看后面的p值,若p值<0.05,说明该自变量的影响显著。
扩展资料:
多元线性回归的基本原理和基本计算过程与一元线性回归相同,但由于自变量个数多,计算相当麻烦,一般在实际中应用时都要借助统计软件。这里只介绍多元线性回归的一些基本问题。
但由于各个自变量的单位可能不一样,比如说一个消费水平的关系式中,工资水平、受教育程度、职业、地区、家庭负担等等因素都会影响到消费水平,而这些影响因素(自变量)的单位显然是不同的,因此自变量前系数的大小并不能说明该因素的重要程度。
更简单地来说,同样工资收入,如果用元为单位就比用百元为单位所得的回归系数要小,但是工资水平对消费的影响程度并没有变,所以得想办法将各个自变量化到统一的单位上来。前面学到的标准分就有这个功能。
具体到这里来说,就是将所有变量包括因变量都先转化为标准分,再进行线性回归,此时得到的回归系数就能反映对应自变量的重要程度。这时的回归方程称为标准回归方程,回归系数称为标准回归系数。
spss for windows是一个组合式软件包,它集数据整理、分析功能于一身。用户可以根据实际需要和计算机的功能选择模块,以降低对系统硬盘容量的要求,有利于该软件的推广应用。spss的基本功能包括数据管理、统计分析、图表分析、输出管理等等。
spss统计分析过程包括描述性统计、均值比较、一般线性模型、相关分析、回归分析、对数线性模型、聚类分析、数据简化、生存分析、时间序列分析、多重响应等几大类,每类中又分好几个统计过程。
比如回归分析中又分线性回归分析、曲线估计、logistic回归、probit回归、加权估计、两阶段最小二乘法、非线性回归等多个统计过程,而且每个过程中又允许用户选择不同的方法及参数。spss也有专门的绘图系统,可以根据数据绘制各种图形。
3楼:匿名用户
先从最下面两行说起
f是对回归模型整体的方差检验,所以对应下面的p就是判断f检验是否显著的标准,你的p说明回归模型显著。
r方和调整的r方是对模型拟合效果的阐述,以调整后的r方更准确一些,也就是自变量对因变量的解释率为27.8%。
t就是对每个自变量是否有显著作用的检验,具体是否显著 仍然看后面的p值,若p值<0.05,说明该自变量的影响显著
问下,spss回归分析得出的r方值、f值、t值各有何含义,数值大小有何含义?
4楼:ieio啊
r square是决定系数,意思是拟合的模型能解释因
变量的变化的百分数,例如r方=0.810,表示拟合的方程能解释因变量81%的变化,还有19%是不能够解释的.
f值是方差检验量,是整个模型的整体检验,看你拟合的方程有没有意义
t值是对每一个自变量(logistic回归)的逐个检验,看它的beta值β即回归系数有没有意义
f和t的显著性都是0.05,
spss是世界上最早的统计分析软件,由美国斯坦福大学的三位研究生norman h. nie、c. hadlai (tex) hull 和 dale h.
bent于1968年研究开发成功,同时成立了spss公司,并于1975年成立法人组织、在芝加哥组建了spss总部。
决定系数,有的教材上翻译为判定系数,也称为拟合优度。表示可根据自变量的变异来解释因变量的变异部分。如某学生在某智力量表上所得的 iq 分与其学业成绩的相关系数 r=0.
66,则决定系数 r^2=0.4356,即该生学业成绩约有 44%可由该智力量表所测的智力部分来说明或决定。
原理:表征依变数y的变异中有多少百分比,可由控制的自变数x来解释.
决定系数并不等于相关系数的平方。它与相关系数的区别在于除掉|r|=0和1情况,
由于r2决定系数:在y的总平方和中,由x引起的平方和所占的比例,记为r2
决定系数的大小决定了相关的密切程度。
当r2越接近1时,表示相关的方程式参考价值越高;相反,越接近0时,表示参考价值越低。这是在一元回归分析中的情况。但从本质上说决定系数和回归系数没有关系,就像标准差和标准误差在本质上没有关系一样。
在多元回归分析中,决定系数是通径系数的平方。
表达式:r2=ssr/sst=1-sse/sst
其中:sst=ssr+sse,sst (total sum of squares)为总平方和,ssr (regression sum of squares)为回归平方和,sse (error sum of squares) 为残差平方和。
注意:以下不同名字是同一个意思,只是表述不同
回归平方和:ssr(sum of squares for regression) = ess (explained sum of squares)
残差平方和:sse(sum of squares for error) = rss (residual sum of squares) =ssr(sum of squared residuals)
总离差平方和:sst(sum of squares for total) = tss(total sum of squares)
注意:两个ssr的不同
sse+ssr=sst
rss+ess=tss
意义:拟合优度越大,自变量对因变量的解释程度越高,自变量引起的变动占总变动的百分比高。观察点在回归直线附近越密集。
取值意思:
0 表示模型效果跟瞎猜差不多
1 表示模型拟合度较好(有可能会是过拟合,需要判定)
0~1 表示模型的好坏(针对同一批数据)
5楼:沈伟栋
1、r square(r方值)是决定系数,意思是你拟合的模型能解释因变量的变化的百分数,例如r方=0.810,表示你拟合的方程能解释因变量81%的变化,还有19%是不能够解释的。
2、f值是方差检验量,是整个模型的整体检验,看它拟合的方程有没有意义。
3、t值是对每一个自变量(logistic回归)的逐个检验,看它的beta值β即回归系数有没有意义。
r方值是评价的主要指标,f值,t值是两个检验,一般要小于0.05,f和t的显著性都是0.05。
扩展资料
回归分析在科学研究领域是最常用的统计方法。《spss回归分析》介绍了一些基本的统计方法,例如,相关、回归(线性、多重、非线性)、逻辑(二项、多项)、有序回归和生存分析(寿命表法、kaplan-meier法以及cox回归)。
《spss回归分析》对运用spss进行回归分析的介绍,目的是让读者对于这方面的基础知识有一个初步了解和掌握,有经验的读者藉此可在数据挖掘(例如,利用clementine)领域独立地继续学习新知识
6楼:人文漫步者
在对数据进行回归计算分析的过程中,这些数字分别代表的就是这一个回归方程的准确度,也就是对数据**的准确度。
7楼:匿名用户
r方是评价的主要指标,f值,t值是两个检验,一般要小于0.05.
你可以自学下,实在没时间可以找我
#spss回归分析# 线性回归分析其中β t f分别什么含义 怎么数字才有效? 5
8楼:匿名用户
首先来说明各个符号,b也就是beta,代表回归系数,标准化的回归系数代表自变量也就是**变量和因变量的相关,为什么要标准化,因为标准化的时候各个自变量以及因变量的单位才能统一,使结果更精确,减少因为单位不同而造成的误差。t值就是对回归系数的t检验的结果,绝对值越大,sig就越小,sig代表t检验的显著性,在统计学上,sig<0.05一般被认为是系数检验显著,显著的意思就是你的回归系数的绝对值显著大于0,表明自变量可以有效**因变量的变异,做出这个结论你有5%的可能会犯错误,即有95%的把握结论正确。
回归的检验首先看anova那个表,也就是f检验,那个表代表的是对你进行回归的所有自变量的回归系数的一个总体检验,如果sig<0.05,说明至少有一个自变量能够有效**因变量,这个在写数据分析结果时一般可以不报告
然后看系数表,看标准化的回归系数是否显著,每个自变量都有一个对应的回归系数以及显著性检验
最后看模型汇总那个表,r方叫做决定系数,他是自变量可以解释的变异量占因变量总变异量的比例,代表回归方程对因变量的解释程度,报告的时候报告调整后的r方,这个值是针对自变量的增多会不断增强**力的一个矫正(因为即使没什么用的自变量,只要多增几个,r方也会变大,调整后的r方是对较多自变量的惩罚),r可以不用管,标准化的情况下r也是自变量和因变量的相关
标准误表示由于抽样误差所导致的实际值和回归估计值的偏差大小,标准误越小,回归线的代表性越强
希望对您有用
spss中回归分析结果解释,不懂怎么看
9楼:中子
首先来说明各个符号,b也就是beta,代表回归系数,标准化的回归系数代表自变量也就是**变量和因变量的相关,为什么要标准化,因为标准化的时候各个自变量以及因变量的单位才能统一,使结果更精确,减少因为单位不同而造成的误差。t值就是对回归系数的t检验的结果,绝对值越大,sig就越小,sig代表t检验的显著性,在统计学上,sig<0.05一般被认为是系数检验显著,显著的意思就是你的回归系数的绝对值显著大于0,表明自变量可以有效**因变量的变异,做出这个结论你有5%的可能会犯错误,即有95%的把握结论正确。
回归的检验首先看anova那个表,也就是f检验,那个表代表的是对你进行回归的所有自变量的回归系数的一个总体检验,如果sig<0.05,说明至少有一个自变量能够有效**因变量,这个在写数据分析结果时一般可以不报告
然后看系数表,看标准化的回归系数是否显著,每个自变量都有一个对应的回归系数以及显著性检验
最后看模型汇总那个表,r方叫做决定系数,他是自变量可以解释的变异量占因变量总变异量的比例,代表回归方程对因变量的解释程度,报告的时候报告调整后的r方,这个值是针对自变量的增多会不断增强**力的一个矫正(因为即使没什么用的自变量,只要多增几个,r方也会变大,调整后的r方是对较多自变量的惩罚),r可以不用管,标准化的情况下r也是自变量和因变量的相关
希望对您有用