1楼:匿名用户
你说的是wald吗?那是wald卡方值,等于b除以它的标准误(s.e.)的平方值,所以这个值是用于对回归系数显著性进行检验的。显著性去看sig就好了
spss二元logit分析结果输出,表头几项分别是什么意思?
2楼:刘得意统计服务
s.e.是标准误,表示估计值的平均误差。
wals是一个统计量,用检验自变量对因变量是否有影响的。它越大,或者说它对应的sig越小,则影响越显著。df是自由度,在分析中不用解释。
实践应用中,关键的是解释系数b,或者后面的exp(b),称为or.还有sig,其它的可以不管。
希望能帮上你
统计人刘得意
我现在要用spss做一个二元的回归分析,要求要求出p值,t值和z值
3楼:吕秀才
把你要分析的x放入自变量对话框,其他的作为协变量输入到 covariable 对话框中,然后求出的回归系数即为哪个x与y的关系
当然也可以采用偏相关的方式,把要分析的x和y输入到相关分析框中,把其余的协变量输入需要控制的变量中,得出的相关系数就是两者的关系
4楼:手机用户
和一般的二元线性回归是有差异的
logistic 回归是针对因变量是定类变量设计的你这个数据根本不适合要求
定类变量的意思就是这一问题的回答只具有分类意义,如性别只有男、女两类,这就是定类变量
logistic 回归本质上只是模拟了线性回归,但是他的适用范围不一样
5楼:匿名用户
那你把协变量放在协变量的方框中,要用的x放在independent框中,y放在dependent中,就可以了
6楼:蒯兰英羿茶
你说的是wald吗?那是wald卡方值,等于b除以它的标准误(s.e.)的平方值,所以这个值是用于对回归系数显著性进行检验的。显著性去看sig就好了
spss二元logistics回归结果分析
7楼:风花树
1. logistic回归简介
logistic回归:主要用于因变量为分类变量(如疾病的缓解、不缓解,评比中的好、中、差等)的回归分析,自变量可以为分类变量,也可以为连续变量。因变量为二分类的称为二项logistic回归,因变量为多分类的称为多元logistic回归。
odds:称为比值、比数,是指某事件发生的可能性(概率)与不发生的可能性(概率)之比。
or(odds ratio):比值比,优势比。
2.spss中做logistic回归的操作步骤
分析》回归》二元logistic回归
选择因变量和自变量(协变量)
3.结果怎么看
一些指标和数据怎么看
“exp(b)”即为相应变量的or值(又叫优势比,比值比),为在其他条件不变的情况下,自变量每改变1个单位,事件的发生比“odds”的变化率。
伪决定系数cox & snell r2和nagelkerke r2,这两个指标从不同角度反映了当前模型中自变量解释了因变量的变异占因变量总变异的比例。但对于logistic回归而言,通常看到的伪决定系数的大小不像线性回归模型中的决定系数那么大。
**结果列联表解释,看”分类表“中的数据,提供了2类样本的**正确率和总的正确率。
建立logistic回归方程
logit(p)=β0+β1*x1+β2*x2+……+βm*xm
4.自变量的筛选方法和逐步回归
与线性回归类似,在logistic回归中应尽量纳入对因变量有影响作用的变量,而将对因变量没有影响或影响较小的变量排除在模型之外。
①.wald检验:wals是一个统计量,用检验自变量对因变量是否有影响的。它越大,或者说它对应的sig越小,则影响越显著。
②.似然比检验(likelihood ratio
test):logistic模型的估计一般是使用极大似然法,即使得模型的似然函数l达到最大值。-2lnl被称为diviance,记为d。
l越大,则d越大,模型**效果越好。似然比检验是通过比较是否包含某个或几个参数β的多个模型的d值。
③.比分检验(score test)
以上三种假设检验中,似然比检验是基于整个模型的拟合情况进行的,结果最为可靠;比分检验结果一般与似然比检验结果一致。最差的就是wald检验,它考虑各因素的综合作用,当因素间存在共线性的时候,结果不可靠。故在筛选变量时,用wald法应慎重。
spss中提供了六种自变量的筛选方法,向前法(forward)和向后法(backward)分别有三种。基于条件参数估计和偏最大似然估计的筛选方法都比较可靠,尤以后者为佳。但基于wald统计量的检验则不然,它实际上未考虑各因素的综合作用,当因素间存在共线性时,结果不可靠,故应当慎用。
5.模型效果的判断指标
①.对数似然值与伪决定系数
logistic模型是通过极大似然法求解的,极大似然值实际上也是一个概率,取值在0~1之间。取值为1,代表模型达到完美,此时其对数值为0;似然值越小,则其对数值越负,因此-2倍的对数似然值就可以用来表示模型的拟合效果,其值越小,越接近于0,说明模型拟合效果越好。
②.模型**正确率
对因变量结局**的准确程度也可以反映模型的效果,spss在logistic回归过程中会输出包含**分类结果与原始数据分类结果的列联表,默认是按照概率是否大于0.5进行分割。
③.roc曲线
roc曲线即受试者工作特征曲线(receiver
operating characteristic curve),或译作接受者操作特征曲线。它是一种广泛应用的数据统计方法,1950年应用于雷达信号检测的分析,用于区别“噪声”与“信号”。在对logistic回归模型拟合效果进行判断时,通过roc曲线可直接使用模型**概率进行。
应用roc曲线可帮助研究者确定合理的**概率分类点,即将**概率大于(或小于)多少的研究对象判断为阳性结果(或阴性结果)。roc曲线,**效果最佳时,曲线应该是从左下角垂直上升至顶,然后水平方向向右延伸到右上角。如果roc曲线沿着主对角线方向分布,表示分类是机遇造成的,正确分类和错分的概率各为50%,此时该诊断方法完全无效。
8楼:匿名用户
你在瞎做啊,不是这么做的
9楼:stop华崽
你做的什么,怎么这么多变量,自变量要筛选的,p为0.808都在里面,无语了。
spss二元logistic回归分析,结果如下,变量系数怎么看,或者回归方程式什么?
10楼:匿名用户
很遗憾的告诉你,你这研究失败了
二元logistic回归分析,应该说所有回归分析,最重要的系数是sig,或者平时我们叫p值,需要小于0.05才能说明有显著性影响,你这个所有p值高的接近1,都是毫无意义的数据
置于你说的回归方程问题,回归系数一般是b值,不过logistic回归分析是对数分析法,所以一般看exp(b),也就是我们所说的or值
11楼:匿名用户
你这全是乱作的,怎么写啊
找我专业数据分析
12楼:匿名用户
不会做就别乱做
我经常帮别人做这类的数据分析的