关于统计学中的P值,关于统计学中的P值 15

2020-11-25 08:54:26 字数 6303 阅读 7459

1楼:匿名用户

首先注意,原假设应该是:a对b无影响。

在显著性5%的情况下我们确实无法拒绝原假设。但是5%并不是一个神秘的数,根据p值的定义我们不难看出它是一个在原假设真的情况下得到比所观测到的值更极致的概率。这个概率已经很小了,值得引起我们注意。

若我们把显著性水平提高到10%,那我们将有足够的证据来证明a对b是有影响的。

显著性水平的设置一般取决于你能承受的第一类错误的概率。5%一般是最常见的,但是不是绝对的。

至于结论,我觉得你直接列出p值然后说明在显著性水平为10%的时候a对b是有影响的,这样就可以了。

2楼:匿名用户

看下(统计学与应用),可以学习参考下

统计学中的p值代表什么?

3楼:mua小婷

我尽量用形象的语言说 p值越小 说明犯第一类错误的概率越小 你越可以推翻传统的、保守的观点 越可以接受新提出的、感兴趣的观点

什么是第一类错误 统计上把保守的、传统的观点作为原假设 新颖的、感兴趣的、想去论证的观点作为备择假设 就好比一个犯罪嫌疑人 在没有确凿的证据前都只能以他无罪为原假设 因为一个人无罪判他有罪 比 有罪判无罪 的后果严重的多 大家都不愿被冤枉 所以推广开来 你想证明一班的成绩比二班好 原假设就设为一班二班成绩相同 备择假设就设为一班比二班成绩好 若得出的p值较小 一般以0.05作为临界值 比0.05小就可以接受一班成绩比二班好的事实 若比0.

05大就说明没有足够证据证明一班成绩比二班好 保守起见拒绝备择假设 接受原假设纯手打

4楼:lzpd蓝色天空

结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。

如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。

(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。

在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两》比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。

通常,许多的科学领域中产生p值的结果≤0.05被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果0.

05≥p>0.01被认为是具有统计学意义,而0.01≥p≥0.

001被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。

所有的检验统计都是正态分布的吗并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。

许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:

一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。

后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。

5楼:匿名用户

我也在找,在找医疗方面的p值算法。

6楼:颜媚焉盼丹

满意率的p=满意数/样本量

在这个题目中p1=第一组中满意人数/第一组总人数

你这个没说清楚,第一组的样本量是多少,120是总样本量还是别的意思,问题不太明确,我的回答可能不太准

7楼:接森桓念巧

p值即概率,反映某一事件发生的可能性大小。统计学根据显著性检验方法所得到的p

值,一般以p

<0.05

为显著,

p<0.01

为非常显著,其含义是样本间的差异由抽样误差所致的概率小于0.05

或0.01。实际上,p

值不能赋予数据任何重要性,只能说明某事件发生的机率。

p<0.01

时样本间的差异比p

<0.05

时更大,这种说法是错误的。统计结果中显示pr

>f,也可写成pr(

>f),p

=p或p=p。

下面的内容列出了p值计算方法。

(1)p值是:

1)一种概率,一种在原假设为真的前提下出现观察样本以及更极端情况的概率。

2)拒绝原假设的最小显著性水平。

3)观察到的(实例的)

显著性水平。

4)表示对原假设的支持程度,是用于确定是否应该拒绝原假设的另一种方法。

(2)p

值的计算:

一般地,用x

表示检验的统计量,当h0

为真时,可由样本数据计算出该统计量的值c

,根据检验统计量x

的具体分布,可求出p

值。具体地说:

左侧检验的p

值为检验统计量x

小于样本统计值c

的概率,即=p

右侧检验的p

值为检验统计量x

大于样本统计值c

的概率=

p双侧检验的p

值为检验统计量x

落在样本统计值c

为端点的尾部区域内的概率的2倍:p

=2p(当c位于分布曲线的右端时)或p=

2p(当c

位于分布曲线的左端时)

。若x服从正态分布和t分布,其分布曲线是关于纵轴对称的,故其p

值可表示为p=p

。计算出p

值后,将给定的显著性水平α与p

值比较,就可作出检验的结论:

如果α>

p值,则在显著性水平α下拒绝原假设。

如果α≤

p值,则在显著性水平α下接受原假设。

在实践中,当α=p

值时,也即统计量的值c

刚好等于临界值,为慎重起见,可增加样本容量,重新进行抽样检验。

整理自:

樊冬梅,假设检验中的p值.

郑州经济管理干部学院学报,2002,韩志霞,

张玲,p

值检验和假设检验。边疆经济与文化,2006中国航天工业医药,1999

p值是怎么来的

从某总体中抽

⑴、这一样本是由该总体抽出,其差别是由抽样误差所致;

⑵、这一样本不是从该总体抽出,所以有所不同。

如何判断是那种原因呢?统计学中用显著性检验赖判断。其步骤是:

⑴、建立检验假设(又称无效假设,符号为h0):如要比较a药和b药的疗效是否相等,则假设两组样本来自同一总体,即a药的总体疗效和b药相等,差别仅由抽样误差引起的碰巧出现的。⑵、选择适当的统计方法计算h0成立的可能性即概率有多大,概率用p值表示。

⑶、根据选定的显著性水平(0.05或0.01),决定接受还是拒绝h0。

如果p>0.05,不能否定“差别由抽样误差引起”,则接受h0;如果p<0.05或p

<0.01,可以认为差别不由抽样误差引起,可以拒绝h0,则可以接受令一种可能性的假设(又称备选假设,符号为h1),即两样本来自不同的总体,所以两药疗效有差别。

统计学上规定的p值意义见下表

p值碰巧的概率

对无效假设

统计意义

p>0.05

碰巧出现的可能性大于5%

不能否定无效假设

两组差别无显著意义

p<0.05

碰巧出现的可能性小于5%

可以否定无效假设

两组差别有显著意义

p<0.01

碰巧出现的可能性小于1%

可以否定无效假设

两者差别有非常显著意义

理解p值,下述几点必须注意:

⑴p的意义不表示两组差别的大小,p反映两组差别有无统计学意义,并不表示差别大小。因此,与对照组相比,c药取得p<0.05,d药取得p<0.01并不表示d的药效比c强。

⑵p>0.05时,差异无显著意义,根据统计学原理可知,不能否认无效假设,但并不认为无效假设肯定成立。在药效统计分析中,更不表示两药等效。

哪种将“两组差别无显著意义”与“两组基本等效”相同的做法是缺乏统计学依据的。

⑶统计学主要用上述三种p值表示,也可以计算出确切的p值,有人用p

<0.001,无此必要。

⑷显著性检验只是统计结论。判断差别还要根据专业知识。样所得的样本,其统计量会与总体参数有所不同,这可能是由于两种原因

[ts]kokofu

于2010-3-25

22:12

补充以下内容[/ts]

实际上生物统计原理基于此……呵呵。

查看原帖》

统计学中的p值应该怎么计算

8楼:河传杨颖

p值的计算公式是

=2[1-φ(z0)] 当被测假设h1为 p不等于p0时;

=1-φ(z0) 当被测假设h1为 p大于p0时;

=φ(z0) 当被测假设h1为 p小于p0时;

总之,p值越小,表明结果越显著。但是检验的结果究竟是“显著的”、“中度显著的”还是“高度显著的”需要根据p值的大小和实际问题来解决。

扩展资料

统计学中回归分析的主要内容为:

1、从一组数据出发,确定某些变量之间的定量关系式,即建立数学模型并估计其中的未知参数。估计参数的常用方法是最小二乘法。

2、对这些关系式的可信程度进行检验。

3、在许多自变量共同影响着一个因变量的关系中,判断哪个(或哪些)自变量的影响是显著的,哪些自变量的影响是不显著的,将影响显著的自变量加入模型中,而剔除影响不显著的变量,通常用逐步回归、向前回归和向后回归等方法。

4、利用所求的关系式对某一生产过程进行**或控制。回归分析的应用是非常广泛的,统计软件包使各种回归方法计算十分方便。

9楼:牵阳焱梁桃

统计学意义(p值)zt

结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。

如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。

(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。

在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两》比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。

通常,许多的科学领域中产生p值的结果≤0.05被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果0.

05≥p>0.01被认为是具有统计学意义,而0.01≥p≥0.

001被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。

所有的检验统计都是正态分布的吗并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。

许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:

一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。

后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。

关于统计学中的组中值,统计学中的中值有何用处

1楼 匿名用户 分别为14 5 24 5 34 5 44 5 组中值就是首尾两个的平均值 如果题目是10 19 20 29 30 39 40以上 那么答案跟上面的那个也是一样 用前一个的组中值加上组距10 就得出40以上的这个组中值 统计学中的中值有何用处 2楼 yzwb我爱我家 中值 median...

统计学原理和统计学有什么区别,统计学原理中相关与回归的区别

1楼 夏羽 统计学包括了统计学原理,统计学原理只是介绍点基本统计知识 怎样学好就不懂了 多应用吧 统计学原理中相关与回归的区别 2楼 是你找到了我 一 性质不同 1 相关 是研究两个或两个以上处于同等地位的随机变量间的相关关系的统计分析方法。 2 回归 确定两种或两种以上变量间相互依赖的定量关系的一...

在统计学中是什么意思,统计学中的自由度是什么意思

1楼 环球网校 统计就是用来处理数据的,它是关于数据的一门学问。 根据大百科全书中对统计学的定义 统计学是用以收集数据,分析数据和由数据得出有用信息以帮助决策的一组概念 原则和方法。 2楼 百科全输 t ng j xu 统计学 一级学科 统计学中的自由度是什么意思 3楼 咪浠w眯兮 统计学上,自由度...