tukey hsd test's test 是不是就是T 检验

统计与R入门 III t检验和ANOVA方差分析 - 推酷
统计与R入门 III t检验和ANOVA方差分析
用t检验做分组比较(group comparision)
考虑如下随机实验设定:
自变量是类别型变量:{安慰剂,疫苗}
因变量是连续型变量:为生病几率
要比较注射安慰剂组的生病几率与注射疫苗组的生病几率,可以使用t检验。
t检验(student’s
叫student’s
的原因是:发明人William Gossett发表这篇文章的时候用的是笔名”Student”
z检验和t检验的区别:
z检验用于在总体标准差已知的情况下比较样本均值与总体均值
而t检验分为:
单样本t检验(single sample
:在总体标准差未知的情况下比较样本均值与总体均值
非独立t检验(dependent t-test)
:比较两个相关样本
独立t检验(independent t-test)
:比较两个独立样本
t值和z值的意义都是:
(观测值Observed-期望值Expected)/(标准误差SE)
下表列举了z检验和三种t检验之间的区别:
z检验和t检验中的p值计算方法取决于:
定向检验(directional)
不定向检验(non-directional)
自由度(degrees of freedom)
决定的t或z分布
举例:对于z检验,因为z检验的前提是总体的分布已知,如做不定向检验,且z&1.96,根据z分布,可知p&0.05,检验为不显著。
对于t检验,根据自由度,选择相应的t分布,根据选择的t分布和t值计算p值,判断检验结果
自由度的计算:
z检验:没有自由度
单变量t检验:N-1
非独立t检验:N-1
独立t检验:(N1-1)+(N2-1)&&&& 是(两组样本数-1)的和
非独立t检验(indenpendent t-test)
非独立t检验也称为:
匹配t检验(paired samples t-test)
适用情况:
两个样本都是对同一组对象的观测,例如:同一组人在锻炼之前和锻炼之后的体能情况比较
一个完整的分析应该包括如下几方面:
效应值(effect size)
,例如Cohen’s d
计算置信区间
对应的计算方法:
t=(M-0)/SE
p值根据(1)t值(2)t分布(3)定向或非定向检验求出
Cohen’s d效应值 = M/SD
置信区间上下限:M+-t*SE
其中对于均值而言:
标准误差SE=SD/SQ
T(N),受到样本量的偏倚
cohen’sD效应值d=M/SD并不受样本量的影响,&1为显著
所用的数据集包含了对5组对象的前后两次测验结果。
data$train表示了组的类别”0″代表受控组,”1″代表实验组
data$cond表示了每组分别进行了多少天的训练:control组是什么都没有做的,t08,t12,t17,t19分别代表不同的训练天数
data$pre,data$post分别是训练前后的测试值
data$gain=data$post – data$pre
对受控组(data$train==“0”)的前后两次测试值进行检验
利用公式计算t值
data &- read.table(&/other/pairedt.txt&file.choose(), header = T)
head(data)
cond pre post gain train
data.control &- subset(data, data$train == &0&)
N &- nrow(data.control)
M &- mean(data.control$pre) - mean(data.control$post)
SE &- sd(data.control$pre - data.control$post)/sqrt(N)
t &- (M - 0)/SE
## [1] -9.009
p &- 2 * pt(-abs(t), df = N - 1)
## [1] 4.511e-11
计算Cohen’s d
d &- abs(M/sd(data.control$pre - data.control$post))
## [1] 1.424
计算置信区间
tcrit &- qt(c(0.025, 0.0975), df = N - 1)
M - SE * tcrit[1]
## [1] -1.532
M + SE * tcrit[1]
## [1] -2.418
来使得这一切更加简便
library(lsr)
t.test(data.control$pre, data.control$post, paired = T)
Paired t-test
data.control$pre and data.control$post
## t = -9.009, df = 39, p-value = 4.511e-11
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
-2.418 -1.532
## sample estimates:
## mean of the differences
cohensD(data.control$pre, data.control$post, method = &paired&)
## [1] 1.424
独立t检验(dependent t-test)
独立t检验用于比较两个独立的样本,即:两组完全不同的对象,如一组为男人,一组为女人;或一组为健康人,一组为病人
从之前的数据集中挑选两个实验组进行独立t检验,利用公式计算t值:
data.1 &- subset(data, data$cond == &t08&)
data.2 &- subset(data, data$cond == &t12&)
N1 &- nrow(data.1)
N2 &- nrow(data.2)
M1 &- mean(data.1$pre)
M2 &- mean(data.2$pre)
SD1 &- sd(data.1$pre)
SD2 &- sd(data.2$pre)
SDPooled &- sqrt(((N1 - 1) * SD1^2 + (N2 - 1) * SD2^2)/(N1 + N2 - 2))
t &- (M1 - M2)/(SDPooled * (sqrt(1/N1 + 1/N2)))
## [1] 0.3214
p &- 2 * pt(-abs(t), df = (N1 + N2 - 2))
## [1] 0.7496
计算cohen’s D
d &- (M1 - M2)/SDPooled
## [1] 0.1016
计算置信区间:
tcrit &- qt(c(0.025, 0.0975), df = (N1 + N2 - 2))
SE &- sqrt(SD1^2/N1 + SD2^2/N2)
(M1 - M2) + SE * tcrit[1]
## [1] -0.7947
(M1 - M2) - SE * tcrit[1]
## [1] 1.095
让生活更加美好:
t.test(data.1$pre, data.2$pre, var.equal = T, method = &pooled&)
Two Sample t-test
data.1$pre and data.2$pre
## t = 0.3214, df = 38, p-value = 0.7496
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## sample estimates:
## mean of x mean of y
cohensD(data.1$pre, data.2$pre, method = &pooled&)
## [1] 0.1016
相对于非独立t检验,进行独立t检验时,需要多一步:检验
方差同质性(homogeneity of variance)
的前提假设
在上面的计算中,我们实际是将两组数据的标准差进行了联合(pool),这只在两组数据的方差相等时才可以进行
如果数据不满足方差同质性,则容易产生1型误差
检验方差同质性可以使用
Levene’s test
与检查平均值的t检验类似,Levene’s检验是用零假说显著性检验检验方差的,如果检验结果显著则违背了方差同质性
如果发现违背了方差同质性,可以采取如下措施:
Welch’s precedure
调整自由度和p值
或者改为采用
非参数检验(non-parametric)
此处就不展开介绍了
Levene’s test可以利用
leveneTest()
library(car)
leveneTest(data$pre ~ data$cond)
## Levene's Test for Homogeneity of Variance (center = median)
Df F value Pr(&F)
发现p值较大,不显著,因此进行独立t检验将不违背方差同质性
方差分析适用于:
预测变量都是类别型变量,而结果是连续型变量的情形
方差分析通常用于分析通过随机实验获得的两组以上的数据,如:
组2:吃安慰剂
组3:什么都不吃组
如果只有两组数据,仅需要使用t检验
方差分析中通常会采用零假说显著性检验,与t检验不同,方差分析中的p值是通过F值和F分布计算出的。
与t值类似,F值也是一个比例:
F=(组间方差)/(组内方差)=MS
是每组的平均值,Y
是总平均值
是每组中的每一个值,Y
是相应的组平均值
其中a是组数,n是每组的观测对象数量,N是总的观测对象数量
与t检验和t族分布类似,F检验也有一个F族分布
F分布受两个因素影响:
每组的观测对象数量
下图是F族分布示例:
对4组实验组进行
利用公式计算F值 (一辈子手动这么算一次就够了,确实帮助理解公式)
data.3 &- subset(data, data$cond == &t17&)
data.4 &- subset(data, data$cond == &t19&)
data.t &- subset(data, data$train == &1&)
YT &- mean(data.t$gain)
Y1 &- mean(data.1$gain)
Y2 &- mean(data.2$gain)
Y3 &- mean(data.3$gain)
Y4 &- mean(data.4$gain)
SSA &- nrow(data.1) * ((Y1 - YT)^2 + (Y2 - YT)^2 + (Y3 - YT)^2 + (Y4 - YT)^2)
dfA &- 4 - 1
MSA &- SSA/dfA
## [1] 213
## [1] 71.01
for (i in 1:4) {
dataname &- paste(&data.&, i, sep = &&)
meanname &- paste(&Y&, i, sep = &&)
SSSA &- SSSA + sum((get(dataname)$gain - get(meanname))^2)
dfSA &- 4 * (nrow(data.1) - 1)
MSSA &- SSSA/dfSA
## [1] 152.9
## [1] 2.012
F &- MSA/MSSA
## [1] 35.29
让生活更美好。
aov.model = aov(data.t$gain ~ data.t$cond)
summary(aov.model)
Df Sum Sq Mean Sq F value
## data.t$cond
35.3 2.2e-14 ***
## Residuals
## Signif. codes:
0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
这里的零假说是:
所有组都没有区别
这个p值表示,应该驳回零假说,结论是4个组是不同的。
与t检验类似,在零假说显著性检验后,还可以计算
效应值(effect size)
作为结论的辅助
计算效应值
SSTotal &- sum((data.t$gain - YT)^2)
etaSquared &- SSA/SSTotal
etaSquared
## [1] 0.5821
同样也有函数可以调用:
etaSquared()
etaSquared(aov.model, anova = T)
eta.sq eta.sq.part
## data.t$cond 0.5821
3 71.013 35.29 2.154e-14
## Residuals
NA 152.9 76
下面回顾一下方差分析的前提假设:
结果变量是连续型的变量
结果变量是正态分布的
方差同质性(Homogeneity of variance)
,即所有组组内的方差与总体方差相等,同样可以用Levene’s test来检验。
实际上应该是进行方差分析之前就检验方差齐性,实际使用时注意
leveneTest(data.t$gain, data.t$cond, center = &mean&)
## Levene's Test for Homogeneity of Variance (center = &mean&)
Df F value Pr(&F)
零假说是:方差一致。
这里的p值表示,不违背方差同质性。
(post hoc test)
如果我们对同一个数据集的多个变量间作很多组匹配检验,则会增加1型错误的概率。
因此在进行多组匹配检验后,需要进行
有许多可以使用的事后检验方法,其核心思想都是对p值的判断标准进行调整。
两种类型的事后检验介绍可以见我的另一篇博文里的相关部分 :
仅以TukeyHSD事后检验做示例:
TukeyHSD(aov.model)
Tukey multiple comparisons of means
95% family-wise confidence level
## Fit: aov(formula = data.t$gain ~ data.t$cond)
## $`data.t$cond`
## t12-t08 1.25 0. 0.0333
## t17-t08 3.05 1. 0.0000
## t19-t08 4.25 3. 0.0000
## t17-t12 1.80 0. 0.0008
## t19-t12 3.00 1. 0.0000
## t19-t17 1.20 0. 0.0443
结果表明: 经过事后检验,组间差异均仍然是显著的
因素方差分析(factorial anova)
因素方差分析适用于:
两个类别型自变量和一个连续型因变量
例如:研究开车时打电话对犯错的影响。
自变量A是路程的难度(分成三个难度)
自变量B是对话的难度(分成三个难度)
因变量是开车时犯错的次数(数值)
可以进行3种检验:
路程的难度是否影响犯错的次数
对话的难度是否影响犯错的次数
路程难度和对话难度的相互作用是否影响犯错的次数
会产生相应的3个F值:
下面是一些因素方差分析的概念解释:
主要影响(main effect)
:一个自变量在另一个自变量的不同级别情况下的平均影响。
例如,无论路程难度如何,对话的难度对犯错次数的影响。
交互影响(interaction effect)
:一个自变量在另一个自变量的不同级别情况下对因变量的不同影响。
例如,在不同的路程难度下,同一级别的对话难度对犯错次数的影响。
简单影响(simple effect)
:一个自变量在另一个自变量的一个特定级别情况下对因变量的影响。
例如,在难度为难的路程上,不同级别的对话难度对犯错次数的影响。
注意到主要影响和交互影响之间的事相互独立的
记住:因素方差分析是多元回归的一个特例,是由完全独立的预测变量的多元回归
因此,用韦恩图解释均方差之间的关系,没有相互包含的关系。
方差分析采用的是
一般线性模型(GLM)
的框架,上面的例子为:
相应的三个F值计算方法如下:
=(a-1)(b-1)
=abn-1=N-1
在F值计算完后,需要:
对主要影响:做事后检验
对交互影响:利用单因素
或t检验进行简单影响的分析
计算交互影响的效应值η
上式是完全η
的计算方法,大多时候人们会选择采用部分η
(partial eatSquared)
其原因是可以减少系统性误差。
最后是因素方差分析的前提假设,与之前一样的三条:
结果变量是连续型的变量
结果变量是正态分布的
方差同质性
以上面举的开车错误的影响因素研究为例
$conversation是对话的不同难度
$driving是路程的不同难度
$errors是犯错的次数
driving &- read.table(“/other/driving.txt”, header = T)
head(driving)
subject conversation driving errors
检验方差同质性:
leveneTest(driving$errors ~ driving$driving * driving$conversation)
## Levene's Test for Homogeneity of Variance (center = median)
Df F value Pr(&F)
结果的p值表明:不违背方差同质性的前提假设
进行因素方差分析,手动计算就不演示了,与之前的单因素方差分析大同小异
driving.model &- aov(driving$errors ~ driving$driving * driving$conversation)
summary(driving.model)
Df Sum Sq Mean Sq F value
## driving$driving
94.6 & 2e-16
## driving$conversation
36.1 7.0e-13
## driving$driving:driving$conversation
13.4 5.9e-06
## Residuals
## driving$driving
## driving$conversation
## driving$driving:driving$conversation ***
## Residuals
## Signif. codes:
0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
三个p值都&0.05,即:
路程难度对犯错有显著影响
对话难度对犯错有显著影响
路程和对话的相互作用对犯错有显著影响
如果像这样,发现了显著的交互影响,应该对简单影响进行分析
可以选择:不同级别难度的路程下,对话难度对犯错的影响是否显著
也可以选择:不同级别难度的对话下,路程难度对犯错的影响是否显著
只需要二选一即可,不需要都做
下面进行简单影响分析,分析在不同的路程难度情况下,对话难度对犯错的影响是否显著
easy &- subset(driving, driving == &Easy&)
difficult &- subset(driving, driving == &Difficult&)
aov.model1 &- aov(easy$errors ~ easy$conversation)
summary(aov.model1)
Df Sum Sq Mean Sq F value Pr(&F)
## easy$conversation
## Residuals
## Signif. codes:
0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
aov.model2 &- aov(difficult$errors ~ difficult$conversation)
summary(aov.model2)
Df Sum Sq Mean Sq F value Pr(&F)
## difficult$conversation
## Residuals
## Signif. codes:
0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
结果表明:在不同级别难度的路程上,对话的难度对犯错都有显著影响
这个结论能够帮助解释为什么会有对话难度和路程难度之间的交互作用能够影响犯错的次数
检查效应值
etaSquared(aov.model1, anova = T)
eta.sq eta.sq.part
## easy$conversation 0.1474
2 252.4 4.928 0.01061
## Residuals
etaSquared(aov.model2, anova = T)
eta.sq eta.sq.part
## difficult$conversation 0.5784
## Residuals
NA 4047 57
Tukey’s HSD
事后检验:
TukeyHSD(aov.model1)
Tukey multiple comparisons of means
95% family-wise confidence level
## Fit: aov(formula = easy$errors ~ easy$conversation)
## $`easy$conversation`
## Low demand-High demand -6.05 -11.495 -0.0
## None-High demand
-6.25 -11.695 -0.8
## None-Low demand
TukeyHSD(aov.model2)
Tukey multiple comparisons of means
95% family-wise confidence level
## Fit: aov(formula = difficult$errors ~ difficult$conversation)
## $`difficult$conversation`
## Low demand-High demand
-9.75 -16.16
-3.338 0.0016
## None-High demand
-23.45 -29.86 -17.038 0.0000
## None-Low demand
-13.70 -20.11
-7.288 0.0000
重复测量方差分析(repeated measures
上面的单因素方差分析和因素方差分析都是
,比较的是不同组之间的差异。
重复测量方差分析分析适用于:
分析对一组对象在三种以上不同状态的不同观测。
重复测量方差分析的优点:
代价少,需要观测对象的数量少
分析能力,原因是系统性误差更小
分组比较时涉及两个偏差:
重复测量方差分析设计两个偏差:
观测对象与状态之间的交互作用导致的偏差
F值的计算公式为:
重复测量方差分析的缺点:
需要决定不同状态的观测顺序排序,需要平衡处理
容易导致数据缺失
有额外的前提假设
平衡处理的作用是:消除观测顺序的影响
考虑对同一组观测对象进行两个状态的观测A1和A2,需要决定两种观测的顺序
一种方法是
分组设计(blocked design)
将观测对象随机分为两组,一组先A1后A2,另一组先A2后A1。
另一种方法是
随机设计(randomized design)
对不同状态的观测以一种随机的连续的方式进行如:A2,A1,A1,A2,A1…..
对于分组实验,如果观测状态有a种,则需要设计!a个组。!4=24就已经很难实现了,因此有一种改进方法叫
拉丁方设计(latin squares design):
如a=3,用拉丁方方法,只有3种观测顺序:
这种方法虽然并不完美,但其中每种观测都在不同的观测顺序中出现了。
缺失数据可能造成的影响主要是在于:
数据的缺失可能是有规律的,可能与其他变量有相关性关系
检验的方法是增加新的类型变量”缺失”,缺失为0,不缺失为1
然后对”缺失”和其他自变量做t检验看是否显著
重复测量方差分析的额外的前提假设称为:
球形假设(sphericity assumption)
球形假设包括两项内容:
方差同质性
协方差同质性
球形假设的检验方法为
Mauchly’s test
相应的也需要对p值进行调整,方法有
Huyn-Feldt
Greenhouse-Geisser
将之前data种08.12.17.19四组对不同对象的观测想象成对同一组对象不同时期的观测结果。。。
对数据进行处理,人工加上subject号,重复测量方差分析一样aov()函数,需要额外注明交互影响:
data.t$subject &- c(1:20)
anova &- aov(data.t$gain ~ data.t$cond + Error(factor(data.t$subject)/data.t$cond))
summary(anova)
## Error: factor(data.t$subject)
Df Sum Sq Mean Sq F value Pr(&F)
## Residuals 19
## Error: factor(data.t$subject):data.t$cond
Df Sum Sq Mean Sq F value
## data.t$cond
35.6 4.3e-13 ***
## Residuals
## Signif. codes:
0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
首先显示的不同观测对象导致的偏差
然后显示的是观测对象和状态之间交互影响的
结果,根据p值得值影响是显著的。
此后也需要做事后检验:
事后检验的逻辑都是对p值进行调节,减小1型误差
R默认的重复测量方差检验的事后检验使用的是
with(data.t, pairwise.t.test(gain, cond, paired = T))
Pairwise comparisons using paired t tests
gain and cond
## t12 0.01456 -
## t17 2.1e-06 0.00076 -
## t19 2.7e-06 4.7e-06 0.01456
## P value adjustment method: holm
也可以明确指明使用最严苛的
Bonferroni
with(data.t, pairwise.t.test(gain, cond, paired = T, p.adjust.method = &bonferroni&))
Pairwise comparisons using paired t tests
gain and cond
## t12 0.0437
## t17 2.1e-06 0.0015
## t19 3.2e-06 7.0e-06 0.0728
## P value adjustment method: bonferroni
结果发现有一组(训练了19天河训练了17天的提高值)差异不再呈现显著性了。
已发表评论数()
请填写推刊名
描述不能大于100个字符!
权限设置: 公开
仅自己可见
正文不准确
标题不准确
排版有问题
主题不准确
没有分页内容
图片无法显示
视频无法显示
与原文不一致通俗理解T检验与F检验的区别
1,T检验和F检验的由来
一般而言,为了确定从样本(sample)统计结果推论至总体时所犯错的概率,我们会利用统计学家所开发的一些统计方法,进行统计检定。
通过把所得到的统计检定值,与统计学家建立了一些随机变量的概率分布(probability
distribution)进行比较,我们可以知道在多少%的机会下会得到目前的结果。倘若经比较后发现,出现这结果的机率很少,亦即是说,是在机会很少、很罕有的情况下才出现;那我们便可以有信心的说,这不是巧合,是具有统计学上的意义的(用统计学的话讲,就是能够拒绝虚无假设null
hypothesis,Ho)。相反,若比较后发现,出现的机率很高,并不罕见;那我们便不能很有信心的直指这不是巧合,也许是巧合,也许不是,但我们没能确定。
F值和t值就是这些统计检定值,与它们相对应的概率分布,就是F分布和t分布。统计显著性(sig)就是出现目前样本这结果的机率。
2,统计学意义(P值或sig值)
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的p值通常被认为是可接受错误的边界水平。
3,T检验和F检验
至於具体要检定的内容,须看你是在做哪一个统计程序。
举一个例子,比如,你要检验两独立样本均数差异是否能推论至总体,而行的t检验。
两样本(如某班男生和女生)某变量(如身高)的均数并不相同,但这差别是否能推论至总体,代表总体的情况也是存在著差异呢?
会不会总体中男女生根本没有差别,只不过是你那麼巧抽到这2样本的数值不同?
为此,我们进行t检定,算出一个t检定值。
与统计学家建立的以「总体中没差别」作基础的随机变量t分布进行比较,看看在多少%的机会(亦即显著性sig值)下会得到目前的结果。
若显著性sig值很少,比如&0.05(少於5%机率),亦即是说,「如果」总体「真的」没有差别,那麼就只有在机会很少(5%)、很罕有的情况下,才会出现目前这样本的情况。虽然还是有5%机会出错(1-0.05=5%),但我们还是可以「比较有信心」的说:目前样本中这情况(男女生出现差异的情况)不是巧合,是具统计学意义的,「总体中男女生不存差异」的虚无假设应予拒绝,简言之,总体应该存在著差异。
每一种统计方法的检定的内容都不相同,同样是t-检定,可能是上述的检定总体中是否存在差异,也同能是检定总体中的单一值是否等於0或者等於某一个数值。
至於F-检定,方差分析(或译变异数分析,Analysis of
Variance),它的原理大致也是上面说的,但它是透过检视变量的方差而进行的。它主要用于:均数差别的显著性检验、分离各有关因素并估计其对总变异的作用、分析因素间的交互作用、方差齐性(Equality
of Variances)检验等情况。
4,T检验和F检验的关系
t检验过程,是对两样本均数(mean)差别的显著性进行检验。惟t检验须知道两个总体的方差(Variances)是否相等;t检验值的计算会因方差是否相等而有所不同。也就是说,t检验须视乎方差齐性(Equality
of Variances)结果。所以,SPSS在进行t-test for Equality of
Means的同时,也要做Levene's Test for Equality of Variances 。
在Levene's Test for Equality of Variances一栏中 F值为2.36,
Sig.为.128,表示方差齐性检验「没有显著差异」,即两方差齐(Equal
Variances),故下面t检验的结果表中要看第一排的数据,亦即方差齐的情况下的t检验的结果。
在t-test for Equality of
Means中,第一排(Variances=Equal)的情况:t=8.892, df=84, 2-Tail Sig=.000,
Mean Difference=22.99
既然Sig=.000,亦即,两样本均数差别有显著性意义!
到底看哪个Levene's Test for Equality of Variances一栏中sig,还是看t-test
for Equality of Means中那个Sig. (2-tailed)啊?
答案是:两个都要看。
先看Levene's Test for Equality of
Variances,如果方差齐性检验「没有显著差异」,即两方差齐(Equal
Variances),故接著的t检验的结果表中要看第一排的数据,亦即方差齐的情况下的t检验的结果。
反之,如果方差齐性检验「有显著差异」,即两方差不齐(Unequal
Variances),故接著的t检验的结果表中要看第二排的数据,亦即方差不齐的情况下的t检验的结果。
你做的是T检验,为什么会有F值呢?
就是因为要评估两个总体的方差(Variances)是否相等,要做Levene's Test for Equality of
Variances,要检验方差,故所以就有F值。
另一种解释:
t检验有单样本t检验,配对t检验和两样本t检验。
单样本t检验:是用样本均数代表的未知总体均数和已知总体均数进行比较,来观察此组样本与总体的差异性。
配对t检验:是采用配对设计方法观察以下几种情形,1,两个同质受试对象分别接受两种不同的处理;2,同一受试对象接受两种不同的处理;3,同一受试对象处理前后。
F检验又叫方差齐性检验。在两样本t检验中要用到F检验。
从两研究总体中随机抽取样本,要对这两个样本进行比较的时候,首先要判断两总体方差是否相同,即方差齐性。若两总体方差相等,则直接用t检验,若不等,可采用t'检验或变量变换或秩和检验等方法。
其中要判断两总体方差是否相等,就可以用F检验。
若是单组设计,必须给出一个标准值或总体均值,同时,提供一组定量的观测结果,应用t检验的前提条件就是该组资料必须服从正态分布;若是配对设计,每对数据的差值必须服从正态分布;若是成组设计,个体之间相互独立,两组资料均取自正态分布的总体,并满足方差齐性。之所以需要这些前提条件,是因为必须在这样的前提下所计算出的t统计量才服从t分布,而t检验正是以t分布作为其理论依据的检验方法。
简单来说就是实用T检验是有条件的,其中之一就是要符合方差齐次性,这点需要F检验来验证。
1、问:自由度是什么?怎样确定?
答:(定义)构成样本统计量的独立的样本观测值的数目或自由变动的样本观测值的数目。用df表示。
自由度的设定是出于这样一个理由:在总体平均数未知时,用样本平均数去计算离差(常用小s)会受到一个限制——要计算标准差(小s)就必须先知道样本平均数,而样本平均数和n都知道的情况下,数据的总和就是一个常数了。所以,“最后一个”样本数据就不可以变了,因为它要是变,总和就变了,而这是不允许的。至于有的自由度是n-2什么的,都是同样道理。
在计算作为估计量的统计量时,引进一个统计量就会失去一个自由度。
通俗点说,一个班上有50个人,我们知道他们语文成绩平均分为80,现在只需要知道49个人的成绩就能推断出剩下那个人的成绩。你可以随便报出49个人的成绩,但是最后一个人的你不能瞎说,因为平均分已经固定下来了,自由度少一个了。
简单点就好比你有一百块,这是固定的,已知的,假设你打算买五件东西,那么前四件你可以随便买你想买的东西,只要还有钱的话,比如说你可以吃KFC可以买笔,可以买衣服,这些花去的钱数目不等,当你只剩2块钱时,或许你最多只能买一瓶可乐了,当然也可以买一个肉松蛋卷,但无论怎么花,你都只有两块钱,而这在你花去98块那时就已经定下来了。
(这个例子举的真不错!!)
2、问:X方检验中自由度问题
答:在正态分布检验中,这里的M(三个统计量)为N(总数)、平均数和标准差。
因为我们在做正态检验时,要使用到平均数和标准差以确定该正态分布形态,此外,要计算出各个区间的理论次数,我们还需要使用到N。
所以在正态分布检验中,自由度为K-3。(这一条比较特别,要记住!)
在总体分布的配合度检验中,自由度为K-1。
在交叉表的独立性检验和同质性检验中,自由度为(r-1)&(c-1)。
3、问:t检验和方差分析有何区别
答:t检验适用于两个变量均数间的差异检验,多于两个变量间的均数比较要用方差分析。
用于比较均值的t检验可以分成三类,第一类是针对单组设计定量资料的;第二类是针对配对设计定量资料的;第三类则是针对成组设计定量资料的。后两种设计类型的区别在于事先是否将两组研究对象按照某一个或几个方面的特征相似配成对子。无论哪种类型的t检验,都必须在满足特定的前提条件下应用才是合理的。
若是单组设计,必须给出一个标准值或总体均值,同时,提供一组定量的观测结果,应用t检验的前提条件就是该组资料必须服从正态分布;若是配对设计,每对数据的差值必须服从正态分布;若是成组设计,个体之间相互独立,两组资料均取自正态分布的总体,并满足方差齐性。之所以需要这些前提条件,是因为必须在这样的前提下所计算出的t统计量才服从t分布,而t检验正是以t分布作为其理论依据的检验方法。
值得注意的是,方差分析与成组设计t检验的前提条件是相同的,即正态性和方差齐性。
t检验是目前医学研究中使用频率最高,医学论文中最常见到的处理定量资料的假设检验方法。t检验得到如此广泛的应用,究其原因,不外乎以下几点:现有的医学期刊多在统计学方面作出了要求,研究结论需要统计学支持;传统的医学统计教学都把t检验作为假设检验的入门方法进行介绍,使之成为广大医学研究人员最熟悉的方法;t检验方法简单,其结果便于解释。简单、熟悉加上外界的要求,促成了t检验的流行。但是,由于某些人对该方法理解得不全面,导致在应用过程中出现不少问题,有些甚至是非常严重的错误,直接影响到结论的可靠性。将这些问题归类,可大致概括为以下两种情况:不考虑t检验的应用前提,对两组的比较一律用t检验;将各种实验设计类型一律视为多个单因素两水平设计,多次用t检验进行均值之间的两两比较。以上两种情况,均不同程度地增加了得出错误结论的风险。而且,在实验因素的个数大于等于2时,无法研究实验因素之间的交互作用的大小。
问:统计学意义(P值)
答:结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,P值为结果可信程度的一个递减指标,P值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。P值是将观察结果认为有效即具有总体代表性的犯错概率。如P=0.05提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,0.05的P值通常被认为是可接受错误的边界水平。
4、问:如何判定结果具有真实的显著性
答:在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两&比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。通常,许多的科学领域中产生P值的结果≤0.05被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果
0.05≥P&0.01被认为是具有统计学意义,而0.01≥P≥0.001被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。
5、问:所有的检验统计都是正态分布的吗?
答:并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、F检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。
6、问:假设检验的内涵及步骤
答:在假设检验中,由于随机性我们可能在决策上犯两类错误,一类是假设正确,但我们拒绝了假设,这类错误是“弃真”错误,被称为第一类错误;一类是假设不正确,但我们没拒绝假设,这类错误是“取伪”错误,被称为第二类错误。一般来说,在样本确定的情况下,任何决策无法同时避免两类错误的发生,即在避免第一类错误发生机率的同时,会增大第二类错误发生的机率;或者在避免第二类错误发生机率的同时,会增大第一类错误发生的机率。人们往往根据需要选择对那类错误进行控制,以减少发生这类错误的机率。大多数情况下,人们会控制第一类错误发生的概率。&&&&
发生第一类错误的概率被称作显著性水平,一般用α表示,在进行假设检验时,是通过事先给定显著性水平α的值而来控制第一类错误发生的概率。在这个前提下,假设检验按下列步骤进行:
1)、确定假设;
2)、进行抽样,得到一定的数据;
3)、根据假设条件下,构造检验统计量,并根据抽样得到的数据计算检验统计量在这次抽样中的具体值;
4)、依据所构造的检验统计量的抽样分布,和给定的显著性水平,确定拒绝域及其临界值;
5)、比较这次抽样中检验统计量的值与临界值的大小,如果检验统计量的值在拒绝域内,则拒绝假设;
到这一步,假设检验已经基本完成,但是由于检验是利用事先给定显著性水平的方法来控制犯错概率的,所以对于两个数据比较相近的假设检验,我们无法知道那一个假设更容易犯错,即我们通过这种方法只能知道根据这次抽样而犯第一类错误的最大概率(即给定的显著性水平),而无法知道具体在多大概率水平上犯错。计算
P值有效的解决了这个问题,P值其实就是按照抽样分布计算的一个概率值,这个值是根据检验统计量计算出来的。通过直接比较P值与给定的显著性水平α的大小就可以知道是否拒绝假设,显然这就代替了比较检验统计量的值与临界值的大小的方法。而且通过这种方法,我们还可以知道在p值小于α的情况下犯第一类错误的实际概率是多少,p=0.03&α=0.05,那么拒绝假设,这一决策可能犯错的概率是0.03。需要指出的是,如果P&α,那么假设不被拒绝,在这种情况下,第一类错误并不会发生。
7、问:卡方检验的结果,值是越大越好,还是越小越好?
答:与其它检验一样,所计算出的统计量越大,在分布中越接近分布的尾端,所对应的概率值越小。
如果试验设计合理、数据正确,显著或不显著都是客观反映。没有什么好与不好。
8、问:配对样本的T检验和相关样本检验有何差别?
答:配对样本有同源配对(如动物实验中双胞胎)、条件配对(如相同的环境)、自身配对(如医学实验中个体的用药前后)等。(好像没有解释清楚啊,同问这个,到底什么区别呢?)
9、问:在比较两组数据的率是否相同时,二项分布和卡方检验有什么不同?
答:卡方分布主要用于多组多类的比较,是检验研究对象总数与某一类别组的观察频数和期望频数之间是否存在显著差异,要求每格中频数不小于5,如果小于5则合并相邻组。二项分布则没有这个要求。
如果分类中只有两类还是采用二项检验为好。
如果是2*2表格可以用fisher精确检验,在小样本下效果更好。
10、问:如何比较两组数据之间的差异性
答:从四个方面来回答,
1).设计类型是完全随机设计两组数据比较,不知道数据是否是连续性变量?
2).比较方法:如果数据是连续性数据,且两组数据分别服从正态分布&方差齐(方差齐性检验),则可以采用t检验,如果不服从以上条件可以采用秩和检验。
3).想知道两组数据是否有明显差异?不知道这个明显差异是什么意思?是问差别有无统计学意义(即差别的概率有多大)还是两总体均数差值在哪个范围波动?如果是前者则可以用第2步可以得到P值,如果是后者,则是用均数差值的置信区间来完成的。当然两者的结果在SPSS中均可以得到。
11、问:回归分析和相关分析的联系和区别
答:回归分析(Regression):Dependant variable is defined and can be
forecasted by independent variable.相关分析(Correlation):The
relationship btw two variables. --- A dose not define or determine
回归更有用自变量解释因变量的意思,有一点点因果关系在里面,并且可以是线性或者非线形关系;
相关更倾向于解释两两之间的关系,但是一般都是指线形关系,特别是相关指数,有时候图像显示特别强二次方图像,但是相关指数仍然会很低,而这仅仅是因为两者间不是线形关系,并不意味着两者之间没有关系,因此在做相关指数的时候要特别注意怎么解释数值,特别建议做出图像观察先。
不过,无论回归还是相关,在做因果关系的时候都应该特别注意,并不是每一个显著的回归因子或者较高的相关指数都意味着因果关系,有可能这些因素都是受第三,第四因素制约,都是另外因素的因或果。
对于此二者的区别,我想通过下面这个比方很容易理解:
对于两个人关系,相关关系只能知道他们是恋人关系,至于他们谁是主导者,谁说话算数,谁是跟随者,一个打个喷嚏,另一个会有什么反应,相关就不能胜任,而回归分析则能很好的解决这个问题
回歸未必有因果關係。回歸的主要有二:一是解釋,一是預測。在於利用已知的自變項預測未知的依變數。相關係數,主要在了解兩個變數的共變情形。如果有因果關係,通常會進行路徑分析(path
analysis)或是線性結構關係模式。
我觉得应该这样看,我们做回归分析是在一定的理论和直觉下,通过自变量和因变量的数量关系探索是否有因果关系。楼上这位仁兄说“回归未必有因果关系……如果有因果关系,通常进行路径分析或线性结构关系模式”有点值得商榷吧,事实上,回归分析可以看成是线性结构关系模式的一个特例啊。
我觉得说回归是探索因果关系的并没错,因为实际上最后我们并不是完全依据统计的结果来判断因果性,只有在统计结果和理论及现实比较吻合的基础上我们才肯定这种因果关系。任何统计方法只是一种工具,但是不能完全依赖于这种工具。即使是SEM,我们也不能说完全认定其准确性,因为即使方法是好的,但是变量的复杂关系呈现的方式也是多种多样的,可能统计只能告诉你一个方向上的最优解,可未必是最符合实际的,更何况抽样数据的质量好坏也会使得结果不符合事实,从而导致人们怀疑统计方法的准确性。
统计只说明统计关联。
不证明因素关系。
回归有因果关系,相关未必。
回归分析是处理两个及两个以上变量间线性依存关系的统计方法。此类问题很普遍,如人头发中某种金属元素的含量与血液中该元素的含量有关系,人的体表面积与身高、体重有关系;等等。回归分析就是用于说明这种依存变化的数学关系。
任何事物的存在都不是孤立的,而是相互联系、相互制约的。身高与体重、体温与脉搏、年龄与血压等都存在一定的联系。说明客观事物相互间关系的密切程度并用适当的统计指标表示出来,这个过程就是相关分析.
号外:如果您写论文需要数据代查,推荐大家关注微信公众号“司库价值观”,这里提供WIND金融终端数据库全功能数据查询,包括宏观经济数据、行业产业数据、上市公司数据、债券市场数据、银行理财数据、公募基金数据、大宗商品数据等等。关注后进入公众号界面,点击右下角的“数据代查”或者直接回复关键词“数据代查”,可以获得具体查询方式及报价信息,很便宜的。或者把您的需求直接发送邮件至,抑或加QQ(数据代查)。
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

更多关于 tukey检验 的文章

 

随机推荐