这些方法试图限制错误发现的概率(I型错误,在没有实际效果时错误地拒绝无效假设),因此都是相对较保守的。 方法BH(Benjamini-Hochberg,与R中的FDR相同)和BY(Benjamini & Yekutieli)控制错误发现率,这些方法试图控制错误发现的期望比例。 请注意,这些方法只需要调整p值和要比较的p值的数量。这与Tukey或Dunnett等方法不...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P...
错误发现率FDR(False discovery rate)是在所有结果显著的检验中,假阳(零假设H0为真时,拒绝H0的情况)所占的比率。如下表所示,N次假设检验中,FDR定义为V/R=V/(V+S)。 而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每...
如下表所示,N次假设检验中,FDR定义为V/R=V/(V+S)。 而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N...
简称BH法。首先将各P值从小到大排序,生成顺序数 排第k的矫正P值=P×n/k 另外要保证矫正后的各检验的P值大小顺序不发生变化。 R实现 利用R自带的基础包中的p.adjust()可以进行多重检验的P值矫正。 p.adjust(p, method = p.adjust.methods, n = length(p)) ...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最终...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最...
在开始应用BH方法之前,首先需要收集数据并进行一系列的单个假设检验。例如,基因表达数据中的每个基因可以视为一个独立的假设检验问题,我们可以通过t检验、方差分析(ANOVA)等测试基因差异是否显著。 2.计算p值: 对于每个假设检验,我们需要计算相应的p值。p值是根据原假设的统计模型计算得到的,在零假设成立的情况下,p...
您通常不需要重新发明轮子。p.adjust(p, method = 'hochberg', n = length(p))
您通常不需要重新发明轮子。p.adjust(p, method = 'hochberg', n = length(p))