benjamini-hochberg方法 Benjamini-Hochberg方法是一种多重比较校正方法,用于控制假阳性率(false discovery rate,FDR)的方法。它是由Yoav Benjamini和Yosef Hochberg在1995年提出的。在科学研究中,我们通常需要进行多个假设检验,例如比较多组数据的差异性。如果我们使用传统的显著性水平(例如0.05)来进行每个假设检验,那么在...
Benjamini-Hochberg方法是一种非常有影响力的多重比较校正方法。它的基本思想是通过控制假阳性发现的比例来控制多重比较结果的准确性。其具体步骤如下: 1.对所有的p值按照升序排列。 2.对于每个p值,计算调整后的阈值,使用以下公式:调整后的阈值=(排序后的p值*N)/(当前的排序位置)。 这里N表示进行假设检验的总数...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P...
优点:Benjamini-Hochberg方法适合在探索性分析或允许一定比例的假阳性时使用,在保持较高的统计效力的同时控制FDR,使其在多次比较时具有较大的灵活性。 缺点:在需要严格控制I类错误率的场合,BH方法可能不适用。此外,该方法假定各检验之间独立,若检验之间存在较强的相关性,FDR控制可能失效。 方法控制类型保守程度适用场景...
简单搜索了一下知乎,只有提到FDR的解释,还有介绍Benjamini-Hochberg的步骤,但似乎并没有帖子解释为什么用这个方法可以控制错误发现率(False discovery rate, FDR)。 首先一句话概括引入FDR的目的,即是在multiple hypothesis testing的情况下,对false positive加以控制,FDR没有FWER那么保守。详细的介绍可以移步至下面这个帖子...
Benjamini-Hochberg方法其实很简单,计算也不繁琐,只需要2步即可: 1.将所有的p值按照大小顺序进行排序; 2.从最大p值开始计算,最大的数值没有变化, 剩余adj p.val计算方法为 其中,rank of p.val是每个p值的秩,Max rank是最大秩。 以下图中数据为例,首先将p值按照大小进行排序。 然后,从0.91开始计算,0.91保...
方法BH(Benjamini-Hochberg,与R中的FDR相同)和BY(Benjamini & Yekutieli)控制错误发现率,这些方法试图控制错误发现的期望比例。 请注意,这些方法只需要调整p值和要比较的p值的数量。这与Tukey或Dunnett等方法不同,Tukey和Dunnett也需要基础数据的变异性。Tukey和Dunnett被认为是多重比较谬误(Familywise error rate)方法...
有一天我们渺小的作为 或许 会巨大震动整个世界 http://www.360doc.com/content/18/1007/19/51784026_792756866.shtml
但是,现在我想根据FDR (Benjamini & Hochberg)方法来修正significance threshold (alpha)而不是p-values本身。例如,我们有一个10的原始p值: 代码语言:javascript 复制 0.0001,0.001,0.024,0.56,0.0077,0.55,0.0025,0.01,0.015,1 在Bonferroni的情况下,这非常简单: 代码语言:javascript 复制 alpha_Bonferroni_corrected ...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最...