如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。如下图所示,横坐标是假设检验次数,纵坐标是P值。在坐标系中我们先以α/N为斜率画一条红线(P=α*k/N函数),然后将所有假设检验的P值分布在坐标系中,拒绝掉所有在红线下的P值(也就是≤α*k/...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最...
如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。 如下图所示,横坐标是假设检验次数,纵坐标是P值。在坐标系中我们先以α/N为斜率画一条红线(P=α*k/N函数),然后将所有假设检验的P值分布在坐标系中,拒绝掉所有在红线下的P值(也就是≤α*k/N的P值...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最终...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最...
控制错误发现率:Benjamini & Hochberg法 简称BH法。首先将各P值从小到大排序,生成顺序数 排第k的矫正P值=P×n/k 另外要保证矫正后的各检验的P值大小顺序不发生变化。 **怎么做**检验 R内置了一些方法来调整一系列p值,以控制多重比较谬误(Familywise error rate)或控制错误发现率。
Benjamini-Hochberg方法是一种非常有影响力的多重比较校正方法。它的基本思想是通过控制假阳性发现的比例来控制多重比较结果的准确性。其具体步骤如下: 1.对所有的p值按照升序排列。 2.对于每个p值,计算调整后的阈值,使用以下公式:调整后的阈值=(排序后的p值*N)/(当前的排序位置)。 这里N表示进行假设检验的总数...
Benjamini-Hochberg方法的基本思想是对所有的假设检验结果按照p值从小到大排序,然后计算每个p值对应的FDR阈值,使得所有p值小于该阈值的假阳性率不超过预设的FDR阈值。具体地,假设我们进行了m个假设检验,排序后的p值为$p_1,p_2,...,p_m$,预设的FDR阈值为$\alpha$,则对于每个$p_i$,计算其对应的FDR阈值为$...
执行FDR的一个例子——Benjamini-Hochberg方法 Benjamini-Hochberg方法其实很简单,计算也不繁琐,只需要2步即可: 将所有的p值按照大小顺序进行排序; 从最大p值开始计算,最大的数值没有变化, 剩余adj p.val计算方法为 其中,rank of p.val是每个p值的秩,Max rank是最大秩。
Holm、Hochberg、Hommel和Bonferroni方法控制了多重比较谬误(Familywise error rate)。这些方法试图限制错误发现的概率(I型错误,在没有实际效果时错误地拒绝无效假设),因此都是相对较保守的。 方法BH(Benjamini-Hochberg,与R中的FDR相同)和BY(Benjamini & Yekutieli)控制错误发现率,这些方法试图控制错误发现的期望比例。