实际上,按照Benjamini-Hochberg方法,从小到大的顺序对p值进行排序,按照P(k)≤α*k/N进行比较,拒绝最小的P值,其中有116个H0为真的情况,也就意味着错误发现率FDR=116/947=0.12。如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。如下图所示,...
执行FDR的一个例子——Benjamini-Hochberg方法 Benjamini-Hochberg方法其实很简单,计算也不繁琐,只需要2步即可: 1.将所有的p值按照大小顺序进行排序; 2.从最大p值开始计算,最大的数值没有变化, 剩余adj p.val计算方法为 其中,rank of p.val是每个p值的秩,Max rank是最大秩。 以下图中数据为例,首先将p值按...
实际上,按照Benjamini-Hochberg方法,从小到大的顺序对p值进行排序,按照P(k)≤α*k/N进行比较,拒绝最小的P值,其中有116个H0为真的情况,也就意味着错误发现率FDR=116/947=0.12。 如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。 如下图所示,横坐标是...
如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。 如下图所示,横坐标是假设检验次数,纵坐标是P值。在坐标系中我们先以α/N为斜率画一条红线(P=α*k/N函数),然后将所有假设检验的P值分布在坐标系中,拒绝掉所有在红线下的P值(也就是≤α*k/N的P值...
执行FDR的一个例子——Benjamini-Hochberg方法 Benjamini-Hochberg方法其实很简单,计算也不繁琐,只需要2步即可: 将所有的p值按照大小顺序进行排序; 从最大p值开始计算,最大的数值没有变化, 剩余adj p.val计算方法为 其中,rank of p.val是每个p值的秩,Max rank是最大秩。
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最终...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最...
简单搜索了一下知乎,只有提到FDR的解释,还有介绍Benjamini-Hochberg的步骤,但似乎并没有帖子解释为什么用这个方法可以控制错误发现率(False discovery rate, FDR)。 首先一句话概括引入FDR的目的,即是在multiple hypothesis testing的情况下,对false positive加以控制,FDR没有FWER那么保守。详细的介绍可以移步至下面这个帖子...
benjamini and hochberg false discovery rate -回复 在统计学中,Benjamini和Hochberg提出了一种常用的多重比较校正方法,即False Discovery Rate(FDR)控制方法。FDR方法用于控制在多个假设检验中出现的错误发现率,以便更准确地确定哪些发现是真实的。 在进行多个假设检验时,通常会遇到两种类型的错误。第一种是第一类错误...
使用BH FDR方法,我们能够在多个假设检验中更精确地控制伪阳性发现的概率。这为科学研究、医学诊断和其他领域的大数据分析提供了更可靠的结果和结论。 总之,Benjamini和Hochberg引入的虚警发现率在多重假设检验中有重要的作用。通过控制伪阳性的概率,我们能够在大规模数据分析中获得更可靠、更具有实际意义的结果。使用BH ...