如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。如下图所示,横坐标是假设检验次数,纵坐标是P值。在坐标系中我们先以α/N为斜率画一条红线(P=α*k/N函数),然后将所有假设检验的P值分布在坐标系中,拒绝掉所有在红线下的P值(也就是≤α*k/...
如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。 如下图所示,横坐标是假设检验次数,纵坐标是P值。在坐标系中我们先以α/N为斜率画一条红线(P=α*k/N函数),然后将所有假设检验的P值分布在坐标系中,拒绝掉所有在红线下的P值(也就是≤α*k/N的P值...
如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。 如下图所示,横坐标是假设检验次数,纵坐标是P值。在坐标系中我们先以α/N为斜率画一条红线(P=α*k/N函数),然后将所有假设检验的P值分布在坐标系中,拒绝掉所有在红线下的P值(也就是≤α*k/N的P值...
执行FDR的一个例子——Benjamini-Hochberg方法 Benjamini-Hochberg方法其实很简单,计算也不繁琐,只需要2步即可: 1.将所有的p值按照大小顺序进行排序; 2.从最大p值开始计算,最大的数值没有变化, 剩余adj p.val计算方法为 其中,rank of p.val是每个p值的秩,Max rank是最大秩。 以下图中数据为例,首先将p值按...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最终...
而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每一次假设检验都计算其P值,然后将计算出的P值按照从小到大的方式排序,接着从最小的P值开始,按照P(k)≤α*k/N进行比较,然后可以找到最大的第K个满足上述不等式的P值,最...
简单搜索了一下知乎,只有提到FDR的解释,还有介绍Benjamini-Hochberg的步骤,但似乎并没有帖子解释为什么用这个方法可以控制错误发现率(False discovery rate, FDR)。 首先一句话概括引入FDR的目的,即是在multiple hypothesis testing的情况下,对false positive加以控制,FDR没有FWER那么保守。详细的介绍可以移步至下面这个帖子...
Benjamini-Hochberg方法的基本思想是对所有的假设检验结果按照p值从小到大排序,然后计算每个p值对应的FDR阈值,使得所有p值小于该阈值的假阳性率不超过预设的FDR阈值。具体地,假设我们进行了m个假设检验,排序后的p值为$p_1,p_2,...,p_m$,预设的FDR阈值为$\alpha$,则对于每个$p_i$,计算其对应的FDR阈值为$...
benjamini and hochberg false discovery rate -回复 在统计学中,Benjamini和Hochberg提出了一种常用的多重比较校正方法,即False Discovery Rate(FDR)控制方法。FDR方法用于控制在多个假设检验中出现的错误发现率,以便更准确地确定哪些发现是真实的。 在进行多个假设检验时,通常会遇到两种类型的错误。第一种是第一类错误...
为了改善这些问题,Benjamini和Hochberg在1995年提出了一种新的方法,即Benjamini和Hochberg错误发现率(FDR)控制法。 第二步:FDR的定义和原理 错误发现率(FDR)是指被错误拒绝的假设中,实际为真实的概率。通俗地说,FDR是关于“错误发现”的概念,即我们实际上拒绝了正确的假设。 Benjamini和Hochberg的方法的核心思想是对...