实际上,按照Benjamini-Hochberg方法,从小到大的顺序对p值进行排序,按照P(k)≤α*k/N进行比较,拒绝最小的P值,其中有116个H0为真的情况,也就意味着错误发现率FDR=116/947=0.12。如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。如下图所示,...
实际上,按照Benjamini-Hochberg方法,从小到大的顺序对p值进行排序,按照P(k)≤α*k/N进行比较,拒绝最小的P值,其中有116个H0为真的情况,也就意味着错误发现率FDR=116/947=0.12。 如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。 如下图所示,横坐标是...
错误发现率FDR(False discovery rate)是在所有结果显著的检验中,假阳(零假设H0为真时,拒绝H0的情况)所占的比率。如下表所示,N次假设检验中,FDR定义为V/R=V/(V+S)。 而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。 Benjamini-Hochberg 方法介绍 有N次假设检验,对每...
实际上,按照Benjamini-Hochberg方法,从小到大的顺序对p值进行排序,按照P(k)≤α*k/N进行比较,拒绝最小的P值,其中有116个H0为真的情况,也就意味着错误发现率FDR=116/947=0.12。 如果要控制FDR≤α=0.1,则可重新使用Benjamini-Hochberg方法,这次我们从更加图形可视化的角度来理解这个过程。 如下图所示,横坐标是...
错误发现率FDR(False discovery rate)是在所有结果显著的检验中,假阳(零假设H0为真时,拒绝H0的情况)所占的比率。如下表所示,N次假设检验中,FDR定义为V/R=V/(V+S)。 而经典的Benjamini-Hochberg (BH) 方法就是用于控制错误发现率FDR的一种方法,让FDR≤α。
简单搜索了一下知乎,只有提到FDR的解释,还有介绍Benjamini-Hochberg的步骤,但似乎并没有帖子解释为什么用这个方法可以控制错误发现率(False discovery rate, FDR)。 首先一句话概括引入FDR的目的,即是在multiple hypothesis testing的情况下,对false positive加以控制,FDR没有FWER那么保守。详细的介绍可以移步至下面这个帖子...
benjamini and hochberg false discovery rate -回复 在统计学中,Benjamini和Hochberg提出了一种常用的多重比较校正方法,即False Discovery Rate(FDR)控制方法。FDR方法用于控制在多个假设检验中出现的错误发现率,以便更准确地确定哪些发现是真实的。 在进行多个假设检验时,通常会遇到两种类型的错误。第一种是第一类错误...
在统计学和生物统计学中,Benjamini和Hochberg(BH)的假阳率(False Discovery Rate,FDR)是一种用于多重检验校正的统计方法。多重检验问题涉及在同时进行多个假设检验时,控制由于重复检验而产生的假阳性(Type I Error)的错误率。 多重检验问题通常出现在生物学、生物医学研究中,例如在基因表达数据分析、药物筛选实验等等...
Benjamini-Hochberg方法(BH方法)是一种控制假发现率(False Discovery Rate, FDR)的方法。与Bonferroni方法不同,BH方法不是为了严格控制整体错误率,而是允许一定比例的假阳性,以增加检验的统计效力。BH方法的步骤为: 首先,对所有p值按从小到大排序。 找到最大的k,使得 p(k)≤kmα。 判定前k个假设为显著(即拒绝...
执行FDR的一个例子——Benjamini-Hochberg方法 Benjamini-Hochberg方法其实很简单,计算也不繁琐,只需要2步即可: 将所有的p值按照大小顺序进行排序; 从最大p值开始计算,最大的数值没有变化, 剩余adj p.val计算方法为 其中,rank of p.val是每个p值的秩,Max rank是最大秩。