DIV2K DIV2K:数据集有1000张高清图(2K分辨率),其中800张作为训练,100张作为验证,100张作为测试。 如下图 常规的SR训练,我们会需要 下载 X2、X3、X4、X8 以及原始 train 和 Validation 数据即可 数据分布: 下载链接: data.vision.ee.ethz.ch/cvl/DIV2K/ 更新于 2022 - 1 - 22 最近买了...
#XPixel团队提出混合注意力机制HAT:Transformer超分性能大涨1dB 作者提出了一种基于混合注意机制的Transformer (Hybrid Attention Transformer, HAT)。该方法结合了通道注意力,自注意力以及一种新提出的重叠交叉注意力等多种注意力机制。此外,还提出了使用更大的数据集在相同任务上进行预训练的策略。
Flickr2K_LR_bicubic: X2、X3、X4,目前缺少 X8 下载链接: http://cv.snu.ac.kr/research/EDSR/Flickr2K.tar 该链接复制到浏览器会直接开始下载,数据大小为20G ; 本分享是不是很实用呢 ? 📗 Flickr2K 云盘下载途径【补充】 如果Flickr2K datasets http://cv.snu.ac.kr/research/EDSR/Flickr2K.tar,小...
欢迎各位超分重建的小伙伴 Get 博主维新:bravePatch,加入 SR 讨论组,添加时备注 超分重建 即可 计算机视觉、超分重建、硕博士交流、正确打开方式 📕 DIV2K DIV2K:数据集有1000张高清图(2K分辨率),其中800张作为训练,100张作为验证,100张作为测试。 如下图 常规的SR训练,我们会需要 下载 X2、X3、X4、X8 以...