开源代码:github.com/yale-nlp/TOM 7.【多模态】Unified Triplet-Level Hallucination Evaluation for Large Vision-Language Models 论文地址:arxiv.org//pdf/2410.231 工程主页:kaichen1998.github.io/p 开源代码:github.com/wujunjie1998 8.【多模态】GRADE: Quantifying Sample Diversity in Text-to-Image...
3.【异常分割】(ICLR2024)MuSc: Zero-Shot Industrial Anomaly Classification and Segmentation with Mutual Scoring of the Unlabeled Images 论文地址:arxiv.org//pdf/2401.167 开源代码:github.com/xrli-U/MuSc 4.【多模态】MouSi: Poly-Visual-Expert Vision-Language Models 论文地址:arxiv.org//pdf/2401....
cs.CV: Computer Vision and Pattern Recognition计算机视觉与模式识别; cs.CL:Computation and Language 计算语言学; cs.LG:Learning机器学习(计算机科学); cs.AI:Artificial Intelligence人工智能; cs.NE:Neural and Evolutionary Computing 神经与演化计算; stat.ML:Machine Learning 机器学习(统计学) 2.paperwithco...
https://paperswithcode.com/sota/semantic-segmentation-on-ade20k-val 最近Transformer的文章眼花缭乱,但是精度和速度相较于CNN而言还是差点意思,直到Swin Transformer的出现,让人感觉到了一丝丝激动,Swin Transformer可能是CNN的完美替代方案。 作者分析表明,Transformer从NLP迁移到CV上没有大放异彩主要有两点原因: 1. ...
Code Latest commit History 246 Commits paper-reading https://github.com/nuaa-nlp/paper-reading/blob/main/README.md Guideline: paper reading讲解的时候要深入浅出,确保自己看懂了,再用通俗的话讲出来。关键是把文章工作讲清楚,motivation,方法部分,实验是否支撑,该工作的优点和缺点,对你个人工作的启发。最重...
Chinese Named Entity Recognition | Papers With Code 先看这个领域中在 公开数据集上的最佳方法,然后用这些方法做实验。 常见方法: IDCNN+CRF (2017-EMNLP) Bert+BiLSTM+CRF Bert_wwm+BiLSTM+CRF Flat-Lattice Transformer (2018-ACL) Lattice LSTM +crf (2018-ACL) ...
Please move to https://github.com/pkunlp-icler/FastV for latest updates FastV FastV is a plug-and-play inference acceleration method for large vision language models relying on visual tokens. It could reach 45% theoretical FLOPs reduction without harming the performance through pruning redundant...
Improved Neural Machine Translation with a Syntax-Aware Encoder and Decoder @Andy 推荐 #Neural Machine Translation 文章提出了 bidirectional tree encoder,可以同时学会译出语言的序列表达和树状表达特征。之后,解码器利用这些信息进行解码。 其次,提出了 tree-coverage model,使得注意力机制更有效地利用了译出语言的...
这些模块就像积木一样,可以按照自己的想法插入到模型中,构建出自己的模型结构。而且模块都是由大牛设计,性能非常强,能大大减少我们的工作量与模型复杂程度。 模块共65个:28个注意力机制模块、19个卷积模块、13个特征融合模块、和5个最新的Mamba模块! 想发paper的小伙伴们必备!扫下方二维码即可全部下载,无偿无套路。
这些模型在自然语言处理(NLP)领域比较成功。目前,它在 NLP 建模的时候,居于主导地位,几乎所有 NLP ...