LLM效率优化(高效微调等),模型量化 主会 Demo Industry Findings 多模态,多语种 主会 Demo Industry Findings QA,对话 主会 Demo Industry Findings 模型编辑,集成 主会 Demo Industry Findings 综述 主会 Demo Industry Findings 其他 主会 Demo Industry Findings 前言 ps: NLP顶会之一的EMNLP2023 LLM相关论文汇总...
ACL2023一共收录了137篇LLM相关文章(个人统计也许有遗漏)。对这些文章按照19个研究方向进行了分类(非严格分类,一篇文章可能属于多类)。其他类:关系抽取,上下文窗口,长度外推,搜索,代词解释,灾难性遗忘等 偏见,隐私,幻觉,道德规范,版权,毒性,后门主会DemoIndustryFindingsLLM推理能力,COT,提...
最近,大型语言模型(LLM)已经证明了上下文中的泛化能力:只需以少量上下文中的样例或简单的自然语言任务描述为条件即可执行下游任务(Brown等人,2020;Sun等人,2021)。尽管取得了这些进步,但人们发现,即使是最大的LLM也难以处理需要多个推理步骤的复杂任务(Rae等人,2021)。 为了解决复杂的任务,最近的工作表明,通过提示LLM执...
ACL2023:LLM大模型相关论文汇总分类 醒了 nlp在读研究生 前言ps: NLP顶会之一的EMNLP2023 LLM相关论文汇总如下: 大模型(LLM)异常火热,有哪些方向值得研究呢?为了便于了解LLM的研究动向,对NLP顶会之一ACL2023的LLM相关论文进行… 阅读全文 赞同 57 ...
ACL23 aspect相关工作 知乎用户YLfmOl [包含sentiment关键词的论文前文有,这里不展开] 主会:Bidirectional Generative Framework for Cross-domain Aspect-based Sent… ML/NLP论文分享-使用提示和自监督学习用于零样本文本分类-ACL-2023 胖鱼 AI研究,PhD在读 ...
如图一所示,当我们要验证 “John Nyskohus 曾经为挪威足球队 Odd Grenland 效力”时,我们先用 LLMs 生成一个验证问题 “John Nyskohus 曾经为哪些球队效力过?”根据验证问题,我们利用外部知识检索系统获取与验证问题相关的内容。 在该论文中,我们分别基于三种不同的知识检索系统进行了实验,包括 DrQA(开放域问答...
而PairRanker的排序结果在所有排序模型中取得的相关性最高,甚至超过BARTScore。GenFuser进一步提高PairRanker效果论文最后比较了整个LLM-Blender框架生成的回答的质量。LLM-Blender将PairRanker排序得到的前3个回答送入到GenFuser中进行融合生成。最终发现,融合生成的回答不仅在三个自动度量指标BARTScore等上取得了巨大的提升...
通过使用COSP方法生成的提示,LLM可以在零样本推理任务中获得更好的性能。具体而言,COSP方法可以帮助LLM在没有任何标签或样本的情况下进行推理和学习,从而提高模型的泛化能力。 「COSP优点总结」 COSP方法的优点在于可以自动地生成提示,同时保持提示的一致性和多样性,从而提高模型的泛化能力。与其他基于提示的方法相比,...
用于经典概念的描述、文献检索、提供新思路方面需要声明使用范围,且要确保相关表述是否来源于已有工作,注意相关引用。 ACL不鼓励完全使用AI助手生成新思路和新文本。 使用AI辅助生成代码,需要在代码描述文件中指出使用范围。 [1] https://icml.cc/Conferences/2023/llm-policy ...
▲图3 不同LLM规模下表现 ●在ChatGPT上的表现 在图4 中,GPT3 和 ChatGPT 利用 THOR 都在 ISA 上取得了显著的改进。同时发现,在 ESA 上的提升不是很明显。 ▲图4 分别在GPT3和ChatGPT下的表现 ● 错误分析 图5 展示了使用 THOR 时失败案例的错误率,我们总结了三种错误类型。Flan-T5-11B LLM 在 Zero...