在Prompt tunning 过程中,将 label text slot \text{Z} 的输入token 设置为 \text{[MASK]} ,目标是重构 annotation。 C-BERT 中文ner 的难点在于没有 explicit entity boundary , 研究已经证明为每个 token 融入词典信息可以缓解。 输入部分为 P-BERT 和 自己的 word embedding ,每个 token 编码维度为 H。
tuning使模型学习到下游各领域情感文本的特征.MSAPT仅需保存一个模型和一些参数量远远小于模型的prompt,实现了多领域情感分析.在多个属于不同领域的情感文本数据集上进行实验,结果表明仅进行prompt tuning时,MSAPT效果优于模型微调(model tuning)的.最后,分别对适应特定领域的prompt tuning,hard prompt,soft prompt的...
针对无法用一个模型进行高效多领域情感分析的问题,提出了基于提示微调(prompt tuning)的多领域文本情感分析方法MSAPT。借助hard prompt,指示情感文本的所属领域和待选的情感标签,调动不同领域情感分析相关的知识,再为情感分析预训练一个统一的“通才模型”,在下游的各领域文本学习中,保持模型冻结,通过prompt tuning使...
In order to solve the problem that one model cannot be used for multi-domain sentiment analysis, this paper proposes a multi-domain text sentiment analysis method based on prompt tuning, called MSAPT. With the help of hard prompts, indicating the domain of the emotional text and the selected...