第二,把BERT中NSP(预测下一个句子是否是下一句)替换为RCL(Response contrastive loss响应对比损失)。 这两个点后面会详细展开说,经过这样训练得到了TOD-BERT,在任务导向型对话的下游四个任务中都取得了超越当前SOTA的效果。其中包括,IR(意图识别),DST(对话状态追踪),DAP(对话行为预测),RS(响应选择)。 另外,文章...