来自神经机器翻译(NMT)领域的Seq2seq模型已经在该领域的很多任务上取得了SOTA的结果,本文提出Code2seq模型,利用编程语言中的语法结构对源代码进行编码。该模型在代码片段的AST种提取一部分路径,进行LSTM编码后利用Attention生成目标序列。该模型在2个任务、2种编程语言、4个数据集上进行实验,取得了比之前的模型都好的...