一.论文简介 来源:COLING2016 题目:《Effective lstms for target-dependent sentiment classification》 原文链接:aclweb.org/anthology/C1 参考代码:jimmyyfeng/TD-LSTM 文章针对target-dependent情感分析任务,在LSTM模型的基础上提出了两种改进的模型,分别是TC-LSTM与TD-LSTM。针对target-dependent情感分析任务,由于...
作者使用两个LSTM,一个从前到后输入左侧文本+target,另一个从后到前输入右侧文本+target。然后,作者将两个LSTM最后一个时间步的隐态向量拼接起来,送入softmax进行分类。 对于两个LSTM的最后一个隐态向量,也可以尝试将它们取平均或者相加。 2.3 Target-Connection LSTM(TC-LSTM) TD-LSTM不能很好地捕捉到target和上...
绿色框为检测结果,黄色框为真值。 论文:Temporal Dynamic Graph LSTM for Action-driven Video Object Detection 论文链接:https://arxiv.org/abs/1708.00666 摘要:在本论文中,我们探讨了弱监督目标检测框架。大多数现有框架着重于使用静态图来学习目标检测器,但由于域转移,这些检测器通常无法泛化至视频。因此,我们尝试...
如图6,TD-LSTM是以目标词为分界点利用两个LSTM,从目标词的左右向目标词方向进行上下文信息融合。具体来说,使用两个LSTM神经网络,一个左LSTM L和一个右LSTM R,分别对前面和后面的上下文进行建模。LSTM L的输入是前面的上下文加上目标字符串,LSTM R的输入是后面的上下文加上目标字符串。从左到右运行lstm l,从右...
在需要训练1e6步的任务中,我一般选择 宽度128、256,层数小于8的网络(请注意,乘以一个w算一层,一层LSTM等于2层)。使用ResNet等结构会有很小的提升。一般选择一个略微冗余的网络容量即可,把调整超参数的精力用在这上面不划算,我建议这些超参数都粗略地选择2的N次方,...
Chinese NER Using Lattice LSTM Lattice LSTM for Chinese NER. Character based LSTM with Lattice embeddings as input. Models and results can be found at our ACL 2018 paper Chinese NER Using Lattice LSTM. It achieves 93.18% F1-value on MSRA dataset, which is the state-of-the-art result on ...
TC-LSTM与TD-LSTM模型的区别是在TC-LSTM中,每个位置的输入是单词嵌入和目标向量v_target的连接。TC-LSTM可以更好地利用目标词和上下文词之间的联系来构建句子的表征。 图7 目标连接长短期记忆(TC-LSTM)模型用于目标依赖的情感分类,其中w代表长度为n的句子中的词,{w_l+1, w_l+2, ..., w_r-1}是目标词...
在需要训练1e6步的任务中,我一般选择 宽度128、256,层数小于8的网络(请注意,乘以一个w算一层,一层LSTM等于2层)。使用ResNet等结构会有很小的提升。一般选择一个略微冗余的网络容量即可,把调整超参数的精力用在这上面不划算,我建议这些超参数都粗略地选择2的N次方,...
在需要训练1e6步的任务中,我一般选择 宽度128、256,层数小于8的网络(请注意,乘以一个w算一层,一层LSTM等于2层)。使用ResNet等结构会有很小的提升。一般选择一个略微冗余的网络容量即可,把调整超参数的精力用在这上面不划算,我建议这些超参数都粗略地选择2的N次方,...
Within-context paths、Within-changes paths,其中Within-context paths代表AST树上开始的节点在修改代码中,结束节点不在修改的代码中的路径,Within-changes path代表AST树上开始和结束都在修改代码中的路径;最终以1:1的比例随机分别选取K个Within-context paths 和Within-context paths,来表征代码修改,输入Bi-LSTM完成...