冯洋,中科院计算所“新百星人才引进计划”入选者、2019年度“卓越之星”获得者、自然语言处理课题组负责人,主要研究方向为自然语言处理、机器翻译和人机对话。在中科院计算所获得博士学位后,先后在谢菲尔德大学和南加州大学信息科学研究所(USC/ISI)开展研究工作。获得ACL 2019最佳长文奖,为ACL开办57年来国内唯一获奖,获得...
冯洋,副研究员、博士生导师,中科院计算所“新百星人才引进计划”入选者、2019年度“卓越之星”获得者、自然语言处理课题组负责人,主要研究方向为自然语言处理、机器翻译和人机对话。在中科院计算所获得博士学位后,先后在谢菲尔德大学和南加州大学信息科学研究所(USC/ISI)开展研究工作。担任EMNLP、COLING等国内外会议领域共...
北京时间10月30日(周三)晚8点,在将门技术社群,我们很开心邀请到中科院计算技术研究所副研究员、博士生导师冯洋老师,她与大家分享的主题是“神经机器翻译的训练改进和解码提速”。 届时她将分享其团队如何解决机器翻译模型采用自注意力机制进行编码时出现的难题,包括改进训练和测试的分布不一致、解码速度受到影响。
本文为将门技术社群线上直播第176期的文字内容整理 分享嘉宾:中科院计算所副研究员 冯洋 感谢整理人:DataFun 殷鹏导 读当前机器翻译模型通常采用自注意力机制进行编码,训练时直接将Ground Truth词语用作上文,…
本文是对计算所冯洋组完成,被 AAAI2020 录用的论文《Modeling Fluency and Faithfulness for Diverse Neural Machine Translation》进行解读,相关工作已开源。 论文链接:https://arxiv.org/pdf/1912.00178.pdf 代码链接:https://github.com/ictnlp/DiverseNMT ...
下面介绍在解码方面的两个工作,第一个工作要解决的是beam search每一步要计算BeamSize*|V|的问题,这个计算量大大降低了inference时候解码的速度。 这是解码过程中每个步骤的时间消耗,对于GPU来说,大部分的时间消耗在的计算上,其它三个步骤比较节省时间,对于CPU来说,最耗费时间的是最后两个步骤,因为|V|比较大。
在2019年10月于甘肃敦煌召开的NLPCC 2019会议上,来自中国科学院计算技术研究所智能信息处理重点实验室自然语言处理团队的冯洋副研究员获得大会颁发的“青年新锐奖”。 自然语言处理与中文计算会议(NLPCC)是由中国计算机学会(CCF)主办的CCF自然语言处理与中文计算专业委员会年度学术会议,为CCF-C类会议。 NLPCC于2017年设立...
其中,青工委委员、中国科学院计算技术研究所冯洋研究员为唯一华人候选人。此次选举通过邮件通知,每个ACL会员可通过邮件中发送的Voter ID和Voter Key来进行投票。本次投票的截止日期为11月28日。 敬请大家踊跃投票,在国际学术组织中发出中国学者的声音。现任ACL会员或者注册过ACL、EMNLP、NAACL、...
其中,由中科院计算所张文、冯洋,腾讯孟凡东,伍斯特理工学院 Di You 和华为诺亚方舟实验室刘群合著的论文《Bridging the Gap between Training and Inference for Neural Machine Translation》获最佳长论文奖,该研究成果旨在弥合神经机器翻译在训练和推理过程之间的缺口。实验结果表明,该论文提出的方法在多个数据集上取得了...
10月30日,中科院计算所副研究员、博士生导师冯洋老师来到将门直播间,与大家分享了“神经机器翻译的训练改进和解码提速”。 直播中,她分享了其团队如何解决机器翻译模型采用自注意力机制进行编码时出现的难题,包括改进训练和测试的分布不一致、解码速度受到影响。