最近,我组有5篇论文被“第54届国际计算语言学学会年会”(ACL 2016, http://acl2016.org/)录用为长文。它们分别是:
1. Minimum Risk Training for Neural Machine Translation。博士生沈世奇为第一作者,由刘洋、孙茂松老师指导。该论文为神经机器翻译提出了最小风险训练方法,能够直接针对评价指标优化神经网络参数,大幅度提升了基于深度学习的机器翻译的性能。
2. Agreement-based Learning of Parallel Lexicons and Phrases from Non-Parallel Corpora。硕士生柳春洋为第一作者,由刘洋、栾焕博、孙茂松老师指导。该论文研究如何从非平行语料库中自动抽取平行短语表和词典,通过基于一致性的训练方法显著提升了抽取准确率。
3. Semi-Supervised Learning for Neural Machine Translation。访问博士生程勇为第一作者,由刘洋、孙茂松老师指导。该论文为神经机器翻译提出了半监督学习方法,利用自动编码器将双向翻译模型在标注数据和未标注数据上关联起来,提升了神经机器翻译利用海量未标注数据的能力。
4. Neural Relation Extraction with Selective Attention over Instances。博士生林衍凯为第一作者,由刘知远、栾焕博、孙茂松老师指导。该论文针对远程监督关系抽取方法中的错误标注问题,提出了在句子层级采用选择性关注机制的模型。与现有神经网络模型相比,该模型不仅可以综合利用所有文本数据,而且可以降低错误标注数据的影响,抽取准确率取得显著提高。
5. Relation Classification via Multi-Level Attention CNNs。访问博士生王琳琳为第一作者,由刘知远老师指导。该论文针对关系分类问题提出了多关注机制的卷积神经网络,显著提升了关系分类效果。
ACL(Annual Meeting of the Association for Computational Linguistics)是自然语言处理领域的顶级国际会议,覆盖了语言分析、信息抽取、信息检索、自动问答、情感分析和观点挖掘、文摘和文本生成、文本分类和挖掘、面向Web2.0的自然语言处理、机器翻译、口语处理等众多研究方向。ACL被中国计算机学会推荐国际学术会议列表认定为A类会议。今年ACL将于8月7日-12日在德国柏林召开,今年共收到897篇投稿,录用率为25.8%。