我组有7篇长文论文被自然语言处理顶级会议ACL 2017录用
2017-04-26

最近,我组有7篇长文论文被自然语言处理顶级会议“国际计算语言学学会年会”(ACL 2017, http://acl2017.org/)接收,它们分别是:

  • Adversarial Training for Unsupervised Bilingual Lexicon Induction,作者博士生张檬,指导教师刘洋副教授、孙茂松教授。该论文提出利用对抗学习从非平行文本自动构建双语词典,利用向量空间映射发现双语之间的关联性,克服了传统方法依赖于种子词典的缺点,显著提升了机器翻译处理低资源语言的能力。
  • Prior Knowledge Integration for Neural Machine Translation using Posterior Regularization,作者硕士生张嘉成,指导教师刘洋副教授、孙茂松教授。该论文利用后验正则化为离散表示先验知识与连续表示的神经网络相结合提供统一框架,能够在不改变神经网络架构的情况下以特征函数的形式添加任意先验知识。
  • Visualizing and Understanding Neural Machine Translation,作者硕士生丁延卓,指导教师刘洋副教授、孙茂松教授。该论文利用层级相关性传播可视化分析神经机器翻译,能够计算神经网络中任意两个节点的关联性,同时不要求神经网络中的函数必须可求偏导,为深入理解和调试神经机器翻译系统提供了重要的计算手段。
  • A Teacher-Student Framework for Zero-Resource Neural Machine Translation,作者香港大学访问博士生陈云,指导教师刘洋副教授。该论文为神经机器翻译的zero-shot学习提出了“教师-学生”框架,基于翻译等价性假设实现无标注数据下的翻译模型直接训练,克服了传统基于桥接语言的方法所面临的错误传播问题。
  • CANE: Context-Aware Network Embedding for Relation Modeling,作者博士生涂存超和东北大学本科生刘晗,指导教师刘知远助理教授、孙茂松教授。该论文针对网络表示学习问题,提出上下文敏感的网络节点表示学习模型,在社会网络链接预测等任务上表现优异。
  • Neural Relation Extraction with Multi-lingual Attention,作者博士生林衍凯,指导教师刘知远助理教授、孙茂松教授。该论文提出多语言场景下的关系抽取任务,将去年ACL 2016上提出的sentence-level attention思想扩展到了多语言场景下的multi-lingual attention,显著提升了多语言关系抽取性能。
  • Improved Word Representation Learning with Sememes,作者本科生牛艺霖和硕士生谢若冰,指导教师刘知远助理教授、孙茂松教授。该论文提出在词表示学习中引入HowNet标注的词语义原信息,发现义原对于复杂语境下的词义精确识别具有重要价值,赋予模型更好的区分能力和可解释性。 

ACL(Annual Meeting of the Association for Computational Linguistics)是自然语言处理领域的顶级国际会议,覆盖了语言分析、信息抽取、信息检索、自动问答、情感分析和观点挖掘、文摘和文本生成、文本分类和挖掘、社会计算、机器翻译、口语处理等众多研究方向。ACL被中国计算机学会推荐国际学术会议列表认定为A类会议。ACL 2017将于7月30日-8月4日在加拿大温哥华召开,今年共收到1419篇投稿(包括829篇长文投稿和590篇短文投稿),录用长文195篇、短文149篇,长文录用率为23.5%。