最近,我组有7篇论文被人工智能领域顶级会议“人工智能国际联合大会”(International Joint Conference on Artificial Intelligence,IJCAI 2017)接收,它们分别是:
- Fast Network Embedding Enhancement via High Order Proximity Approximation (博士生杨成,指导教师孙茂松教授),针对网络表示学习问题提出一种基于高阶邻接度逼近的快速算法,能够普遍提升已有网络表示学习算法的性能。
- Joint Training for Pivot-based Neural Machine Translation (清华交叉信息研究院访问博士生程勇,指导教师刘洋副教授、孙茂松教授),针对低资源语言的神经机器翻译提出了源语言-桥接语言和桥接语言-目标语言翻译模型的联合训练算法,增强两个模型在参数估计中的关联性。
- TransNet: Translation-Based Network Representation Learning for Social Relation Extraction (博士生涂存超和本科生张正彦,指导教师刘知远助理教授、孙茂松教授),提出社会网络中用户关系抽取问题,成功地利用用户低维表示间的平移(Translating)思想表示用户关系,实现用户关系的识别与标注。
- Lexical Sememe Prediction via Word Embeddings and Matrix Factorization (硕士生谢若冰和本科生袁星驰,指导教师刘知远助理教授、孙茂松教授),提出面向HowNet的义原预测任务,提出基于词表示和矩阵分解的方法,能够有效预测新词或短语的义原信息。
- Iterative Entity Alignment via Joint Knowledge Embeddings (本科生朱昊和研究生谢若冰,指导教师刘知远助理教授、孙茂松教授),针对异质知识图谱间的实体对齐问题,仅根据异质知识图谱的结构信息,提出利用知识的分布式表示学习在低维语义空间中有效实现实体对齐。
- Image-embodied Knowledge Representation Learning (研究生谢若冰,指导教师刘知远助理教授、孙茂松教授),针对知识的分布式表示学习问题,成功地引入实体的图像信息,显著提升知识表示能力。
- Maximum Expected Likelihood Estimation for Zero-resource Neural Machine Translation(北京航空航天大学访问本科生郑豪,指导教师刘洋副教授),针对零资源神经机器翻译提出最大期望似然估计准则训练准则,实现在无标数据情况下的直接翻译建模,缓解了传统方法分段解码所面临的错误传播问题。
IJCAI始于1969年,最初每2年举行一次,从2015年开始改为每年一次,是人工智能领域的顶级学术会议,被中国计算机学会推荐国际学术会议列表认定为A类会议。IJCAI 2017将于8月下旬在澳大利亚墨尔本召开,今年共收到2540篇论文投稿,再创历史新高,最终录用660篇,录用率26%。