Font Size

Cpanel
简体中文(中国)English (UK)

我组同学赴澳大利亚墨尔本参加IJCAI 2017

人工智能顶级IJCAI 2017 (The 26th International Joint Conference on Artificial Intelligence) 819日到25日在澳大利亚墨尔本国际会展中心召开。我共有七篇文被会议录用。研究生涂存超、杨成、若冰及本科生正彦、朱昊参加了本次会并宣讲论文。被七篇文分是:

·      

Fast Network Embedding Enhancement via High Order Proximity Approximation (博士生成,指师孙茂松教授)针对表示学习问题提出一种基于高阶邻接度逼近的快速算法,能普遍提升已有网表示学算法的性能。

·       Joint Training for Pivot-based Neural Machine Translation (清交叉信息研究院访问博士生程勇,指师刘洋副教授、孙茂松教授),针对低资源语言的神经机器翻译提出了源语言-桥接语言和桥接语言-标语言翻模型的训练算法,增两个模型在参数估中的关性。

·       TransNet: Translation-Based Network Representation Learning for Social Relation Extraction (博士生涂存超和本科生正彦,指刘知助理教授、茂松教授),提出社会网中用关系抽取问题,成功地利用用表示的平移(Translating)思想表示用关系,实现关系的识别注。

·       Lexical Sememe Prediction via Word Embeddings and Matrix Factorization 士生若冰和本科生袁星,指刘知助理教授、茂松教授),提出面向HowNet预测,提出基于表示和矩分解的方法,能有效预测或短原信息。

·       Iterative Entity Alignment via Joint Knowledge Embeddings (本科生朱昊和研究生若冰,指刘知助理教授、孙茂松教授),针对异质知识图谱间的实体对齐问题,仅根据异质知识图谱的结构信息,提出利用知识的分布式表示学习在低维语义空间中有效实现实体对齐

·       Image-embodied Knowledge Representation Learning (研究生若冰,指刘知助理教授、茂松教授),针对的分布式表示学习问题,成功地引入体的像信息,著提升知表示能力。

·       Maximum Expected Likelihood Estimation for Zero-resource Neural Machine Translation(北京航空航天大学访问本科生豪,指刘洋副教授),针对源神机器翻提出最大期望似然估则训练实现在无数据情况下的直接翻建模,解了传统方法分段解所面错误传问题

IJCAI始于1969年,最初每2年举行一次,从2015年开始改为每年一次,是人工智能领域的顶级学术会议,被中国计算机学会推荐国际学术会议列表认定为A类会议,今年共收到2540篇论文投稿,再创历史新高,最终录用660篇,录用率26%

当前位置:Home 新闻列表 我组同学赴澳大利亚墨尔本参加IJCAI 2017