最新动态

我组多篇论文入选PaperDigest网站最有影响力论文列表

近日,著名论文摘要网站 PaperDigest 发布了各领域最有影响力的论文列表,我组共有 9 篇论文分别入选了 AAAI、ACL、IJCAI、EMNLP 最有影响力论文列表。PaperDigest 通过分析在国际重要会议上发表的所有论文,评选出每年最具影响力的 10 篇论文。 我组入选的 9 篇论文分别为: AAAI Representation Learning Of Knowledge Gr...
了解更多

您出上联,AI对下联——“九歌”对对子助您平添文化雅趣!

寒假匆匆将尽,抽空到通州一游。徜徉于标志性的燃灯古塔下,忽想起乾隆爷当年出的著名上联“南通州北通州南北通州通南北”,纪晓岚答以下联“东当铺西当铺东西当铺当东西”,于是乎龙心大悦,并对纪的才学大加赞赏。一时来了雅兴,试着把这个上联送入AI“九歌”对对子(简称九歌对对子)程序,看看是否还能得到新的下联。 九歌对对子给出了一个还算OK的下联: 之后又参观了位于通州的韩美林艺术馆。见到艺术家笔走龙蛇的一幅...
了解更多

新闻 | 我组专著入选Springer Nature 2020 Highlights,计算机领域仅6部入选

近日,我组2020年出版的英文专著《Representation Learning for Natural Language Processing》入选Springer Nature 2020 Highlights,计算机科学领域仅有6部入选。本书2020年7月出版至今下载量已超过26.1万次。 本书全面介绍了表示学习技术在自然语言处理领域的最新进展,对相关理论、方法和应用进行了深入介绍,并展望了...
了解更多

TsinghuaNLP实验室2020年度亮点成果回顾

前言 刚刚过去的 2020 年是不平静的一年。贯穿全年的新型冠状病毒肺炎疫情仍未平息,各类偶发事件也层出不穷。即便如此,TsinghuaNLP实验室仍在这一年中做出了许多有价值的成果。 下面,我们将从 古典诗词机器写作研究、复杂场景的知识获取研究、高效文本对抗攻击、法律智能、机器翻译、机器学习、大规模预训练模型、网络表示学习 几大主题回顾 TsinghuaNLP 实验室 2020 年度的亮点成果。...
了解更多

九歌与远方

作者 | 任敏 来源 | 北京日报 诉别离,它说,“离别恨难分,琵琶不忍闻。断肠空有泪,明月已无魂。” 忆荷塘,它说,“荷叶满池塘,月色波光聚。万顷琉璃漾碧漪,秋水澄清露。” 咏春日,它说,“三月初春雪未消,东风吹送柳丝飘。绿杨枝上莺声急,红杏梢头蝶梦遥。” 它是谁?它是“熟读”诗歌90万首,通晓平仄、押韵、对仗等“潜规则”,只需输入关键词句,即可在数秒之内出口成诗的人工智能机器人,名曰九歌。 这...
了解更多

新闻 | 我组2019届博士毕业生杨成荣获中国中文信息学会优秀博士学位论文奖

中国中文信息学会2020学术年会暨“钱伟长中文信息处理科学技术奖”颁奖仪式于2020年12月27日在京举行,会上宣布了中国中文信息学会2020年优秀博士学位论文奖获奖名单。我组2019届博士毕业生杨成(现北京邮电大学任教)荣获中国中文信息学会优秀博士学位论文,导师为孙茂松教授,博士论文题目《富信息网络表示学习及典型应用问题研究》。 论文聚焦于社会计算方向,重点研究结合文本等丰富信息的网络表示学习及...
了解更多

新闻 | 我组研究成果荣获中国中文信息学会“钱伟长中文信息处理科学技术奖”一等奖

近日,中国中文信息学会2020年 “钱伟长中文信息处理科学技术奖”获奖名单正式公布,我组研究成果“大规模中文词汇语义分析关键技术及其开源应用”荣获一等奖。项目主要完成人为孙茂松、刘知远、刘洋、杨麟儿、陈新雄、涂存超、李鹏、司宪策、乔维。 本项目以“大规模中文词汇语义分析关键技术及其开源应用”为目标,积二十余年的努力,全方位、系统性地探索了真实环境下中文词汇语义分析所涉及的一系列基本问题,提出了“互...
了解更多

我实验室博士生岂凡超荣获第二届中国研究生人工智能创新大赛冠军

2020年12月12日-14日,“华为杯”第二届中国研究生人工智能创新大赛全国总决赛在湖南长沙圆满落幕,我实验室博士生岂凡超凭借“在线反向词典”项目荣获冠军。“在线反向词典”项目是在孙茂松教授指导下完成的世界首个中文和跨语言反向词典,具有重要使用价值。 岂凡超做海报展示 本次大赛于2020年6月1日正式启动,共有来自203所高校的3625名参赛选手组成的1159支队伍报名,经线上初赛评审,最终共7...
了解更多

AI Open 预训练语言模型专刊征稿

2018 年 ELMo、BERT 和 GPT 的成功发布,表明了预训练语言模型(PLM)的成功,随后又在自然语言理解和生成方面取得了重大突破。 目前,在探索更有效的预训练架构方面,已经做了很多卓有成效的工作,比如使用跨模态数据、跨语言数据和结构化知识等方法改进预训练语言模型,或将 PLM 创新地应用于各种与 NLP 相关的任务。 为了更好的促进这一领域的发展和创新,期刊 AI Open 设置了题为...
了解更多
2
...