新闻列表
赛尔原创@Findings | 基于动态图交互网络的多意图口语语言理解框架
本文录用于Findings of EMNLP2020, 针对多意图SLU任务,提出一种自适应图交互网络来自动捕获相关意图信息来进行每个单词的槽位填充。该模型在三个数据集上达到SOTA,在单意图数据集上超过前人模型,进一步验证模型的有效性。
赛尔原创@Findings | 中文预训练语言模型回顾
本文录用于Findings of EMNLP 2020。本文将主流预训练模型应用于中文场景并进行深度对比,并提出了基于文本纠错的预训练语言模型MacBERT,解决了预训练模型中“预训练-精调”不一致的问题,在多个中文任务上获得显著性能提升。
赛尔原创@Findings | 中文预训练语言模型回顾
本文录用于Findings of EMNLP 2020。本文将主流预训练模型应用于中文场景并进行深度对比,并提出了基于文本纠错的预训练语言模型MacBERT,解决了预训练模型中“预训练-精调”不一致的问题,在多个中文任务上获得显著性能提升。赛尔原创@EMNLP 2020 | 且回忆且学习:在更少的遗忘下精调深层预训练语言模型
本文录用于EMNLP 2020。本文提出且回忆且学习的机制,通过采用多任务学习同时学习预训练任\x0a务和目标任务,提出了预训练模拟机制和迁移机制。实验表明文章提出的方法在GLUE上达到了最优性能。
赛尔原创@EMNLP 2020 | 且回忆且学习:在更少的遗忘下精调深层预训练语言模型
本文录用于EMNLP 2020。本文提出且回忆且学习的机制,通过采用多任务学习同时学习预训练任\x0a务和目标任务,提出了预训练模拟机制和迁移机制。实验表明文章提出的方法在GLUE上达到了最优性能。赛尔原创|EMNLP 2020 融合自训练和自监督方法的无监督文本顺滑研究
本文录用于EMNLP 2020。在自然语言处理中,顺滑任务的目是识别出话语中自带的不流畅现象。本文融合了自训练和自监督两种学习方法,探索无监督的文本顺滑方法。实验结果表明,本方法在不使用有标注数据进行训练的情况下,取得了非常不错的性能。
赛尔原创|EMNLP 2020 融合自训练和自监督方法的无监督文本顺滑研究
本文录用于EMNLP 2020。在自然语言处理中,顺滑任务的目是识别出话语中自带的不流畅现象。本文融合了自训练和自监督两种学习方法,探索无监督的文本顺滑方法。实验结果表明,本方法在不使用有标注数据进行训练的情况下,取得了非常不错的性能。哈工大SCIR九篇长文被EMNLP 2020及子刊录用
EMNLP 2020(2020 Conference on Empirical Methods in Natural Language Processing)将于2020年11月16日至20日以在线会议的形式举办。EMNLP是计算语言学和自...
哈工大SCIR九篇长文被EMNLP 2020及子刊录用
EMNLP 2020(2020 Conference on Empirical Methods in Natural Language Processing)将于2020年11月16日至20日以在线会议的形式举办。EMNLP是计算语言学和自...哈工大SCIR六篇文章被COLING 2020录用
COLING 2020, the 28th International Conference on Computational Linguistics将于2020年12月8日至13日在线举行。COLING是自然语言处理领域的重要国际会议,每...
哈工大SCIR六篇文章被COLING 2020录用
COLING 2020, the 28th International Conference on Computational Linguistics将于2020年12月8日至13日在线举行。COLING是自然语言处理领域的重要国际会议,每...赛尔原创 | ACL20 让模型“事半功倍”,探究少样本序列标注方法
少样本学习是近年来的热点,但是针对对话等NLP具体问题的研究仍然方兴未艾。本文从对话语义槽标记问题入手,首次研究了少样本序列标注问题。我们提出坍缩依赖迁移机制和L-TapNet模型,取得了14.64 F1的大幅提升。
赛尔原创 | ACL20 让模型“事半功倍”,探究少样本序列标注方法
少样本学习是近年来的热点,但是针对对话等NLP具体问题的研究仍然方兴未艾。本文从对话语义槽标记问题入手,首次研究了少样本序列标注问题。我们提出坍缩依赖迁移机制和L-TapNet模型,取得了14.64 F1的大幅提升。赛尔原创 | ACL20 用于多领域端到端任务型对话系统的动态融合网络
本文录用于ACL2020。本文首次将 shared-private 应用在了多领域端到端对话任务中,并成功将表示用于query知识库提高性能,还提出了动态融合网络,有效地捕捉了领域间更细粒度的相关性,在低资源情况下也取得了很好的效果。
赛尔原创 | ACL20 用于多领域端到端任务型对话系统的动态融合网络
本文录用于ACL2020。本文首次将 shared-private 应用在了多领域端到端对话任务中,并成功将表示用于query知识库提高性能,还提出了动态融合网络,有效地捕捉了领域间更细粒度的相关性,在低资源情况下也取得了很好的效果。赛尔原创 | ACL20 基于图注意力网络的多粒度机器阅读理解文档建模
本文录用于ACL2020。在本文中,针对NQ数据集的两个粒度答案的特点,我们提出了基于BERT和图注意力网络的多粒度机器阅读理解框架,通过联合训练考虑NQ两个粒度答案之间的依赖关系,并且在NQ数据集上验证了方法的有效性。
赛尔原创 | ACL20 基于图注意力网络的多粒度机器阅读理解文档建模
本文录用于ACL2020。在本文中,针对NQ数据集的两个粒度答案的特点,我们提出了基于BERT和图注意力网络的多粒度机器阅读理解框架,通过联合训练考虑NQ两个粒度答案之间的依赖关系,并且在NQ数据集上验证了方法的有效性。赛尔原创 | ACL20 基于对话图谱的开放域多轮对话策略学习
本文录用于ACL2020。本文提出用图的形式捕捉对话转移规律作为先验信息,用于辅助开放域多轮对话策略学习,还提出了一个基于对话图的策略学习框架来指导回复生成。