ACL 2020哈工大 SCIR实验室系列解读回放视频合集
- 2020 年 4 月 28 日
- AI
ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,我们推出「ACL 实验室系列论文解读」。我们第一个邀请到的实验室是哈工大 SCIR 实验室,进行了ACL 2020上三篇论文两个直播一个录播的分享。目前正在进行的是 ACL 2020 复旦大学系列解读,邀请了复旦大学自然语言处理组分享他们在 ACL2020 上的五篇文章。我们将继续邀请实验室进行分享,同时欢迎更多实验室参与分享,敬请期待!
作为国内顶尖的自然语言处理团队之一,哈工大社会计算与信息检索研究中心 (HIT-SCIR) 不负所望,延续8篇 EMNLP 2019 ,8篇 AAAI 2020 之后,在这次 ACL 2020 中再次有 8 篇论文录用,且皆为 long paper。
AI科技评论联合 HIT-SCIR,重磅推出「ACL 2020 -哈工大系列论文解读」,其中包括两场直播,一场录播,以及多篇文字解读内容。目前回放都已经上传,分别如下:
第一期:ACL 2020丨【哈工大 SCIR 实验室】:多领域端到端任务型对话系统
论文:Dynamic Fusion Network for Multi-Domain End-to-end Task-Oriented Dialog
作者:覃立波,徐啸,车万翔,张岳,刘挺
摘要:最近,端到端的任务型对话系统的研究已经取得了巨大的成功。但是,大多数神经网络模型都依赖于大量的训练数据,这些数据往往局限于一些特定的领域,例如导航和查询天气等领域。这使得现有模型很难泛化到标注数据以外的新领域下。并且,如何有效利用源领域的标注数据来提升较少标注数据的新领域,或者是没有标注数据的新领域的性能,这样的工作很少。因此,我们首次在端到端任务型对话系统中提出一个shared-private 框架去显式学习领域特有的和领域共享的知识。此外,我们提出了一种新颖的动态融合网络(DF-Net)来动态探索目标领域与每个领域之间的相关性。在两个公开的数据集上的实验结果表明我们的模型不仅达到SOTA性能,并且,在few-shot的场景下,我们模型的性能要比之前的最佳模型平均高13.9% F1 score,这进一步验证了我们模型的可迁移性。
回放链接://mooc.yanxishe.com/open/course/796
第二期:ACL 2020丨【哈工大 SCIR 实验室】:小样本下的槽位提取探索
论文:Few-shot Slot Tagging with Collapsed Dependency Transfer and Label-enhanced Task-adaptive Projection Network
作者:侯宇泰,车万翔,赖勇魁,周之涵,刘一佳,刘晗,刘挺
摘要:在本文中,我们研究了少样本槽位提取问题(Few-shot Slot-Tagging)。与其他广泛研究的少样本问题相比,少样本槽位提取面临着“建模标签间依赖关系”的独特挑战。但是,由于不同领域间存在标签集的差异,我们很难将先前学习的标签依赖应用于新的领域。为了解决这个问题,我们在CRF中引入了折叠的依赖关系迁移机制(Collapsed Dependency Transfer),通过建模抽象的标签依赖关系来实现这种迁移。在小样本和元学习的情景下,CRF的发射概率可以用利用度量学习得到:计算为单词与每个标签类别的相似度。为了计算这种相似性,我们在近期的图像小样本分类模型TapNet基础上,利用标签名称语义来表示标签,提出了一种标签增强的任务自适应投影网络(L-TapNet)。实验结果表明,我们的模型在1-shot实验中以14.14 F1的分数明显优于最强现有相关系统。
回放链接://mooc.yanxishe.com/open/course/795
第三期:ACL 2020丨【哈工大 SCIR 实验室】:生成、删除和重写:提高对话生成中人物角色一致性的三阶段框架
题目:Generate, Delete and Rewrite: A Three-Stage Framework for Improving Persona Consistency of Dialogue Generation
作者:宋皓宇,王琰,张伟男,刘晓江,刘挺
摘要:在对话过程中保持一致的角色属性信息对人类来说是很容易的,但对机器来说,这仍然是一项有待探索的任务。近几年,基于角色属性的对话生成任务被提出来,旨在通过在对话生成模型中加入显式的角色文本来解决属性一致性问题。虽然现有的基于角色的对话生成模型在生成类似人类的回复上取得了成功,但是它们的单阶段解码框架很难避免生成不一致的角色词。在这项工作中,我们提出了一个三阶段的对话生成框架。该框架使用生成-删除-重写机制从生成的原型回复中删除不一致的词语,然后进一步将其改写为属性信息一致的回复。我们通过人工评价和自动指标进行了评估。在PersonaChat数据集上的实验表明,我们的方法获得了非常好的性能。
回放地址://mooc.yanxishe.com/open/course/799
ACL 2020 实验室系列分享还在继续,还未进群的同学可以扫码关注[ AI研习社顶会小助手] 微信号,发送关键字“ACL 2020+直播”,即可进群观看直播和获取课程资料。