1. 简称
论文《Global-Locally Self-Attentive Dialogue State Tracker》简称GLAD,作者Victor Zhong(Salesforce Research),经典的对话状态追踪论文。
2. 摘要
对话状态追踪是面向任务对话系统的重要组成部分,它在给定对话上下文情况下估计用户目标和请求。
本文中,我们提出了一种全局-局部自注意对话状态追踪(GLAD),它通过全局-局部模块学习用户话语和以前的系统动作的表示。
我们的模型使用全局模块来共享不同类型(称为槽)的对话状态的估计器之间的参数,并使用局部模块来学习槽特定的特征。
我们证明了,这改进了对稀有状态的追踪,并在WOZ和DSTC2状态跟踪任务上实现了最先进的性能。
- GLAD在WOZ上获得了88.1%的联合目标准确率和97.1%的请求准确率,比之前的工作分别高出3.7%和5.5%。
- GLAD在DSTC2上,我们的模型获得了74.5%的联合目标准确率和97.5%的请求准确率,比之前的工作分别提高了1.1%和1.0%。
3. 核心
3.1 数据集样例介绍
带有注释的回合状态的示例对话,用户在其中预订一家餐厅
对话状态跟踪(DST)是对话系统的重要组成部分。
在DST中,对话状态跟踪器。使用当前用户话语和会话历史来估计会话的状态。然后,对话系统使用这个已建立的状态来计划下一个动作并响应用户。
DST中的状态通常由一组请求和联合目标组成。
以餐厅预订任务为例:
-
在每一轮中,用户向系统通知他们想要实现的特定目标(e.g. inform(food=french)),或从系统请求更多信息(e.g. request(address))。在一个回合期间给定的目标和请求槽值对(e.g. (food,french),(request,address))的集合被称为回合目标和回合请求。
-
联合目标是截至当前回合的累积回合目标集。
3.2 Global-Locally Self-Attentive Encoder
Global-locally self-attentive encoder.
考虑相对于特定插槽对序列进行编码的过程。设
表示序列中的字数,
表示嵌入的维数,
表示与序列中的字相对应的字嵌入。
我们使用全局双向产生
的全局编码
。
其中是
状态的维度。
考虑到时隙,我们使用局部双向
类似地产生
的局部编码
。
两个的输出通过混合函数组合以产生
的全局-局部编码
。
这里,标量是特定于槽
的0和1之间的学习参数。接下来,我们计算
上的全局-局部自我注意上下文
。Self-attention或intra-attention是计算自然语言处理任务的可变长度序列上的摘要上下文的有效方法。
在我们的例子中,我们使用全局self-attention模块来计算对通用状态跟踪有用的注意力上下文,以及使用局部self-attention模块来计算特定于槽的注意力上下文。
对于每个第个元素
,我们计算标量self-attention得分
,该分数使用
函数在所有元素上进行次序归一化。
然后,全局self-attention上下文是每个元素
的总和,由对应的归一化全局self-attention得分
加权。
我们同样计算局部self-attention上下文。
全局-局部自我注意上下文c是混合的:
为了便于阐述,我们定义了多值编码器函数。
该函数将序列映射到编码
和自注意
(self-attention)上下文。
3.3 The Global-Locally Self-Attentive Dialogue State Tracker(Encoder module + Scoring module)
The Global-Locally Self-Attentive Dialogue State Tracker.
Encoding module:
定义了全局-局部自注意(self-attention)编码器之后,我们现在为用户话语(user utterence)、先前的系统操作(system actions)和考虑中的时隙-值(slot-value)对构建表示。
设表示用户话语的单词嵌入,
表示第
个先前系统动作的单词嵌入(e.g. request(price range)),并且
表示考虑中的那些时隙-值对(e.g. food=french)。
我们有:
Scoring module:
直观地,我们可以通过检查两个输入源来确定用户是否表达了所考虑的槽值对。
- 第一个来源是用户话语,其中用户直接陈述目标和请求。这方面的一个例子是,在系统询问“how may I help you?”
(“我有什么能帮你的吗?”)之后,用户说“how about a French restaurant in the centre of town?”(“市中心的一家法国餐馆怎么样?”)为了处理这些情况,我们确定话语是否指定了槽值对。即,我们关注用户话语,考虑被认为是
的时隙-值对,并使用所得到的注意力上下文
来对时隙-值对进行评分。
其中是用户话语中的字数。分数
指示用户话语表达该值的程度。
-
第二个来源是以前的系统操作。当用户话语没有提供足够的信息,而是引用以前的系统操作时,此来源具有信息性。这方面的一个例子是,在系统询问“would you like a restaurant in the
centre of town?”(“你想在市中心开一家餐馆吗?”)之后,用户说“yes”(“是”)。- 为了处理这些情况,我们在考虑用户话语之后检查以前的操作。首先,我们参考前面的动作表示
,考虑到当前用户话语
。
- 这里,
是以前系统操作的数量。
然后,我们利用注意上下文和时隙-值对
之间的相似性来对时隙-值对进行评分。
- 为了处理这些情况,我们在考虑用户话语之后检查以前的操作。首先,我们参考前面的动作表示
除了真实的动作之外,我们为每个回合引入了一个哨兵动作,这允许注意力机制忽略先前的系统动作。分数指示先前操作表达该值的程度。然后,最终分数
是两个分数
和
之间的加权和,通过
函数
进行归一化。
此处,权重是一个可学习参数。
4. 实验
评估结果1
评估结果2
5. 重点论文
- Tsung-Hsien Wen, David Vandyke, Nikola Mrksˇic ́, Milica Gasˇic ́, Lina M. Rojas Barahona, Pei-Hao Su, Stefan Ultes, and Steve Young. 2017. A network- based end-to-end trainable task-oriented dialogue system. In EACL.
- Nikola Mrksˇic ́, Diarmuid O Se ́aghdha, Tsung-Hsien Wen, Blaise Thomson, and Steve Young. 2017. Neural belief tracker: Data-driven dialogue state tracking. In ACL.
- Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Ben- gio. 2015. Neural machine translation by jointly learning to align and translate. In ICLR.
- Minh-Thang Luong, Hieu Pham, and Christopher D Manning. 2015. Effective approaches to attention- based neural machine translation. In ACL.
- Romain Paulus, Caiming Xiong, and Richard Socher. 2018. A deep reinforced model for abstractive sum- marization. In ICLR.
- Luheng He, Kenton Lee, Mike Lewis, and Luke Zettle- moyer. 2017. Deep semantic role labeling: What works and whats next. In ACL.
- Kenton Lee, Luheng He, Mike Lewis, and Luke S. Zettlemoyer. 2017. End-to-end neural coreference resolution. In EMNLP.
- Caiming Xiong, Victor Zhong, and Richard Socher. 2018. DCN+: Mixed objective and deep residual coattention for question answering. In ICLR.
- Julien Perez and Fei Liu. 2017. Dialog state tracking, a machine reading approach using memory network. In EACL.
- Nikola Mrksˇic ́, Diarmuid O Se ́aghdha, Blaise Thom- son, Milica Gasˇic ́, Pei-Hao Su, David Vandyke, Tsung-Hsien Wen, and Steve Young. 2015. Multi- domain dialog state tracking using recurrent neural networks. In ACL.
- Lukas Zilka and Filip Jurcicek. 2015. Incremental LSTM-based dialog state tracker. In Automatic Speech Recognition and Understanding Workshop (ASRU).
- Steve Young, Milica Gasˇic ́, Blaise Thomson, and Ja- son D Williams. 2013. POMDP-based statistical spoken dialog systems: A review. Proceedings of the IEEE 101(5).
6. 代码编写
本文源码地址:https://github.com/salesforce/glad
# 后续追加代码分析
参考文献
- Zhong, V., Xiong, C., & Socher, R. (2018). Global-Locally Self-Attentive Dialogue State Tracker. CoRR.












网友评论