ABSA经典论文
论文阅读&代码学习。
keras代码:https://github.com/AlexYangLi/ABSA_Keras
论文1
Effective LSTMs for Target-Dependent Sentiment Classification
与目标相关的情感分类仍然是一个挑战。本文开发了两个目标依赖的LSTM模型,其中目标信息被自动考虑在内。我们在Twitter的基准数据集上评估我们的方法。实证结果表明,使用标准的LSTM表达模型句子的效果并不好。将目标信息引入LSTM可以显著提高分类精度。与目标相关的LSTM模型在不使用语法分析器或外部情感词典的情况下实现了最先进的性能
TD-LSTM.png
定义:
其中是目标词,
,前上下文词,
后上下文词。
最上面:基本的LSTM模型。
中间: TD-LSTM,目标依赖的LSTM。
具体地说,我们使用两个LSTM神经网络,一个左向和一个右向
,分别对目标词前面和后面的上下文建模。左向输入左上下文+目标词,右向输入右上下文+目标词。都将目标词作为最后一个单元。
然后,将和
的最后一个隐藏向量进行拼接,并将其输入softmax层,对情感极性标签进行分类。人们也可以尝试平均或求和
和
的最后隐藏向量作为替代。
TC-LSTM.png
TC-LSTM:目标联系的LSTM。目标表示。
在上面基础上,加了,由目标词取均值得到。认为:能更好地利用目标词和上下文词之间的联系来构建句子的表示。
比较方法和结果
结果.png
论文2
Attention-based LSTM for Aspect-level Sentiment Classification
本文的主要贡献可以概括为以下几点:
- 提出了基于注意力机制的长短时记忆用于基于方面的情感分类。模型能够在句子的不同方面处理句子的不同部分。结果表明,注意力机制是有效的。
- 因为方面在这个任务中扮演着重要的角色,我们提出两种方法来考虑在注意力方面的信息:一种方法连接方面向量到句子的隐藏表示来进行权重的计算,另一种是额外添加方面向量到输入的单词向量中。
- 实验结果表明,本文提出的注意力机制在情感分类方面取得了较好的效果。
1.AT-LSTM
AT-LSTM.png
计算得到attention weight后,和隐藏层进行计算。
Attention vector的计算方式是拼接的方式,即以下公式的第三种。
参见:https://www.jianshu.com/p/841557506ab5
论文计算:
1605257610(1).png
最后句子的表示:
最后转换为条件概率分布:
在AE-LSTM中利用方面信息的方法是让方面嵌入在计算注意力权重中发挥作用。为了更好地利用方面信息,我们在每个单词输入向量中附加了嵌入的方面信息。
ATAE.png
实验对比
1605259309(1).png












网友评论