研究工作

模型简称

区别上下文的方式

研究亮点

任务级别

Tang等人 [16]

TD-LSTM TC-LSTM

将上下文按照分成两部分; 将要素项表示和词嵌入表示合并作为输入

ATSC

Wang等人 [17]

AT-LSTM ATAE-LSTM

单层注意力

将注意力机制与LSTM模型结合

ACSC

Liu和Zhang [18]

BiLSTM-ATT BiLSTM-ATT-C

BiLSTM-ATT-G

单层注意力

采用双向LSTM模型;

将左右上下文与整句结合;

BiLSTM-ATT-G的门控单元

ATSC

Tang等人 [19]

MemNet

多层注意力

采用多层注意力机制; 应用端对端记忆网络; 内容信息和距离信息结合

ATSC

Ma等人 [20]

IAN

单层注意力

要素项和上下文交互;

分别计算要素项和上下文注意力;

ATSC

Chen等人 [21]

RAM

多层注意力

加权记忆机制;

将注意力结果与GRU结合

ATSC