研究工作 | 模型简称 | 区别上下文的方式 | 研究亮点 | 任务级别 |
Tang等人 [16] | TD-LSTM TC-LSTM | 无 | 将上下文按照分成两部分; 将要素项表示和词嵌入表示合并作为输入 | ATSC |
Wang等人 [17] | AT-LSTM ATAE-LSTM | 单层注意力 | 将注意力机制与LSTM模型结合 | ACSC |
Liu和Zhang [18] | BiLSTM-ATT BiLSTM-ATT-C BiLSTM-ATT-G | 单层注意力 | 采用双向LSTM模型; 将左右上下文与整句结合; BiLSTM-ATT-G的门控单元 | ATSC |
Tang等人 [19] | MemNet | 多层注意力 | 采用多层注意力机制; 应用端对端记忆网络; 内容信息和距离信息结合 | ATSC |
Ma等人 [20] | IAN | 单层注意力 | 要素项和上下文交互; 分别计算要素项和上下文注意力; | ATSC |
Chen等人 [21] | RAM | 多层注意力 | 加权记忆机制; 将注意力结果与GRU结合 | ATSC |