在理解上图前,先回顾一下传统注意力机制,也就是key-value-query模型,简单来说就可以理解为是一种加权和,具体可以参考理解 Attention 机制原理及模型[4]。 这里可以认为key=H, value=H, query=aspect embedding,整个 attention 的过程可以用数学表示为: ATAE-LSTM 为了进一步利用 aspect embedding 的信息,类似于上...