# 也可手动构造掩码 mask = self.embedding.compute_mask(inputs) output = self.lstm(x, mask=mask) # The layer will ignore the masked values return output //引入nlp中常用的transformers,这个是mask的transformers def scaled_dot_product_attention(q, k, v, mask): # query key 相乘获取匹配关系 ma...