可以看到,在我们的数据集上,CNN-BiLSTM-Attention模型表现最好,R2达到了0.93+,其次为没有加注意力机制的CNN-BiLSTM,R2为0.89,再次为没有CNN提取特征的BiLSTM模型和LSTM,这也说明我们的消融实验是非常成功的,能够增强文章中选用模型的说服力。 当然,不同数据集效果肯定有所不同,大家也可以自行调整参数获得更好