总结比较 MLP:最简单的前馈网络,不处理序列数据。 CNN:通过局部感受野和参数共享,擅长处理图像。 RNN:擅长处理序列数据,但难以捕捉长序列中的依赖关系。 Transformer:利用自注意力机制高效处理序列数据,解决了RNN的长距离依赖 问题,适用于需要复杂关系理解的任务。发布...
简单介绍一下神经网络的发展历史,以及各个模型的特征,包括感知器,MLP,CNN(LeNet, Alexnet, VGG), RNN, LSTM, transformer。视频里部分介绍transformer的图片来自b站up“NLP从入门到放弃”介绍关于transformer的slide,欢迎大家去看这个大佬的视频,介绍的非常详细,清晰。之后有空再做RL的书本解读或者论文解读,或者代码实...