还有就是 cross validation,由于是 4-fold,我每次重新划分训练集和验证集,具体的可以先把所有的训练资料存起来,然后每一轮训练的时候重新划分。 这样跑几轮,大概 2、3 个小时(当时我让epoch=25epoch=25),就跑出来 private 0.77 / public 0.79(所以后来四天我就让 public 提升了 0.02?) 感觉到 strong baseline...
self.cnn_layer1 = nn.Sequential( nn.Conv2d(3, 64, 3, 1, 1), nn.BatchNorm2d(64), ) self.cnn_layer2 = nn.Sequential( nn.Conv2d(64, 64, 3, 1, 1), nn.BatchNorm2d(64), ) self.cnn_layer3 = nn.Sequential(nn.Conv2d(64, 128, 3, 2, 1),nn.BatchNorm2d(128), ) self.c...
李宏毅2022课程视频全部以线上视频的形式给出(已经全部录好,你可以选择短时间全部学完),上课时间会直播讲解额外的内容(可以不听)和作业(建议一定要做),目前已更新到作业三。 第三课主要内容是卷积神经网络(CNN),是目前图像处理中最重要的网络架构,详细内容见课程视频。 课程视频b站视频号:机器学习手艺人 网址:...
python -m zipfile -c /kaggle/working/Dataset.zip/kaggle/input/ml2022spring-hw4/Dataset# copy数据集到output文件夹,此过程可能较慢importos os.chdir('/kaggle/working')print(os.getcwd())print(os.listdir("/kaggle/working"))fromIPython.displayimportFileLink FileLink('mycode.zip') 任务要求 Task1 ...
2022 - 作业说明HW3 34:21 2021- 作业说明HW3 中文低画质 24:55 2021- 作业说明HW3 英文高画质有字幕 29:07 第四节 2021 - 自注意力机制(Self-attention)(上) 28:18 2021 - 自注意力机制 (Self-attention) (下) 45:57 (选修)To Learn More - Recurrent Neural Network (Part I) ...
第二节 Deep Learning 作业 HW2: Classification 第三节 Self-Attention 作业 HW3: CNN HW4: Self-Attention 第四节 Theory of ML 第五节 Transformer 作业 HW5: Transformer 第六节 Generative Model 作业 HW6: GAN 第七节 Self-Supervised Learning 作业 HW7: BERT HW8: Autoencoder ...
HW2虽迟但到!这一讲作业确实有难度,但主要是难在数据的处理上,模型构造和训练过程大同小异。收获还是很多,比如tensor的重构、模块化构造神经网络等。, 视频播放量 2099、弹幕量 14、点赞数 83、投硬币枚数 93、收藏人数 74、转发人数 7, 视频作者 在柏林墙徘徊, 作者简
李宏毅hw3 - - L三岁李的小天使吖于20200220发布在抖音,已经收获了34.6万个喜欢,来抖音,记录美好生活!
2021课程地址:https://speech.ee.ntu.edu.tw/~hylee/ml/2021-spring.html 2022课程地址:https://speech.ee.ntu.edu.tw/~hylee/ml/2022-spring.php 课件和资料Github版:https://github.com/Fafa-DL/Lhy_Machine_Learning 课件和资料Gitee版:https://gitee.com/zzhzwh/Lhy_Machine_Learning CSDN版https://...
3. 提高数据变换复杂度(0.77-->0.82)。4. 在网格训练过程中,从200个epoch左右开始达到0.805,至300个epoch时达到0.82的最优结果。5. 使用预定义的CNN模型,结合dropout和更深的网络结构。6. 加大训练量,以实现更好的泛化能力(0.82-->0.82)。在进一步的数据增强中,通过增加图像增强的...