还有就是 cross validation,由于是 4-fold,我每次重新划分训练集和验证集,具体的可以先把所有的训练资料存起来,然后每一轮训练的时候重新划分。 这样跑几轮,大概 2、3 个小时(当时我让epoch=25epoch=25),就跑出来 private 0.77 / public 0.79(所以后来四天我就让 public 提升了 0.02?) 感觉到 strong baseline...
python -m zipfile -c /kaggle/working/Dataset.zip/kaggle/input/ml2022spring-hw4/Dataset# copy数据集到output文件夹,此过程可能较慢importos os.chdir('/kaggle/working')print(os.getcwd())print(os.listdir("/kaggle/working"))fromIPython.displayimportFileLink FileLink('mycode.zip') 任务要求 Task1 ...
tta_model = tta.ClassificationTTAWrapper(model,transforms=tta.aliases.d4_transform(),merge_mode='mean') HW3的两个问题: 这个问题实际上在通过middle baseline的时候就写过了,这里就不多写了。 # 按照上述的图实现残差网络的连接 from torch import nn class Residual_Network(nn.Module): def __init__(...
李宏毅2022课程视频全部以线上视频的形式给出(已经全部录好,你可以选择短时间全部学完),上课时间会直播讲解额外的内容(可以不听)和作业(建议一定要做),目前已更新到作业三。 第三课主要内容是卷积神经网络(CNN),是目前图像处理中最重要的网络架构,详细内容见课程视频。 课程视频b站视频号:机器学习手艺人 网址:...
2021- 作业说明HW3 英文高画质有字幕 29:07 第四节 2021 - 自注意力机制(Self-attention)(上) 28:18 2021 - 自注意力机制 (Self-attention) (下) 45:57 (选修)To Learn More - Recurrent Neural Network (Part I) 48:59 (选修)To Learn More - Recurrent Neural Network (Part II) ...
第二节 Deep Learning 作业 HW2: Classification 第三节 Self-Attention 作业 HW3: CNN HW4: Self-Attention 第四节 Theory of ML 第五节 Transformer 作业 HW5: Transformer 第六节 Generative Model 作业 HW6: GAN 第七节 Self-Supervised Learning 作业 HW7: BERT HW8: Autoencoder ...
第二节 Deep Learning 作业 HW2: Classification第三节 Self-Attention 作业 HW3: CNN HW4: Self-Attention第四节 Theory of ML第五节 Transformer 作业 HW5: Transformer第六节 Generative Model 作业 HW6: GAN第七节 Self-Supervised Learning 作业 HW7: BERT HW8: Autoencoder第八节 Explainable AI / ...
2021- 作业说明HW3 中文低画质 24:55 2021- 作业说明HW3 英文高画质有字幕 29:07 第四节 2021 - 自注意力机制(Self-attention)(上) 28:18 2021 - 自注意力机制 (Self-attention) (下) 45:57 (选修)To Learn More - Recurrent Neural Network (Part I) 48:59 (选修)To Learn More - Recurrent Ne...
HW3 CNN Video slide code Kaggle HW4 Self-attention Video slide code Kaggle HW5 Transformer Video slide code JudgeBoi HW6 Generative Model Video slide code JudgeBoi 其他优质课程 名称链接 (高清重制)麻省理工学院 MIT 18.06 线性代数 视频地址 (强推)Python面向对象编程五步曲-从零到就业 视频地址...
第二节 Deep Learning 作业 HW2: Classification第三节 Self-Attention 作业 HW3: CNN HW4: Self-Attention第四节 Theory of ML第五节 Transformer 作业 HW5: Transformer第六节 Generative Model 作业 HW6: GAN第七节 Self-Supervised Learning 作业 HW7: BERT HW8: Autoencoder第八节 Explainable AI / ...